유해 이미지 링크 제거한 연구자들 인공 지능 분야의 연구자들이 AI 이미지 생성 도구의 훈련에 사용되는 잘 알려진 데이터 세트에서 아동 성학대를 묘사한 이미지에 대한 링크를 2000개 이상 제거하면서 결정적인 조치를 취했습니다.
텔레그램 채널에서의 지속적인 보도 최근 연합통신에 따른 보도에 따르면 선도적인 AI 이미지 생성자들의 소스로 사용된 대규모 온라인 이미지 및 주석 인덱스인 “라이언 리서치 데이터베이스”에 아동 성학대 이미지로 연결된 명백한 링크가 포함되어 있다는 것을 발견했습니다.
남용 대응을 위한 조치 지난 해, 스탠포드 인터넷 관측소의 연구에서 “라이언” 데이터베이스에 아동 성학대 이미지로 연결된 명백한 링크가 존재한다는 사실이 강조되었으며, 이는 일부 AI 도구가 현실적인 가짜 아동 이미지를 만들 수 있게 했습니다.
안전한 미래를 위한 협력적 노력 이러한 발견에 대한 응답으로 “라이언” 연구 데이터베이스는 신속하게 데이터 세트를 삭제했습니다. “라이언”은 스탠포드 대학 및 캐나다, 영국의 학대 방지 기구들과 협력하여 문제를 해결하고 향후 AI 연구를 위한 수정된 데이터 세트를 공개하기 위해 노력했습니다.
앞으로의 도전에 대응하기 상당한 개선이 인정되었지만 여전히 해로운 아동 이미지를 생성할 수 있는 “오염된 모델”을 제거하기 위해 추가 조치가 필요합니다. 어린이의 안전과 웰빙을 보장하기 위한 노력이 계속되고 있습니다.
산업의 책임과 책임성 “라이언” 데이터베이스와 연결된 AI 도구 중 하나인 “명확한 이미지 생성을 위한 가장 인기 있는 모델”로 확인된 AI 도구는 뉴욕의 한 회사에 의해 AI 모델 저장소에서 제거되었습니다. 이 회사는 AI 연구에서 윤리적 표준을 적극적으로 유지하는 중요성을 강조했습니다.
세계적으로 어린이를 보호하기 위해 기술 남용 문제를 해결하는 것은 계속되는 보고서와 연구 노력에서 강조되고 있습니다.