테크 거대 기업들, AI 개발에서 아동학대 콘텐츠에 통일된 입장을 표명

중요 기술 기업들인 Google, Meta 및 Microsoft와 같은 산업 리더를 포함한 주요 기술 기업들은 인공 지능 애플리케이션 내에 아동 성 학대 물질(CSAM)의 확산에 대항하기 위한 결정적인 조치를 취했습니다. 이러한 기업들은 OpenAI, Amazon 및 Anthropic 및 Civitai와 같은 수많은 성장 중인 AI 기업들과 함께 AI 훈련 데이터셋에서 CSAM을 근절하기 위해 집중적으로 지향된 엄격한 가이드라인에 합의했습니다.

합의된 프레임워크는 훈련 데이터를 세심하게 검토하여 CSAM이 없는지 확인하고, 그러한 자료가 포함될 위험성이 높은 데이터셋을 피하며, 사용하는 데이터셋에서 CSAM 이미지나 링크를 엄격히 삭제하는 것을 포함합니다. 데이터 관리 이상으로, 이러한 기술 거물들은 AI 제품의 집중적인 테스트를 통해, 기술이 CSAM 이미지를 생성하거나 지속하지 않도록 만드는 것을 확실히 하고 있습니다. 아동 안전 평가를 통과한 만큼만 AI 모델이 출시를 위해 승인됩니다.

이러한 기술 기업들 간의 협력은 인공 지능으로 생성된 CSAM에 의한 성장하는 과제에 대항하는 중요한 단계로 간주됩니다. 스탠퍼드 연구원들의 연구는 널리 사용되는 AI 훈련 데이터셋에 CSAM의 존재를 드러내며, 이 내용에 대항하기 위해 국립 실종 및 성사용 아동 센터의 노력에 부과되는 압박을 강조했습니다.

이러한 원칙에 대한 Google의 헌신을 강화하기 위해 Google은 그것에 고수할 뿐만 아니라 NCMEC에 대한 지원을 강화하여 광고 보조금을 늘렸습니다. 그렇게 함으로써, 그것은 대중 인식을 증폭시키고 학대 식별 및 신고를 위한 자원을 제공하기를 희망하며, 최근 블로그 게시물에서 Google의 신뢰와 안전 책임자인 Susan Jasper가 표현한 감정을 반영하고 있습니다.

주제와 관련된 중요한 질문과 그에 대한 답변들:

1. CSAM이란 무엇이며, 왜 기술 회사들이 이를 다뤄야 하는 중요한 이유인가요?
CSAM은 아동 성 학대 자료를 뜻합니다. 이는 아동의 권리를 심각하게 침해하는 것이며 불법입니다. 인터넷은 이러한 콘텐츠의 유포를 우연히 촉진할 수 있기 때문에, 기술 회사들은 자신들의 플랫폼과 기술이 이 문제에 기여하지 않도록 보장하는 책임이 있습니다.

2. AI 애플리케이션은 어떻게 CSAM을 확산시킬 수 있나요?
AI 애플리케이션은 이러한 자료가 포함된 데이터셋을 기반으로 훈련될 경우 우연히 CSAM을 확산시킬 수 있습니다. 더불어, AI는 이미지와 비디오를 생성하거나 변경하는 데 사용될 수 있으며, 이러한 점이 CSAM의 확산에 기여할 수 있습니다.

3. 기술 회사들이 AI 개발에서 CSAM을 예방하기 위해 직면하는 어려움은 무엇인가요?
어려움은 AI를 훈련시키기 위한 대규모 데이터가 CSAM이 없는 것을 보장하는 것, CSAM을 식별하고 제거하기 위한 정교한 검출 알고리즘 개발, 불법 콘텐츠의 확산을 대항하는 동시에 사용자의 개인정보를 보호하는 것, 그리고 범죄자들이 사용하는 발전하는 전술에 앞서가는 것 등이 포함됩니다.

주요 도전 또는 논란:

개인정보 우려: CSAM을 모니터링하고 제거하는 것과 개인 정보를 보호하는 사이에 섬세한 균형이 필요합니다. 어떤 사용자와 성명단체들은 잠재적인 과잉 개입과 사용자 개인 정보에 대한 영향에 대해 우려하고 있습니다.
검열: CSAM을 제거하기 위한 조치들은 때로 정치적이지 않은 콘텐츠를 잘못 감지하여 식별함으로써 검열과 콘텐츠 관리에 관한 논쟁으로 이어질 수 있습니다.
기술 효율성: AI 개선과 범죄자들의 검출을 회피하는 고도의 전문성 사이에 계속된 경쟁이 있습니다.

기술 거물들이 CSAM에 반대하는 것의 이점:

확산 감소: 훈련 데이터셋을 정리하기 위한 노력은 플랫폼 전역에서 CSAM의 확산을 상당히 줄일 수 있습니다.
기준 설정: 대형 기술 회사들은 중소 기업을 위한 산업 표준과 최상의 실천 방법을 설정할 수 있습니다.
인식 증대: 이 통일된 입장은 대중 인식을 높여 CSAM의 존재와 관련 문제에 대한 정보를 제공합니다.

단점:

비용: 데이터셋을 정리하고 엄격한 테스트를 실행하는 데 필요한 자원은 상당히 크며, 다른 개발을 방해할 수 있습니다.
잘못된 양성: 과도한 필터링으로 잘못된 자료를 식별하거나 삭제할 수 있으며, 표현의 자유와 다른 법적 활동에 영향을 끼칠 수 있습니다.

주요 주제와 관련된 링크는 이니셔티브에 참여하고 있는 회사들과 관련성이 있을 가능성이 있는 이러한 기술 기업들의 주요 도메인에서 발견할 수 있습니다:
Google
Meta (Facebook)
Microsoft
OpenAI
Amazon

현재 URL은 100% 유효해야 하며, 언급된 기업들과 관련이 있어야 합니다.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact