글로벌 선거제도, AI 디스인포메이션 도전에 대비하기

민주주의가 미묘한 위협을 직면하고 있습니다. 특히 인간과 동일하게 신뢰할 만한 텍스트, 이미지 및 비디오를 생성할 수 있는 지능적인 기술들이 선거와 공론에 점점 더 사용되고 있는 상황에서. 전 세계 인구의 40% 이상이 투표를 할 예정인 연도에, 정부 관계자들 사이에서 AI의 보이기 힘든 위협에 대한 걱정이 조용히 고조되고 있습니다.

인도네시아와 파키스탄 최근 선거에서 발생한 AI가 촉발시킨 혼돈의 놀랍지 않은 사건과는 상반되게, 기술의 미묘한 간섭 가능성에 대해 점점 더 인식이 증가하고 있습니다. 현재까지는 두려움이 실질적인 영향으로 나타나지 않았지만, 다양한 메시지를 대량으로 생성하는 생성형 AI 도구와 같은 사례는 과거에 소셜 미디어 플랫폼들을 괴롭혔던 설득 캠페인의 하이테크 버전과 유사하여 쉽게 발견하기 어렵게 만들고 있습니다.

AI로 생성된 잘못된 정보의 미묘함은 여러 가지 다양성에 있습니다. 그것은 이에 대해 제언한 이전 Meta Platforms Inc.의 위험 관리자였고 현재 소셜 미디어 전략에 조언하는 조시 로슨(Josh Lawson)이 강조한 것처럼 AI에 대한 대화의 대부분이 딥페이크와 시각적 측면에 집중되었다는 점에서, 로슨은 텍스트 기반의 잘못된 정보 캠페인이 더 확장 가능하고 추적이 어려울 수 있다고 강조합니다.

Meta의 WhatsApp은 “채널”과 같은 기능으로 이러한 작업을 용이하게 할 수 있습니다. 이는 심각하지 않은 행위자조차도 투표자 투표율을 억제하려는 목적으로 선거소 상황에 대해 더불어 거짓 정보를 제공하는 등의 일을 할 수 있게 합니다.

사회에 미치는 더 넓은 영향과 관련하여, 절반 이상의 미국인과 4분의 1의 영국 시민들이 이미 AI 도구를 시도하고 있는 상황입니다. 이 기술의 민주화는 일상적인 사람들이 알 수 없이 정보의 전달자가 될 수 있다는 것을 의미합니다.

이러한 도전에 대응하기 위해 Meta는 페이스북과 인스타그램을 거쳐 AI로 생성된 콘텐츠에 라벨을 부착하는 시작을 하였습니다. 하지만 이 전략은 일부 콘텐츠가 정품으로 가정되는 가짜 안전감을 만들어내는 위험이 있습니다.

게다가, 브라질의 2018년 선거에서 볼 수 있었던 것처럼, WhatsApp과 같은 메신저 플랫폼은 AI를 활용한 잘못된 정보 전파를 위한 중대 요충지가 될 수 있습니다. 더 명확한 콘텐츠 정책은 페이스북과 인스타그램에 적합한 선거 개입의 AI 남용에 대한 대응 정책과 유사한 정책을 구축하는데 기여할 수 있습니다.

합성 잡음과 의미있는 신호 사이의 경계가 흐려질수록, 기술 기업과 관리자들은 경계를 유지해야 합니다. 선거에서 뚜렷한 AI 방해가 없는 것은 안전을 의미하는 것이 아닙니다; 그 보다는, 미묘하지만 강력한 적에 대비한 준비의 절박함을 강조합니다.

Privacy policy
Contact