인공지능과 선거 투명성: 새로운 관점

메타 플랫폼스 주식회사가 인공지능(AI)에 의한 동요가 선거 투명성에 위협이 될 수 있는지에 관한 문제에 대한 압력에 직면하고 있습니다. 회사의 리더들은 잠재적인 위험을 인정하지만 서비스에서 AI에 의한 중요한 간섭을 아직 목격하지 못했다고 주장하고 있습니다. 메타의 글로벌 사업 책임자 닉 클레그는 최근 런던에서 개최된 행사에서 자신의 관찰을 표현했습니다. 그러나 AI 생성 콘텐츠가 유권자들을 오도하거나 소셜 미디어에서 잘못된 정보를 퍼뜨릴 수 있다는 우려는 전문가들 사이에 여전히 존재합니다.

2024년 주요 세계 선거를 위한 준비가 가속화되는 가운데, 현실적인 이미지, 비디오, 오디오 클립을 만들 수 있는 AI 도구의 빠른 발전은 복잡성을 가중시킵니다. 올해 초 뉴햄프셔의 수천 명의 유권자들에게 미국 대통령 조 바이든의 가짜 오디오가 유포된 사건은 경고의 사례로 작용했습니다. 이로 인해 메타는 자사의 AI 도구를 사용하여 만들어졌는지에 관계없이 Facebook 및 관련 플랫폼 상의 모든 AI 생성 콘텐츠에 라벨을 붙이기로 발표했습니다.

닉 클레그는 기술 부문이 AI 생성 미디어를 조절하기 위한 표준을 정립할 것이라는 낙관론을 표명했습니다. 경계심이 필요하다고 인정하면서도 AI가 이러한 도전에 대처하기 위한 강력한 도구로 작용할 수 있다고 강조했습니다. AI의 잠재력을 활용하고 선거 투명성을 보호하는 데 책임있는 사용을 보장하기 위한 균형을 맞추는 것이 중요합니다.

행사에서 메타 경영진은 Instagram 및 Ray-Ban과 같은 증강 현실 안경을 비롯한 다양한 제품에 통합된 회사의 다양한 AI 모델을 소개했습니다. 메타는 캘리포니아의 소수 기업들에 의한 독점화를 방지하기 위해 AI의 오픈 소스를 적극적으로 지지해 왔습니다.

또한 메타는 주요 모델 Llama의 업데이트 버전을 다음 달에 출시할 계획이며, AI 챗봇을 더 많은 제품에 통합하기를 목표로 하고 있습니다. 메타의 수석 과학자인 얀 르쿤은 모든 상호 작용이 AI 어시스턴트를 통해 중재되는 세상을 상상하고 있습니다.

투명성을 유지하기 위해 메타의 라벨링 정책은 AI 챗봇 기능으로 확대될 것입니다. 예를 들어 WhatsApp에서 AI 챗봇과의 대화는 명확하게 표시될 것입니다. 그러나 메타의 최고 제품 책임자인 크리스 콕스는 Facebook 및 Instagram 피드의 AI 생성 미디어는 여전히 미미한 부분을 차지한다고 설명했습니다.

선거에서의 AI의 잠재적 위협에 대처하기 위해 노력이 기울여지고 있지만 개인과 사회가 경계심을 유지하는 것이 중요합니다. AI를 효과적으로 활용하고 책임 있는 실천을 실시함으로써 산업은 민주적 프로세스의 투명성을 보호하면서 그 이점을 활용할 수 있습니다.

자주 묻는 질문

The source of the article is from the blog exofeed.nl

Privacy policy
Contact