스칼렛 요한슨과 AI 음성 논란

스칼렛 요한슨, 유명한 미국 배우,는 인공지능 애플리케이션 ChatGPT의 목소리가 자신과 놀랍게 닮았음을 발견한 후 놀라움과 짜증을 느꼈습니다. 이 플랫폼의 창조자인 OpenAI는 요한슨의 닮은 목소리를 나타내는 “Sky”라는 목소리 사용을 중단하기로 결정했습니다.

문제는 사용자들이 최근의 업데이트 이후 ChatGPT 챗봇을 대화식으로 만들기 위한 시도에서 요한슨의 목소리와 Sky 목소리 옵션 간의 유사성을 발견한 것으로 나타났습니다. 2013년 영화 “Her”에서 인공지능 인터페이스에 자신의 목소리를 빌렸던 요한슨은 새로운 인공지능 시스템의 목소리가 자신과 뚜렷한 유사성을 보인 데에 놀라웠습니다. 그 정도가 심하여 친구들이나 언론마저 둘을 구별하기 어려웠습니다.

OpenAI는 이 문제에 대한 대처를 공개적으로 발표해, 요한슨의 독특한 목소리를 흉내내려 하지 않았다고 밝혔으며 해당 목소리가 다른 여배우의 것임을 주장했습니다. 그들은 인공지능 목소리를 선택하는 과정이 전문적인 배우들과 산업 전문가들을 5개월 동안 관여시켜 철저히 진행되었음을 강조했습니다.

그러나 요한슨은 OpenAI의 CEO가 이전에 자신의 목소리를 시스템에 사용하겠다는 제안으로 접근했다고 공개했으며, 사용자가 AI와 상호 작용할 때 불편함을 줄일 것이라고 제안했습니다. 개인적인 고려를 거쳐 그 제안을 거절했습니다. 몇 달 후 발견된 Sky 목소리의 자신과의 유사성으로 요한슨은 법적 조치를 취하도록 강요하며, OpenAI는 마침내 이 목소리를 사용하면서 즉시 철수했습니다.

회사는 인공지능 목소리가 명사의 독특한 목소리를 일부러 흉내내면 안 된다고 주장했으며, 개인 정보를 보호하고자 한 목소리 아티스트를 공개하지 않겠다고 밝혔습니다. 한편, OpenAI는 대화식 언어 능력에서 발전을 이룬 자사 최신 인공지능 모델인 GPT-4o를 소개했습니다.

AI 목소리 모방의 법적과 윤리적 함의

명사와 유사한 목소리를 AI 애플리케이션에서 사용하는데 따른 주요 과제는 법적 및 윤리적 문제에 주목하는 것입니다. 기술이 목소리를 높은 정확도로 복제할 수 있게 하는 데에는 한계가 있는데, 그 경계는 영감과 침해 사이에 어디에 있는지에 대한 의문이 생깁니다. 스칼렛 요한슨의 사례는 인공지능 시대에 지적재산권에 대한 명확한 지침과 규제가 필요함을 강조합니다.

대중의 AI 기술에 대한 인식과 신뢰

또 하나의 논란이 되는 부분은 이 유사성이 대중이 가진 AI 기술에 대한 신뢰에 미치는 영향입니다. 명확한 동의 없이 유명 인물과 비슷한 목소리를 사용하는 것은 사용자들 사이에 믿음을 상실하게 만들 수 있으며, 딥페이크 사기나 오도된 지지에 대한 우려 등 프라이버시 문제를 던질 수 있습니다.

명사와 비슷한 목소리 사용의 장단점

유명인의 목소리와 유사한 목소리를 사용하는 것은 이론적으로 AI 시스템을 사용자들에게 더 매력적이고 공감 가능하게 만들 수 있으며, 결과적으로 사용자 참여도를 높일 수 있습니다. 그러나 잠재적인 단점은 법적 위험, 윤리적 문제 및 동의 없이 해당 목소리를 사용하면 AI 개발자의 평판을 손상시키고 불신을 불러일으켜 산업의 성장을 제약할 수 있다는 것입니다.

OpenAI의 가이드라인 및 GPT-4o와 같은 자사의 혁신에 대한 자세한 정보는 공식 웹사이트인 OpenAI에서 확인할 수 있습니다.

Privacy policy
Contact