기관들이 여론 조작에 인공지능을 활용한다고 오픈에이아이가 보고서 발표

오픈AI, 챗지피티(ChatGPT)라고 알려진 대화형 AI 프로그램의 창조자, 러시아, 중국 및 기타 지역에 본사를 둔 여러 조직들을 확인했습니다. 이러한 조직들은 공론을 움직이기 위해 AI를 활용하는 것으로 보고되었습니다.

이러한 그룹들은 자신들의 정체성을 비밀로 유지하려고 하며, AI로 생성된 텍스트와 소셜 미디어 계정 생성, 프로그래밍 작업을 위해 AI를 활용했습니다. 그들의 작업에서는 러시아의 우크라이나 침공, 가자 갈파 갈등, 미국 정치 등 민감한 지정학적 문제에 초점을 맞추었습니다.

특히 중국 본사의 한 조직은 활동적이며, 일본 후쿠시마 다이이치 원전에서 처리된 물을 공개한 것에 비판하는 콘텐츠를 생성했습니다. 이 작업은 일본어로 된 온라인 게시물까지 이어졌습니다. 그러나 보고서에 따르면 이러한 AI가 생성한 메시지들은 소셜 미디어 플랫폼에서 상당한 조회수를 얻지 못했습니다.

또한 오픈AI는 AI 도구를 사용하여 프로파간딕 이미지를 생성하려는 시도가 소프트웨어에 거부당하는 경우가 있었다고 밝혔으며, 남용을 방지하기 위한 윤리적 안전장치를 강조했습니다. 오픈AI는 위협에 대한 보고서를 발표하면서 AI 사용을 모니터링하고 규제하여 이와 같은 조작적인 행위를 방지하는 중요성을 강조했습니다.

공정성 및 중요성:

AI를 사용하여 공론을 조작하는 것은 정치적 선거에 영향을 미칠 수 있으며, 주요 이슈에 대한 대중의 감정을 바꿀 수 있으며, 다른 그룹 간의 갈등을 부추길 수 있기 때문에 중요한 문제입니다. 딥 페이크나 설득적인 텍스트 작성용으로 개발된 AI 도구와 같은 인공 지능 도구는 대량으로 비정보를 보급할 수 있고, 인간의 능력을 훨씬 뛰어넘는 속도로 이를 수행할 수 있습니다.

핵심 질문과 대답:
조직들이 AI로 어떻게 공론을 조작하는가?
조직들은 AI를 사용하여 설득적인 텍스트를 생성하고, 현실적인 이미지 또는 비디오(딥페이크)를 조작하며, 가짜 소셜 미디어 프로필을 만들고, 잘못된 정보를 자동으로 확산시킵니다.

오픈AI는 어떻게 도구가 프로파간다에 사용되는 것을 막을까요?
오픈AI는 윤리적 안전장치와 감시 메커니즘을 구현하여 도구가 프로파간다나 잘못된 정보를 생성하지 못하도록 감지하고 막습니다.

조작을 규제하는 데 관련된 어떤 어려움이 있나요?
국제적 경계를 넘어 AI 도구와 기술이 확산되면 규제 적용이 어려워집니다. 또한 AI의 진화하는 능력은 효과적인 지배 프레임워크의 수립보다 빨라질 수 있습니다.

주요 도전과 논란:

AI를 사용하여 공론을 조작하는 문제를 해결하는 데 주요한 도전은 악의적인 활동을 특정 활동자에게 동일하게 할당하는 것입니다. 많은 사람들이 자신의 정체성을 감추거나 해외에서 운영하기 때문입니다. 또한 거짓 정보를 억제하는 필요성과 기술 기업과 국가 당국 간 콘텐츠 규제에 대한 역할에 대한 논쟁이 계속됩니다.

AI의 이점:
– 대중 의견 트렌드를 이해하기 위한 효율적인 데이터 처리 및 분석을 가능케 합니다.
– 합법적인 뉴스나 긴급 경보의 신속한 정보 전달을 용이하게 합니다.

AI의 단점:
– AI는 거짓된 내러티브를 확대하고 정교한 비정보 캠페인을 만들 수 있습니다.
– 언론 및 민주적 제도에 대한 신뢰 타락 우려를 제기합니다.

규제 노력 및 윤리 고려사항:
AI의 발전은 정치적 환경에서의 남용을 방지하기 위한 윤리적 사용 및 규제 조치에 대한 토론을 촉발했습니다. 전 세계적으로 조직과 정부가 AI가 도입하는 윤리적 도전에 대응하기 위해 정책을 개발하는 데 더 많은 주의를 기울이고 있습니다.

AI의 영향과 사회적 영향에 대한 자세한 내용을 보고 싶다면 다음 링크를 탐색해보세요:
OpenAI
유엔 디지털 협력
세계보건기구 (보건에 관련된 AI 문제)

The source of the article is from the blog foodnext.nl

Privacy policy
Contact