고급 인공지능 시대에 영상의 신빙성 해독

AI의 발전으로 인한 기만적 시각물 생성은 선거 공정성을 위협할 수 있습니다

세계가 2024년 주요 선거에 다가감에 따라, 6월에 열리는 유럽 선거, 9월에 사크센, 투링엔, 브란덴부르크 독일 산하 지역 선거, 그리고 도널드 트럼프와 조 바이든이 유력한 후보로 서로 맞붙는 11월 미국 대통령 선거를 포함하여, AI 생성 이미지를 통한 선거 디스인포메이션 문제가 점점 더 긴밀해지고 있습니다.

AI의 발전이 위조물 감지 문제를 심화시키고 있습니다

현대 AI 모델은 현재 매우 설득력 있는 가공 이미지, 비디오, 그리고 딥페이크를 생산하고 있으며, 이는 디스인포메이션 위험을 점점 더 높이고 있습니다. 미국 선거 이전에 주요 AI 기업들이 이 문제를 해결하기로 약속했음에도 불구하고, Midjourney, Stability AI의 DreamStudio, OpenAI의 ChatGPT Plus, 그리고 Microsoft의 Image Creator와 같은 인기 있는 AI 이미지 도구들은 테스트에서 실패를 겪으며, 선거 결과에 영향을 줄 수 있는 잘못된 이미지를 만들기 위해 조작된 것들로 나타났습니다.

인간의 감지 능력은 AI의 복잡성에 눌릴 수 있습니다

워터루 대학은 연구를 통해 AI 생성 형태가 예상 이상으로 사람들이 진짜 얼굴과 AI 생성 얼굴을 구별하는 데 어려움을 겪는 것을 밝혀냈습니다. 260명의 참가자 중 61%만이 예상되는 85% 성공률에 따라 구별할 수 있었습니다.

AI 조작 이미지 발견을 위한 주요 지표들

Fraunhofer 연구소의 AI 전문가 Marco Huber 교수는 딥페이크 인간 이미지에서 찾아야 할 징후를 나열하며 다음과 같은 것들이 있습니다:
– 비대칭적인 빛 반사, 비자연스러운 눈동자 모양, 그리고 눈 주위의 래쉬와 주름의 불규칙한 진행.
– 귓형의 불균형, 비자연스러운 귀걸이나 귀밑.
– 머리카락이 두피와 분리되거나 떠다니는 머리카락, 비자연스러운 굵은 머리카락 앞부분.
– 불규칙하거나 왜곡된 안경테, 정렬되지 않은 코패드.
– 입술과 이를 가린 틈새가 흐린 트랜지션 또는 비자연스러운 이빨 모양.
– 인공적인 손 또는 손가락 자세, 잘못된 손가락 갯수.
– 비대칭 셔츠 또는 블라우스 칼라, 피부에 묻힌 목걸이, 잘못된 문자가 적힌 변형된 모자.
– 일관된 피부 색상 진행.
– 불안정한 배경 지속 또는 아티팩트 존재.

PCMag는 이미지 확대 방법을 제안하며 흩어진 픽셀, 이상한 윤곽, 부정확하게 배치된 모양, 흐린 배경을 발견하는 데 철저히 zoom-in 할 것을 권합니다. “어느 얼굴이 진짜일까”와 같은 자원은 대중들에게 진짜 얼굴과 AI가 만든 얼굴을 테스트할 기회를 제공합니다.

탐지를 지원하는 온라인 도구들

의심스런 사람들을 위해 최신 AI 기술 기반의 “AI or Not”와 “Hive Moderation”과 같은 도구들이 AI로 만들어진 이미지를 식별할 것을 약속합니다. Intel의 FakeCatcher도 딥페이크를 발견하는 데 96% 정확도를 주장합니다. 그러나 사용자는 이러한 도구를 신중하게 사용해야 합니다 – 결과가 오류가 있을 수 있으며 의심스러운 이미지를 주의 깊게 검토하는 것이 중요합니다.

딥페이크와 불법 정보: 민주주의에 대한 도전

AI 기술의 급속한 발전으로 딥페이크는 민주주의 프로세스의 무결성에 대한 중대한 위협이 되었습니다. 이 현실적인 AI 생성 이미지와 비디오는 현실을 왜곡하고 설득력 있는 거짓 이야기를 만들어 낼 수 있습니다. 다가오는 선거와 같은 정치적 맥락에서 딥페이크는 유권자들을 속이고 공중 의견을 조작하며 정치적 불안을 일으킬 수 있습니다.

AI로 생성된 가짜물 찾기: 방법과 한계

AI의 발전에도 불구하고 딥페이크 생성과 탐지 사이의 경쟁은 계속되고 있습니다. 연구원들과 기업들은 이미지의 원본을 추적하고 AI 콘텐츠에 내재된 패턴을 분석하며 조작을 감지하기 위한 도구들을 개발하고 있습니다. 반전 이미지 검색, 이미지에 대한 블록체인 확인, 디지털 워터마킹과 같은 기술들은 유용함을 입증하고 있습니다. 그러나 탐지 방법들은 AI 생성 위조의 빠른 발전에 뒤처지지 못할 수도 있습니다.

딥페이크의 법적 윤리적 도전

딥페이크의 창조와 보급은 무분별한 피해 예방을 위한 필요와 자유 언론 및 개인 권리를 지키는 데 필요한 윤리적 딜레마를 야기하고 있습니다. 정부와 기술 플랫폼은 개인 권리 침해 없이 AI로 만든 콘텐츠의 창조와 공유를 규제하는 방법에 대해 논의 중에 있습니다.

이미지에서의 AI의 장단점

장점:
– AI는 엔터테인먼트, 예술 및 교육 목적으로 실제적인 이미지를 빠르게 생성할 수 있습니다.
– 건축 또는 제품 디자인과 같은 전문 작업은 AI의 개념 시각화 능력으로 혜택을 받을 수 있습니다.
– AI 기반 도구는 합성 이미지를 탐지하고 사기로부터 보호하는 등 보안 조치를 개선할 수 있습니다.

단점:
– AI 생성 이미지는 증거를 조작하거나 거짓 이야기를 만드는 데 사용될 수 있습니다.
– 악의적으로 사용될 때 미디어와 기관에 대한 대중의 신뢰를 저해할 수 있습니다.
– 딥페이크의 무차별적 전파는 선거 결과에도 영향을 줄 수 있는 사회적 및 정치적 결과를 초래할 수 있습니다.

AI의 발전 및 응용 프로그램에 대한 자세한 정보는 다음 도메인을 방문할 수 있습니다:

OpenAI
NVIDIA
Intel
PCMag

요약하자면, AI가 계속해서 진화함에 따라, 진짜 이미지를 식별하는 과제도 별개로 커져가며, 민주주의의 성격을 보존하기 위해 AI 생성 디스인포메이션을 대응할 강력한 도구와 법적 프레임워크 개발이 필수적입니다.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact