대선 미션마침, 디지털 여론의 목소리를 듣다

인도 정부가 주요 기술 기업들과 협력하여 디지털 공간에서 증가하는 AI로 생성된 잘못된 정보에 대응하고자 합의했습니다. 인도 IT 장관 Vaishnaw는 구글, 메타 (페이스북으로 더 잘 알려진 회사) 및 기타 주요 기업 대표와의 회의를 확인했으며, 이에 대한 결과는 Mint의 질의에 대한 응답으로 공개되었습니다.

예방 조치의 필요성을 인식한 구글과 메타는 ChatGPT, 페이스북, 구글 검색, 인스타그램, WhatsApp 및 YouTube와 같은 다양한 플랫폼에서 AI로 왜곡된 콘텐츠 및 광고를 다루는 가이드라인을 공개했습니다. 이러한 지침은 AI로 생성된 콘텐츠에 라벨을 붙이는 중요성과 2024년 총선에 관련된 정치인, 정당 및 의견과 관련된 검색 결과 생성에 AI 사용을 제한하는 점을 강조했습니다.

포토샵 제작사인 Adobe는 Firefly라는 생성 도구에 대해 신중한 접근을 취했습니다. Adobe의 내용 진정성 이니셔티브의 시니어 디렉터인 Andy Parsons는 정치 캠페인을 위해 이미지를 조작하거나 생성하는 것을 방지하겠다는 회사의 의지를 강조했습니다.

또한 Adobe를 제외한 중개자들에 대한 법적 책임과 관련된 논의가 진행되었습니다. 공식들에 따르면 이러한 중개자들은 AI로 지원된 잘못된 정보의 확산을 억제하지 못한다면 처벌을 받을 수 있습니다. 이 우려는 온라인 콘텐츠에서 AI의 대규모 보급으로부터 비롯되었으며, 이를 해결하기 위해 기술 기업들은 워터마킹 및 메타데이터 태깅과 같은 기술을 도입하여 AI로 생성된 콘텐츠를 식별하고 관리하고 있습니다.

인도 정부가 특정 키워드의 검열을 주장하는 능력은 AI가 공공 토론에 미치는 영향에 대한 이해의 증가를 반영한 것입니다. 세계 각국 정부들은 특히 AI의 영향력에 관해 잘 알려진 메이저 플랫폼에서 AI로 생성된 콘텐츠를 라벨링하는 등의 정책들을 통해 잘못된 정보에 대응할 수 있는 해결책이 없다는 점을 깨닫고 있습니다. 이러한 인식의 증가는 AI로 인한 잘못된 정보에 대해 인도와 같은 민주 사회에서 경계를 풀어주는 정부의 결정에 도움을 줄 수 있습니다.

관련하여, 뮌헨 보안 회의가 2024년 선거에서의 AI의 속임수적인 사용에 대응하는 ‘Tech Accord to Combat Deceptive Use of AI in 2024 Elections’의 서명을 경험했습니다. 이 어클드에는 Adobe, Google, Meta, Microsoft, OpenAI, X (이전의 트위터)를 포함한 20개 회사가 참여했으며, AI 관련 위험을 완화하기 위한 기술 구현, AI 모델 평가, 산업 간 복원력을 육성하는 등 다양한 조치가 제안되었습니다.

선거 관련 문제에 대한 구체적인 전략은 Google과 Meta의 후속 공개에서 제시되었습니다. Google은 정치 광고에서 AI 사용을 공개하고, YouTube에서 AI로 생성된 콘텐츠에 라벨을 붙이며, Gemini, 자사의 생성 AI 플랫폼에서 선거 관련 검색 쿼리에 대한 제한을 시행하기로 약속했습니다. 반면 Meta는 AI로 생성된 내용을 독립 검증하기 위해 12개의 사실 확인 팀을 운영하고, 변경된 정치적 콘텐츠를 통제하여 그 확산을 최소화했습니다.

Mint의 질의에 대한 구글 및 메타의 회의에 대한 추가 정보 요청에도 불구하고, 두 회사 모두 응답하지 않았습니다.

법률 및 정책 전문가들은 IT Rules, 2021 및 인도 형사법에 기재된 조항이 대형 기술 기업 및 사용자들이 AI를 활용한 잘못된 정보를 촉구할 시 담당하고 책임질 수 있다는 점을 지적했습니다. 이러한 내용을 그들의 플랫폼에서 적극적으로 대응하지 않았다면, 이는 IT Rules, 2021의 규정 7에 따른 책임을 부담할 수 있습니다. 중개자와 플랫폼에 대한 명확한 정의 부재는 AI 위협을 효과적으로 대응하고 책임 및 책임을 결정하는 데 어려움을 겪는 중요한 과제입니다.

자주 묻는 질문

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact