グローバルな選挙システム、AIによるディスインフォメーションの挑戦に備える

AI技術による微妙な脅威が民主主義に直面している中、特に人間らしいテキスト、画像、ビデオを信憑性のあるものとして生成できるAI技術が選挙や公共の議論でますます活用されています。世界が全体の40%以上の人々が自分たちの投票を行う年に備えるなか、政府関係者の間でAIのようなそびえ立つ事件に反応しないささいな脅威が静かに渦巻いている懸念が広がっています。

ここ数年のインドネシアやパキスタンの選挙における驚異的なAIによる混乱とは対照的に、AIの潜在的な微妙な干渉に対する認識が高まっています。懸念はまだ現実的な影響にはつながっていませんが、少し変化を加えたメッセージを大量生産する生成AIツールなどの例が、以前からソーシャルメディアプラットフォームを悩ませてきた説得的なキャンペーンの高度なバージョンのように、それらを見つけにくくしています。

AI生成された誤情報の微妙さは、現在社会メディア戦略のアドバイスをしている、元メタプラットフォーム社のリスクマネージャーであるジョッシュ・ローソンが指摘するように、その多様性にあります。AIに関する議論の多くがディープフェイクや視覚的な要素に焦点を当ててきましたが、ローソンは、テキストベースの誤情報キャンペーンの方がはるかにスケーラブルで追跡が難しいと強調しています。

メタのWhatsAppは、「チャンネル」などの機能により、広範な観衆に放送することができるため、より未熟な主体でも投票所の状況についての虚偽の情報を流布し、有権者の投票率を抑制するといった、誤情報の拡散を容易にする可能性があります。

社会全体に及ぼす広範な影響は、過半数のアメリカ人と四半期の英国市民が既にAIツールを試みています。このテクノロジーの民主化は、普段の個人が誤情報のベクトルに無意識になる可能性があります。

これらの課題に対処するために、MetaはFacebookやInstagram全体でAI生成されたコンテンツにラベルを付け始めていますが、この戦略は未ラベルのコンテンツを真正と見なしてしまう誤った安心感を生じさせるリスクがあります。

さらに、WhatsAppなどのメッセージングプラットフォームは、ブラジルの2018年の選挙で見られたように、AIを駆使した誤情報の主要な戦場となる可能性があります。FacebookやInstagramで選挙の干渉へのAIの悪用に対抗するための具体的な方針があるように、より明確なコンテンツポリシーはMetaなどの企業に権力を与えるかもしれません。

合成されたノイズと意味のある信号の間の境界線が曖昧になるにつれ、技術企業と公的機関は警戒していなくてはなりません。選挙で明白なAIの混乱がないということは安全を意味するのではなく、むしろ、控えめでありながら堂々とした対抗手段に対する準備の緊急性を強調しています。

Privacy policy
Contact