人工知能チャットボットと誤情報の拡散

最近の研究によると、ChatGPT、Grok、GeminiなどのAIチャットボットがロシアを支持する誤情報を広めていることが明らかになりました。この結果は、人工知能プラットフォームによって生成されるだけでなく、それらによって誤情報が広められ、強化されるという懸念すべきトレンドを示しています。

NewsGuardによる調査によると、OpenAIのChatGPTなどの主要なAIモデルがロシア寄りのディスインフォメーションを広めています。AIによる誤情報の拡散に対する懸念が高まる中、特に2024年の選挙などの世界的な選挙の間、信頼できる情報を求めるユーザーは無意識に誤情報に遭遇する可能性があります。

この研究によると、AIによる誤情報に関する懸念が依然として続いている一方で、チャットボットによる誤情報の拡散がどの程度再発され、裏付けられるかに関するデータは限られています。10のチャットボットに57のクエリが入力された結果、32%の割合でプロロシアのプロパガンダが拡散されていることがわかりました。

特筆すべきは、モスクワでディスインフォメーションを作成することで知られるアメリカの逃亡者であるジョン・マーク・ドゥーガンから発信されたでたらめなストーリーがこれらのチャットボットに提示されたことです。調査対象となったチャットボットにはChatGPT-4、You.comのSmart Assistant、Grok、Inflection、Mistral、マイクロソフトのCopilot、Meta AI、Anthropic’s Claude、Google Gemini、およびPerplexityが含まれています。

各チャットボットの個々のパフォーマンスは分析されていませんが、570件の回答の中で、152件が明白な誤情報を含んでおり、29件が免責事項付きで偽の主張を繰り返し、389件は誤情報を含んでいなかった(144件は応答しなかった、245件は主張を論破した)。

これらの結果は、世界中の規制当局がAIによる誤情報の拡散や偏向といった潜在的な害を取り組むための緊急性を強調しています。NewsGuardは、AI技術による誤情報によるユーザー保護の一環として、調査結果を米国の国立標準技術研究所のAIセキュリティ研究所や欧州委員会に提出しました。

Privacy policy
Contact