組織はAIを使用して世論を操作する、OpenAIレポート

OpenAIは、Conversational AIプログラムChatGPTとして知られるAIプログラムの制作者であり、ロシア、中国、および他の地域に拠点を置くいくつかの組織を特定しました。これらの組織は、公衆意見を操作するためにAIを活用していると報告されています。

これらのグループは、彼らのアイデンティティを機密にすることを好むが、AI生成のテキストやソーシャルメディアアカウントの作成、プログラミングタスクのためにAIを利用するといった方法を採用しています。彼らは、ロシアによるウクライナ侵攻、ガザ地区の紛争、アメリカ政治を含む敏感な地政学的問題に重点を置いています。

中国を拠点とする組織は特に活発であり、日本の福島第一原子力発電所から処理水を放出する問題に対する批判的なコンテンツを生成しています。この活動は日本語のオンライン投稿まで拡大されました。ただし、報告によれば、これらのAIによるメッセージはソーシャルメディアプラットフォームでほとんど閲覧されていないとされています。

さらに、OpenAIによれば、AIツールを使用して宣伝画像を生成しようとする試みが拒否された事例があったことが明らかになりました。これは、不当利用を防ぐために設けられた倫理的な保護策を示しています。OpenAIは、これらの脅威についてのレポートを公表した際、同じ日にこれを強調し、そのような操作を防ぐためにAIの使用を監視・規制する重要性を強調しました。

公衆意見操作におけるAIの重要性と関連性:

AIを利用して公衆意見を操作することは、政治選挙に影響を与え、重要な問題における公衆の感情を変化させ、異なるグループ間での対立を引き起こす可能性があるため、重要な懸念です。ディープフェイクの作成や説得力のあるテキストの執筆に開発されたAIツールなど、人間の能力をはるかに上回るスピードで規模広く誤情報を拡散できます。

重要な質問と回答:
組織はどのような手段を使ってAIを利用して公衆意見を操作しているのか?
組織は、説得力のあるテキストを生成したり、リアルな画像や動画(ディープフェイク)を作ったり、偽のソーシャルメディアプロファイルを作成したり、誤情報の拡散を自動化したりするためにAIを使用しています。

OpenAIはどのようにしてプロパガンダ目的でツールが使用されるのを防止しているか?
OpenAIは、倫理的な保護策や監視メカニズムを実装しており、ソフトウェアがプロパガンダや誤情報を生成するのを検出し、防止することができます。

公衆意見を操作するためにAIの使用を規制する際に関連する課題は何か?
国際的な境界を越えてAIツールとテクノロジーが拡散しているため、規制を施行するのが困難です。さらに、AIの進化する能力は、効果的なガバナンスフレームワークの確立が遅れる可能性があるため、規制に関連する課題があります。

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact