執行機関は、人工知能(AI)によって生成された未成年者の虐待および性的な露骨な画像の処罰に関して重要な課題に直面しています。下院監督小委員会の公聴会で、アンナ・ポーリナ・ルナ議員(フロリダ州選出、共和党)は、現行の児童性的虐待物資(CSAM)に対する法律が、法的手続きを進めるために実際の子供の写真の使用を必要とすることを指摘しました。
しかし、生成的AI技術の登場によって、未成年者の通常の画像が架空のが露骨なコンテンツに変換されることがあります。これにより、執行機関が適切な法的措置を取ることが難しくなります。非営利団体ネットチョイスの副会長カール・サボは、「悪意のある行為者は未成年者の写真を取り、AIを使用してそれらを性的に妥協した状況に変更し、その後、法律の技術的な側面に基づいて起訴を回避している」と説明しました。
これらの課題に対応して、全50州の司法長官がAIを利用して子供たちを搾取する研究し、適切な対策を提案するよう議会に促す共同書簡を起草しました。この書簡では、AI生成のCSAMが明示的に立法でカバーされることを求め、検察官が適切な措置を取ることを可能にします。
ルナ議員は、これらの犯罪に関与する個人を起訴するFBIの困難さを強調しました。AI生成画像に実際の子供への害がないため、既存の法的枠組みは加害者を責任に追うのに十分でありません。FBIはこの問題に取り組む意欲を示していますが、その努力には大きな障害があります。
AI生成のCSAMは現在オンラインで流通している虐待コンテンツのごく一部を占めていますが、使用の容易さ、汎用性、および生成的AIプログラムの非常にリアルな性質により、それが増加することが予想されます。全米行方不明児童センター(NCMEC)の被害児童部門副部長ジョン・シーハンは、この問題に対処することの重要性を強調しました。CSAMの増加に生成的AIが寄与しているとスタンフォード・インターネット監視所の調査が特定しています。
NCMECはオンライン児童搾取のための国の報告システムであるサイバーティプラインを運営しています。生成的AIを利用するアプリやサービスが増加しているにもかかわらず、tiplineにはごくわずかな会社しか報告していません。シーハンは、これらのツールを開発する際に企業が安全性を優先し、NCMECのような組織と協力して子供たちの性的搾取やわいせつなコンテンツの作成を防ぐ必要性を強調しました。
残念ながら、執行機関はAI生成のCSAMの調査と起訴において大きな課題に直面しています。事件の多さと資源の不足が最も重大な加害者を対象とする能力を妨げています。州議員のニック・ラングワーシー(共和党、ニューヨーク州)は、非営利組織レイブンのCEOジョン・ピズーロが上院司法委員会で提出した驚くべき統計を強調しました。3か月間で、アメリカ合衆国内の99,000以上のIPアドレスが既知のCSAMを流布し、調査されたのはわずか782件でした。
この問題に効果的に対処するためには、議会が行動を取ることが不可欠です。立法でAI生成のCSAMを明示的にカバーすることで、執行機関に力を与え、加害者を起訴するために必要なツールを提供します。政府機関、テクノロジー企業、非営利団体の協力は、これらの悪事から子供たちを保護する上で不可欠です。