ソーシャルメディアAIソフトウェアが児童性虐待事件への警察捜査に支障をきたしている

ガーディアンの最近の調査によると、ソーシャルメディア企業は彼らのプラットフォームをモデレートするために人工知能(AI)ソフトウェアに依存しており、児童性虐待の事件に関する報告書を作成しており、これが米国の警察の捜査を妨げ、潜在的な加害者の特定が遅れていることが明らかになりました。これらの企業は、彼らのプラットフォームで検出された児童性虐待物資に関して、法律によって国立行方不明及び虐待されている児童センター(NCMEC)に報告する義務があり、NCMECはそれを関連する法執行機関に転送します。

2022年には、NCMECは疑われる児童性虐待に関する32,000,000以上の報告を受け取りました。そのうちメタが最も多くの報告を行い、27,000,000以上の報告を担当しています。しかし、AIによる報告書の使用は警察にとって大きな課題となっています。第4修正条項に基づくプライバシー保護のため、警察官やNCMECは人間がソーシャルメディア企業の内容を確認するまで、検索令状なしで報告書を開くことはできません。この法的要件により、数週間の遅延が生じ、潜在的な証拠が失われることや、加害者がより長い期間未検出のままとなる可能性があります。

児童の安全専門家や弁護士は、これらの遅延が地域の安全に与える悪影響について懸念を表明しています。捜査は停滞し、警察は潜在的な被害者を保護するための即時措置を取ることができません。一部の場合では、報告書を提出した後、ソーシャルメディア企業はユーザーアカウントを無効にすることさえあり、重要な証拠がサーバーから削除される可能性があります。

AIによる情報提供は、検索令状のために必要な具体的な情報が欠如しているため、調査されることはほとんどありません。これにより、すでに手一杯の法執行機関にさらなる負担がかかります。彼らはこれらの情報を優先するために必要なリソースを持っていません。

コンテンツモデレーションにAIを頼ることは、専門家によると不十分な解決策と見なされています。AIは警察官の作業負荷を軽減することができますが、人間の介入の必要性を置き換えることはできません。マサチューセッツ州の検察官が指摘したように、AIは新しい児童虐待資料を特定することができず、既存のデータポイントの分析しか行えません。これらの敏感なケースでは、人間のレビューの重要性は過小評価できません。

現在の状況から、AIによるモデレーションの効果と、オンラインでの児童性虐待の問題に対処するために、警察機関に対する増加したリソースとサポートの必要性についての懸念が生じています。

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact