有害画像へのリンクを削除する研究者
人工知能の分野の研究者たちは、AI画像生成ツールのトレーニングに使用されていた有名なデータセットから、児童性虐待を描いた画像へのリンクを2000以上削除するなど、断固たる行動を取っています。
Telegramチャンネルでライブカバレッジ
最近の報告によると、オンライン画像と注釈の大規模インデックスである「Lion Research Database」が、児童性虐待の画像への明示的なリンクを含んでいたことが明らかになりました。リーディングAI画像クリエーターの情報源となっていたこのデータベースは、最近の報告によると証拠が見つかりました。
悪用に対抗するための措置
昨年、スタンフォード・インターネット研究所の調査が、「Lion」データベース内に児童性虐待の画像への明示的なリンクが存在することを明らかにし、一部のAIツールがリアルな児童のイメージを作成できるようになっていました。
安全な将来のための協力努力
この結果に対応し、研究データベース「Lion」は素早くデータセットを削除しました。カナダや英国の対搾取団体と協力して、スタンフォード大学と共同作業を行い、「Lion」は問題を修正し、将来のAI研究用に改訂されたデータセットをリリースしました。
今後の課題への取り組み
大幅な改善が認められてはいますが、依然として有害な児童画像を生成する可能性のある「汚染されたモデル」を排除するために、さらなる手順が必要です。子供たちのオンラインの安全と幸福を確保するため、取り組みが進行中です。
業界の責任と責任
「Lion」データベースにリンクされているAIツールの1つは、「明示的な画像を生成するための最も人気のあるモデル」として識別され、ニューヨークに本社を置く企業によってAIモデルリポジトリから削除されました。同社は、AI研究での倫理基準の積極的な維持の重要性を強調しました。
グローバルに子供を保護するための技術の悪用に対処することは、継続的な報告と研究の取り組みで強調されています。