人工知能(AI)アルゴリズムは、デジタル世界を体験する方法を形作る私たちの生活に不可欠な存在となっています。しかし、AIアルゴリズムがマージナライズされたコミュニティ、特に黒人に与える影響についての懸念が高まっています。GoogleのジェミニAIに関連した最近の事件は、AI技術による黒人の被害を浮き彫りにしました。
テキストを画像に変換するジェミニAI製品は、その誤った出力により厳しいバックラッシュを受けました。問題の根本原因に対処するかわりに、Googleは製品をオフラインにしています。この即座の反応は、AIアルゴリズムに固有の制度的な偏りを認めていません。
嘘や偏見、差別を助長するアルゴリズムツールは新しい現象ではありません。2018年のSafiya Noble氏の研究では、Googleで「黒人の女の子」と検索すると、多くのわいせつな内容や軽蔑的なコンテンツが表示されることを強調しています。さらに、AI医療アルゴリズムは、他の患者に比べて黒人患者に対して医療処置を推奨することが少ないことが判明しています。
ジェミニなどの視覚AIプラットフォームにおける偏りの顕著な例は、異なる角度から肌の色の濃い個人を視覚化するように促されると、アルゴリズムが常に彼らの肌の色を軽くし、次のポーズでも同じように行うことです。これにより、最終的な画像では白い特徴が支配的になります。しかし、これらの出力は、担当のテック企業が状況を正すために何もしません。
ビッグテック企業は、アルゴリズム的な人種差別の申し立てに対して、既存の技術にだけ賭け直すことで対応します。時折謝罪が行われますが、それらは一時的なパフォーマンスにすぎず、具体的な行動がありません。これは、歴史上の人物やスーパーヒーローなど、持続的な害をもたらさないスキャンダルに対する迅速な反応とは対照的です。
そのようなアルゴリズム的バイアスの影響は、単なる感情を超えています。2017年のProPublicaの調査によると、Facebookのヘイトスピーチ検知アルゴリズムは、白人男性の悪意のあるコンテンツを許容する一方で、黒人の子供たちの投稿を不采する割合が極端に高いことが明らかとなりました。同様に、The Markupは2021年に、GoogleのYouTubeでの広告ブロックポリシーが、「Black Lives Matter」や「Black Excellence」といったターゲットをしたい視聴者を排除したことを報告しました。
Techの産業において、特に黒人に対して、競合を欠き、ステレオタイプを助長し、排除することがどれだけ不当なものであるかを認識することが重要です。
(FAQ追加)
よくある質問:
Q: ジェミニAIとは何ですか?
A: ジェミニAIは、Googleが開発したテキストから画像への変換製品です。
Q: AIアルゴリズムは黒人コミュニティにどのように影響を与えていますか?
A: AIアルゴリズムは、ステレオタイプを助長し、黒人の個人を誤って表現し、バイアスのかかった医療処置を推奨することがわかっています。
Q: テック企業は、アルゴリズム的なバイアスに対処するためにどのような措置を講じていますか?
A: テック企業は、謝罪を発表したり、一時的に製品をオフラインにするなどの行動を取りますが、バイアスを正すための具体的な手段を講じることができません。
Q: 選出された公職者は、どのようにアルゴリズム的なバイアスに対処できますか?
A: 選出された公職者は、テック企業からの責任を求める権限を持ち、マージン化されたコミュニティを保護するための法的手段を導入することができます。
(ソース)
– Noble, S. (2018). “アルゴリズム・オブ・オップレッション: サーチエンジンが人種差別を強化する方法”.
– ProPublica (2017). “フェイスブックの秘密の検閲ルールは白人男性をヘイトスピーチから保護するが、黒人の子供を保護しない”.… Read the rest