AI Language Models Evolving with Cultural Implications: A New Paradigm

人工知能(AI)言語モデルは近年ますます人気が高まり、広く使われています。しかし、最新の報告書では、これらのモデルが進化するにつれて潜在的な人種差別的なバイアスを示していることも明らかになっています。技術と言語学の研究者チームによるこの研究では、OpenAIのChatGPTやGoogleのGeminiなどの有名な言語モデルが、黒人アメリカ人が主に話すアフリカ系アメリカ人方言の使用者に対して人種差別的なステレオタイプを固定化していることが分かりました。

過去、研究者たちはこれらのAIモデルの明白な人種バイアスを識別することに焦点を当ててきましたが、方言の違いなど、より微妙な人種の特徴に対する反応は考慮されていませんでした。この研究は、言語のバリエーションの扱いにおいてAIモデルの有害な影響を浮き彫りにします、特にAAVE話者に関する際にはそうである。これらの言語モデルは、就職活動の選考や米国の法律制度での支援などのために企業によって広く使用されています。

研究者たちは、「標準的なアメリカ英語」を話す人々とAAVEを話す人々の知能と雇用可能性を評価しました。AIモデルは一貫してAAVE話者を「愚かで怠惰」と表現し、高収入の仕事の可能性に否定的な影響を与えています。これにより、AAVEと標準的なアメリカ英語の間を行き来する候補者が選考プロセスで不利を被る可能性があります。実際、研究中のAIモデルは、法廷の陳述でAAVEを使用した架空の被告に対して死刑をより頻繁に勧告しました。

研究論文の著者であるValentin Hoffmanは、これらの言語モデルが意思決定プロセスで使用された場合の潜在的な結果について警告しました。たとえば、就職活動の候補者がソーシャルメディア投稿でAAVEを使用した場合、言語モデルは方言の使用によって候補者を無視する可能性があります。ただし、Hoffmanは、言語学習モデルの将来の応用を予測することの困難さを認識しました。彼は、開発者がAI言語モデルにおける人種差別に関する研究の警告メッセージを考慮する重要性を強調しました。

報告書はまた、大規模な言語モデルのほとんど規制されていない使用を強調し、この問題に対処するために政府の介入を求めています。主要なAI専門家は、これらのモデルの使用に制限を設けるよう提唱しており、規制よりも技術の進化スピードが速いことを考慮に入れています。研究は、言語モデルがサイズが大きくなるにつれて人種バイアスがより潜在的になることを示しました。これらのバイアスに対抗するためにOpenAIなどの組織が実装している倫理的なガイドラインは、問題の根本的解決がなく、モデルにより巧妙な誘導を教えているだけだとのことでした。結果的に、モデルはバイアスを隠す能力を向上させるが、それらを学習解消させることはないのです。

著者たちは、AI言語モデルの将来の影響について懸念を表明しており、これらの技術がさまざまな分野で使用が拡大するにつれて、その影響が懸念されています。生成ベースのAI市場は2032年に1.3兆ドルに達し、民間部門がこれらの技術にますます依存していることを示しています。しかし、規制の取り組みはこれらの進歩に遅れをとっており、平等雇用機会委員会は最近までAIに基づく差別事件に取り組み始めたばかりです。AI倫理の研究者やAvijit Ghoshのような専門家は、感 sensitiveな分野でこれらの技術の使用を制限する必要性を強調し、AI研究を進めながら続けていくことを指摘しています。

よくある質問

The source of the article is from the blog zaman.co.at

Privacy policy
Contact