新しいAI政策の重要性と将来展望

米国政府がAI技術の利用を規制するための新しい政策を発表しました。これらの政策は、米国政府によるAIの利用に関する懸念に対処し、米国の労働力、プライバシー、国家安全保障、および差別的意思決定の影響に焦点を当てています。

新しいAI政策の主な目標は、米国市民の安全、権利、プライバシーを確保し、AI技術に関連する潜在的な差別やリスクに対処することです。これらの政策は、AIの責任ある使用に向けた透明性、説明責任、および枠組みの確立を目指しています。

新しい政策の下、連邦機関は、使用しているAIシステムのリストと、それらのシステムに関連するリスクの評価、そしてそれらのリスクの管理方法について、オンラインで公開することが求められるでしょう。さらに、各機関は、AI技術の導入を監督し、その倫理的かつ効果的な利用を確認するため、AI技術の専門知識を持つ最高AI担当者を任命するよう求められます。

米国副大統領カマラ・ハリスは、政府のAI政策を形成する上で主導的な役割を果たしており、これらの規制の国際的重要性を強調しています。彼女は、あらゆる分野のリーダーが、一般の人々を潜在的な被害から保護し、その恩恵を最大化するために責任を持つべきだと考えています。

政府は、さまざまな機関を通じて現在および計画されているAIの使用事例をすでに700件以上開示しています。これには、スマートフォンの咳の分析によるCOVID-19の検出から、疑わしい戦争犯罪の特定、そして違法な商品の取引防止までの例が含まれます。しかし、潜在的なリスクを軽減するため、連邦機関は今後、一般市民へのAIの影響を信頼できるように評価、テスト、監視する保護策を実施しなければなりません。これには、アルゴリズム的な差別を防ぐ取り組みや政府のAI利用における透明性の確保が含まれます。

ハリス副大統領が提供した具体的な例では、退役軍人管理局内で患者の診断にAIを利用することが挙げられます。このようなシナリオにおいて、AIシステムがその診断に人種的な偏りがないことを証明することが重要です。

バイデン大統領がAIに関する大統領令を出し、国防生産法を活用することで、先進的なAIプラットフォームを開発している企業には安全テストの結果を政府と共有することが求められます。これらのテストは、「レッドチーム」方式として知られるプロセスを通じて実施され、厳格なリスク評価を含みます。また、米国標準技術研究所は、AIテクノロジーの安全性と責任ある展開を確保するために、レッドチームテストの基準を確立する作業に取り組んでいます。

これらの新しい政策は、米国内におけるAIの規制とガバナンスにおいて重要な一歩です。透明性、説明責任、および市民の保護を優先することで、米国政府は国際的なAI規制のモデルとなる堅固な枠組みを確立しようとしています。

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact