AI企業が英国政府に安全性テストの改善を促す

複数の主要なAI企業、OpenAI、Google DeepMind、Microsoft、およびMetaなどが、AIシステムの安全性テスト手続きを加速させるよう英国政府に要請しました。これらの企業は、新たに設立されたAIセーフティー研究所(AISI)によるAIモデルの評価を許可することに同意していますが、現在の評価プロセスのペースと透明性について懸念を表明しています。これらの企業は、AISIによって特定された欠陥に対処する意向はあるものの、評価結果に基づいて自社の技術のリリースを遅延または変更する義務はありません。

AIベンダーたちにとっての主な問題の一つは、テストプロトコルに関する明確さの欠如です。彼らは、実施されているテストの詳細な情報、評価の期間、フィードバックのメカニズムについてもっと詳しい情報を求めています。また、AIモデルにわずかな更新があるたびにテストを繰り返す必要があるかどうかについても不確実性があり、これはAI開発者にとって負担に思われるかもしれません。

これらの企業が表明した懸念は、評価プロセスの不明確さを考慮すると正当です。他の政府も同様のAI安全性評価を検討しているため、英国の手続きに現在の混乱があると、より多くの機関がAI開発者に同様の要求をし始めるにつれて、さらに深刻化するでしょう。

英国政府は、すでに該当の開発者との協力を通じてAIモデルのテストを開始しています。これには、GoogleのGemini Ultraなどの未リリースモデルに関する詳細なAIモデルへのアクセスも含まれています。この取り組みは、これらの企業が11月に開催された英国のAIセーフティー・サミットで署名した主要な合意の一つであります。

英国政府や他の公的機関がAI企業と緊密に協力して、明確で標準化された安全性テスト手続きを確立することが不可欠です。透明性のある効率的な評価は、AI技術への信頼を高めるだけでなく、これらのシステムを様々なセクターで責任ある展開することを確実にします。

FAQセクション

1. AIシステムの安全性テスト手続きを加速するよう英国政府に要請した企業はどれですか?
OpenAI、Google DeepMind、Microsoft、Metaなどの主要なAI企業がこの要請をしました。

2. 新たに設立されたAIセーフティー研究所(AISI)の役割は何ですか?
これらの企業は、AIモデルの評価をAISIに許可することに同意しました。

3. 企業は評価結果に基づいて自社の技術のリリースを遅延または変更するのでしょうか?
いいえ、企業は評価結果に基づいて自社の技術のリリースを遅延または変更する義務はありません。

4. これらの企業が評価プロセスについてどのような懸念を表明していますか?
これらの企業は、現在のペース、透明性、テストプロトコルの明確さについて懸念を表明しています。彼らは、実施されているテストの詳細情報、評価の期間、フィードバックのメカニズムについてもっと具体的な情報を求めています。

5. AIモデルのわずかな更新ごとにテストを繰り返す必要性について不確実性がありますか?
はい、AIモデルにわずかな更新があるたびにテストを繰り返す必要性について不確実性があります。これはAI開発者にとって負担に思われるかもしれません。

キーワード/専門用語

– AI:人工知能(Artificial Intelligence)の略称。
– AIセーフティー研究所(AISI):AIモデルの安全性評価を行うために新たに設立された研究所。
– AIモデル:企業が開発した人工知能システムやアルゴリズムを指します。
– テストプロトコル:AIモデルの評価やテストに従われる手順やガイドライン。
– プリデプロイメントテスト:AIモデルが公式に展開される前に行われるテスト。

関連リンク

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog elblog.pl

Privacy policy
Contact