イギリスのテクノロジージャイアンツがAIの安全テストを要請

OpenAI、Google DeepMind、マイクロソフト、メタなどのイギリスのテクノロジージャイアンツは、人工知能(AI)システムの安全テストを迅速に行うようイギリス政府に要請しています。これらの企業は、新たに設立されたAI安全研究所(AISI)による最新の生成型AIモデルのレビューに協力することを確約していますが、テスト、タイムライン、フィードバックプロセスについて明確な情報を求めています。

法的拘束力のない合意とは異なり、これらの自発的な取り組みはAIの急速な進化の中で産業の自己規制に頼ることの課題を浮き彫りにしています。これに対し、イギリス政府はAIの開発者がシステムの安全性に対して責任を持つための将来の拘束的な要件の必要性を強調しています。

政府が支援するAISIは、イギリスがAIの潜在的なリスクに対処するリーダーとなることを目指すリシ・スナク首相のビジョンの重要な役割を果たしており、既存のAIモデルのテストを既に開始しています。また、GoogleのGemini Ultraなどの未公開モデルにもアクセス権を持っています。これらのテストの焦点は、特にサイバーセキュリティにおけるAIの誤用に関連するリスクを緩和することにあります。政府通信本部(GCHQ)内の国家サイバーセキュリティセンターとの連携により、この重要な分野における専門知識を提供しています。

最近の政府契約によると、AISIはAIチャットボットのジェイルブレイキングへの感受性やスピアフィッシング攻撃からの保護などをテストするために100万ポンドを割り当てています。さらに、AISIはAIモデルの徹底的な評価を可能にするために、ソースコードの逆引きエンジニアリングを容易にする自動システムの開発も行っています。

Google DeepMindは、AIモデルの評価および安全慣行を向上させるためにAISIと協力することを表明しています。一方、OpenAIとメタはこの問題にコメントを控えました。

全体的に、イギリスのテクノロジージャイアンツがAIの安全テストを要請することは、潜在的なリスクに効果的に対処するための責任ある開発と規制の重要性を反映しています。政府の焦点は、AI技術の急速な成長において安全性と責任を確保するために拘束的な要件と産業の協力にあります。

FAQ:イギリスのテクノロジージャイアンツがAIの安全テストを要請

The source of the article is from the blog aovotice.cz

Privacy policy
Contact