新たな視点から見るヨーロッパのAI法

ヨーロッパ議会は、人工知能の未来を形作る巨大な一歩を踏み出しました。歴史的な動きとして、欧州議会は最近、画期的な人工知能法を承認しました。この法律は安全を保障し、基本的権利を保護し、AI産業に革新をもたらすことを目的としており、多くの支持を集めています。

“賛成523票、反対46票、棄権49票により、世界初の拘束力のある人工知能法を正式に制定しました。”と、内市場委員会の共同報告者であるブランド・ベニフェイは述べました。さらに、「欧州では受け入れがたいAIの実践が禁止され、労働者や市民の権利が保護されます。我々は人間と欧州の価値がAIの発展の中心にとどまることを確認しました。」

人工知能法は民主主義、法の支配、環境の持続可能性などの要素を、AIに関連する潜在的リスクから保護することを目的として設計されています。同時に、この規制は、リスクと影響の可能性に基づいて義務を課すことで、重要なバランスを保つことを目指しています。

この法律の顕著な側面の1つは、市民の権利を侵害する特定のAIアプリケーションの禁止です。禁止されたアプリケーションの具体的な例には、感性的特徴に基づく生体認証分類システム、インターネットやCCTV映像からの顔写真の収集、感情認識、ソーシャルスコアリング、プロファイリングに基づく予測警察、人間の行動を操作するAIなどが含まれます。

議会はこれらの禁止を導入していますが、特定の立場では法執行機関の免除も提供しています。法執行機関は、厳格な保護規定が遵守される限定された状況下で生体認証分類システム(RBI)を使用することができます。リアルタイムRBIの使用は時間的、地理的制限があり、事前に司法または行政的承認が必要です。一方、事後のRBIは司法的承認が必要であり、犯罪行為と関連付けられなければなりません。

さらに、この規制は、基幹セクターで使用されるハイリスクAIシステムの義務について取り扱っており、そのセクターには制御インフラ、教育、雇用、医療、法執行、移民および国境管理、司法、民主的プロセスが含まれています。このようなシステムは、リスクを評価し軽減し、使用ログを維持し、透明性と正確性を確保し、人間の監視を組み込む必要があります。市民はAIシステムに関する苦情を提起し、それらの権利に影響を及ぼすハイリスクAIシステムが行った決定に関する説明を受ける権利を持ちます。

透明性はAI法の重要な側面であり、特に汎用AI(GPAI)システムに関連しています。これらのシステムおよびそれらが基づくGPAIモデルは、EU著作権法に準拠し、トレーニングに使用されたコンテンツの詳細な要約を提供する必要があります。さらに、システムリスクをもたらす可能性があるより強力なGPAIモデルには、モデル評価、リスク評価と軽減措置、インシデント報告などの追加要件が課されます。また、人工または操作された画像、音声、またはビデオのコンテンツ、通常は”ディープフェイク”として知られるものは、そのようなものとして明示的にラベル付けされなければなりません。

イノベーションの育成の重要性を認識して、欧州議会は、国レベルでの規制サンドボックスの設立と実世界でのテストを要求しています。これらの取り組みは中小企業(SME)やスタートアップにも利用可能であり、市場投入前の革新的なAIソリューションの開発やトレーニングを支援します。

欧州人工知能法の承認は、AIの規制と利用の重要な転換点を示しています。これにより、革新が繁栄し、同時にAIが基本的権利を尊重し個人の幸福を保護する未来が築かれます。この画期的な法律により、ヨーロッパは責任ある倫理的な人工知能の分野で世界をリードする大胆な一歩を踏み出しています。

FAQ

The source of the article is from the blog enp.gr

Privacy policy
Contact