ドイツ企業はオープンAIソリューションによるデータプライバシーのリスクに直面します

ドイツの企業は、革新とプライバシーの分野で分かれ道に立っています。最近の研究では、オープンソースのAIテクノロジーを統合する際に直面する脆弱性が明らかにされています。シャムンディコンサルティングは、名門経営大学院(ISM)といくつかのテック企業との共同の取り組みにより、ISMの経済心理学教授であるキショール・スリダール氏を中心に、企業部門のリーダー750人を対象とした調査を通じて、この傾向を明らかにしました。

ヨーロッパはデータ保護法を高く評価しており、最近の政治的な進展から明らかにされていますが、研究によると、ドイツ企業はオープンAIの使用とデータプライバシーに関して危険にさらされているとのことです。多くのリーダーが、これらの問題に関する従業員の十分なトレーニングがないことを認めています。

調査では、オープンAIシステムを利用する際に機密データを取り扱う際の内部方針や制限に関する質問が提出されました。衝撃的な62%の企業がそのような手順を欠いていることを示し、わずか24%がその存在を確認しています。残りの13%はそのようなプロトコルがないか、情報提供を行っていません。

リーダーの半数以上が、職場で自由に利用できるAIツールを使用していると認めています。内部のソリューションがシステムに統合される可能性もありますが、ChatGPTやClaude.aiなどのオープンAIへの依存がより一般的です。これらは校正から新しいアイデアの収集、データ処理までの業務に使用されており、その割合はほぼ60%に達しています。

データプライバシーは差し迫った問題となっており、一部の回答者は、機密データをオープンAIプラットフォームと共有していることを日常的に(8%)または週に一度(21%)認めています。「この行動」について、スリダールは明確に指摘しています。「AIがデータをどのように処理するかについての明確なガイドラインや理解が不足しているため、これは重大なリスクをもたらす」と述べています。

これらのリスクにもかかわらず、34%の幹部はデータプライバシー上の懸念から故意にこれらのAIサービスに機密情報を提供していません。

総括すると、報告書は、より厳格な企業方針と立法の必要性を強調しています。これは、データ保護基準への準拠を確認するためのガイダンスとチェックのシナジーが不可欠であることを示しています。この共同責任の明確化は、革新とプライバシーが共存できるような道筋を築く上で不可欠です。

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact