新しい記事

人工知能(AI)の世界では、生成AI(Generative AI)について圧倒的なほどのハイプが存在しています。しかし、このハイプが誤解である可能性が高まっており、一部の企業はこれを痛感しています。

チャットGPTなどの大規模言語モデルの主な欠点の1つは、幻覚を見る傾向や誤情報の拡散です。これがチャットボットやAI画像生成ツールに対する盗用の申し立てを引き起こし、これらの技術に依存する企業にイメージの損傷をもたらしています。また、生成AIハードウェアによって必要とされるエネルギー消費は、環境にとっても大きな懸念事項です。

しかし、おそらく最も重要な問題はその技術の信頼性です。AI研究者のゲーリー・マーカスによると、企業は生成AIに一貫して頼ることができないことに気付きつつあります。多くの企業が、その技術のパフォーマンスや顧客に対して信頼できるよう展開できないことに対する不満を表明しています。

イギリスのある会社は、チャットボットが顧客に対して不適切な言葉を使い始めたため、無効にする必要がありました。同様に、カリフォルニアの自動車ディーラーは、ChatGPTベースのセールスマンがたった1ドルで車を提供し始めたため、対策をとらなければなりませんでした。これらの出来事は、生成AIへの過度の依存に伴う信頼性の欠如と潜在的なリスクを浮き彫りにしています。

問題は、これらのAIモデルが情報を単に取り出すのではなく合成しているという点にあります。適切なセーフガードやガイドラインがないと、これらのモデルは訓練データに基づいて誤った情報や誤解を生み出すことがあります。この識別能力の欠如は、生成AIを製品に活用しようとする企業にとって重大な課題となります。

これらの問題を考えると、一部の専門家はAI産業と仮想通貨やドットコム企業など、以前のバブルとの類似性を指摘しています。AIがこれから10年以内に数兆ドルの産業になるという過大な予測は、技術の迅速な進歩についての現実的な期待に疑問を投げかけます。さらに、技術が現在のハイプに見合う速度で進化するかどうかを疑問視する声もあり、停滞期に陥る可能性があります。

AI産業に多額の資金を投入している投資家は、短期間で予想されるリターンを見ないと不耐心になる可能性があります。AIやAGI(汎用人工知能)が不可能ではないとしても、現在の生成AI技術の状況は簡単に克服できない多くの課題を抱えています。

生成AIに関連する制限やリスクを真摯に考え、信頼性、倫理性、社会への利益に配慮したAI技術を開発・展開するために、企業と研究者の双方が現実的な視点でAIに取り組むことが不可欠です。

FAQ

The source of the article is from the blog meltyfan.es

Privacy policy
Contact