Kroky při ověřování faktů AI: Přehled AI od Googlu vyvolává kritiku kvůli nepřesnostem

V oblasti umělé inteligence Google čelil kritice poté, co uživatelé zjistili, že jeho nová funkce „Přehled AI“ poskytovala fakticky nesprávné odpovědi na dotazy. Tato funkce, která byla představena před dvěma týdny, byla navržena tak, aby usnadnila úkol odpovídání na složité otázky tím, že představuje agregované odpovědi na vrcholu stránky výsledků vyhledávání Google.

Případy, kdy AI navrhovala bizarní léky, například aplikovat sýr na opravu pizzy nebo jíst kameny pro zdravotní přínosy, spolu s vyvrácenou konspirační teorií o náboženství bývalého prezidenta Baracka Obamy, vyvolaly otázky ohledně spolehlivosti AI-generovaných odpovědí.

Studie provedená startupem AI Vectara odhalila, že chatboti vyrábějí informace v značně vysokém rozsahu případů, který někdy dosahuje až 27%. Tyto případy šíření dezinformací, často označované jako „halucinace“, vycházejí z velkých jazykových modelů (LLM), jako je ChatGPT od OpenAI a Gemini od Googlu, které jsou programovány tak, aby předvídaly odpovědi na základě rozpoznávání vzorů, nikoli faktuální správnosti.

Odborníci na AI osvětlili, proč k takovým halucinacím dochází. Pokud jsou výcviková data neúplná nebo zaujatá, výstup AI může být zavádějící. Hanan Wazan ze společnosti Artefact přirovnává proces AI k lidské kognici – přemýšlíme předtím, než promluvíme, a stejně tak AI, čerpajíc ze své rozsáhlé databáze, aby předpověděla posloupnost slov. Navíc Alexander Sukharevsky ze společnosti QuantumBlack, přidružené k McKinsey, navrhuje AI označovat jako „hybridní technologii“ a zdůrazňuje matematický výpočet odpovědí založený na pozorovaných datech.

Google přiznává, že halucinace mohou vzniknout v důsledku nedostatečných datových sad, nevhodných předpokladů nebo základních předsudků v informacích. Hledací gigant poznamenal, že takové chyby AI mohou mít vážné následky, jako je nesprávná lékařská stanoviska vyvolávající zbytečné zákroky.

Kvalita před kvantitou dat, navrhuje Igor Sevo ze skupiny HTEC, který poukazuje na to, že zatímco „halucinace“ AI mohou rozproudit kreativitu, je nutná naléhavá potřeba vzdělávat AI modely v rozlišování pravdy od fikce. OpenAI začala spolupracovat s uznávanými mediálními organizacemi jako Axel Springer a News Corp, aby vzdělávala své AI modely na spolehlivějších datech, a zdůraznila tak důležitost datových vstupů vysoce kvalitní povahy před samotným objemem. Tyto kroky jsou zásadním krokem k zlepšení přesnosti a důvěryhodnosti AI chatbotů.

Důležité otázky a odpovědi:
Proč modely AI jako Google produkují fakticky nesprávné odpovědi? Modely AI mohou produkovat nesprávné odpovědi kvůli zaujatosti, chybám nebo mezerám v tréninkových datech, stejně jako z důvodu jejich vlastního návrhu, který upřednostňuje rozpoznávání vzorů před faktuální přesností.

Jaké jsou některé z klíčových výzev v ověřování faktů AI? Klíčové výzvy zahrnují zajištění kvality dat používaných k výcviku AI modelů, překonání zaujatostí a vyvinutí metod pro to, jak se AI dokáže rozhodovat mezi přesnými a vymyšlenými informacemi.

Jaká kritika postihla Google v souvislosti s jeho funkcí „Přehled AI“? Google čelil kritice za to, že jeho nová funkce AI poskytovala nepřesné odpovědi, včetně nevhodných léků a šíření vyvrácených konspiračních teorií.

Klíčové výzvy nebo kontroverze:
Jedna z hlavních kontroverzí v ověřování faktů AI souvisí s rovnováhou mezi svobodou AI generovat kreativní obsah a nutností zajistit přesnost poskytovaných informací. Dalším kontroverzním tématem je etická odpovědnost technologických společností zabránit šíření dezinformací a informovat uživatele o omezeních obsahu generovaného AI.

Výhody:
– Zefektivnění získávání informací
– Asistence uživatelům s komplexními dotazy
– Možnost rozproudit kreativitu skrze nekonvenční odpovědi

Nevýhody:
– Riziko šíření dezinformací
– Potenciál pro závažné následky, zejména v citlivých oblastech jako je zdravotnictví
– Snížená důvěra v systémy AI kvůli nesprávným výstupům

Prozkoumat více o iniciativách Googlu v oblasti umělé inteligence mohou zájemci navštívit hlavní doménu Googlu pro další informace: Google.

Další zdroj k seznámení se s umělou inteligencí a pokrokem v tomto odvětví lze nalézt na webové stránce OpenAI: OpenAI.

A pro lepší pochopení odpovědné umělé inteligence a její etických důsledků by si člověk mohl konzultovat záznamy nalezené na webové stránce Future of Life Institute: Future of Life Institute.

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact