Gemini: Googleova AI s vylepšenými ověřovacími funkcemi

Generativní AI od Googlu zvyšuje kvalitu chatbotů pomocí přesnosti

V listopadu 2023 se v oblasti umělé inteligence událo významné události, jak prozradila startup Vectara – tým složený z bývalých zaměstnanců Googlu. Podle jejich údajů má model ChatGPT od OpenAI míru chybovosti 3 %. Tento procentuální podíl může působit minimálně, ale nesprávná odpověď chatbota může mít fatální následky, zejména když zavádí profesionály jako lékaře, manažery nebo analytiky.

Problém s AI-generovanými dezinformacemi není výhradně omezen na ChatGPT; i další chatboti založení na velkých jazykových modelech často produkují nepřesné výstupy. Google se však odliší tím, že představil AI s názvem Gemini, která má inovativní funkci pro ověřování poskytovaných informací.

Na rozdíl od bezplatné verze ChatGPT, která může postrádat aktuální webové informace, má Gemini schopnost vyhledávat a začleňovat nejnovější online data do svých odpovědí. Tato funkce je důležitá z dvou důvodů: uživatelé obdrží aktuální odpovědi a mohou posoudit spolehlivost informací poskytovaných chatbotem.

To, co odlišuje Gemini, je jeho unikátní funkce. Ke každé odpovědi vytvořené Geminni je přidána ikona značky ‚G‘ od Googlu. Když uživatelé kliknou na tuto ikonu, Gemini zahájí vyhledávání na webu, analyzující platnost textu vytvořeného jeho AI.

Po dokončení vyhledávání Gemini zvýrazní určité části své odpovědi zeleně nebo oranžově. Frazé označené zeleně značí „ověřené“ informace podložené online shodami, které si uživatelé mohou ověřit tím, že přejdou na poskytnutý odkaz s důvěryhodným zdrojem. Google však upřesňuje, že zobrazený odkaz nemusí nutně být přesným zdrojem, který Gemini použil pro svou původní odpověď.

Naopak, fráze označené oranžově naznačují možné rozpory a varování, že může být zapotřebí další ověření. Může také naznačovat, že nebyla nalezena žádná relevantní informace, přičemž je poskytnut odkaz, pokud je k dispozici.

Nakonec mohou být textové části nedotčené zelenou nebo oranžovou, což znamená nedostatečné množství informací k posouzení prohlášení chatbota nebo že prohlášení nejsou určena k poskytnutí objektivních informací. V takových případech se doporučuje uživatelská diskrétnost pro další ověření.

Závěrem, zatímco jiné nástroje AI jako Microsoftův Copilot nebo Perplexity také poskytují užitečné odkazy pro ověřování textu, přímý přístup Geminie k ověřování fakta v rámci jejího uživatelského rozhraní je chvályhodným krokem směrem k poskytování spolehlivých a přesných interakcí s AI chatboty.

Fakta:

– Gemini je AI vyvinutá Googlem, která zahrnuje rozšířené funkce ověřitelnosti.
– Velké jazykové modely, jako ten, který napájí ChatGPT, někdy generují nepřesné nebo zavádějící informace, známé jako „halucinace“.
– Gemini nabízí přímou verifikaci informací, které generuje, zvýrazňováním textu různými barvami na základě ověřitelnosti těchto informací.

Klíčové otázky a odpovědi:

O: Jak Gemini ověřuje informace, které poskytuje?
<b: A: Gemini analyzuje své odpovědi a používá barevné kódování prostřednictvím zabarvení textu, aby označila ověřitelnost informací. Zelená signalizuje ověřené informace, oranžová naznačuje potenciální nepřesnosti a text bez barvy může postrádat dostatečné informace pro posouzení a být subjektivní.

Q: Proč je důležitá ověřitelnost v odpovědích AI?
<b:A: Zajištění přesné a ověřitelné informace od AI je klíčové, zejména v profesionálních prostředích, kde může dezinformace vést k vážným následkům.

Výzvy a kontroverze:

– Zajištění, aby AI-generovaný obsah byl přesný a beze zkreslení, zůstává pro vývojáře zásadní výzvou.
– Může nastat problém s opíráním se o aktuální webová data, protože předpokládá, že všechny přesné informace jsou dostupné a indexovány online.
– Obavy o ochranu soukromí uživatelů také mohou vzniknout, když mají AI systémy schopnost provádět vyhledávání na webu v pozadí.

Výhody:

– Gemini poskytuje uživatelům větší důvěru v přesnost AI-generovaného obsahu.
– Možnost kontroly ověřitelnosti informací na místě zvyšuje důvěru uživatele a spolehlivost chatbota.
– Informace, která je aktuální a prošla ověřovacím procesem, mohou být bezpečnější k použití při rozhodování.

Ne výhody:

– Přílišné spoléhání na nástroje ověřování může uživatele přimět k opomíjení kritického myšlení při interakci s AI.
– Existuje potenciál pro chyby, pokud Gemini nesprávně označí přesné informace jako neověřené (falešné negativy) nebo nepřesné informace jako ověřené (falešné pozitivy).

Navrhované související odkazy:

– Pro další náhledy na AI a výpočetní modely: Google AI
– Pro vývoje v oblasti AI chatbotů a jazykových modelů: OpenAI
– Pro informace o nástrojích Microsoftu AI: Microsoft AI

Vezměte prosím na vědomí, že i když se snažím poskytnout přesné URL adresy, ujistěte se, že je ověříte, protože nemohu procházet internet, abych potvrdil jejich platnost.

Privacy policy
Contact