Cím

A Google AI modell, Gemini: Tanulságok és az AI biztonság jövője

A Google társalapítója, Sergey Brin nemrég nyilatkozott a Gemini, a Google mesterséges intelligencia modell nehéz startjáról, elismerve a cég hibáját. Az incidens arról szólt, hogy a Gemini képalkotó eszköze történelmi alakokat ábrázolt, köztük pápákat és német katonákat, színesbőrű emberekként. Ez a vita negatív kommentárokat és kritikákat váltott ki olyan személyekből, mint Elon Musk és még a Google vezérigazgatója, Sundar Pichai is.

Az ügy gyökere abban rejlik, hogy a Google szándéka egy elfogultságmentes AI modell létrehozása volt, ami megoldaná azoknak az elfogultságoknak a problémáit, amelyek más AI rendszerekben fennállnak. Azonban az igazítás rosszul sikerült, ami nem megfelelő és helytelen képek előállításához vezetett. A Gemini, hasonló rendszerekhez hasonlóan, például az OpenAI-tól származó rendszerekkel, egy szöveget generáló „nagy nyelvi modellt” (LLM) kombinál egy képalkotó rendszerrel. A LLM-t gondos utasításokkal látják el a felhasználó kéréseinek újraírásához, hogy aktiválják a képgenerálót. Sajnos ezeknek az utasításoknak a felhasználóknak való véletlenszerű nyilvánosságra kerülése néha bekövetkezhet, amit „utasítási befecskendezésnek” neveznek.

Az utasítási befecskendezés megmutatta, hogy a Gemini utasításai magukban foglalták az eltérő nemek és etnikumok egyenlő arányú képviseletét. Azonban ez önmagában nem magyarázza meg, hogy miért állított elő ilyen túlzott és helytelen eredményeket a rendszer. Sergey Brin saját zavartságát fejezte ki azon, hogy miért hajlott a modell bizonyos elfogultságok felé, és elismerte, hogy alapos tesztelés hiányzott.

A szakterület szakértői, például Dame Wendy Hall a Southamptoni Egyetemről, arra állítják, hogy a Google sietősnek bizonyult a Gemini modell kiadásakor, válaszul az OpenAI által sikeres AI modellekkel elért eredményekre. Ez a versenypályára állás kompromittálta a technológia alapos értékelését és tesztelését. Hall hangsúlyozza a modellek ésszerű képzésének fontosságát annak érdekében, hogy ne olyan nonszensz képeket produkáljanak, mint a Gemini ábrázolása a német második világháborús katonákról.

A Gemini körül kialakult vita ellenére ez az incidens ráirányíthatja az AI biztonsági vitát azonnali aggodalmakra, például a deepfake-ek elleni küzdelemre. Aláhúzza az AI modellek átfogó tesztelésének és értékelésének szükségességét, mielőtt azokat széles körben kiadják. Magasak az elvárások a generatív AI modellekkel szemben a kreativitás, pontosság és társadalmi normák tükrözésének tekintetében. Azonban, ahogyan Andrew Rogoyski a Surrey Egyetemről megjegyzi, emlékezni kell arra, hogy ez a technológia viszonylag új, és még mindig fejlődik.

Bár volt találgatás Sundar Pichai pozíciójáról a Google-nél, ha kizárólag rá hárítanánk a felelősséget, figyelmen kívül hagynánk a nagyobb problémát, az munkakultúra és a rendszerszintű visszaállítás szükségét. A Gemini incidens utáni következményekben kulcsfontosságú, hogy a Google és más technológiai vállalatok elsődlegesen az AI biztonságra helyezzék a hangsúlyt, nemcsak a technológia jövő generációi, hanem a deepfake-ek terjedésével kapcsolatos azonnali kockázatok és társadalmi kihívások kezelésére.

GYIK:

1. Mi a legutóbbi vita a Google mesterséges intelligencia modelljét, a Gemit, körül?
A Google mesterséges intelligencia modellje, a Gemini, vitába keveredett képalkotó eszköze miatt, ami történelmi alakokat, köztük pápákat és német katonákat ábrázolt színesbőrű embereknek. Ez negatív véleményeket és kritikákat váltott ki olyan személyekből, mint Elon Musk és a Google vezérigazgatója, Sundar Pichai.

2. Mi volt a Gemini létrehozásának szándéka?
A Google azért hozta létre a Geminit, hogy egy elfogultságmentes AI modellt készítsen, ami megoldaná azoknak az elfogultságoknak a problémáit, amelyek más AI rendszerekben fennállnak.

3. Hogyan működik a Gemini?
A Gemini egy szöveget generáló „nagy nyelvi modellt” (LLM) kombinál egy képalkotó rendszerrel. A LLM-t utasítják a felhasználó kéréseinek újraírására, hogy aktiválják a képgenerálót.

4. Mit jelent az „utasítási befecskendezés” a Gemini kontextusában?
Az utasítási befecskendezés arra utal, hogy a Gemini utasításai nyilvánosságra kerülnek a felhasználók számára, ami nem megfelelő vagy helytelen képgeneráláshoz vezet.

5. Miért produkált elfogult és helytelen eredményeket a Gemini?
Bár a Gemini utasításai magukban foglalták az eltérő nemek és etnikumok egyenlő arányú képviseletét, nem világos, hogy miért állított elő elfogult eredményeket a rendszer. Sergey Brin, a Google társalapítója, zavarát fejezte ki az elfogultságokkal kapcsolatban, és elismerte, hogy alapos tesztelés hiányzott.

6. Miért kritizálták a Gemini kiadására történő sietését?
A szakértők, például Dame Wendy Hall a Southamptoni Egyetemről, azt állítják, hogy a Google sietve adta ki a Gemini modellt az OpenAI sikeres AI modelleivel való versenyzés miatt. Ez veszélyeztette a technológia alapos értékelését és tesztelését.

7. Mit hangsúlyoz a Gemini körüli vitában?
A vita rámutat az AI modellek átfogó tesztelésének és értékelésének szükségességére, mielőtt azokat nagy kiterjedésben kiadják. Emellett kiemeli a generatív AI modellekkel szembeni magas elvárásokat a kreativitás, pontosság és a társadalmi normák tükrözésének tekintetében.

8. Mire kellene koncentrálni az AI biztonsági vita azonnali aggodalmain?
A Gemini incidens átirányíthatja az AI biztonsági vitát azonnali aggodalmakra, például a deepfake-ek elleni küzdelemre. Aláhúzza azonnali kockázatok és társadalmi kihívások kezelésének fontosságát az AI területén.

9. Az incidensért csak Sundar Pichait lehet-e hibáztatni?
Nem, kizárólag Sundar Pichait hibáztatni túl egyszerű volna, ez figyelmen kívül hagyná a munkakultúra és a rendszerszintű visszaállítás fontosabb kérdéseit. Az incidens azt mutatja, hogy a Google és más technológiai vállalatoknak elsődlegesen az AI biztonságára kell összpontosítaniuk.

Kulcsszavak:
– Gemini: A Google mesterséges intelligencia modellje.
– Elfogultságmentes AI modell: Egy olyan AI modell, ami törekszik a döntéshozatalban vagy kimenetekben található elfogultságok megszüntetésére.
– Nagy nyelvi modell (LLM): Egy szöveget generáló rendszer, ami része a Gemini AI modellnek.
– Utasítási befecskendezés: A Gemini utasításainak felfedése a felhasználók számára, ami elfogult vagy helytelen képgeneráláshoz vezet.

Kapcsolódó linkek:
OpenAI – Az OpenAI weboldala, egy versenytárs az AI területen, amit az írásban említenek.
Southamptoni Egyetem – Dame Wendy Hall munkahelyének weboldala, aki a cikk szerint ezzel a intézménnyel kapcsolatban áll.
Surrey Egyetem – Andrew Rogoyski munkahelyének weboldala, aki a cikk szerint ezzel a intézménnyel kapcsoltban áll.

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact