Dvīņi: Google AI ar uzlabotām pārbaudāmības funkcijām

Google’s Ģeneratīvā AI uzlabo precizitāti tērzēšanas robotos

2023. gada novembrī AI joma piedzīvoja nozīmīgu attīstību, kā atklāja startapa Vectara izstrādātā komanda, kurā strādāja bijušie Google darbinieki. Pēc viņu datiem, OpenAI’s ChatGPT halucināciju līmenis ir 3%. Šis procents var šķist minimāls, bet saskaroties ar kļūdainu tērzēšanas robotu atbildi, tas var radīt nopietnas sekas, it īpaši tad, kad tas maldina profesionāļus, piemēram, ārstus, vadītājus vai analītiķus.

AI ģenerētās dezinformācijas problēma nav ekskluzīva ChatGPT; citas tērzēšanas robotas, kas balstītas uz Lielā valodas modeli, dažreiz arī ražo neprecīzus rezultātus. Tomēr Google ir sevi nostādījis nostājas ar ieviešanu AI, kas saucas Gemini, kam ir inovatīva funkcija, lai autentificētu sniegto informāciju.

Atšķirībā no ChatGPT brīvās versijas, kura var trūkt pašreizējās tīmekļa informācijas, Gemini spēj iegūt jaunākās tiešsaistes datu un iekļaut to savās atbildēs. Šī funkcija ir būtiska divu iemeslu dēļ: lietotāji saņem aktuālus atbilžu, un viņi var noteikt chatbota sniegtās informācijas uzticamību.

To, kas izceļ Gemini, ir unikāla iezīme. Katrai Gemini ģenerētajai atbildei ir pievienots Google zīmola ‘G’ ikona. Kad lietotāji noklikšķina uz šīs ikonas, Gemini veic tīmekļa meklēšanu, analizējot savas AI ģenerētā teksta ticamību.

Pabeidzot meklēšanu, Gemini izceļ dažas savas atbildes daļas zaļā vai oranžā krāsā. Zaļās frāzes apzīmē “verificētu” informāciju, ko atbalsta tiešsaistes atbilstīgie rezultāti, ko lietotāji var apstiprināt, sekojot norādītajam ticamajam avota saitam. Tomēr Google precizē, ka rādītā saite var nebūt tieši tas avots, ko Gemini izmantoja sava oriģinālā atbilde.

Savukārt, sarkanā krāsā atzīmētās frāzes norāda uz iespējamām nepilnībām un ir brīdinājums, ka var būt nepieciešama papildu verifikācija. Tas var norādīt arī uz to, ka nav atrasta atbilstoša informācija, kurai, ja tā ir pieejama, tiek pievienota saite.

Visbeidzot, var būt teksta daļas, ko nav skāris ne zaļais, ne oranžais, kas nozīmē nepietiekamu informāciju, lai novērtētu chatbota apgalvojumus, vai ka apgalvojumi nav domāti, lai sniegtu objektīvu informāciju. Šādos gadījumos lietotājiem jāizmanto savs spriedums un jāveic turpmāka validācija.

Noslēgumā, lai gan citas AI rīki, piemēram, Microsoft Copilot vai Perplexity, arī nodrošina noderīgas saites teksta verifikācijai, Gemi…

The source of the article is from the blog karacasanime.com.ve

Privacy policy
Contact