Dvīņi: Google inteliģence ar uzlabotām pārbaudes funkcijām.

Google ģeneratīvā AI uzlabo precizitāti čatbotos

Novembrī 2023. gadā AI jomā notika būtisks notikums, par ko liecina start-up uzņēmums Vectara – komanda, kurā ietilpa bijušie Google darbinieki. Saskaņā ar viņu datiem OpenAI ChatGPT halucināciju ātrums ir 3%. Šis procentuālais daudzums varētu šķist minimāls, taču nepareiza čatbota atbilde var radīt nopietnas sekas, īpaši, ja tā desinformē profesionāļus, piemēram, ārstus, vadītājus vai analiķus.

Problēma ar AI radītu dezinformāciju nav ekskluzīva tikai ChatGPT gadījumam; citi čatboti, kas balstīti uz Lielām Valodas Modeļiem, dažreiz arī radīs neprecīzas atbildes. Tomēr Google ir atšķīries, ieviešot AI, ko sauc par Gemini, kura ir inovatīva īpašība, lai autentizētu sniegto informāciju.

Atšķirībā no bezmaksas ChatGPT versijas, kura var nebūt aktuāla ar datiem no interneta, Gemini spēj iegūt un iekļaut jaunākos tiešsaistes datus savās atbildēs. Šī funkcija ir svarīga no diviem iemesliem: lietotāji saņem aktuālas atbildes un tie var noteikt sniegto informāciju no chatbota uzticamību.

To, kas atšķir Gemini, ir unikāla funkcija. Katrai Gemini ģenerētai atbildei pavada Google zīmola ‘G’ ikona. Kad lietotāji noklikšķina uz šīs ikonas, Gemini veic tīmekļa meklēšanu, analizējot tās AI radīto teksta ticamību.

Pabeigot meklēšanu, Gemini izceļ konkrētas atbildes daļas zaļā vai oranžā krāsā. Zaļie teikumi apzīmē ‘verificēto’ informāciju, kas ir atbalstīta ar tiešsaistes atbilstībām, ko lietotāji var apstiprināt, sekojot norādītam reputācijas avota saitei. Tomēr Google skaidro, ka atbilstība var nederīt pilnībā atbilstošam avotam, ko Gemini izmanto savai sākotnējai atbildei.

Savukārt oranžā krāsā iezīmētie teikumi norāda uz potenciālām nepilnībām un ir brīdinājums, ka var būt nepieciešama papildu verifikācija. Tas arī var norādīt, ka nekāda atbilstoša informācija nav atrasta, kur tiek nodrošināta saite, ja iespējams.

Visbeidzot, iespējams būt tekstam, kurš nav pieskarties zaļam vai oranžam, norādot informācijas trūkumu, lai novērtētu čatbota izteikumus, vai tas nav domāts sniegt objektīvu informāciju. Šādos gadījumos lietotājiem tiek ieteikta piesardzība un tālāks validācijas process.

Noslēgumā, lai gan citi AI rīki, piemēram, Microsoft Copilot vai Perplexity arī nodrošina noderīgas saites teksta verifikācijai, Gemini tiešā pieeja fakta pārbaudei savā interfeisā ir cildena solis uz uzticamiem un precīziem mijiedarbības ar AI čatbotiem nodrošināšanu.

Fakti:

– Gemini ir Google izstrādāta AI, kas ietver uzlabotas pārbaudes iespējas.
– Lielie Valodas Modeļi, piemēram, tie, kas darbo ChatGPT, dažreiz ģenerē neprecīzu vai maldinošu informāciju, zināmu kā “halucinācijas”.
– Gemini piedāvā tiešu informācijas pārbaudi, ko tas ģenerē, iezīmējot tekstus dažādās krāsās, atkarībā no šīs informācijas verificējamības.

Svarīgie jautājumi un atbildes:

Ja: Kā Gemini verificē nodrošināto informāciju?
A: Gemini analizē savas atbildes un izmanto krāsu koda sistēmu, lai norādītu informācijas verificējamību. Zaļais norāda verificētu informāciju, oranžais norāda iespējamās neprecizitātes, bet tekstam bez krāsas var trūkt pietiekami datiem novērtējuma vai tas var būt subjektīvs.

Ja: Kāpēc ir svarīga verificējamība AI atbildēs?
A: Nodrošināt, ka informācija no AI ir precīza un verificējama, ir būtiski, īpaši profesionālās vides, kur dezinformācija var radīt nozīmīgas sekas.

Izaicinājumi un Kontroverses:

– Nodrošinot, ka AI radītais saturs ir precīzs un bez ietekmēm, joprojām ir nozīmīgs izaicinājums attīstītājiem.
– Var būt jautājumi saistībā ar paļaušanos uz pašreizējiem tīkla datiem, jo tas pieņem, ka visi precīzi dati ir pieejami un indeksēti tiešsaistē.
– Lietotāju privātuma bažas var rasties, kad AI sistēmas spēj veikt tīmekļa meklēšanu fona režīmā.

Priekšrocības:

– Gemini nodrošina lietotājiem lielāku paļaušanos uz AI radīto saturu precizitāti.
– Spēja pārbaudīt informācijas verificējamību uz vietas palielina lietotāju uzticību un uzticamību čatbotā.
– Informācija, kas ir aktuāla un ir caur verifikācijas procesu, var būt droša lietošanai lēmumu pieņemšanai.

Nepriekšrocības:

– Pārmērīga uzticēšanās verifikācijas rīkiem var novest lietotājus novērtēt kritisko domāšanu, mijiedarbojoties ar AI.
– Pastāv iespēja uz kļūdām, ja Gemini nepareizi iezīmē precīzu informāciju kā neverificētu (nedrošu negatīvu rezultātu) vai neprecīzu informāciju kā verificētu (nedrošu pozitīvu rezultātu).

Ieteicamie Saistītie Attēlojumi:

– Lai uzzinātu vairāk par AI un skaitliskām modeļiem: Google AI
– Informācija par AI čatbotu un valodas modeļu attīstību: OpenAI
– Informācija par Microsoft AI rīkiem: Microsoft AI

Lūdzu, ņemiet vērā, ka, neskatoties uz to, ka cenšos sniegt precīzus URL, pārbaudiet tos, jo nevaru pārlūkot internetu, lai apstiprinātu tos.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact