Google’s AI neveiksmes: stāsts par Mēnesa kaķiem un dezinformāciju

Google nesen atjauninātais meklētājs uz iedvesmojošu jautājumu atbildēja ar nepatiesu paziņojumu; tas ieteica, ka astronauti saskārušies un rūpējušies par kaķiem uz Mēness, izteikums bez faktiskas pamatojuma. Šī jautrā kļūda ir tikai viena no daudzajām, kas ir izraisījušas satraukumu ekspertu vidū.

Mūsdienu attieksmē, kur tiek novērtētas momentānās atbildes, Google AI ģenerētie atbilžu veidi ir izpētīti par iespējamu dezinformācijas vairošanu. Nesenā notikumā, kad AI neprecīzi apstiprināja konspirāciju par Amerikas prezidentu, tas izgaismo risks. AI nepareizi apgalvoja, ka Amerikas Savienotajās Valstīs ir musulmaņu prezidents, lai gan atsauce uz grāmatas nodaļu, ko minēja AI, neatbalstīja šo dezinformāciju.

Bažas par jaunā AI apkopošanas funkciju ir acīmredzamas. Eksperti argumentē, ka šīs iespējas, ņemot vērā tās pašreizējo uzticamības līmeni, var būt neuzticīgas, ja tām nepiekristu. Google ir apzinājies šīs kļūdas un apņēmies tās labot un uzlabot šo funkciju, pamatojoties uz saņemto atsauksmju.

Tomēr Google uzsver, ka lielākoties AI modelis ir precīzs, pievienojot kļūdas neprognozējamajai mašīnmācības dabai. Tehnoloģija darbojas prognozēšanas pamatā, laiku pa laikam izgudrojot atbildes, parādību, ko sauc par “halucināciju”.

Ekspertu brīdinājumi nav tikai par nekavējošajām nepareizībām. Ir dziļāka baža par atkarību no AI saņemtajai informācijai: tā var apdraudēt cilvēces spēju izpētīt un patstāvīgi validēt zināšanas. Turklāt Google vadītie AI virzieni ietekmē interneta forumus un citus tīmekļa vietnes, kuri var zaudēt apmeklētājus, ietekmējot to dzīvotspēju un monetizāciju.

Google konkurenti uzmanīgi vēro tās AI iniciatīvas, jo šī tehnoloģiju giganta mērķis ir palikt priekšā inovatīviem pretiniekiem, piemēram, OpenAI’s ChatGPT. Meitene pēc autoritatīvas AI ir izraisījusi diskusijas, tā kā daži nozares dalībnieki jautā, vai steigšanās uz tehnoloģiju, kurai joprojām ir būtiskas kvalitātes trūkumi, ir pamatota.

Galvenie jautājumi un izaicinājumi

Kāda bija Google AI dezinformācijas dabas?
Google AI meklēšanas dzinējs sniedza nepareizas atbildes, piemēram, apgalvojot, ka “mēness kaķus” rūpējoties astronauti un laišķīgi apstiprinot konspirāciju par Amerikas musulmaņu prezidentu.

Kāpēc šīs AI kļūdas ir uztraucošas?
AI radītā dezinformācija var likt cilvēkiem pieņemt nepatiesu informāciju, kas pazemina spēju kritiski novērtēt un patstāvīgi validēt faktu.

Ko Google dara, lai risinātu AI kļūdas?
Google ir atzinis AI veiktās kļūdas un ir saņēmis, ka labos tās un uzlabos modeli, uzsverot, ka AI precizitāte ir prioritāte.

Kādas varētu būt atkarības no AI potenciālās sekas?
Pārmērīga atkarība no AI radītām atbildēm var ietekmēt cilvēku kritisko domāšanu, tīmekļa forumus un citas vietnes, ja apmeklējums tiek novirzīts sakarā ar AI radītu saturu.

ņemot vērā tēmas koncentrēšanos uz Google, šeit ir saistīta saite:
Google

AI gaļs pūlēs Google, kas raisa bažas par dezinformāciju, ir daļa no plašāka sabiedrības un tehnoloģiju konteksta, kas ietver diskusijas par AI pārvaldību, etiku un atbildīga AI sistēmu attīstību. Šādi izaicinājumi nav izolēti no Google, bet sastopami visā tehnoloģiju nozarē, jo AI kļūst arvien vairāk integrēta ikdienas dzīvē. Šo izaicinājumu risināšana prasa daudznozaru pieeju, ietverot ne tikai tehnoloģiskās risinājumus, piemēram, algoritmu uzlabošanu, bet arī izglītības, regulatīvas un sabiedrības pūles, lai uzlabotu digitālo lietrāšanu un nodrošinātu stingras vadlīnijas AI izvietošanai.

Privacy policy
Contact