Eit AI-faktafeil: Googles AI-oversikt får kritikk for unøyaktigheter

På området kunstig intelligens har Google møtt motstand etter at brukere identifiserte at den nye «AI Oversikt» søkefunksjonen ga faktisk feil svar på spørsmål. Denne funksjonen, innført for to uker siden, var designet for å effektivisere oppgaven med å svare på komplekse spørsmål ved å presentere sammenfattede svar øverst på Google-siden.

Tilfeller der AIen foreslo bisarre løsninger, som å bruke ost for å fikse pizza eller spise steiner for helsefordeler, sammen med en avkreftet konspirasjonsteori om tidligere president Barack Obamas religion, reiste spørsmål om påliteligheten til AI-genererte svar.

En studie utført av AI-startupen Vectara avslørte at chatbots fabrikerer informasjon i et betydelig høyt antall tilfeller, som noen ganger når opptil 27%. Disse tilfellene av feilinformasjon, ofte kalt «hallusinasjoner,» stammer fra de store språkmodellene (LLM), som ChatGPT fra OpenAI og Gemini fra Google, som er programmert til å predikere svar basert på mønstergjenkjenning, heller enn faktisk nøyaktighet.

AI-eksperter har kastet lys over hvorfor slike hallusinasjoner oppstår. Hvis treningsdataene er ufullstendige eller skjeve, kan AIens output være misvisende. Hanan Wazan, fra Artefact, sammenligner AIens prosess med menneskelig kognisjon – vi tenker før vi snakker, og det gjør også AIen, basert på sin enorme database for å forutse ordrekkefølger. Videre foreslår Alexander Sukharevsky fra QuantumBlack, et selskap eid av McKinsey, å omtale AI som en «hybridteknologi,» og vektlegger den matematiske beregningen av svar basert på observerte data.

Google innrømmer at hallusinasjoner kan oppstå på grunn av utilstrekkelige datasett, feilaktige antagelser eller underliggende fordommer i informasjonen. Søkegiganten merket seg at slike AI-feil kan føre til alvorlige konsekvenser, som feilaktige medisinske diagnoser som utløser unødvendige intervensjoner.

Kvalitet fremfor kvantitet i data, foreslår Igor Sevo fra HTEC Group, som påpeker at mens AI «hallusinasjoner» kan fremme kreativitet, er det et presserende behov for å opplyse AI-modeller om å skille sannhet fra fiksjon. OpenAI har begynt samarbeid med anerkjente medieorganisasjoner som Axel Springer og News Corp for å trene sine AI-modeller på mer pålitelige data, og understreker viktigheten av høykvalitets inndata over kun volum. Disse tiltakene er et avgjørende skritt mot å forbedre nøyaktigheten og påliteligheten til AI-chatbots.

Viktige Spørsmål og Svar:
Hvorfor produserer AI-modeller som Googles feilaktige svar? AI-modeller kan produsere feilaktige svar på grunn av skjevheter, feil eller mangler i treningsdataene, samt deres iboende design, som prioriterer mønstergjenkjenning fremfor faktisk nøyaktighet.

Hva er noen av de viktigste utfordringene ved faktasjekking av AI? Viktige utfordringer inkluderer å sikre kvaliteten på dataene som brukes til å trene AI-modeller, overvinne iboende skjevheter og utvikle metoder for at AI skal kunne skille mellom nøyaktig og fabrikkert informasjon.

Hva var kritikken Google møtte i forhold til sin «AI Oversikt» funksjon? Google ble kritisert for den nye AI-funksjonen som ga unøyaktige svar, inkludert upassende løsninger og spredning av avkreftede konspirasjonsteorier.

Viktige Utfordringer eller Kontroverser:
En av de største kontroversene innen AI-faktkontroll handler om balansen mellom AI-frihet til å generere kreativt innhold og behovet for å sikre nøyaktigheten av informasjonen den gir. Et annet kontroversielt emne er teknologiselskapers etiske ansvar for å motvirke spredningen av feilinformasjon og informere brukerne om begrensningene ved AI-generert innhold.

Fordeler:
– Effektivisering av informasjonshenting
– Hjelp til brukere med komplekse spørsmål
– Muligheten for å fremme kreativitet gjennom ukonvensjonelle svar

Ulemper:
– Risiko for spredning av feilinformasjon
– Potensiale for alvorlige konsekvenser, spesielt innen sensitive felt som helsevesenet
– Redusert tillit til AI-systemer på grunn av unøyaktige resultater

For å utforske mer om Googles initiativer innen kunstig intelligens kan interesserte besøke Googles hoveddomene for ytterligere informasjon: Google.

En annen ressurs for å lære mer om kunstig intelligens og fremskrittene på dette feltet kan finnes på OpenAIs nettside: OpenAI.

Og for å forstå mer om ansvarlig AI og de etiske implikasjonene, kan man konsultere prosedyrene som finnes på nettsiden til Future of Life Institute: Future of Life Institute.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact