AI-faktagranskningens misstag: Googles översikt över AI-kritiseras för inkorrektheter

Inom området för artificiell intelligens har Google mött kritik efter att användare identifierade att dess nya ”AI-översikt”-sökfunktion gav faktamässigt inkorrekta svar på frågor. Denna funktion, som introducerades för två veckor sedan, var utformad för att effektivisera uppgiften att besvara komplexa frågor genom att presentera aggregerade svar högst upp på Google-sökningssidan.

Exempel där AI föreslog bisarra åtgärder, såsom att applicera ost för att fixa pizza eller äta stenar för hälsofördelar, tillsammans med en avfärdad konspirationsteori om tidigare president Barack Obamas religion, väckte frågor kring tillförlitligheten hos AI-genererade svar.

En studie utförd av AI-startupen Vectara avslöjade att chattbots fabricerar information i en märkbart hög frekvens av fall, som ibland når upp till 27%. Dessa desinformationsfall, ofta kallade ”hallucinationer”, härstammar från de Stora Språkmodellerna (LLM), som ChatGPT av OpenAI och Gemini av Google, som är programmerade att förutsäga svar baserat på mönsterigenkänning, snarare än faktamässig korrekthet.

AI-experter har belyst varför sådana hallucinationer uppstår. Om träningsdatan är ofullständig eller snedvriden kan AI:s resultat vara vilseledande. Hanan Wazan från Artefact jämför AI:s process med mänsklig kognition – vi tänker innan vi talar, och det gör även AI:n, genom att dra från sin omfattande databas för att förutse ordsekvenser. Dessutom föreslår Alexander Sukharevsky från QuantumBlack, ett McKinsey-företag, att hänvisa till AI som en ”hybridteknologi”, som betonar den matematiska beräkningen av svar baserade på observerade data.

Google medger att hallucinationer kan uppstå på grund av otillräckliga dataset, felaktiga antaganden eller underliggande fördomar inom informationen. Sökgiganten noterade att sådana misslyckanden från AI kunde leda till allvarliga konsekvenser, såsom felaktiga medicinska diagnoser som utlöser onödiga ingripanden.

Kvalitet före kvantitet i data, föreslår Igor Sevo från HTEC Group, som påpekar att medan AI-”hallucinationer” kan väcka kreativitet, finns det ett brådskande behov av att utbilda AI-modeller för att särskilja sanning från fiktion. OpenAI har börjat samarbeta med respekterade medieföretag som Axel Springer och News Corp för att träna sina AI-modeller på mer tillförlitliga data och betonar vikten av högkvalitativa insatsdata över ren mängd. Dessa åtgärder utgör ett avgörande steg mot att förbättra noggrannheten och pålitligheten hos AI-chattbots.

Viktiga Frågor och Svar:
Varför producerar AI-modeller som Googles faktamässigt inkorrekta svar? AI-modeller kan producera felaktiga svar på grund av snedvridningar, fel eller luckor i träningsdata, samt deras inneboende design som prioriterar mönsterigenkänning över faktamässig korrekthet.

Vilka är några av de huvudsakliga utmaningarna i AI-faktagranskning? Huvudsakliga utmaningar inkluderar att säkerställa kvaliteten på data som används för att träna AI-modeller, överkomma inneboende fördomar och utveckla metoder för att AI ska kunna skilja mellan korrekt och fabricerad information.

Vilken kritik riktades mot Google med avseende på dess ”AI-översikt”-funktion? Google kritiserades för sin nya AI-funktion som tillhandahöll felaktiga svar, inklusive olämpliga åtgärder och spred avfärdade konspirationsteorier.

Nyckelutmaningar eller Kontroverser:
En av de främsta kontroverserna inom AI-faktagranskning involverar balansen mellan AI:s frihet att generera kreativt innehåll och behovet att säkerställa informationens noggrannhet den ger. Ett annat kontroversiellt ämne är teknologiföretags etiska ansvar för att förhindra spridningen av desinformation och informera användare om begränsningarna hos AI-genererat innehåll.

Fördelar:
– Effektivisering av informationshämtning
– Hjälpa användare med komplexa frågor
– Möjligheten att väcka kreativitet genom ovanliga svar

Nackdelar:
– Risken för att sprida desinformation
– Potential för allvarliga konsekvenser, särskilt inom känsliga områden som hälsovård
– Minskad tillit till AI-system på grund av inkorrekta resultat

För att utforska mer om Googles initiativ inom artificiell intelligens kan intresserade personer besöka Googles huvuddomän för ytterligare information: Google.

En annan resurs för att lära sig mer om artificiell intelligens och framsteg inom detta område finns på OpenAIs webbplats: OpenAI.

Och för att förstå mer om ansvarsfull AI och dess etiska konsekvenser kan man konsultera de handlingar som finns på webbplatsen för Future of Life Institute: Future of Life Institute.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact