Tekoälyn faktojen tarkistamisen harha-askel: Googlen tekoälyn yleiskatsaus saa kritiikkiä epätarkkuuksista

Tekoälyn alalla Google on kohdannut vastustusta sen jälkeen kun käyttäjät havaitsivat, että sen uusi ”AI Overview” -hakutoiminto antoi faktallisesti virheellisiä vastauksia kyselyihin. Tämä kahden viikon takainen ominaisuus oli suunniteltu virtaviivaistamaan monimutkaisten kysymysten vastaamista antamalla koottuja vastauksia Google-hakusivun huipulle.

Tapauksissa, joissa tekoäly ehdotti oudon kuuloisia hoitokeinoja, kuten juuston levittämistä pizzan korjaamiseksi tai kivien syömistä terveyshyötyjen saamiseksi, ja kumoutunut salaliittoteoria entisen presidentti Barack Obaman uskonnosta, herätti kysymyksiä tekoälyllä tuotettujen vastausten luotettavuudesta.

AI-yritys Vectaran suorittama tutkimus paljasti, että chatbotit sepittävät tietoja huomattavissa määrin, mikä joskus yltää jopa 27 %:iin. Nämä virheellisten tietojen tapaukset, usein kutsuttu ”hallusinaatioiksi,” johtuvat suurten kielimallien (LLM) aiheuttamista seuraamuksista, kuten OpenAI:n ChatGPT ja Googlen Gemini, jotka on ohjelmoitu ennakoimaan vastauksia kuvioita tunnistamalla, ei faktuaalisesti oikeellisina.

AI-asiantuntijat ovat valaisseet syytä, miksi nämä hallusinaatiot tapahtuvat. Jos koulutustiedot ovat puutteelliset tai vinoutuneet, tekoälyn tuottama tieto voi olla harhaanjohtavaa. Hanan Wazan Artefactista verrannollistaa tekoälyn prosessia ihmisen kognitioon – me ajattelemme ennen kuin puhumme, ja niin tekee myös tekoäly hakiessaan laajasta tietokannasta ennakoivia sanajärjestyksiä. Lisäksi Alexander Sukharevsky QuantumBlackista, McKinseyn yrityksestä, ehdottaa viittaamista tekoälyyn ”hybriditeknologiana,” korostaen vastausten matemaattista laskemista havaittujen tietojen perusteella.

Google myöntää, että hallusinaatioita voi esiintyä riittämättömistä tietojoukoista, virheellisistä oletuksista tai piilevistä ennakkoluuloista tiedoissa. Hakukonejätti huomautti, että tällaiset tekoälyn virheet voivat johtaa vakaviin seurauksiin, kuten virheelliset lääketieteelliset diagnoosit, jotka aiheuttavat tarpeettomia interventioita.

Laatu ennen määrää tiedoissa, ehdottaa Igor Sevo HTEC Groupista, joka huomioi, että vaikka tekoälyllä tapahtuvat ”hallusinaatiot” voivat herättää luovuutta, on kiireellinen tarve kouluttaa tekoälymalleja erottamaan totuus fiktiosta. OpenAI on aloittanut yhteistyön arvostettujen mediayritysten kuten Axel Springerin ja News Corpin kanssa kouluttaakseen tekoälymallejaan luotettavammilla tiedoilla, alleviivaten korkealaatuisen tulotiedon tärkeyttä pelkän volyymin sijaan. Nämä toimet ovat oleellinen askel kohti tekoäly-chatbotien tarkkuuden ja luotettavuuden parantamista.

Tärkeitä kysymyksiä ja vastauksia:
Miksi Googlen kaltaiset AI-mallit tuottavat faktuaalisesti virheellisiä vastauksia? AI-mallit saattavat tuottaa virheellisiä vastauksia vääristymien, virheiden tai puutteiden vuoksi koulutustiedoissa, sekä niiden perusluonteesta, joka priorisoi kuvioita tunnistamisen faktuaalisen tarkkuuden sijaan.

Mitä ovat joitakin tärkeimmistä haasteista AI:n faktojen tarkastamisessa? Keskeisiä haasteita ovat varmistaa koulutustiedoissa käytetyn datan laatu, voittaa perinnäiset vinoumat, ja kehittää menetelmiä, joiden avulla AI pystyy erottamaan tosiasiaperäisen tiedon fiktiosta.

Mikä oli kritiikki, jonka Google kohtasi liittyen sen ”AI Overview” -ominaisuuteen? Google kohtasi kritiikkiä uudesta AI-ominaisuudestaan, joka tarjosi epätarkkoja vastauksia, mukaan lukien epäsopivat hoitokeinot ja väärän uskon levittämisen.

Keskeiset haasteet tai kiistakysymykset:
Yksi pääkiistokysymyksistä AI:n faktojen tarkastelussa liittyy tasapainon löytämiseen tekoälyn vapauden ja luovan sisällön tuottamisen sekä tiedon tarkkuuden takaamisen välillä. Toinen kiistanalainen aihe on teknologiayritysten eettinen vastuu estää virheellisen tiedon leviäminen ja tietää käyttäjiä tekoälyllä luodun sisällön rajoituksista.

Edut:
– Informaation hakutoimintojen virtaviivaistaminen
– Avustaminen monimutkaisten kysymysten kanssa
– Luovuuden herättämisen mahdollisuus epätavanomaisten vastausten kautta

Haitat:
– Virheellisen tiedon leviämisen riski
– Mahdollisuus vakaviin seurauksiin, erityisesti herkillä aloilla kuten terveydenhuolto
– Luottamuksen väheneminen tekoälyjärjestelmiin virheellisten tulosten vuoksi

Lisätietoja Googlen tekoälyaloitteista kiinnostuneille löytyy Google pääverkkotunnukselta: Google.

Toinen resurssi tekoälyn oppimiseen ja alan kehityksestä löytyy OpenAI:n verkkosivuilta: OpenAI.

Ja ymmärtääkseen enemmän vastuullisesta tekoälystä ja sen eettisistä vaikutuksista, voi tutustua Future of Life Instituten verkkosivuilla julkaistuihin asiakirjoihin: Future of Life Institute.

The source of the article is from the blog macnifico.pt

Privacy policy
Contact