Ekspertide hoiatavad tehisintellekti vale avastamise usaldusväärsuse osas

Psühholoogiatöötajad Saksamaal väljendavad muret AI kasutamise pärast valetamise tuvastamisel. Olulises väljaandes “Trends in Cognitive Sciences” tõid Saksamaa ülikoolide teadlased esile keerukused, mis kaasnevad kunstliku intelligentsi kasutamisega valetamise avastamisel. Konkreetsemalt tõid Christina Suchotsky Marburgi Ülikoolist ja Matthias Gamer Würzburgi Ülikoolist näidetena esile AI kasutamise Euroopa Liidu piiridel ja kriminaaluurimistes tõe hindamisel.

Kunstliku intelligentsuse “musta kasti” olemus tekitab tõlgendamisega seotud väljakutseid. Saksa teadlased märkisid, et kunstlik intelligentsus töötab sageli kui “must kast”, mis tähendab, et nende mõtlemisprotsessid jäävad hämaraks ja nende otsuste välise kontrollimine pole võimalik. See läbipaistmatus võib viia ebatäpsete tulemusteni.

Reaalse “Pinocchio nina” otsingud on tulutud. Duo rõhutas, et reaalsuses pole füüsilisi näitajaid, mis oleksid piisavalt usaldusväärsed, et eristada valet tõest inimkäitumises, sarnaselt Pinocchio nina müüdile, mis kasvab valetades. Seega jääb sellise pettuse füsioloogilise märgi otsing müütiliseks pigem kui teaduslikuks.

Olulised küsimused ja vastused:

K: Millised võimalikud probleemid on seotud AI kasutamisega valetamise tuvastamisel?
V: Võimalikud probleemid hõlmavad läbipaistmatust AI otsustusprotsessides, võimalust teha otsuseid ebatäpsetel või mittesegavatel füsioloogilistel petmise näitajatel ning muret sellise tehnoloogia täpsuse ja eetika pärast tundlikes valdkondades nagu õiguskaitse või piirikontroll.

K: Kas AI suudab valet paremini tuvastada kui inimesed?
V: Olemasolevad tõendid viitavad sellele, et AI võib valet märkimisväärselt vähem usaldusväärselt tuvastada kui inimesed, osaliselt inimpsühholoogia ja käitumise keerukuse tõttu. AI-l pole veel võimet mõista ja tõlgendada inimese emotsioone ning peenusi samamoodi nagu inimene.

Kesksed väljakutsed ja vaidlused:

Üks põhiküsimusi AI valetamise tuvastamisel on “musta kasti” probleem, kus AI järelduste taga olev mõtlemise põhjendus ei ole inimeste poolt kergesti arusaadav või hinnatav. See tekitab muret selliste süsteemide õigluse ja vastutuse pärast, eriti olulistes olukordades.

Teine vaidlus seisneb universaalse füsioloogiliste või käitumuslike signaalide kindlakstegemise raskuses, mis suudaksid usaldusväärselt näidata pettust erinevate isikute ja olukordade korral. Inimkäitumine on väga keeruline ja seda võivad mõjutada lugematud muutujad, mida AI süsteemid ei pruugi arvesse võtta.

Eelised ja puudused:

Eelised:

– AI suudab töödelda suuremaid andmemahte kiiremini kui inimesed, võimalik, et tuvastada mustreid, mis viitavad petmisele.
– AI kasutamine võiks vähendada inimeste eelarvamusi, mis võivad esineda valetamise tuvastamisel, tingimusel et AI ei ole õppinud eelarvamusega andmeid.
– AI süsteemid võivad olla ööpäevaringselt kättesaadavad ega kannata väsimust nagu inimoperaatorid võiksid.

Puudused:

– AI võib mitte suuta mõista inimpsühholoogia ja sotsiaalse käitumise nüansse, mis võib viia võimalike ebatäpsusteni.
– AI mõtlemisprotsessi selgitamatus võib õõnestada usaldust selle järelduste vastu ning kaasa tuua eetilisi küsimusi.
– Algoritmilised eelarvamused võivad ilmneda AI süsteemide koolitamise käigus, mis võib kaasa tuua ebaõiglaseid tulemusi või diskrimineerimist.

Lisateabe saamiseks AI kasutamise kohta erinevates valdkondades ja sellega seotud arutelude kohta võivad lugejad uurida järgmisi peamisi valdkondi:

Computing Machinery Association
Nature (Rahvusvaheline Teadusajakiri)
Ameerika Kodanikuõiguste Liit

Pidage meeles, et eetiliste ja privaatsuse põhjustel on AI kasutamine valetamise tuvastamisel endiselt vastuoluline küsimus ja jätkuvad uuringud ning arutelud kujundavad selle rolli tulevikus.

Privacy policy
Contact