Psykologiekspertar advarar mot bruk av AI-løgnedeteksjon

Ny teknologiar innan AI blir utfordra i applikasjonar for løgnedeteksjon

I ei nyskapande utvikling innanfor kognitive vitskapar reiser ei psykologisk studie bekymringar kring bruken av kunstig intelligens i riket for løgnedeteksjon. Forskarar ved Universitetet i Marburg og Universitetet i Würzburg i Tyskland har dratt inn i tvil påliteligheten og etikken ved å bruke AI til dette formålet.

Dei to tyske vitskapsmennene viste til eit europeisk prosjekt, meint for overvaking av grenser, for å eksemplifisere den praktiske testinga av slik AI-teknologi. Spesielt har ein liknande AI-basert løgnedeteksjonssystem blitt pilotert ved EU sine ytre grenser i Hellas, Latvia og Ungarn. Sjølv om systemet framleis er i sin spede barndom, er effektiviteten og nøyaktigheita under intens kritisk gransking.

Ulempene med AI slik dei blir opplevd av ekspertane

Psykologane meiner at desse AI-systemene utgjer ein «svart boks», kva deira dommar forblir ugjennomsiktig og kan ikkje eksternt validerast. Under deira undersøking har dei framheva den ibuande risikoen for feilaktige resultat frå slike system. Dei presiserer at, til tross for tiår med forsking, har ein solid atferdsindikator eller ein sett av indikatorar som tydeleg signaliserer bedrag vore unnvikande.

Vidare understrekar forskarane at, som den mytiske Pinocchio, som sin nese ville lengje seg ved løgn, indikerer ingen fysiologisk tegn truverdig uærlighet. Dei påstår ytterlegare den vitskaplege ugyldigheita av tradisjonelle polygraphtestar som hevdar å skilje sanning gjennom fysiske responser som blodtrykk, hjarterytme og pustemønster. Denne skepsisen strekkjer seg til AI sin noverande rolle i løgnedeteksjon, sidan den framleis tungt stolar på desse omstridde fysiologiske indikatorane.

Utfordringar og kontroversar i AI løgnedeteksjon

Ei av hovudutfordringane i AI løgnedeteksjon er mangelen på transparens og evnen til å forstå korleis AI kjem fram til sine konklusjonar. Dette «svart boks»-problemet skapar ein situasjon der avgjerder tatt av AI kan vere feilaktige, men det er minimal innsikt i kvifor eller korleis den feilaktige konklusjonen vart nådd.

Ein annan kontrovers er brotet på personvern og etiske implikasjonar av AI løgnedeteksjon, som til dømes når enkeltpersoner blir utsett for AI-interrogasjon utan tilstrekkelig samtykke eller rettsvern. I tillegg er det bekymringar knytt til implikasjonane av ein falsk positiv eller negativ, der ein individ kan bli urettmessig anklaga eller feilaktig friskmeldt basert på AI sin avgjerd.

Nøyaktigheita til AI løgnedeteksjon blir ytterlegare utfordra av erkjennelsen av at menneskeleg bedrag er eit komplekst fenomen utan universelle indikatorar. Dessutan gjer ulike kulturelle normer og individuelle atferdsforskjellar det vanskeleg for AI å konsekvent fastsette løgnar på tvers av ulike populasjonar.

Privacy policy
Contact