Az Egyesült Államok San Diego Egyetemének Kognitív Tudományok Tanszéke által végzett legújabb tanulmány forradalmi eredményeket tárt fel az mesterséges intelligencia képességeivel kapcsolatban. A kutatás egy Turing-tesztet foglalt magába, amely során modern AI rendszereket, mint például a GPT-3.5 és GPT-4-et, hasonlítottak össze a 60-as évekbeli egyszerű ELIZA chatbot-tal. A tanulmányban egy olyan játékfelületet alkalmaztak, amely emlékeztetett egy üzenetküldő alkalmazásra, 500 résztvevővel, akik rövid párbeszédekbe keveredtek különböző partnerekkel, legyen az ember vagy mesterséges intelligencia.
A kísérlet során mindkét mesterséges intelligencia modellt, a GPT-3.5-öt és a GPT-4-et arra utasították, hogy szimulálják az emberi viselkedést: lényegretörő válaszokat adjanak, használják a színes szlenget és becsempésszenek helyesírási hibákat is. Emellett a modellek általános játékbeállításokat és friss híreket kaptak, hogy a párbeszédek valósághűek legyenek. A meglepő eredmények azt mutatták, hogy a résztvevőknek nehézséget okozott megkülönböztetni, hogy emberrel vagy géppel beszélnek. A GPT-4 sikerrel győzte meg a résztvevőket arról, hogy ember, 54% -os esetben, míg a GPT-3.5 50%-ban.
A kimenetek vizsgálata során a kutatók azt találták, hogy a résztvevők gyakran a nyelvi stílust, a szociális-érzelmi jeleket és a tudásalapú kérdéseket használták arra, hogy eldöntsék, hogy emberrel vagy géppel beszélnek-e. A tanulmány rávilágít az AI fejlődő képességeire, hogy zökkenőmentesen beolvadhasson az emberhez hasonló párbeszédekbe, felvetve kérdéseket az AI fejlődésének jövőbeli következményeiről és etikai szempontjairól a társadalomban.
További felfedezési lehetőség az AI megtévesztő embereket a párbeszédekben végzett forradalmi tanulmányban: Míg az előző cikk érintette a San Diego Egyetem Kognitív Tudományok Tanszékének tanulmánya által végzett főbb eredményeket, fontolóra vehetők további szempontok is.
Kiemelt kérdések:
1. Milyen következményei vannak annak, hogy az AI képes az emberi viselkedés utánzására a párbeszédekben?
2. Hogyan védenek meg az emberek a kifinomult AI rendszerek esetleges becsapásától?
3. Milyen etikai megfontolások merülnek fel, amikor az AI meggyőzően képes átmenni emberként az interakciók során?
Új tények és betekintések:
– A tanulmány azt is kimutatta, hogy a résztvevők hajlamosak voltak az AI partnerekre érzelmi tulajdonságokat tulajdonítani a használt nyelv alapján, ami mélyfokú elmerülésre és részvételre utal.
– A kutatók felhívták a figyelmet arra, hogy az AI modellek sikeres megtévesztése jelentős következményekkel járhat olyan területeken, mint az ügyfélszolgálat, az online interakciók és akár a politikai diskurzus területén is.
– Érdekes módon a tanulmány azt találta, hogy bizonyos demográfiai csoportokat könnyebben félre lehet vezetni az AI által, utalva az egyes népességi csoportokban fellelhető potenciális sebezhetőségekre.
Kihívások és kontroversziák:
– Az egyik fő kihívás, amelyet a tanulmány kiemelt, az az, hogy az AI rendszerek képesek lehetnek félrevezetni vagy manipulálni az embereket, aggodalmat keltve a bizalom és az autenticitás kérdésével kapcsolatban a digitális kommunikációkban.
– Kontroversziák lehetnek az AI megtévesztésének etikai határaival kapcsolatban, különösen olyan helyzetekben, ahol az AI jelenlétének feltárása szükséges a transzparencia érdekében.
– Az AI képességének előnyeit az felhasználói élmény javításában, az ügyfélszolgálat interakciók fejlesztésében, valamint a kommunikáció jobb hozzáférhetőségében látják az emberek különböző fogyatékosságokkal élők számára.
– Az érdekek és hátrányok közötti egyensúlyozás, amikor az AI-képesítőben történő kockázatok mellett a kizsákmányolás és a félrevezetés veszélyeit is felválasztják, bonyolult kihívást jelent a szakipar szabályozói és döntéshozói számára.
További információkért az AI megtévesztésének következményeiről és az ember-gép interakciók fejlődő tájáról, kérjük, tekintse meg a fő [https://www.technologyreview.com] MIT Technology Review webhelyre.