Štúdia, ktorá odporuje teóriám o apokalypse generatívneho umelého inteligencie
Revolučná štúdia vzdoruje prevládajúcemu strachu okolo technológie generatívnej umelej inteligencie a tvrdí, že tieto modely predstavujú minimálne riziko katastrofálnych dôsledkov. Výskumníci vyvracajú mýtus, že umelé inteligencia by mohla autonómne rozvíjať nebezpečné schopnosti, zdôrazňujúc, že modely nemajú kapacitu získavať nové schopnosti bez explicitného inštruktážu.
Skúmanie obmedzení modelu
Výskum, ktorý uskutočnili odborníci z Univerzity v Bathu a Univerzity v Darmstadte, preskúmal schopnosti rôznych modelov umelej inteligencie robiť nové úlohy mimo ich trénovacích dát. Tieto modely demonštrovali povrchnú poslušnosť pokynov, ale zlyhali pri ovládaní neznámych schopností nezávisle.
Znovu posúdenie výpovedí o hrozbe umelej inteligencie
Naproti alarmujúcim výpovediam, štúdia zdôrazňuje, že obavy z neočakávaného, nebezpečného správania umelej inteligencie nemajú empirický základ. Toto opätovné posúdenie vyzýva k prekručovaniu nezmyselného regulačného zamerania na hypotetické scénre ktoré šírili niektoré korporátne subjekty. Namiesto toho zdôrazňuje naliehavú potrebu zaoberania sa hmatateľnými spoločenskými obavami, ktoré vznikajú v dôsledku aplikácií generatívnej umelej inteligencie.
Dôsledky pre budúci rozvoj umelej inteligencie
Vzhľadom na nárast investícií do generatívnej umelej inteligencie slúži štúdia ako dôležitá pripomienka etických a regulačných zodpovedností spojených s inováciami v oblasti umelej inteligencie. Zatiaľ čo generatívna umeľa inteligencia nemusí znamenať koniec ľudstva, jej spoločenské vplyvy, ako je šírenie deepfake a porušovanie ochrany údajov, vyžadujú bdelé zameranie politiky v súlade s širšími spoločensky mi záujmami.
…