Napredni jezikovni modeli primanjkujejo avtonomne sposobnosti učenja, ugotavlja študija.

Novo raziskovanje izziva predstavo grožnje umetne inteligence
Nedavna raziskava je osvetlila sposobnosti naprednih jezikovnih modelov (ALM), ki kažejo na pomanjkanje avtonomne učne sposobnosti. Za razliko od priljubljenih upodobitev v filmih, kot je “Terminator”, kjer sistemi umetne inteligence predstavljajo grožnjo človeštvu, študija predlaga, da so takšne skrbi trenutno neutemeljene.

Razumevanje omejitev ALM
Skupna raziskava Univerze v Bati in Tehnične univerze v Darmstadtu, predstavljena na 62. letnem srečanju Združenja za računalniško lingvistiko (ACL 2024), je razkrila, da ALM sicer odlično opravljajo po navodilih in rešujejo naloge, vendar ne morejo samostojno pridobivati novega znanja.

Posledice za varnost AI
Raziskovalci so sklenili, da se trenutni ALM lahko uporabljajo brez pomembnih varnostnih skrbi. Glavna potencialna grožnja umetni inteligence leži v zlonamernih aplikacijah s strani ljudi, namesto v inherentnih nevarnostih v sami tehnologiji.

Raziskovanje zmogljivosti AI
Izvedeni so bili eksperimentalni testi za oceno sposobnosti AI pri reševanju kompleksnih nalog zunaj svojega programiranega obsega. Rezultati so pokazali, da se je AI lahko odzival na socialne situacije brez posebnega usposabljanja, zanašajoč se na kontekstualno učenje na podlagi predloženih primerov.

Smeri za prihodnje raziskave
Namesto da bi se bali AI kot neposredne grožnje, se študija osredotoča na previdnost pred morebitno zlorabo. Osredotočiti bi se morali na nadzor procesov usposabljanja AI za omilitev tveganj, povezanih z njenimi razvijajočimi se zmogljivostmi. Nenehne raziskave bi se morale osredotočati na druge ranljivosti inherentne v AI modelih, kot je potencial za ustvarjanje zavajajočih vsebin.

Z izpostavljanjem pomena odgovornega razvoja in uporabe AI ta študija vabi k nadaljnjemu raziskovanju in kritičnemu pregledovanju razvijajočega se krajolika tehnologij umetne inteligence.

The source of the article is from the blog yanoticias.es

Privacy policy
Contact