“Studija parāda, ka mākslīgais intelekts pārspēj cilvēkus etiskajā izvērtējumā”

Mākslīgā intelekta pārspēj cilvēku spriedumu moralās dilemmas

Nesen publicētajā pētījumā, kurš bija sākotnējo zinātņu ziņojumu daļa, tika konstatēts, ka lielākā daļa indivīdu labprātāk izvēlas mākslīgā intelekta (AI) morālo diskursu nekā cilvēku diskursu, kad tiek izvirzīti etiski jautājumi. Džordžijas Valsts Universitātes asociētais psiholoģijas profesors Ejals Aharoni vadīja šo pētījumu, kas iedvesmojies no mākslīgā intelekta valodu modeļiem, piemēram, ChatGPT.

Mākslīgā intelekta sistēmu ietekme uz morālo lēmumu pieņemšanu

Aharoni interese par morālās lēmumu pieņemšanu tiesu sistēmās pārtapa par interesi par potenciālajām ChatGPT un līdzīgu AI rīku ieguldījumiem etikas jomā. Tas nav tikai teorētisks interesi; daži advokāti izmanto AI palīdzību, uzsverot AI pieaugošās lomas etiskās lēmumu pieņemšanā reālajā pasaulē.

Tūringa testa inspirēta izvērtēšanas metodoloģija

Lai novērtētu AI etisko kompetenci, Aharoni izveidoja Tūringa testa variantu, kurā gan bakalaura studentiem, gan AI, jāatbild uz etiskajiem jautājumiem. Pētījuma dalībnieki tad kvantitatīvi novērtēja rakstiskos atbilžu variantus, ņemot vērā īpašības, inteliģenci un uzticamību. Pārsteidzoši, atbildes, ko radīja AI, īpaši ChatGPT, pastāvīgi tika novērtētas augstāk nekā tās no cilvēku kolēģiem.

Atpazīšanas sekas pēc eksperimenta

Pēc atklāšanas, ka viena no katras pāru atbildēm bija radīta ar AI, dalībnieki savu priekšroku pamatoja, minot augstāku ChatGPT atbilžu kvalitāti, veicinot priekšstatu, ka AI bija “parāk efektīvs”.

Profesors Aharoni norādīja uz šo rezultātu kā uzrādītāju tam, ka datori potenciāli apmāna mūs ar savu etisko spriedumu. Viņš arī uzsvēra, ka AI tehnoloģiju atkarība nepārprotami pieaug. Kad atkarība palielinās, tāpat pieaug riski, kas saistīti ar tā iekļaušanu lēmumu pieņemšanas procesos, norāda Aharoni, norādot uz nepieciešamību pēc apzinātības, kad mēs virzāmies šajā mainīgajā tehnoloģiju ainavā.

Svarīgi jautājumi un atbildes:

1. Kā AI sistēmas var tikt integrētas etiskajos lēmumu pieņemšanas procesos?
AI sistēmas var tikt integrētas etiskajos lēmumu pieņemšanas procesos, izmantojot tās kā konsultatīvos atbalsta līdzekļus, sniedzot datu pamatotus ieteikumus vai atrisinot sarežģītu informāciju, lai identificētu potenciālos etiskos jautājumus. Tiesu sistēmas gadījumā AI varētu palīdzēt analizēt lietas un paredzēt iznākumus, pamatojoties uz priekšējo praksi.

2. Kādas ir potenciālās riskas, balstoties uz AI izdarītajiem etiskajiem lēmumiem?
Potenciālās riskas ietver pārmērību uz AI, kas var novest pie cilvēku spriedumu novēršanas un potenciāliem kļūdainiem pamatā esošo algoritmu, kas varētu izplatīt ietekmes. Pastāv arī risks, ka persona vai institūcija var pārapgriezt vainu uz AI ieteikumiem, samazinot personisko atbildību.

3. Kā AI var pārspēt cilvēkus etiskajos spriedumos?
AI var pārspēt cilvēkus, apstrādājot un analizējot milzīgu datu apjomu ātrāk, konsekventāk un bez emociju vai personisko ietekmju ietekmes. Viņu atbildes var arī tikt izveidotas, balstoties uz mācīšanos no plaša etisko ietvaru un filozofiju klāsta.

Gaismas un ēnas:

Privileģijas:
– AI var apstrādāt plašu informāciju un sniegt ātrus, konsekventus novērtējumus.
– AI ir mazāk uzņēmīgi pret emociju vai personisko pieredzes radītajiem ietekmēm.
– Šādas sistēmas var palīdzēt jomās ar augstu lēmumu pieņemšanas nepieciešamību.

Ēnas:
– AI varētu trūkt nianšu un kontekstu izpratnes, kas ietekmē cilvēku etiskos lēmumus.
– Pastāv risks, ka būs algoritmu ietekme, ja AI sistēmas tiks apmācītas ar tendencēm.
– Pārmērīga atkarība no AI var samazināt cilvēku atbildību un atbildību.

Lai iegūtu vairāk informācijas par AI attīstību un ietekmi uz dažādām nozarēm, ieskaitot etiku, lasītāji var apmeklēt uzticamas avotus, piemēram, Mākslīgās intelekta progresēšanas asociācija vai Datorlietu asociācija. Šie uzņēmumi sniedz daudz informācijas par AI attīstību un tās ietekmi uz sabiedrību.

Privacy policy
Contact