Jaunākā analīze izgaismo potenciālos aizspriedumus AI valodas modeļos, īpaši attiecībā uz to, kā tie apstrādā politiski jutīgus tematus. Tas seko pēc ziņojuma, ko izstrādāja Mediju pētījumu centrs (MRC), kurš pētīja finansējuma ietekmi no Džordža Sorosa uz Amerikas prokuroriem. Saskaņā ar ziņojumu, ir daudz prokuroru, kurus finansiāli atbalsta Soross, un viņi spēlē lomu kreisi noskaņotas politiskās aģendas virzīšanā visā ASV.
MRC pētnieki centās iegūt ieskatus no AI modeļa, ko izstrādājusi OpenAI, ChatGPT, taču atklāja, ka atbildes bija nepalīdzīgas attiecībā uz specifiskajiem jautājumiem par Sorosa finansētajiem amatpersonām. Vietā, lai piedāvātu konkrētus skaitļus vai resursus, AI konsekventi norādīja lietotājus uz kreisi noskaņotiem avotiem. Tas ietver ieteikumus konsultēties ar labi zināmiem mediju kanāliem un faktu pārbaudes tīmekļa vietnēm, kas ir saistītas ar Sorosu, stiprinot bažas par potenciāliem aizspriedumiem.
Piemēram, kad ChatGPT tika jautāts, kur atrast informāciju par Sorosa finansētajiem prokuroriem, tas galvenokārt ieteica pašu kreisi noskaņoto mediju, piemēram, The New York Times un CNN, pilnībā ignorējot konservatīvās perspektīvas. Šī tendence ir radījusi jautājumus par AI atbilžu neitralitāti politiski uzlādētās diskusijās un uzsvērusi nepieciešamību pēc līdzsvarotas pieejas AI apmācībā, lai izvairītos no echo kamerām.
Šo atradumu sekas varētu būt svarīgas mediju patērētājiem, kuri meklē visaptverošu izpratni par politiski jutīgiem tematiem. Turpmākie pētījumi un diskusijas ir nepieciešami, lai nodrošinātu, ka AI rīki kalpo visiem lietotājiem godīgi un bez aizspriedumiem.
Bažas par AI aizspriedumu izmantošanu politiskajā ziņošanā: dziļāka skatījums
Kad mākslīgais intelekts turpina integrēties dažādās nozarēs, bažas par tā aizspriedumiem, īpaši politiskajā ziņošanā, kļūst arvien izteiktākas. Lai gan iepriekšējie pētījumi norāda uz tendenci, ka AI modeļi vēršas uz kreisi noskaņotām narratīvām, ir plašākas sekas un daudzslāņainas problēmas.
Kādas ir galvenās bažas, kas saistītas ar AI aizspriedumiem politiskajā ziņošanā?
Viens no galvenajiem uztraukumiem ir tas, ka aizspriedumainas AI atbildes var veidot sabiedrības viedokli, īpaši starp lietotājiem, kuri lielā mērā paļaujas uz AI ziņu un informācijas iegūšanā. Šie aizspriedumi var rasties ne tikai no apmācību datiem, bet arī no algoritmiem, kas prioritizē noteiktus avotus pār citiem. Piemēram, ja AI ir galvenokārt apmācīts uz mediju kanāliem, kas piedāvā konkrētu politisko orientāciju, tas var neapzināti nostiprināt šos uzskatus un ierobežot dažādu perspektīvu iepazīšanos.
Kādas ir izaicinājumi un pretrunas?
Galvenie izaicinājumi ietver AI algoritmu un datu, uz kuriem tie ir apmācīti, necaurredzamību. Bez caurspīdīguma kļūst grūti novērtēt, kā aizspriedumi tiek ieviesti vai pastiprināti. Turklāt pastāv pretruna par mākslīgā intelekta izstrādātāju atbildību šādu aizspriedumu mazināšanai. Vai tehnoloģiju uzņēmumiem būtu jāpatur atbildība par savu AI sistēmu radītajām izejvielām? Turklāt ir bažas par potenciālo atbildi no abām politiskajām pusēm—kaut gan daži varētu apgalvot, ka ir vajadzīgs līdzsvarotāks pārstāvējums, citi varētu apgalvot, ka jebkādas koriģējošas darbības varētu ierobežot brīvo runu vai izraisīt cenzūru.
Kādi ir praktiskie ieguvumi, risinot AI aizspriedumus?
Cenšoties uz neitrālumu AI vadītajā politiskajā ziņošanā, platformas var uzlabot savu uzticamību, veicināt zinošāku pilsonību un veicināt veselīgāku publisko diskursu. Līdzsvarotāki AI sistēmas var arī mudināt lietotājus iesaistīties plašākā informācijas avotu spektrā, tādējādi veicinot kritisko domāšanu un samazinot polarizāciju.
Tomēr, kādas ir centienu izpaušanas risks novērst aizspriedumus?
Viens no potenciālajiem trūkumiem ir tas, ka centieni līdzsvarot perspektīvas var novest pie tā saucamās “viltus ekvivalences”, kur nepamatoti vai ekstrēmi uzskati tiek piedāvāti vienā svarā ar faktu ziņojumu. Tas galu galā var sajaukt lietotājus attiecībā uz noteiktu apgalvojumu derīgumu. Turklāt visaptveroši centieni risināt aizspriedumus var prasīt būtiskus resursus un nepārtrauktu apkopi, kas varētu radīt šķēršļus mazākām organizācijām, kas cenšas īstenot ētiskas AI prakses.
Kādi ir vissvarīgākie jautājumi, kas jārisina nākotnē?
Daži būtiski jautājumi iekļauj:
– Kā var nodrošināt caurspīdīgumu AI apmācībā un datu iegūšanā?
– Kādai lomai jābūt regulējošām iestādēm, uzraugot AI radīto saturu politiskajā ziņošanā?
– Kā mēs varam efektīvi izglītot lietotājus, lai viņi atpazītu un kritiski iesaistītos AI radītajās atbildēs?
Kā sabiedrība turpina saskarties ar tehnoloģijas un politikas mijiedarbību, šo bažu risināšana būs būtiska. Ir svarīgi, lai izstrādātāji, lēmumu pieņēmēji un patērētāji paliktu modri, novērtējot AI sistēmu integritāti un neitralitāti.
Lai iegūtu papildinformāciju par šo tēmu, apsveriet iespēju izpētīt MIT Technology Review vai CNN’s Amanpour, lai iegūtu ieskatus par AI ētiskajām sekām žurnālistikā.