Kā mandat amplificēt informāciju, izmantojot mākslīgo inteliģenci,

Mūsdienās ar ātri attīstošo tehnoloģiju zemojamajām un politiskajās jomās arvien biežāk sastopamies ar mākslīgas inteliģences (AI) izmantošanu. Saskaņā ar jaunākajiem paziņojumiem Ķīnas kibernoziedzīgie izmanto AI rīkus, lai izplatītu dezinformāciju un ietekmētu vēlēšanu rezultātus dažādās valstīs, tai skaitā gaidāmajās Lok Sabha vēlēšanās Indijā.

Ķīnas kibernoziedzīgie izmantojot AI rīkus, ir raisījuši bažas kiberdrošības ekspertos. Vadošais tehnoloģiju lieluzņēmums Microsoft ir brīdinājis valdību par iespējamiem lieliem hakera uzbrukumiem plānotajās Indijas vēlēšanās. Uzmanība tiek pievērsta tam, kā AI ģenerēts saturs ietekmē vēlētāju uzvedību.

AI ir kļuvusi par spēcīgu ieroci hakera rokās. Ar spēju manipulēt video un mainīt ievērojamu personu balsis, šie kibernoziedzīgie viegli varētu radīt un pastiprināt viltotu saturu, lai tas kļūtu vīrussākas un sasniegtu miljonus cilvēku. Ķīnas naidīgā attiecība gan ar Amerikas Savienotajām Valstīm, gan ar Indiju, ir palielinājusi bažas par tās AI rīku izmantošanu, lai ietekmētu vēlēšanas.

Problēma pārsniedz dezinformācijas izplatīšanu. Ķīnai ir uzliktas apsūdzības par viltotu sociālo tīklu kontu izmantošanu, lai izveidotu aptaujas balsotājiem un izmantotu atšķirīgus jautājumus, kas varētu potenciāli labvēlīgi ietekmēt to vēlamo vēlēšanu rezultātu, kā norādījis Microsoft. Piesaistījumi, tādi kā ASV valdības iesaistīšanās Maui mežu ugunsgrēkos un AI satura izmantošana, lai destabilizētu Taivānas prezidenta vēlēšanas, kalpo par piemēriem Ķīnas traucējošajiem taktikas.

Microsofta draudu analīzes centrs regulāri dalās ar savām atklājumiem, lai informētu valdību un likuma aizsardzības aģentūras. Jaunie atklājumi par Ķīnas AI izmantošanu vēlēšanu kampaņās ir pacēluši trauksmi un lieku uzmanību valdošajām valdībām.

Jo turpinot attīstīties AI, tā spēja nodarīt kaitējumu kļūst acīmredzamāka. Ķīnas palielināto eksperimentu ar memes, video un audio pacelšanas baiļu jautājumus par tādu taktiku nākotnes efektivitāti. Būtiski ir, lai valstis, piemēram, Amerikas Savienotās Valstis, Indija un citas pirms iet uz svarīgām vēlēšanām šogad, būtu gatavas un izstrādātu pretlīdzekļus, lai cīnītos pret AI radītās dezinformāciju draudiem.

Bieži uzdotie jautājumi (BUJ)

J: Kā kibernoziedznieki no Ķīnas izmanto AI rīkus, lai ietekmētu vēlēšanas Indijā?
A: Kibernoziedznieki no Ķīnas izmanto AI rīkus, lai izplatītu dezinformāciju, manipulētu video un mainītu ievērojamu personu balsis, tādējādi ietekmējot balsotāju uzvedību un potenciāli ietekmējot vēlēšanu rezultātus Indijā.

J: Kādas darbības veicis Microsoft, lai risinātu šo jautājumu?
A: Microsofta Draudu analīzes centrs regulāri dalās ar saviem atklājumiem, lai informētu valdību un likuma aizsardzības aģentūras. Uzņēmuma nesenā brīdinājuma par Ķīnas AI izmantošanu vēlēšanu kampaņās ir likusi valdošajai valdībai būt uzmanīgai.

J: Vai ir kādi Ķīnas traucējošo taktiku piemēri citās vēlēšanās?
A: Jā, Microsoft piemin piemērus, piemēram, ASV valdības iesaistīšanos Maui ugunsgrēkos un AI satura izmantošanu, lai destabilizētu Taivānas prezidenta vēlēšanas kā piemērus par Ķīnas traucējošajām taktikām.

J: Kā valstis var aizsargāt sevi pret AI radīto dezinformāciju?
A: Valstīm būtiski ir izstrādāt pretlīdzekļus, lai cīnītos pret AI radītu dezinformāciju. Investējot viedās kiberdrošības pasākumos un veicot informācijas kampaņas balsotāju vidū, valstis var nodrošināt vēlēšanu integritāti.

J: Kādas var būt Ķīnas palielināto eksperimentāciju ar AI radītā satura potenciālās sekas?
A: Ķīnas palielinātā eksperimentēšana ar AI radītu saturu rada bažas par tās nākotnes efektivitāti. Kad AI tehnoloģijas attīstās, ir arvien grūtāk atklāt un apkarot šādas taktikas, tāpēc valstīm ir svarīgi palikt piesardzīgām un aktīvām, risinot šo jautājumu.

Avoti: news18.com, MarketsandMarkets

The source of the article is from the blog procarsrl.com.ar

Web Story

Privacy policy
Contact