Tehnološki divovi zajedno se suprotstavljaju proširivanju sadržaja zlostavljanja djece u razvoju umjetne inteligencije

Velike tehnološke korporacije, uključujući industrijske lidere poput Googlea, Meta i Microsofta, odlučno su krenule u borbu protiv širenja materijala zlostavljanja djece (CSAM) unutar aplikacija umjetne inteligencije. Ove tvrtke, zajedno s OpenAI-jem, Amazonom i nizom rastućih AI tvrtki poput Anthropica i Civitai, zajednički su se složile s rigoroznim skupom smjernica usmjerenim na eliminaciju CSAM-a iz svojih skupova podataka za obuku umjetne inteligencije.

Dogovoreni okvir uključuje temeljitu provjeru podataka za obuku kako bi se osiguralo da su slobodni od CSAM-a, izbjegavanje skupova podataka koji nose značajan rizik od sadržaja takvog materijala te poduzimanje temeljitih koraka za uklanjanje slika ili veza s CSAM-om iz njihovih skupova podataka. Osim upravljanja podacima, ove tehnološke divove obvezuju intenzivna testiranja njihovih AI proizvoda, osiguravajući da tehnologija ne stvara niti ne širi sliku ili materijal povezan s CSAM-om. Samo AI modeli koji prođu te procjene sigurnosti djece bit će odobreni za puštanje u pogon.

Suradnja između ovih tehnoloških tvrtki smatra se ključnim korakom u rješavanju sve većeg izazova koji predstavlja CSAM generiran AI-jem. Studija istraživača s Stanforda istaknula je hitnost problema, otkrivajući prisutnost CSAM-a u popularnim skupovima podataka za obuku AI-a i isticanje tereta koji ta činjenica stavlja na napore Nacionalnog centra za nestalu i zlostavljanu djecu u borbi protiv takvog sadržaja.

Google, potvrđujući svoju predanost tim načelima, ne samo da je prisegao da će ih se pridržavati već je i pojačao svoju potporu NCMEC-u pojačavajući donacije oglasa. Time se nadaju povećanju javne svijesti i pružanju resursa za identifikaciju i prijavljivanje zlostavljanja, odzvanjajući osjećaje izražene u blogu glasnogovornice za povjerenje i sigurnost Googlea, Susan Jasper.

Važna pitanja vezana uz temu i njihovi odgovori:

1. Što je CSAM i zašto je važno da se tehnološke tvrtke njime bave?
CSAM označava materijal za zlostavljanje djece. Važno je da se tehnološke tvrtke time bave jer predstavlja ozbiljno kršenje prava djece i nezakonito je. Internet nehotice može olakšati distribuciju takvog sadržaja, stoga tehnološke tvrtke imaju odgovornost osigurati da njihove platforme i tehnologije ne doprinose problemu.

2. Kako AI aplikacije potencijalno šire CSAM?
AI aplikacije mogu nehotice širiti CSAM ako su obučene na skupovima podataka koji sadrže taj materijal. Osim toga, AI se može koristiti za stvaranje ili modificiranje slika i videozapisa na načine koji bi mogli pridonijeti širenju CSAM-a.

3. Koje izazove tehnološke tvrtke imaju u sprječavanju CSAM-a u razvoju AI-a?
Izazovi uključuju osiguravanje da masovne količine podataka korištene za obuku AI-a budu slobodne od CSAM-a, razvoj sofisticiranih algoritama za otkrivanje i uklanjanje CSAM-a, zaštitu privatnosti korisnika dok se bore protiv širenja nezakonitog sadržaja te ostajanje korak ispred taktika koje koriste počinitelji.

Ključni izazovi ili kontroverze:

Brige o privatnosti: Postoji delikatna ravnoteža između zaštite privatnosti i praćenja te uklanjanja CSAM-a. Neki korisnici i skupine zagovaranja zabrinuti su zbog moguće prekomjerne reakcije i implikacija za privatnost korisnika.
Cenzura: Poduzeti mjere za uklanjanje CSAM-a ponekad mogu nenamjerno označiti neškodljive sadržaje, pokrećući rasprave o cenzuri i moderiranju sadržaja.
Učinkovitost tehnologije: Postoji kontinuirana utrka između poboljšanja AI-a i sofisticiranosti počinitelja u izbjegavanju otkrivanja.

Prednosti tehnoloških divova koji se bore protiv CSAM-a:

Smanjenje širenja: Temeljiti napori za čišćenje skupova podataka mogu značajno smanjiti širenje CSAM-a na platformama.
Postavljanje standarda: Velike tehnološke tvrtke mogu postaviti standarde i najbolje prakse za cijelu industriju.
Povećana svijest: Ovaj ujedinjeni stav podiže javnu svijest o postojanju i problemima vezanim uz CSAM.

Nedostaci:

Troškovi: Potrebni resursi za čišćenje skupova podataka i provedbu temeljitih testiranja značajni su, što bi moglo otežati druge razvoje.
Lažni pozitivi: Preagresivni filtri mogu pogrešno označiti ili ukloniti legitimne sadržaje, utječući na slobodu izražavanja i druge zakonite aktivnosti.

Povezani linkovi s glavnom temom mogu se pronaći na glavnim domenama ovih tehnoloških tvrtki, koje vjerojatno imaju relevantne informacije zbog svoje uključenosti u inicijativu protiv CSAM-a:
Google
Meta (Facebook)
Microsoft
OpenAI
Amazon

Obavezno istražite i provjerite trenutne URL-ove, budući da bi trebali biti 100% valjani i povezani s navedenim tvrtkama.

The source of the article is from the blog jomfruland.net

Privacy policy
Contact