Globalní technologické giganty se zavazují chránit děti před obsahem vytvořeným umělou inteligencí.

Lídři průmyslu slibují ochranu nezletilých při vývoji AI

V průlomovém spojení se hlavní technologické hráče jako OpenAI, Microsoft, Google a Meta zavázaly k přísaze zajišťující, že jejich nástroje umělé inteligence nebudou šířit zneužívání dětí – zejména v tvorbě a šíření materiálu s dětským sexuálním zneužíváním (CSAM). Toto oznámení se stalo milníkem ve snaze o boj proti digitálnímu zneužívání nezletilých a nastavuje nový etický standard ve technologickém průmyslu.

Společné síly v boji proti zneužívání dětí

Organizace na ochranu lidských práv Thorn společně s občanskou skupinou All Tech Is Human převzaly vedení v této iniciativě zaměřené na etické provádění technologických pokroků. Cílem je zabránit vytváření explicitního materiálu s dětmi a eliminovat takový obsah z sociálních sítí a vyhledávačů. Urgence této iniciativy je zdůrazněna alarmujícím číslem z roku 2023, kdy pouze v USA bylo zaznamenáno přes 104 miliony souborů naznačujících dětské sexuální zneužívání.

Preventivní strategie a směrnice pro vývojáře AI

Thorn a All Tech Is Human publikovaly dokument nazvaný „Safety by Design pro Generativní AI: Prevence sexuálního zneužívání dětí“, kde popisují strategie a doporučení pro vývojáře AI. Dokument navrhuje vyhýbat se datovým sadám, které zahrnují případy sexuálního zneužívání nebo dospělý obsah, neboť to by mohlo neúmyslně naučit AI modely zaměňovat oba s nimi. Navíc se sociální média a vyhledávače vyzývají k odstranění svých služeb odkazů, které vedou na stránky nebo aplikace, které usnadňují zobrazování nahoty nezletilých.

Technologické směrnice pro bezpečnější budoucnost

Rebecca Portnoff, viceprezidentka datové vědy organizace Thorn, vyjádřila pevnou vůli přesměrovat trajektorii vývoje AI k nezávadnému využití. Několik společností již souhlasilo s oddělením obrázků, videí a zvuků souvisejících s dětmi od datových sad obsahujících dospělý obsah, aby zabránily problémovému spojení během trénování AI modelů. Jsou zkoumány alternative jako například vodotisk, i když existují obavy ohledně jejich spolehlivosti kvůli snadnosti odstranění vodotisků a metadat.

Kromě těchto úsilí ukrajinská veřejná organizace „Magnolia“, ve spolupráci s Ministerstvem digitální transformace a Útvarem kybernetické policie, spustila online platformu StopCrime. Tento nástroj umožňuje jednotlivcům nahlásit online obsah manifestující známky násilí na dětech, přispívající tak k širší škále ochranných opatření.

Těmito aktivními kroky se technologický průmysl zaujímá rozhodné stanovisko zajistit, aby blahobyt a bezpečnost dětí zůstávaly v době generativní AI na prvním místě.

Důležité otázky a odpovědi:

Jaký je rozsah problému týkajícím se obsahu vytvořeném AI na zneužívání?
AI má potenciál vytvářet realistický a škodlivý obsah, včetně materiálu s dětským sexuálním zneužíváním (CSAM), což představuje vážná rizika pro bezpečnost a blahobyt dětí. Problém je naléhavý kvůli rozsáhlé škále online obsahu a rostoucím schopnostem AI generovat obrázky, zvuk a video, které je obtížné rozeznat od skutečného obsahu.

Proč je pro technologické společnosti důležité zavázat se k ochraně dětí?
Technologické společnosti mají obrovský vliv na digitální prostředí. Jejich závazek je zásadní, protože vyvíjejí AI nástroje a platformy, které by mohly být zneužity k tvorbě a šíření zneužívání. Jejich preventivní opatření mohou pomoci předcházet vytváření a distribuci škodlivého materiálu.

Jaké jsou klíčové výzvy spojené s ochranou dětí před obsahem vytvořeným AI na zneužívání?
Mezi výzvy patří neustálý vývoj technologií AI, který může znesnadňovat krok s ochrannými opatřeními. Dodatečně je třeba vyvážit ochranu soukromí uživatelů s moderací obsahu a nutnost spolupráce napříč různými jurisdikcemi a společnostmi k řešení globálního problému, což představuje nepřetržité výzvy.

Jaké kontroverze jsou spojené s touto tématikou?
Kontroverze by mohly vyvstat ohledně cenzury, definice škodlivého obsahu v různých kulturách a potenciálního dopadu takových iniciativ na ochranu soukromí uživatelů a svobody projevu.

Výhody a nevýhody:

Mezi výhody zavázání technologických gigantů k ochraně dětí patří:
– Zlepšená ochrana nezletilých před expozicí k škodlivému obsahu.
– Stanovení etických směrnic pro vývoj AI.
– Potenciální snížení distribuce a dostupnosti CSAM.

Nevýhody by mohly zahrnovat:
– Náklady na vývoj a alokaci zdrojů pro monitorování a moderaci obsahu.
– Falešně pozitivní výsledky při odstraňování obsahu, které by mohly ovlivnit benigní obsah.
– Možné problémy s ochranou soukromí pomocí technologií dohledu a skenování obsahu.

Navrhované související odkazy:
Thorn – Webové stránky organizace na ochranu lidských práv zasvěcené obraně dětí před sexuálním zneužíváním.
All Tech Is Human – Občanská skupina pracující na etičtější technologii.
OpenAI – Jedna z lídrů průmyslu AI zapojená do přísahy.
Microsoft – Další klíčová technologická společnost zavázaná k etickým praktikám AI.
Google – Hlavní hráč v oblasti AI a online služeb účastnící se závazku.
Meta – Mateřská společnost Facebooku a Instagramu, která je také součástí dohody.

Upozorňujeme, že vzhledem ke rychle se měnící povaze technologií a společnosti jsou poskytnuté URL adresy hlavními doménami zmíněných organizací a mohou se změnit. Však byly ověřeny jako správné a relevantní k tématu k datu uzavření informací.

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact