Svetovni tehnološki velikani se zavezujejo k varovanju otrok pred vsebinami, ki jih ustvarjajo umetne inteligence.

Vodilna podjetja se zavezala k varstvu mladoletnikov pri razvoju umetne inteligence

V prelomnem združenju so ključni tehnološki igralci, kot so OpenAI, Microsoft, Google in Meta, sprejeli zavezo, s katero zagotavljajo, da njihova orodja umetne inteligence ne širijo izkoriščanja otrok – zlasti pri ustvarjanju in širjenju gradiva o zlorabi otrok (CSAM). Ta napoved se je pojavila kot mejnik v boju proti digitalnemu izkoriščanju mladoletnikov ter postavila nov etični standard v tehnološki industriji.

Združene sile v boju proti izkoriščanju otrok

Organizacija za človekove pravice Thorn je skupaj s civilnodružbeno skupino All Tech Is Human prevzela vodilno vlogo pri tej pobudi, usmerjeni v etično izvajanje tehnoloških inovacij. Cilj je preprečiti ustvarjanje eksplicitnega gradiva, v katerem sodelujejo otroci, in odstraniti takšno vsebino iz družbenih omrežij in iskalnikov. Nujnost te pobude poudarja zaskrbljujoča številka za leto 2023, ko je bilo samo v Združenih državah Amerike prijavljenih več kot 104 milijonov datotek, ki nakazujejo zlorabo mladoletnikov.

Preventivne strategije in smernice za razvijalce umetne inteligence

Thorn in All Tech Is Human sta objavila dokument z naslovom “Varnostni načrt za generativno umetno inteligenco: Preprečevanje zlorabe otrok,” v katerem opisujeta strategije in priporočila za razvijalce umetne inteligence. Dokument predlaga, naj se izogibajo zbirkam podatkov, ki zajemajo primere spolne zlorabe ali vsebino za odrasle, saj lahko to nenamerno izobražuje modele umetne inteligence, da zmedejo eno s drugim. Poleg tega se družbena omrežja in iskalniki spodbujajo, naj odstranijo svoje storitve povezave do spletnih mest ali aplikacij, ki olajšujejo prikazovanje mladoletne nagote.

Tehnološke smernice za varnejšo prihodnost

Rebecca Portnoff, podpredsednica podatkovne znanosti pri Thornu, je izrazila trdno voljo, da usmeri razvoj umetne inteligence v neškodljivo uporabo. Nekatera podjetja so se že strinjala, da bodo ločila slike, videoposnetke in avdio posnetke, povezane z otroki, od naborov vsebin za odrasle, da bi preprečili težave med treningom modelov AI. Razmišlja se o alternativah, kot je vdelava vodnih žigov, vendar se pojavljajo skrbi glede njihove zanesljivosti zaradi enostavnosti odstranjevanja vodnih žigov in metapodatkov.

Poleg teh prizadevanj je ukrajinska javna organizacija “Magnolia,” v sodelovanju z Ministrstvom za digitalno preobrazbo in Oddelkom kibernetske policije, lansirala spletno platformo StopCrime. Ta sredstvo posameznikom omogoča, da prijavijo naleteno spletno vsebino, ki kaže znake nasilja nad otroki, s čimer prispevajo k širšem spektru zaščitnih ukrepov.

S temi proaktivnimi koraki tehnološka industrija zavzema odločen stališče, da bo poskrbela, da bo dobrobit in varnost otrok ostala na prvem mestu v dobi generativne umetne inteligence.

Pomembna vprašanja in odgovori:

Kakšen je obseg problema glede vsebine izkoriščanja, ustvarjene z umetno inteligenco?
Umetna inteligenca ima potencial ustvarjanja realistične in škodljive vsebine, vključno z gradivom o spolni zlorabi otrok (CSAM), kar predstavlja resna tveganja za varnost in dobrobit otrok. Problem je nujen zaradi obsega spletne vsebine in naraščajočih sposobnosti umetne inteligence pri ustvarjanju slik, zvokov in videoposnetkov, ki jih je težko razločiti od resnične vsebine.

Zakaj je pomembno, da se tehnološka podjetja zavežejo k varovanju otrok?
Tehnološka podjetja imajo ogromen vpliv na digitalno pokrajino. Njihova zaveza je ključna, saj razvijajo orodja in platforme za umetno inteligenco, ki bi jih lahko zlorabili za ustvarjanje in širjenje izkoriščanja vsebine. Njihovi proaktivni ukrepi lahko prispevajo k preprečevanju ustvarjanja in distribucije škodljivega gradiva.

Kakšne so ključne izzive pri varovanju otrok pred vsebino izkoriščanja, ustvarjeno z umetno inteligenco?
Izzivi vključujejo nenehno evolucijo tehnologije umetne inteligence, kar lahko oteži korake zaščite. Poleg tega ohranjanje ravnotežja med zasebnostjo uporabnikov in moderiranjem vsebin ter potreba po sodelovanju med različnimi jurisdikcijami in podjetji za reševanje globalnega problema predstavljajo nenehne izzive.

Kakšne polemike so povezane s to temo?
Polemike se lahko pojavijo glede cenzure, definicije škodljive vsebine v različnih kulturah in potencialnih vplivov teh pobud na zasebnost uporabnikov in svobodo izražanja.

Prednosti in slabosti:

Prednosti za tehnične velikane, ki so se zavezali k varstvu otrok, vključujejo:
– Izboljšano zaščito mladoletnikov pred izpostavljenostjo škodljivim vsebinam.
– Ustanovitev etičnih smernic za razvoj umetne inteligence.
– Potencialno zmanjšanje distribucije in dostopnosti gradiva CSAM.

Slabosti bi lahko vključevale:
– Razvojne stroške in porazdelitev virov za spremljanje in moderiranje vsebin.
– Lažno pozitivne odzive pri odstranjevanju vsebin, kar bi lahko vplivalo na nedolžne vsebine.
– Možne težave z zasebnostjo pri nadzoru in tehnologijah optičnega branja vsebin.

Predlagani povezani viri:
Thorn – Spletna stran organizacije za človekove pravice, ki se zavzema za zaščito otrok pred spolno zlorabo.
All Tech Is Human – Civilnodružbena skupina, ki si prizadeva za bolj etično tehnologijo.
OpenAI – Eden vodilnih podjetij na področju umetne inteligence, vključen v zavezo.
Microsoft – Še eno ključno tehnološko podjetje, zavezano etičnim praksam umetne inteligence.
Google – Pomemben igralec na področju umetne inteligence in spletnih storitev, ki sodeluje v zavezi.
Meta – Matično podjetje Facebooka in Instagrama, ki je prav tako del pakta.

Upoštevajte, da zaradi hitrih sprememb v tehnologiji in družbi navedeni URL-ji pripadajo glavnim domenam omenjenih organizacij in se lahko spremenijo. Kljub temu so bili preverjeni kot pravilni in relevantni za obravnavano temo do določenega datuma.

[vdelano]https://www.youtube.com/embed/9dRFevkUUu8[/vdelano]

The source of the article is from the blog yanoticias.es

Privacy policy
Contact