Įžvalga apie etinius klausimus susijusius su duomenų gaudymu didelių technologijų įmonių, duomenų plėšimą ir tragiškus padarinius

Technologinės pažangos lydimas didelis kiekis duomenų, kurių reikia treniruoti dirbtinius intelekto modelius, siekiant gauti aukštos kokybės rezultatus. Tačiau paskutinės atskleidimai apie dvi technologijų gigantas, „Google“ ir „OpenAI“, iškėlė etinius klausimus dėl duomenų plėšimo į viešumą. Jų veiksmai tapo įspėjimo pasakojimu dirbtinio intelekto industrijoje ir atskleidė svarbius klausimus apie atsakingo duomenų naudojimo būtinybę.

„OpenAI“, garsus dirbtinio intelekto tyrimų organizacija, susidūrė su duomenų trūkumo dilema apie 2021 metus. Norėdami patobulinti savo įrankį „ChatGPT“, jie pasinaudojo informacija iš „YouTube“ vaizdo klipų neprašydami iš anksto leidimo turinio kūrėjų. Tai ne tik galėjo pažeisti autorių teises, bet ir pažeidė „YouTube“ paslaugų teikėjo sąlygas. Panašiai „Google“, siekdamas savo AI modelių treniravimo tikslo, užsiėmė tuo pačiu klausimu vertingu praktiku. Abiejų įmonių buvo žinomos teisinės neapibrėžtumų aplink jų veiksmus, tačiau jausdavo pareigą tęsti, dėl jų vaidmens aiškiame konkurencijos kontekste AI kūrimo pasaulyje.

Kritikai, tokių kaip Geris Markus, žinomas dirbtinio intelekto tyrėjas, ilgai kėlė susirūpinimą dėl duomenų tiekimo AI modeliams. Markuso įspėjimai, siekiantys 2018 metų, atrodė būti iš anksto numato, kad padėtis šiuo metu yra akivaizdi. Problema išplinta už teisinių ribų ignoravimo tiesioginių pasekmių ribų. Pažymim daugiau etinį dilemą, kuri kyla, kai nemalonaus duomenų poreikio siekis užgožia sutikimo, intelektinės nuosavybės ir privatumo svarstymus.

AI plėtros badaujančios eigos pobūdis privertė termonus, pateikti „šūksnį įeina, šūksnį išeina“, tapti plačiai paplitusiais duomenų mokslo srityje. Paprastai sakant, AI sistemų sugeneruojamo turinio kokybė priklauso nuo įvesties duomenų kokybės. Be griežtai parinktų, įvairių ir etiškai gautų duomenų, AI algoritmai rizikuoja kurti prastos kokybės turinį. Markus pabrėžia šį aspektą, nurodamas paralelės su Šekspiro tragedijomis, teigdamas, kad padariniai ignoruojant šias problemas AI plėtros gali būti katastrofiški.

Nors „OpenAI“ ir „Google“ gali turėti priežasčių pasitelkti duomenų plėšimą, šie jų veiksmai dabar pastatė juos į trapia padėtimi. Savo abejotinų duomenų įsigijimo būdų atskleidimas galėtų vesti į teisines pasekmes ir pakenkti jų viešajai reputacijai. Be to, tai pabrėžia skubumą AI industrijoje priimti griežtus etikos nurodymus ir kurti atsakingus duomenų įsigijimo būdus.

Kol ši kontroversija nurims, kyla klausimai dėl „YouTube“ vaizdo klipų naudojimo „OpenAI“ ir „
Google“ taip ir lieka. „OpenAI“ išlieka uždaryta dėl savo konkrečio „YouTube“ turinio naudojimo, tuo tarpu „Google“ pripažino, kad kai kurie jo AI įrankiai buvo treniruojami naudojant „YouTube“ turinį per individualius sutartis su kūrėjais. Šių praktikų aplinkos netran
sparenti skaidrumas dar labiau pabrėžia atsakomybę už etiką dirbtinio intelekto bendruomenėje.

Reaguodama į šiuos atskleidimus, „Meta“, anksčiau žinoma kaip „Facebook“, pateko į panašią dilemą. Pripažindama, kad jos AI produktai atsilieka nuo „OpenAI“, „Meta“ tyrė įvairius būdus kaupyti daugiau duomenų, kad treniruotų savo sistemas. Tokiais veiksmais kaip licencijavimo sutartys ir netgi didelių leidėjų įsigijimas, buvo apsvarstyta jų duomenų gavimo kelios. Vis dėlto šių veiksmų moraliniai sudėtingumai galiausiai privertė „Meta“ atsisakyti šių planų.

Šie paskutiniai atskleidimai yra prabudinimui skambintuvais AI industrijoje. Duomenų naudojimas turi būti vadovaujamas griežtais etiniais apmąstymais ir pagarba intelektinės nuosavybės teisėms. Technologinės pažangos siekimas neturi nuslopinti atsakingo duomenų naudojimo ir sutikimo svarbos. Įmonių, tyrėjų ir politikų būtina ateiti kartu, kad nustatytų aiškius nurodymus, skatinančius etišką AI plėtrą.

DUK

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact