Etiķetes varoņi: Kubisks datu aizņemšanās un optimistiski noturīgas sekas

Datu spēlē būtisku lomu augstas kvalitātes rezultātu ģenerēšanas modeļu trenēšanā. Tomēr nesenās atklāsmes par diviem tehnoloģiju gigantiem – Google un OpenAI – ir izvirzījušas datu aizņemšanās etisko aspektu uz priekšplāna. Šo darbību sekas kalpo kā brīdinājums AI nozarei un uzceļ svarīgus jautājumus par nepieciešamību pēc atbildīgas datu izmantošanas.

OpenAI, ievērojama AI pētniecības organizācija, ap 2021. gadu bija nonākusi datu trūkuma dilemmā. Viņi, cenšoties uzlabot savu ChatGPT rīku, nolēma iegūt datus no YouTube video bez skaidras atļaujas no satura veidotājiem. Tas ne tikai iespējams pārkāpa autortiesību likumus, bet arī pārkāpa YouTube lietošanas noteikumus. Līdzīgi Google, cenšoties trenēt savus AI modeļus, iesaistījās tajā pašā apšaubāmajā praksē. Abas uzņēmējdarbības zināja par juridiskās nenoteiktības apstākļiem attiecībā uz savām darbībām, bet jutās spiestas turpināt, jo tieša konkurence AI ainavā.

Kritiķi, piemēram, Gerijs Markus, slavens AI pētnieks, ilgi bija pauduši bažas par datu bezjēdzīgu padevi AI modeļiem. Markusa brīdinājumi, kas datējami kopš 2018. gada, šķita kā tālu uz priekšu norādījums uz grūtībām, kas tagad ir nākušas gaismā. Problēma pārsniedz tiešās sekas, ignorējot likumības robežas. Tā uzsvēra plašāku etisko dilemmu, kas rodas, kad neizdevīgi dati pārsniedz piekrišanas, intelektuālās īpašumtiesības un privātuma apsvērumus.

AI attīstības datu bada dabai ir radušies izteicieni kā “bada ieejā, bada izejā”, kļūstot plaši izplatīti datu zinātnes jomā. Vienuvārd sakot, AI sistēmu radīto rezultātu kvalitāte lielā mērā ir atkarīga no ievades datu kvalitātes. Bez ciešām rūpēm sagatavoti, dažādi un etiski iegūti dati AI algoritmi riskē radīt viduvēju saturu. Markus uzstāj uz šī punkta, veidojot paralēles ar Šekspīra traģēdijām, norādot, ka šo bažu ignorēšanas sekas AI attīstībā var būt postošas.

Lai arī OpenAI un Google varēja būt savas iemeslu dēļ nākuši līdz datu aizņemšanās risinājumam, šīs darbības tagad ir likušas viņus nonākt neērtā situācijā. Apšaubāmie datu iegūšanas metodoloģijas atklāšana varētu novest pie juridiskām sekām un sabiedrības tēla bojājuma. Turklāt tas atspoguļo nekavējoties AI nozares nepieciešamību pieņemt stingras etiskas pamatnostādnes un izstrādāt atbildīgas datu ieguves prakses.

Kamēr puteņos šai kontroversijai, jautājumi par YouTube video izmantošanu OpenAI un Google vēl joprojām paliek. OpenAI ir saglabājis klusēšanu par savu konkrētu YouTube satura izmantošanu, savukārt Google ir atzinis, ka daži no tā AI rīkiem ir trenēti, izmantojot YouTube saturu, caur individuālajiem līgumiem ar veidotājiem. Šo prakšu apkārt darboties trūkums vēl vairāk uzsvēra nepieciešamību pēc etikas atbildības AI kopienā.

Reaģējot uz šīm atklāsmēm, Meta, agrāk zināma kā Facebook, nonāca līdz līdzīgai situācijai. Novērojot, ka tā AI produkti atpaliek no OpenAI produktiem, Meta izpētīja dažādus veidus, kā iegūt vairāk datu, lai trenētu savas sistēmas. Opcijas, piemēram, licences līgumi un pat uzņēmumu, kuram pieder vadošie izdevēji, iegūšana, tika ņemtas vērā viņu datu meklēšanas ceļojumā. Tomēr tādas darbības morālās sarežģītības galu galā lika Metam atteikties no šiem plāniem.

Šīs nesenās atklāsmes kalpo kā zvans AI nozarei. Datus jāvada, vadoties pēc stingriem etiskiem pārdomu un cieņas pret intelektuālā īpašuma tiesībām. Tehnoloģiskās attīstības vajadzības nedrīkst aizēnot atbildīgas datu izmantošanas un piekrītības svarīgumu. Uzņēmumiem, pētniekiem un politikas veidotājiem ir būtiski kopīgi darboties, lai izveidotu skaidras pamatnostādnes, kas veicina etisko AI attīstību.

Bieži uzdotie jautājumi

The source of the article is from the blog scimag.news

Web Story

Privacy policy
Contact