Eksistensen af etik i kunstig intelligens (AI) og konsekvenserne af dataindsamling

I udviklingen af AI spiller data en afgørende rolle i træning af modeller for at generere høj kvalitet i resultater. Seneste afsløringer om to store tech-giganter, Google og OpenAI, har dog bragt de etiske implikationer af dataindsamling frem i lyset. Konsekvenserne af deres handlinger fungerer som en advarselshistorie for AI-branchen og rejser vigtige spørgsmål om behovet for ansvarlig dataanvendelse.

OpenAI, en fremtrædende AI-forskningsorganisation, fandt sig i en dilemma om dataforbrug omkring 2021. Under deres stræben efter at forbedre deres ChatGPT-værktøj, tyede de til at hente data fra YouTube-videoer uden eksplisit tilladelse fra indholdsoprettelse. Dette potentielt krænkede ophavsretslove og brød også med YouTubes servicevilkår. På samme måde engagerede Google sig i den samme tvivlsomme praksis i deres stræben efter at træne deres egne AI-modeller. Begge virksomheder var klar over de juridiske usikkerheder omkring deres handlinger, men følte sig tvunget til at fortsætte på grund af den intense konkurrence i AI-landskabet.

Kritikere som Gary Marcus, en anerkendt AI-forsker, havde længe rejst bekymringer om den ubegrænsede fodring af data til AI-modeller. Marcuss advarsler, der går tilbage til 2018, syntes at forudsige de problemer, der nu er kommet for dagen. Problemet strækker sig ud over de direkte konsekvenser af at ignorere juridiske grænser. Det fremhæver den bredere etiske dilemma, der opstår, når den uophørlige forfølgelse af data overskygger overvejelser angående samtykke, intellektuel ejendom og privatliv.

AI-udviklingens datahungrende natur har ført til begreber som “crap in, crap out” (dårlig data ind, dårlig data ud) der bliver udbredt inden for datalogiens område. Med andre ord afhænger kvaliteten af outputtet, der genereres af AI-systemer, i høj grad af kvaliteten af inputdata. Uden strengt kuraterede, diverse og etisk erhvervede data risikerer AI-algoritmer at producere underlødigt indhold. Marcus understreger dette punkt ved at tegne paralleller til Shakespearean tragedier og antyder, at konsekvenserne af at overse disse bekymringer i AI-udviklingen potentielt kan være katastrofale.

Mens OpenAI og Google måske havde deres grunde til at ty til dataindsamling, har deres handlinger nu sat dem i en skrøbelig position. Afsløring af deres tvivlsomme dataindsamlingsmetoder kan føre til juridiske konsekvenser og skade deres offentlige omdømme. Det understreger desuden presserende nødvendighed af, at AI-branchen vedtager stringente etiske retningslinjer og udvikler ansvarlige praksisser for dataindsamling.


FAQ

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact