Kultúrna citlivosť v technologických nástrojoch: Dôležitosť diverzifikácie umelej inteligencie

V rýchlo sa vyvíjajúcom svete umelej inteligencie (UI) vzbudil nedávny incident týkajúci sa chatbota Gemini od Googlu záujem o problémy s odstraňovaním kultúrnych predsudkov v technologických nástrojoch. Chatbot generoval obrázky čiernych a ázijských nacistických vojakov, čím vyvolal rozhorčenie a poukázal na potenciálne dôsledky nekontrolovaného vplyvu UI.

CEO Googlu Sundar Pichai odsúdil chyby, ktoré Gemini AI aplikácia urobila, uznávajúc, že vygenerované obrázky boli historicky nepresné a podporujúc dočasný zastavenie generovania obrázkov ľudí. Verejná reakcia na tento incident pripomenula obrovský vplyv, ktorý majú niekoľko technologických gigantov nad platformami UI, ktoré majú potenciál preformovať spoločnosť.

Joshua Weaver, právnik a technologický podnikateľ, popisuje akcie Googlu ako príliš „prebudzujúce,“ naznačujúc, že spoločnosť šla príliš ďaleko vo svojom pokuse o prioritu pre inklúziu a diverzitu. Zatiaľ čo Google rýchlo opravil svoje chyby, Charlie Burgoyne, CEO laboratória aplikovanej vedy Valkýrie, verí, že takéto opravy riešia len povrchový problém a nezaoberajú sa základným problémom.

Google, spolu s ďalšími technologickými gigantmi, sa teraz zúčastňuje súťaže v oblasti UI s firmami ako Microsoft, OpenAI a Anthropic. Táto zvýšená konkurencia necháva malý priestor pre firmy na zlepšenie svojich produktov v priebehu dlhšieho časového obdobia. Chyby spáchané pri snahách o kultúrnu citlivosť sa stanú významnými búrkami, obzvlášť vzhľadom na politicky rozdeľujúci klima v Spojených štátoch.

Ako UI stále viac generuje obrovské množstvo informácií, otázka, kto kontroluje ochranné mechanizmy UI, sa stáva kľúčovou. Potenciál pre šírenie dezinformácií a zvýrazňovanie predsudkov vyvoláva obavy o vplyv tých, ktorí kontrolujú systémy UI. Nedávna prešľap svedčí o tom, že odborníci kladú otázky na úroveň kontroly, ktorú majú používatelia nad nástrojmi UI a informáciami, ktoré produkuje.

Karen Palmerová, ocenená tvorkyňa mixed-reality projektov, špekuluje o budúcnosti, v ktorej môže UI ovplyvňovať významné rozhodnutia, ako smerovanie jednotlivcov so záznamami na polícii namiesto ich zamýšľaných ciest. Tréning modelov UI silne závisí na existujúcich dátach, ktoré zákonite obsahujú predsudky, sociálne nerovnosti a dezinformácie.

Inžinieri, ktorí sa snažia znovu vyvážiť algoritmy, aby odrážali ľudskú rôznorodosť, čelia obrovskému výzve. Technologický právnik Alex Shahrestani zdôrazňuje ťažko sa odhaľujúcu a zaoberajúcu sa vnútornostiach generatívnych modelov UI, čím sa problém ešte zhoršuje a zabraňuje používateľom identifikovať skryté predsudky.

Odborníci a aktivisti volajú po väčšej rozmanitosti v tínoch vyvíjajúcich UI a po väčšej transparentnosti týkajúcej sa fungovania nástrojov UI. Je nevyhnutné zahrnúť pohľady z rôznorodých komunít po celom svete a vybudovať algoritmy, ktoré eticky využívajú ich dáta. Tento prístup, využívaný organizáciami ako Indigenous AI a podobnými, protirečí prístupu zdola hore, ktorý sa pozoruje v technologickom priemysle a podporuje inkluzívny a kultúrne citlivý rozvoj UI.

Incident s Googlom Gemini chatbotom by mal slúžiť ako výstraha pre technologický priemysel, aby uprednostnil kultúrnu citlivosť a diverzitu v nástrojoch UI. Adresovaním týchto výziev priamo a zapojením širokej škály pohľadov počas celého vývojového procesu môže priemysel minimalizovať riziká predsudkov a zvýšiť pozitívny vplyv technológie UI.

Často kladené otázky

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact