Naver avaldab juunis tehisintellekti ohutusraamistiku

Lõuna-Korea juhtiv internetifirma Naver on teel käivitama “Naver AI turvalisusraamistikku” juunis, eesmärgiga kaitsta teismelisi võimalike ühiskondlike eelarvamuste ja kultuurilise ühtsuse eest, mille toob kaasa tehisintellekt (AI). Teadaanne tehti Naveri asutaja ja Global Investment Officer (GIO) Lee Hae-jini poolt Seouli AI-le pühendatud tippkohtumisel.

Lee rõhutas vastutustundlike ja mitmekesiste AI mudelite hädavajalikkust, mis austavad piirkondlikke kultuurilisi väärtusi, mainides, et AI esitlus ühe lahendusena võib mõjutada oluliselt lapsi ja teismelisi, kes kuuluvad kõige kergemini mõjutatavate kasutajate hulka. Ta rõhutas laiapõhjaliste vaadete kaasamise olulisust AI mudelitesse, et tagada nende vastavus eri piirkondade mitmekesiste ajalooliste ja kultuuriliste kontekstidega.

Viidates George Orwelli kuulsale tsitaadile, väidab Lee, et valitsev AI tehnoloogia kujutlusajaloo ja kultuuri kohta võiks domineerida tulevasi narratiive, rõhutades alamjooksu jõudu algoritmides, mis kujundavad meie arusaamist minevikust ja olevikust. Ta pakub välja, et lai spekter AI mudeleid võib säilitada mitmekesised vaatenurgad ajaloole, mis omakorda toetab noorte õiget ajaloolist teadlikkust ja vaatenurki.

Naver pühendub vastutustundliku AI arendamise edendamisele ja toetamisele, mis austab erinevaid kultuurilisi taustu ja väärtusi. See võimaldab riikidel üle maailma saada enda suveräänsete AI süsteemidega, tagades tehnoloogilise suveräänsuse ja mitmekesise esindatuse globaalses AI-ajastus.

AI Seoul Summit, mis toimus 21.-22. mail, tõi kokku rahvusvahelised liidrid, organisatsioonid ja esindajad suurtest AI tehnoloogiafirmadest. Arutati põhjalikke strateegiaid AI arendamise edendamiseks, rõhutades turvalisust, innovatsiooni, kaasatust ja vastastikust kasvu.

Võtmeteemaga seotud küsimused ja vastused:

Mis on Naveri AI turvalisusraamistik?
Naveri AI turvalisusraamistik on algatus, mille eesmärk on tagada, et AI tehnoloogiad austaksid kultuurilist mitmekesisust ja ajaloolist täpsust, samal ajal kaitstes noori kasutajaid võimalike eelarvamuste eest. Raamistik juhendab AI süsteemide arendamist moel, mis austab erinevaid kultuurilisi ja ajaloolisi kontekste.

Miks Naver seda raamistikku arendab?
Naver arendab raamistikku, et soodustada vastutustundlikku AI arengut, mis hõlmaks laia vaatenurkade valikut ning kaitseks võimaliku võimu konsolideerumise eest, mis võib tuleneda ühest, potentsiaalselt eelarvamustega mõistmisest ajaloost ja kultuurist, mida AI propageerib.

Millal AI turvalisusraamistik avaldatakse?
Naver kavatseb AI turvalisusraamistiku avalikustada juunis, järgides Lee Hae-jini teadet AI Seoul Summitil.

Miks on AI turvalisusraamistik oluline teismelistele?
Teismelised on mõjutatavad ja maailma mõistmise kujundamise vormimise etappides. AI turvalisusraamistik eesmärk on kaitsta neid eelarvamuste eest ning edendada kultuuri ja ajaloo mitmekesisemat ning kaasavamat esindatust.

Põhiküsimustega seotud väljakutsed või kontroversid:

Tasakaalu tagamine: Kultuurilisi väärtusi ja mitmekesisust austava AI loomine, vältides samas süvenenud eelarvamusi, toob kaasa olulised väljakutsed, nagu nende eelarvamuste tuvastamine ja parandamine, ilma et juhuslikult tekiksid uued.

Globaalne vastuvõtt: Isegi kui Naver suudab raamistiku edukalt arendada ja rakendada, jääb ebakindlaks selle laialdane vastuvõtt teiste ettevõtete ja riikide poolt. Võib esineda erinevusi regulatsioonides, kultuurilistes väärtustes ja turujõududes, mis mõjutavad AI ohutuse prioriteete.

Tehniline keerukus: Kultuurilise mitmekesisuse tasakaalu saavutamine AI algoritmides on tehniliselt keeruline ja võib nõuda individuaalseid lähenemisviise andmete kogumisel, algoritmi kujundamisel ja pidevat jälgimist eelarvamuste ja eetiliste küsimuste suhtes.

AI turvalisusraamistiku eelised ja puudused:

Eelised:
– Edendab kaasatust ja kultuurilist tundlikkust AI-s.
– Aitab ennetada kultuuride ja vaadete homogeniseerumist.
– Võib viia eetilisemate ja sotsiaalselt vastutustundlikemate AI tehnoloogiate arenguni.
– Julgustab riike kogu maailmas tehnoloogilise suveräänsuse suunas.

Puudused:
– Võimalik, et raamistiku kultuuriliste ja eetiliste nõuete kontrollid aeglustavad AI arendusprotsessi.
– Võib suurendada AI arenduskulude kulu tänu vajadusele koguda laiaulatuslikumalt teadus- ja andmeid esindamaks kultuurilist mitmekesisust.
– Raamistiku tõhusus sõltub suures osas sellest, kuidas seda võtavad vastu ja rakendavad teised ettevõtted ja riigid, mis pole garanteeritud.

Asjakohased täiendavad faktid, mis pole artiklis mainitud:

– Lõuna-Korea roll globaalse tehnoloogia ja innovatsiooni liidrina, kus ettevõtted nagu Naver avavad teed AI arendamisele.
– Pidev ülemaailmne arutelu ja uuringud AI eetika üle, sealhulgas algoritmides olevate eelarvamuste, läbipaistvuse, vastutuse ja AI tehnoloogiate ühiskondliku mõju kohta.
– AI turvalisusalgatuste võimalikud mõjud rahvusvahelistele koostöödele ja regulatsioonidele seoses AI arendamise ja kasutamisega.

Lisateabe saamiseks võite külastada Naveri ametlikku veebisaiti, et uurida ettevõtte tööd ja AI-ga seotud algatusi. Palun pange tähele, et veebisaitide ja nende sisu dünaamilise olemuse tõttu toimib see link vaid Naveri veebipäritolu uurimise alustena.

Privacy policy
Contact