Avaliku ohutuse tagamine tööstuste automatiseerimisel

Kunstlik intelligents (AI) on saanud enam kui lihtsalt moesõnaks; see muudab nüüd tööstusi ja ühiskondi. Selle innovaatilised rakendused tervishoiu, finants-, transpordi- ja meelelahutusvaldkonnas pakuvad tarbijatele olulist kasu. Üks valdkond, kus AI, eriti generatiivne AI, on avaldanud märkimisväärset mõju, on kaebuste lahendamine, tarbijate hooldus ja juurdepääs taskukohastele teenustele, soodustades seeläbi majanduskasvu võimalusi. Siiski on AI juhitud progressi tee täis väljakutseid, nagu valeinformatsioon, küberohud, privaatsuse rikkumised, eelarvamused ja digitaalne lõhe. Üks ainulaadne risk on eksitavate tulemuste või hallutsinatsioonide tekkimine.

Nende riskide tunnistamine ja nendega tegelemine on oluline õiglase ja vastutustundliku AI tagamiseks tarbijatele. IndiAI missioon teab neid riske täielikult ja on pühendunud turvalise ja usaldusväärse AI arendamisele. Selle eesmärgi saavutamiseks tuleb keskenduda tarbijatele õiglase ja vastutustundliku AI pakkumisele, prioriteerides nende hüvesid, samal ajal vähendades võimalikke kahjusid. Seda hõlmab ohutuse, kaasatuse, privaatsuse, läbipaistvuse, vastutuse ja inimväärtuste säilitamine AI platvormide arendamise ja kasutuselevõtu ajal.

Viimasel ajal teatas keskvalitsus IndiAI missioonist, millele on järgneva viie aasta jooksul eraldatud oluline investeering 10,372 krooni. Selle missiooni eesmärk on edendada “AI kõigile” ja kaaluda AI reguleerimist potentsiaalse tarbijatele tekitatava kahju seisukohalt. Sellega muutub aina olulisemaks õiglase ja vastutustundliku AI kättesaamine tarbijatele.

Üks tähtis küsimus, mis on tähelepanu saanud, on andmepõhised eelarvamused. Need eelarvamused tulenevad mitmekesisuse puudumisest koolitusandmetes ja kultuurilistest erinevustest. Kui neid ei lahendata, võivad eelarvamused AI-s süvendada sotsiaalseid ebavõrdsusi, süvendada digitaalset lõhet ja viia diskrimineerivate tulemusteni. Selle probleemi lahendamiseks peaks IndiAI missioon prioriteetsemaks muutma andmehulkade mitmekesistamise perioodiliste ülevaatuste, nõuetekohase järelevalve iseseisvate komiteede poolt ja läbipaistvate avalduste kaudu. Regulatiivsed liivakastid võivad aidata eelarvamuse vastastes eksperimentides, soodustades kaasatust. Missioon peaks ka keskenduma andmete kogumisele AIga seotud kahjude kohta, suurendades riigi võimekust nende kahjudega tegelemiseks ja andes tarbijate organisatsioonidele volitused neid jälgida ja lahendada.

Rühma privaatsuse tagamine on teine oluline aspekt, eriti arvestades mitteisiklike andmete kogumise platvormi plaane. On oluline mõista rühma privaatsust selgelt, et prioriteetiks seada õiglus ja kaasatus AI arendamisel. Lisaks on andmekaitsealased mured olulised, eriti kui need on seotud isiklikke andmeid kaitsev seadusega, mis on väga oluline tarbijate privaatsuse kaitseks. Mõned seadusesse tehtud erandid, nagu avalikult kättesaadavate isikuandmete töötlemine ilma nõusolekuta, tekitavad muret privaatsuseõiguste pärast. Nende murede lahendamiseks peaks missioon edendama põhimõtteid nagu õigus andmete kustutamisele, andmetöötluse eesmärgi avalikustamine ja vastutuse meetmete rakendamine andmete väärkasutuse vältimiseks. See tagab turvalisuse ja läbipaistvuse AI-s ja masinõppe süsteemides.

Valeinformatsioon on veel üks oluline küsimus AI valdkonnas. Valimiste eel on oluline tagada valimiste terviklikkus. Elektroonika- ja infotehnoloogiaministeerium on välja andnud juhised, mis käsitlevad sügavaid võltsinguid ja kallutatud sisu sotsiaalmeedia platvormidel. Siiski on tõstatatud küsimusi nende juhiste ulatuse, seadusliku volituse, menetluse läbipaistvuse ja proportsionaalsuse kohta. Võltsinformatsiooni probleemide tõhusaks lahendamiseks peaks missioon suurendama riigi võimekust, institutsionaliseerides raamistikke nagu Regulatiivne Mõjuhindamine (RIA). See soodustab koostööd, nüansside mõistmist ja pakub proportsionaalseid ja läbipaistvaid lahendusi.

Üks oluline areng on AI süsteemide, eriti generatiivsete AI-de, kasutuselevõtt tarbijate kaebuste lahendamise protsessis. AI integreerimine tarbijate kaebuste lahendamise protsessidesse võib suurendada tarbijate õiguste kaitset ja kiirendada kaebuse lahendamist, analüüsides suuri kaebuste mahusid. Siiski on muresid võimaliku kommertsialiseerimise, kasutajate vaatenurkade manipuleerimise, eelarvamuste ja inimtöötaja toetuse puudumise osas. Nende murede leevendamiseks peaks missioon prioriteetsemaks muutma läbipaistvate AI mudelite ja eetiliste juhiste arendamise kaebuste lahendamise protsessides. See hõlmab inimjärelevalvet, läbipaistvust, vastutust ja pidevat andmete jälgimist.

Digitaalne lõhe AI ökosüsteemis on teine tõsine murekoht. See hõlmab piiratud juurdepääsu AI teenustele, piisavate oskuste puudumist nende tõhusaks kasutamiseks ja piiratud arusaama AI väljunditest. Sotsiaalsed tegurid nagu haridus, rahvus, sugu, sotsiaalne klass ja sissetulek, koos sotsotehniliste näitajatega nagu oskused, digitaalne kirjaoskus ja tehniline infrastruktuur, aitavad sellele lõhele kaasa. Selle lõhe ületamiseks peaks missioon võtma kasutusele mitmekülgse lähenemise. Seda hõlmab AI arendamise soodustamine piirkondlikes keeltes, kohaliku talendi võimendamine, innovatsiooni soodustamine, kasutades ÜRODP Kiirendi laborite ressursse, propageerides avatud lähtekoodiga tööriistu ja andmehulki ning soodustades tarbijate algoritmilist kirjaoskust.

Õiglase ja vastutustundliku AI tavad tagab tarbijate kaitseks hädavajalik. Lisaks reguleerivate raamistike loomisele on eneseregulatsiooni ja kaasregulatsiooni edendamine samuti oluline. Objektiivse ja ekspertidest juhitud organi loomine, kellel on volitused valitsusi objektiivselt teavitada AI võimalustest ja anda tõenduspõhiseid soovitusi, võiks olla kasulik. See lähenemine sarnaneb Euroopa AI Nõukogu nõustava rolliga.

India Reguleerimisasutus on rõhutanud kiiret vajadust tervikliku reguleeriva raamistiku järele oma juulikuu 2023. aasta raportis “Soovitused kunstliku intelligentsi ja suurandmete kasutamise kohta telekommunikatsioonisektoris”. Selles soovitati iseseisva seadusliku organi, India Kunstliku Intellekti ja Andmehalduse Asutuse (AIDAI) loomist ning soovitati mitmepooluselise grupi loomist, et nõustada AIDAI-d ja klassifitseerida AI rakendusi nende riskitaseme alusel. Tõhus koordineerimine osariikide valitsuste, sektoriregulaatorite ja keskvalitsuse vahel saab olema sellise asutuse sujuva toimimise jaoks oluline, arvestades AI laialdast mõju eri sektorites.

Investeeringud riistvarasse, tarkvarasse, koolitusalgatustesse ja teadlikkuse suurendamisse on olulised tervikliku AI ökosüsteemi jaoks. Koostöö valitsuse, tööstuse, akadeemia ja kodanikuühiskonna vahel on oluline õigluse, innovatsiooni ja vastutuse tasakaalu saavutamiseks. Kui India asub oma AI-teekonnale, peab ta esikohale seadma potentsiaali ja vastutuse, mis on suunatud õiglase ja vastutustundliku ökosüsteemi kaudu, et tagada võrdsed hüved ja riskide maandamine.

KKK

1. Mis on IndiaAI missioon?
IndiaAI missioon on valitsuse algatus, millele järgneb viie aasta jooksul 10,372-kroonine investeering. Selle eesmärk on edendada AI-d kõigi jaoks ning tagada õiglane ja vastutustundlik AI tarbijate ohutuse tagamiseks.

2. Mis on AI-ga seotud riskid?
Mõned AI-ga seotud riskid on .

The source of the article is from the blog exofeed.nl

Privacy policy
Contact