Microsoft tiek izmeklēts ES iestāžu sarakstā par AI pielietojumu Bing.

Microsoftam varētu draudēt nozīmīgi soda naudas no Eiropas Komisijas, ja tā nespēs izpildīt direktīvu iesniegt dokumentus līdz 27. maijam. Tehnoloģiju gigants tiek izmeklēts par to, kā tas izmanto mākslīgo intelektu (AI) savā meklēšanas dzinējā Bing un saistītajos sistēmās.

Eiropas Komisija īpaši koncentrējas uz diviem Microsoft īstenotiem AI sistēmām, proti, “Kopilot in Bing”, kas ir daudzfunkcionāls iestatījums, kas var ražot tekstu un attēlus, reaģējot uz lietotāju vaicājumiem, un “Attēla radošais veidotājs no dizainera”, sistēmas, kas izstrādāta attēlu ģenerēšanai.

Komisija izdeva bažas par iespējamu mākslīgu dezinformācijas radīšanu, ko dēvē par “hallucinācijām”, kur lietotāji varētu saņemt nepareizas atbildes no AI platformas. Vēl viens iespējamais pārkāpums ietver “deepfake” radīšanu ar AI manipulāciju, kur reālu cilvēku materiālus var mainīt, lai viltotu viņu runas vai darbības, ko viņi nekad patiesībā nedarīja.

Šo iespējamo pārkāpumu nopietnība saistās ar to, kā tie var pārkāpt ES Digitālo pakalpojumu likumu (DSA), it īpaši saistībā ar vēlētāju manipulēšanu vai dezinformācijas izplatīšanu. Microsoft atbilstība Komisijas prasībām ir kritiska, jo dokumentu nepieciešamības neizpilde varētu radīt soda naudu līdz pat vienam procentam no uzņēmuma gada apkopotajiem ieņēmumiem. Turklāt varētu tikt piemēroti papildu sodi, iespējams līdz pat pieciem procentiem no uzņēmuma ikdienas ieņēmumiem, kā detalizēts informācijas avots Politico.

Microsoft sadarbība ar AI tehnoloģijām rada plašākas sekas par šobrīdējo Eiropas Komisijas izmeklēšanu. Tehnoloģiju uzņēmums ir galvenais dalībnieks globālajā AI tirgū, piedāvājot dažādas AI balstītas rīkus un pakalpojumus papildus Bing, piemēram, Azure AI, Microsoft Dynamics 365 AI un AI integrācijas ar Microsoft Office.

Viens no galvenajiem aspektiem, kas netika minēts rakstā, ir pieaugošā atkarība no AI moderno meklēšanas dzinēju darbībām, lai nodrošinātu precīzākus un saistošākus rezultātus. AI var analizēt meklēšanas vaicājumus dabiskā valodā un nodrošināt atbildes, kas labi saskan ar cilvēka domāšanu, kas ir ievērojama attīstība salīdzinājumā ar tradicionālajām atslēgvārdu pamatotajām meklēšanas algoritmiem.

Tomēr AI izmantošana rada izaicinājumus, it īpaši etiskās apsvērumu un ļaunprātīgas izmantošanas jomā. Piemēram, pastāv problēma ar AI tendenci radīt priekšnojautas, kad sistēmas var izrādīt priekšsēdējumu balstītu uz datiem, ar kuriem tās ir trenētas. Microsoft, tāpat kā citi tehnoloģiju uzņēmumi, nepārtraukti strādā pie šādu nosliežu risināšanas savos AI modeļos.

Kontroversija, kas saistīta ar AI pielietojumu, bieži ietver jautājumus par privātumu, jo AI sistēmas var apkopot un apstrādāt milzīgus daudzumus personisko datu, lai darbotos efektīvi. Pastāv arī jautājums par pārredzamību, kad ne vienmēr ir skaidrs, kā AI sistēmas nonāk pie konkrētiem secinājumiem vai lēmumiem.

Attiecībā uz priekšrocībām AI var ievērojami uzlabot lietotāja pieredzi, nodrošinot personalizētu saturu un intuitīvāku mijiedarbību. Uzņēmumiem AI bāzēti analītikas var novest pie labākas informētības lēmumu pieņemšanas. Savukārt, trūkumos ietilpst riski, kas saistīti ar datu drošību, iespējamo darbavietu zudumu sakarā ar automatizāciju un dezinformācijas izplatīšanu vai manipulētu saturu, piemēram, deepfake materiāli.

Microsoft gadījumā galvenais domēns, kas saistīts ar šo tēmu, būtu viņu oficiālā vietne, kurā apkopotas informācijas par viņu AI tehnoloģijām un politikai par atbildīgu AI izmantošanu: Microsoft Oficiālā Vietne.

Nodrošinot, ka AI lietojums ir ētisks un drošs, ir būtiski uzņēmuma reputācijai, lietotāju uzticībai un ievērojot arvien stingrākus globālos noteikumus, piemēram, ES Digitālo pakalpojumu likumu. Šie noteikumi un politikas mērķis ir veicināt digitālo ekosistēmu, kas ir vienlaicīgi inovatīva un uzticama. Microsoft sadarbība ar regulatīvajiem pieprasījumiem, piemēram, dokumentu iesniegšana Eiropas Komisijai, nav tikai par soda naudas izvairīšanos, bet arī par tās pozīcijas uzturēšanu kā atbildīga līdere AI jomā.

Privacy policy
Contact