Microsoft trekk AI-modellen WizardLM-2 for manglande toksisitetstestar

Microsoft si sitt siste kunstig intelligensmodell, WizardLM-2, vart raskt trekt tilbake frå internett etter at utviklarane overså avgjerande toksisitetstestar før utgjevinga.

I ein innsats for å sikre etisk samsvar og brukarsikkerheit, trakk Microsoft tilbake den nyleg lanserte AI-modellen kort tid etter debut 15. april. Fjerninga av WizardLM-2 frå sirkulasjon skjedde som svar på utviklarane sin unnlatelse av førebelse toksisitetsscreening, ein kritisk steg for å sikre at AI-teknologiar ikkje vidareformidlar skadeleg innhald.

På sosiale nettverksplattformer erkjende teamet bak WizardLM-2 glippen tidleg 16. april. ifølgje deira redegjering vart den viktige toksitetstestingfasen utilsiktet hoppa over i hastverket med å gi ut modellen.

Microsoft arbeider no flittig med å gjennomføre desse utelatne testane med mål om å gjere modellen tilgjengeleg for publikum når dei er trygge på sikkerheita og pålitelegheita. WizardLM-2 omfattar tre variantar, kjende som 8x22B, 70B og 7B, der 8x22B er sammenliknbar med OpenAI sin GPT-4-modell.

Hugging Face, ei openkjelde-AI-data plattform, uttrykte sin takksemd til Microsoft for gjennomsiktigheten kring tilbaketrekkinga og ser fram til modellen sitt gjenutgjeving for fellesskapets nytte.

I mellomtida har både GitHub og Hugging Face fjerna WizardLM-2 filer, som no resulterer i 404-feil. Bekymringar kjem likevel fram då Alon Bohman, tidlegare frå Microsoft si Azure ML-gruppe, påpeikar at talrike openkjeldeutviklarar kan ha lasta ned modellen allereie, potensielt aukande for sikkerheitsomsyn.

Dette hendinga bidreg til nyleg granskning av Microsoft sine sikkerheitsprotokollar. Den amerikanske Cybersikkerhetsrådet hadde gjeve ut ein skarp rapport i april 2024, der dei kritiserte Microsoft for sikkerhetsfeil som let ein innbrotshendelse skje og tjuveri av e-postar frå amerikanske regjeringsføremål i 2023, mellom dei framståande politiske skikkar.

Rapporten til rådet på 34 sider peika på teknologigigantens «utilstrekkelege» sikkerheitskultur og krevde ein grundig omorganisering for å hindre slike sårbarheiter i framtida. Belysande nødvendigheten ytterligare, melde TechCrunch om ein anna sikkerheitsdatt til Microsoft som involverte ein Azure-lagringsserver som inneheld sensitiv kode og legitimasjonar som var lett tilgjengeleg på nettet.

Microsoft si hurtige respons på unnlatelser av toksitetstestingane i sin AI-modell WizardLM-2 reflekterer ein vidare bransjedriv mot ansvarleg AI-utvikling. Her er nokre relevante fakta, marknadstrendar, prognosar og utfordringar knytt til AI-sikkerheit og etikk:

Marknadstrendar:
– AI-styring og etikk blir stadig viktigare i bransjen. Selskap investerer meir ressursar for å sikre at AI-modellar vert utvikla med omsyn til rettferd, ansvar, personvern og sikkerheit.
– Det er ei aukande etterspurnad for gjennomsikt i AI-operasjonar, som leier til rammeverk og prinsippsamlingar som leiande etiske AI-utviklingspraksis.
– Samarbeid mellom teknologiselskap, forskarar og politikarar aukar, med mål om å fastsetje standardar for AI-utfasing.

Prognosar:
– AI-etikk-marknaden er forventa å vekse som fleire interessentar krev ansvarlege AI-implementeringar.
– Regjeringar og regulative organ kan innføre strengare retningslinjer og lover som styrer AI-utfasing, noko som kan påvirke hastigheten og karakteren av AI-utviklinga.

Nøkkelfordringar og kontroversar:
– Å sikre at AI-modellar ikkje lærer og vidareformidlar skadeleg eller fordomsfulle innhald er framleis ein betydeleg utfordring.
– Balansering av innovasjon med etiske omsyn utan å kvela framsteg i feltet.
– Adresse potensialet for at AI-system kan verta brukt på ein ondskapsfull måte, som for spre desinformasjon eller mogleggjere overvaking.

Fordelar med riktig testing:
– Forhindrar at publikum vert utsett for skadeleg eller støtande innhald som vert generert av AI-system.
– Byggjer tillit til AI-teknologiar og selskapa som utviklar dei.
– Hjelpar selskap å vern seg mot juridiske problem og skade for omdømet deira.

Ulemper med mangelfull testing:
– Kan tillate utilsikta skadelege følgjer, som påverkar enkeltpersonar, grupper eller samfunnet som heilskap.
– Kan føra til motreaksjonar mot selskapet, potensielt resultater i finansielle tap og regulatorisk granskning.
– Presenterar sikkerheitsrisiko om utilsikta sårbarheitar vert introdusert.

Relasjonert til Microsoft si etiske AI-praksis:
Interesserte parti kan halda seg oppdaterte på Microsoft sine AI-politikk og deira utviklingar innan etisk AI ved å vitja [Microsoft](https://www.microsoft.com).

Vennligst merk at sjølv om eg kan diskutere desse trendane og omsyna, så er prognosar frå si side usikre, og det er ikkje mogleg for meg å predikere framtidige marknadstrendar eller regulatoriske avgjerder med tryggleik.

Privacy policy
Contact