Valve loob uue teatamise tööriista, et jälgida AI-ga loodud sisu Steami mängudes

Valve on hiljuti teatanud uuest teatamise tööriistast Steamil, mis võimaldab mängijatel teatada “ebaseaduslikust sisust” mängudes, kus on AI poolt reaalajas loodud sisu. See rakendamine on osa Valves pidevatest jõupingutustest AI-ga loodud sisu modereerimiseks nende platvormil.

Transparentsuse tagamiseks peavad arendajad nüüd Steamil oma mängu esitades märkima AI kasutamise. AI-ga loodud sisu kasutamine on jaotatud kaheks kategooriaks: eelnevalt loodud sisu ja AI poolt reaalajas loodud sisu. Lisaks peavad AI-ga loodud sisu mängude arendajad selgitama meetmeid, mida nad on võtnud ebaseadusliku sisu tekke ärahoidmiseks.

Uus teatamise tööriist võimaldab mängijatel esitada aruandeid, kui nad kohtavad sisu, mille AI oleks pidanud tuvastama. Seda tööriista saab kasutada Steami mängusisese ülekattena.

Valve teatas, et need muudatused tehti tänu paremale arusaamisele AI maastikust ja sellega seotud riskidest mängudes. Ettevõte mainis ka, et nad on kogunud teavet AI-d kasutavate mängude arendajate ja AI tööriistade loomises osalevate isikute käest. Selle tulemusena võimaldavad need uued reeglid Valve’il olla avatum AI-tehnoloogiat kasutavate mängude väljalaskele oma platvormil.

Varem oli Valve väljendanud soovi võtta Steamis vastu ja edendada innovatsiooni, kuid juulis 2023 seisid nad silmitsi segadustega oma AI poliitikas. Nad rõhutasid, et arendajate kohus on tagada vajalikud õigused AI integreerimiseks oma mängudesse.

AI-tehnoloogia on mängutööstuses oluline olemasolu, millest arendajad on arutanud oma vastuseid AI-le sellistel sündmustel nagu GDC. Siiski on tõstatatud murekohti AI-ga juhitud deepfake modide, näitlejate hääle volitamata kasutamise ja sisu varguse osas. Hoolimata nendest väljakutsetest jätkavad Microsoft ja ZeniMax AI kasutamise uurimist mängude arendamisel, tehes koostööd AI ettevõtetega, et luua AI tööriistu ja kasutades vastavalt AI-d töökohal.

The source of the article is from the blog agogs.sk

Privacy policy
Contact