Vlada skatina technologijų įmones taikyti vandenženklus dirbtinio intelekto (AI) sukurtam turiniui

Australijos vyriausybė imasi veiksmų, siekdama spręsti iššūkius, kuriuos kelia sparčiai besivystantis dirbtinio intelekto (AI) produktų evoliucija. Pramonės ir mokslo ministras Ed Husic atskleidė vyriausybės atsaką į konsultacijų procesą dėl saugaus ir atsakingo AI, pripažindamas būtinybę įvesti naujas reguliavimo priemones „aukšto rizikos” AI taikymams. Nepaisant to, kad vyriausybė siekia remti AI augimą, taip pat pabrėžiama viešų nuogąstavimų pašalinimo svarba ir saugos priemonių įgyvendinimas.

Husic atskleidė, kad visuomenė trūksta pasitikėjimo saugiu ir atsakingu AI naudojimu. Vyriausybės atsakyme į tai numatoma ekspertų konsultacijų grupės įkūrimas AI politikos plėtotei ir tolesniems apribojimams kurti, taip pat verslo savanoriškos „AI saugos standarto” sukūrimas. Tokios skaidrumo priemonės, kaip viešas ataskaitų pateikimas apie duomenis, naudotus apmokyti AI modelius, taip pat yra apsvarstomos.

Be to, vyriausybė tyrinėja galimybę pareikalauti, kad technologijų įmonės taikytų vandenženklus arba etiketes AI sukurtam turiniui. Šiuo žingsniu siekiama spręsti susirūpinimą keliančius generuojančių AI modelių naudojimo aspektus, kurie greitai generuoja naują turinį naudodami jau turimus medžiagų šaltinius. Vyriausybė pripažįsta, kad įstatymai gali atsilikti nuo AI plėtros tempo ir nori užtikrinti, kad AI sistemos būtų kurtos, plėtojamos ir įdiegiamos atsakingai.

Vyriausybės atsakas yra papildomas pastangomis reguliuoti AI Australijoje. Ryšių ministrė Michelle Rowland įsipareigojo keisti interneto saugumo įstatymus, kad būtų galima spręsti AI sukeltos kenksmingos medžiagos, tokios kaip deep fake ir neapykantos kalba, problemas. Be to, nagrinėjamos AI naudojimo mokyklose ir vyriausybės užduotųje AI grupėje.

Skatindama technologijų įmones taikyti vandenženklus ar etiketes AI sukurtam turiniui, Australijos vyriausybė siekia suteikti aiškumą ir atskaitomybę naudojant AI. Šis požiūris atitinka vyriausybės įsipareigojimą skatinti inovacijas, tuo pačiu saugant viešąjį pasitikėjimą ir spręsdama aukšto rizikos AI taikymo sukeliamus pavojus.

Privacy policy
Contact