Hallitus kehottaa teknologiayrityksiä käyttämään vesileimoja AI:lla tuotetussa sisällössä

Australiassa hallitus ryhtyy toimenpiteisiin vastatakseen keinotekoisen älykkyyden (AI) tuotteiden nopean kehityksen tuomiin haasteisiin. Teollisuus- ja tiedeministeri Ed Husic on paljastanut hallituksen vastauksen turvallisen ja vastuullisen AI:n kuulemismenettelyyn, tunnustaen tarpeen uusille määräyksille ”korkean riskin” AI-sovelluksille. Vaikka hallitus pyrkii tukemaan AI:n kasvua, se korostaa myös julkisten huolenaiheiden huomioimista ja turvatoimien toteuttamista.

Husic paljasti, että yleisöllä on epäluottamus AI:n turvalliseen ja vastuulliseen käyttöön. Hallituksen vastaukseen sisältyy asiantuntijaryhmän perustaminen kehittämään AI-politiikkaa ja lisäsuojatoimia, sekä vapaaehtoisen ”AI-turvallisuusstandardin” luominen yrityksille. Lisäksi harkitaan läpinäkyvyystoimia, kuten julkista raportointia AI-mallien koulutuksessa käytetystä tiedosta.

Lisäksi hallitus tutkii mahdollisuutta vaatia teknologiayrityksiä käyttämään vesileimoja tai merkintöjä AI:lla tuotetussa sisällössä. Tämä toimenpide pyrkii käsittelemään huolenaiheita, jotka liittyvät generatiivisen AI:n avulla nopeasti tuotettuun uuteen sisältöön käyttäen olemassa olevaa materiaalia. Hallitus tunnustaa, että lainsäädäntö voi jäädä jälkeen AI:n kehityksestä ja haluaa varmistaa, että AI-järjestelmät suunnitellaan, kehitetään ja otetaan käyttöön vastuullisesti.

Hallituksen vastaus tulee samanaikaisesti muiden ponnistelujen rinnalla AI:n sääntelyn puolesta Australiassa. Viestintäministeri Michelle Rowland on luvannut muuttaa verkkojen turvallisuuslakeja käsitelläkseen AI:n tuottamaa haitallista materiaalia, kuten synteettisiä videoita ja vihapuhetta. Arviointeja tehdään myös AI:n käytöstä kouluissa sekä AI hallituksessa -työryhmän kautta.

Kannustamalla teknologiayrityksiä käyttämään vesileimoja tai merkintöjä AI:lla tuotetussa sisällössä Australian hallitus pyrkii tarjoamaan selkeyttä ja vastuuntuntoa AI:n käytössä. Tämä lähestymistapa on linjassa hallituksen sitoumuksen kanssa edistää innovaatiota samalla kun suojataan julkista luottamusta ja käsitellään korkean riskin AI-sovelluksiin liittyviä riskejä.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact