Umělá inteligence a lidská práva řešeny na konferenci Secure 2024.

Rozvoj umělé inteligence pod právním a etickým dohledem

Nedávná konference Secure 2024, prestižní kybernetická událost, která nyní probíhá již 27 let a je pořádána společností NASK, se zaměřila na umělou inteligenci (AI) a její důsledky pro lidská práva. Mezi řečníky byl i Krzysztof Śmiszek, zástupce ministra spravedlnosti, který upozornil na potenciální zneužití AI při porušování osobních práv.

Śmiszek vyjádřil obavy z toho, že AI může replikovat osobní atributy jako hlas a obraz, čímž otevírá dveře pro možné zneužití jak v komerčních, tak i škodlivých kontextech. Popsal scénáře, kde by se jednotlivci mohli ocitnout zapletení do zfalšovaných příběhů, což by vedlo k poškození pověsti a rozsáhlým právním sporům.

Právní důsledky zneužití AI

Demonstrace technologie klonování hlasu generované umělou inteligencí od Śmiszka posloužila jako výrazný příklad toho, jak by AI mohla porušovat zákony chránící osobní obraz a způsobovat škodu jednotlivcům. Zdůraznil význam právní odpovědnosti, když jsou osobní práva ohrožena technologiemi AI.

Kromě toho zmiňoval zástupce ministra komplikace způsobené důkazy generovanými umělou inteligencí v právních procesech, které by mohly prodlužovat soudní procesy a zdůraznil naléhavost regulace, která by umožnila držet krok s rychlým pokrokem v technologiích.

Umocnění sociálních předsudků díky AI

Další vážný problém, který Śmiszek přinesl na veřejnost, se týká inherentních předsudků v systémech AI. Vycházejíce z výzkumu prezentovaného Akademií Leona Koźmińského poznamenal, že AI často reprodukuje existující sociální stereotypy, jako je genderový předsudek zřejmý v zachycení různých profesí.

Předbíhání legislativních opatření

Śmiszek zdůraznil, že zatímco pochod technologického pokroku nelze zastavit, je důležité stanovit právní hranice, aby technologie neškodily jednotlivcům nebo společnosti jako celku. Naznačil potřebu, aby tvůrci politiky předvídali a předem řešili se měnící prostředí utvářené umělou inteligencí.

The source of the article is from the blog klikeri.rs

Privacy policy
Contact