Каліфорнійський виклик розробників штучного інтелекту: запропонований законопроект з безпеки

Ведучі розробники штучного інтелекту, що базуються в Каліфорнії, протистоять запропонованому законопроекту, що передбачає суворі стандарти безпеки, у тому числі впровадження “вимикача” для вимкнення їх високорозвинених моделей ШІ. Інформація взята з повідомлення Financial Times, де детально описується законодавчий нагляд, який може поширитися на провідні стартапи зі штучного інтелекту.

Законодавчий орган Каліфорнії розглядає заходи, які накладатимуть нові обмеження на технологічні компанії у штаті. Ці умови спрямовані на провідні стартапи зі штучного інтелекту, такі як OpenAI, Anthropic, і Cohere, а також на великі мовні моделі, що використовуються компаніями, такими як Meta.

Законопроект вимагає від завдань розробки ШІ Каліфорнії забезпечити агенції штату у тому, що вони не будуть створювати моделі з небезпечними можливостями, такими як можливість створення біологічної або ядерної зброї або допомогу в кібер-атаках. Більше того, розробники повинні будуть доповісти про свої протоколи випробувань на безпеку та впровадити “вимикач” для своїх моделей.

Однак багато представників Сіліконової долини не схвалили ці умови. Їхні аргументи вказують на те, що закони можуть примусити стартапи зі штучного інтелекту залишити штат та заважати платформам, таким як Meta, співпрацювати з відкритими моделями. Андрю Нг, комп’ютерний вчений, що керував проєктами зі штучного інтелекту для Google Alphabet і китайського Baidu, засідає у правлінні Amazon, висловився про стримувальний ефект цих правил на інновації, порівнюючи їх з тягарем ризиків на рівні наукової фантастики.

Хвилювання почало нарощуватися щодо швидкого зростання технології ШІ та її великого потенціалу. Ілон Маск, один з ранніх інвесторів в OpenAI, раніше називав технологію “існувальною загрозою” для людства. Недавно колектив нинішніх і колишніх працівників OpenAI оприлюднив відкритий лист, у якому підкреслено, що провідні фірми зі штучного інтелекту не мають досить урядового нагляду та приносять ” серйозні ризики ” для людства.

Для того, щоб бути в курсі подібної інформації та обговорень щодо розвитку технологій ШІ та законодавства в Каліфорнії, ви можете відвідати головну сторінку сайту уряду Каліфорнії за посиланням – Каліфорнійський уряд – для офіційних оновлень та новин. Також інформацію про широкі наслідки ШІ та громадської політики можна знайти на головній сторінці Інституту Інституту для людини-центрованого штучного інтелекту Стенфордського університету – Stanford HAI.

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact