Крупные технологические корпорации в настоящее время лоббируют Европейский Союз, чтобы тот принял более мягкую позицию в отношении регулирования искусственного интеллекта, руководствуясь опасениями по поводу крупных штрафов. В мае ЕС достиг исторического соглашения, установившего комплексное регулирование ИИ после обширных переговоров между различными политическими фракциями.
Однако до окончательного утверждения связанных практических кодексов существует неопределенность в отношении исполнения правил, касающихся ИИ-систем, таких как ChatGPT от OpenAI, что может подвергнуть компании потенциальным судебным искам и значительным штрафам. ЕС обратился за помощью к бизнесу, учёным и другим заинтересованным сторонам в разработке этих кодексов, получив почти 1,000 предложений — это весьма высокая реакция.
Хотя кодекс ИИ не будет обязательным для соблюдения, когда он будет внедрён в следующем году, он предоставит список для соблюдения норм для компаний. Игнорирование этого кодекса может вести к юридическим сложностям для тех, кто заявляет о соблюдении норм, но не выполняет изложенные практики. Остаются опасения относительно нарушения авторских прав, особенно в том, как такие компании, как OpenAI, используют бестселлеры и изображения для обучения своих моделей без разрешения.
Согласно новому закону, компании должны прозрачно раскрывать данные, используемые для обучения своих ИИ-моделей, что позволяет создателям контента требовать компенсацию, если их работы используются. Лидеры отрасли, такие как представители Google и Amazon, стремятся внести свой вклад, одновременно выступая за успешное внедрение регулятивной структуры. Баланс между обеспечением прозрачности и содействием инновациям остаётся предметом горячих обсуждений в регуляторных кругах ЕС.
Технологические гиганты выступают за гибкие нормы регулирования ИИ на фоне контроля со стороны ЕС
С ростом обсуждений об искусственном интеллекте (ИИ) и его последствиях для общества крупные технологические корпорации усиливают свои усилия по лоббированию в рамках Европейского Союза (ЕС). Их цель — сформировать регуляторный ландшафт, который был бы удобен для инноваций, одновременно предоставляя достаточные рекомендации для этичной практики. Эта трансформация происходит на фоне растущего внимания к ИИ-системам, таким как ChatGPT от OpenAI, которые вызвали дебаты о безопасности, ответственности и справедливости.
Ключевые вопросы и ответы
1. Какие конкретные меры предлагают технологические компании в регулировании ИИ?
— Технологические гиганты выступают за положения, акцентирующие внимание на саморегулировании и риск-ориентированных рамках. Это подразумевает необходимость побудить ЕС классифицировать ИИ-системы по их потенциальным уровням риска, что в конечном итоге позволит разработать методы соблюдения норм, соответствующие особенностям различных приложений.
2. С какими проблемами связано регулирование ИИ?
— Основные проблемы включают определение границ использования ИИ, необходимость решения вопросов неправомерного использования данных и защиты прав на интеллектуальную собственность. Кроме того, есть опасения по поводу введения чрезмерно строгих норм, которые могут задушить инновации или заставить компании переехать в более лояльные юрисдикции.
3. Какие споры возникают касательно ИИ и нарушения авторских прав?
— Существенный конфликт связан с использованием материалов, защищённых авторским правом, для обучения ИИ-моделей. Компании такие, как OpenAI и Google, подвергаются критике за возможное нарушение законов об авторском праве, используя обширные наборы данных, которые могут включать защищённые работы без получения необходимых разрешений.
Преимущества давления технологических гигантов за мягкие нормы регулирования
1. Стимулирование инноваций:
— Более гибкая регуляторная структура может способствовать инновационным применениям технологий ИИ, позволяя бизнесу экспериментировать с новыми идеями без чрезмерного страха перед штрафами.
2. Скорость реализации:
— Облегчённые нормы могут привести к более быстрому внедрению и интеграции технологий ИИ в различные сектора, что в конечном итоге принесёт выгоду как потребителям, так и предприятиям.
3. Глобальная конкурентоспособность:
— Создавая среду, способствующую росту технологий, ЕС сможет удерживать лучшие таланты и развивать стартапы, тем самым сохраняя свою конкурентоспособность на мировой арене.
Недостатки подходов к мягкому регулированию
1. Опасности для общественной безопасности:
— Слабые нормы могут ставить скорость выше безопасности, что приведёт к внедрению ИИ-систем, которые не были должным образом проверены на потенциальные риски, включая предвзятости или вредные последствия.
2. Ухудшение ответственности:
— Регуляторная структура, которая не проявляет строгости, может усложнить привлечение компаний к ответственности, что приведёт к проблемам с ответственностью организаций за негативные последствия, возникающие в результате внедрения ИИ.
3. Риск эксплуатации создателей:
— Без чётких норм относительно авторских прав и использования данных существует риск, что создатели контента, художники и авторы могут продолжать подвергаться эксплуатации без достаточной компенсации или признания.
Заключение
По мере того как ЕС завершает разработку своих комплексных норм регулирования ИИ, баланс между стимулированием инноваций и обеспечением общественной безопасности становится всё более сложным. Давление со стороны технологических гигантов за более мягкое регулирование подчеркивает текущие дебаты о том, как лучше всего ориентироваться в стремительно меняющемся ландшафте искусственного интеллекта. Все заинтересованные стороны должны оставаться бдительными в вопросах как возможностей, так и рисков, связанных с развитием ИИ.
Для получения дополнительной информации по этой теме посетите Официальный сайт ЕС и TechCrunch.