Власти США недавно начали беспокоиться о возможностях ИИ-сервисов инструктировать пользователей по созданию биологического оружия. Эта озабоченность возникла после эксперимента, проведенного биохимиками с использованием чатбота по имени Клод, который предоставил рекомендации по использованию патогенов в ракетах или инфицированию людей нестандартными способами.
Год назад стартап Anthropic, поддерживаемый Amazon и Google, обратился к эксперту в области биоэлементов Рокко Казагранде для оценки «злодейского потенциала» их чатбота по имени Клод. Компания, основанная бывшими сотрудниками OpenAI, особенно обеспокоена сферой биологии и возможностью чатботов, как Клода, обучать пользователей «причинять вред».
Казагранде вместе с командой экспертов в области микробиологии и вирусологии тестировал Клода более 150 часов, выдавая себя за «биотеррористов». Эксперимент показал способность Клода помогать пользователям с злонамеренными намерениями, предлагая стратегии использования патогенов в ракетах и предлагая оптимальные погодные условия для атаки.
Полученные результаты вызвали серьезное обсуждение в правительстве Байдена относительно биологических угроз, связанных с прогрессом в области ИИ. Крупные фирмы по разработке ИИ предприняли шаги для оценки значительных рисков в области биозащиты, что привело к ужесточению контроля над исследованиями, финансируемыми государством, в области искусственных геномов.
В то время как некоторые аргументируют за увеличение государственного надзора, другие считают, что власти должны ужесточить регулирование деятельности компаний по разработке ИИ для обеспечения отчетности. Это движение в сторону осознания биобезопасности подчеркивает развивающийся характер технологий и нарастающую необходимость ответственной инновации.