Ошибки ИИ Google требуют более строгих мер

Непредсказуемые ответы искусственного интеллекта представляют новые вызовы

Недавнее внедрение Google инструмента анализа на основе ИИ, предназначенного для предоставления мгновенных ответов в результатах поиска, привело к появлению неожиданных, фантазийных ответов, таких как утверждение о существовании лунных кошек. В одном случае, когда журналисты от агентства Associated Press спросили, бывали ли коты на Луне, поиск Google на основе ИИ вернул забавный ответ, подразумевающий, что астронавты действительно сталкивались и даже помогали кошачьим друзьям на лунной поверхности, фантазийно приписывая исторические слова Нила Армстронга «маленький шаг для кота».

Эксперты выражают беспокойство по поводу ИИ-систем, которые питаются сомнительными источниками информации, что приводит к распространению ложной информации. Мелоди Митчелл, исследовательница ИИ из США, сама столкнулась с недостатками ИИ Google, когда спросила о мусульманских президентах Соединенных Штатов. Google уверенно ответил неправильной информацией, ложно утверждая, что Барак Обама единственный мусульманский президент. Митчелл отметила, что ИИ подкрепил свое неверное утверждение ссылкой на научную публикацию, которая не подтверждала ложную информацию, а лишь упоминала теорию заговора.

Ошибка ИИ включает не только юмористические ошибки, но и потенциально вредные ложные сведения. Критические запросы о чрезвычайных ситуациях, заданные пользователями под стрессом, могут остаться без проверки из-за стресса и неотложности, что лишь усугубит ситуацию, приведет к недоверию к первоначально поставленной информации. Кроме того, существует растущая озабоченность тем, что эти нейронные сети укрепляют опасные предвзятости, проблематичное содержимое которых обнаружено в наборах данных, используемых для обучения ИИ.

Google признал важность незамедлительных действий по исправлению этих ошибок и использует эти опыты для будущих улучшений. Шанс оставаться впереди в конкурентной среде, наряду с американскими разработчиками OpenAI и Perplexity AI, могут быть основным фактором, влияющим на проблемы с новой функцией. Стоит отметить, что Perplexity AI показала способность давать более точные ответы, чем Google, на некоторые запросы.

Значимость ответственного надзора за ИИ

По мере развития технологий ИИ, системы, подобные системе Google, все чаще поручаются предоставлением информации. Однако это ответственность сопряжена с внутренними рисками при компрометации точности. Из этой ситуации возникают два основных вопроса:

1. Как можно обеспечить, что информация, предоставляемая ИИ, является точной?
2. Какие меры следует принять для предотвращения распространения ложной информации?

Сложности, связанные с темой ошибок и ложной информации ИИ, включают обеспечение надежности источников, из которых черпают информацию ИИ, предотвращение укрепления общественных предвзятостей и быстрое исправление ошибок при их возникновении.

Борьба с Ложной Информацией и Предвзятостями

Контроверзии в данной сфере часто связаны с определением ответственного за происхождение информации, сгенерированной ИИ, и тем, как регулировать ИИ, чтобы предотвратить такие ситуации. Разработка более сложных алгоритмов для подтверждения информации и использование надежных данных являются частью решения. Кроме того, важно бороться с предвзятыми встроенными данными в процессе обучения для обеспечения справедливых и непредвзятых результатов ИИ.

Преимущества инструментов анализа на основе ИИ многообразны. Они предоставляют быстрый доступ к информации, помогают справляться с множеством запросов одновременно и устраняют некоторые человеческие ошибки. Тем не менее, недостатки также значительны. Они включают предоставление неверной информации, потенциальное укрепление предвзятостей и вызывают путаницу или наносят вред, если полагаться на них для принятия важных решений.

В заключение, потенциал ИИ огромен, но, также, необходим строгий контроль, усовершенствование и этическое рассмотрение. Для получения дополнительной информации о искусственном интеллекте и его развитии могут быть интересны следующие ссылки:
OpenAI
Google

Это важно как для лидеров отрасли, так и для регуляторов, поскольку их вклад в разработку стандартов и рамок для ответственного ИИ поможет избежать подрывания доверия общественности к этой мощной технологии.

Privacy policy
Contact