Роль и перспективы искусственного интеллекта: направления развития и прогнозы будущего

Потенциал искусственного интеллекта вызывает серьёзные опасения в плане возможных катастроф или «необратимого краха», о чём идёт ожесточённый спор среди экспертов и суперпрогнозистов. Но в чём причины таких разногласий мнений? Новое исследование, проведённое Институтом прогнозирования, рассмотрело эти противоречия.

Интересно, что результаты выявили явное различие между двумя группами. Эксперты проявили значительно большую обеспокоенность и присвоили гораздо более высокие шансы на возможность катастрофы, чем суперпрогнозисты.

Войдя глубже в причины этого значительного несогласия, авторы организовали «противодействующее сотрудничество». Эксперты и суперпрогнозисты провели много времени, читая новые материалы и обсуждая с лицами с противоположными взглядами под руководством модератора. Цель состояла в выяснении, повлияет ли новая информация и доводы на убеждения каждой из групп.

Более того, исследователи ставили задачей определить ключевые моменты, которые могли бы изменить мнение людей. Одним из таких ключевых моментов была проблема в том, найдёт ли оценщик ИИ доказательства того, что ИИ способен автономно воспроизводиться, приобретать ресурсы и избегать выключения до 2030 года. Скептики утверждали, что положительный ответ на этот вопрос усилит их опасения, в то время как пессимисты по отношению к ИИ утверждали, что отрицательный ответ сделает их менее тревожными.

Привело ли это совместное усилие к сближению мнений? Ответ отрицателен. Обе группы остались неизменными в своих оценках вероятности катастрофы. Пессимисты в отношении ИИ немного снизили свои шансы, в то время как оптимисты внесли ничтожное увеличение. Тем не менее, исследование помогло раскрыть захватывающие аспекты истоков этих расходящихся взглядов.

Исследование в первую очередь сосредоточилось на разногласиях, касающихся возможности ИИ привести к исчезновению человечества или необратимому краху общества, при котором глобальный ВВП упадёт до менее чем 1 триллиона долларов или глобальная популяция уменьшится до менее чем 1 миллиона на длительный период времени.

Интересно, что различия мнений не происходили в основном из-за доступа к информации или контакта с оппонентами. Противодействующее сотрудничество предполагало обширное ознакомление с новой информацией и противоположными точками зрения, но убеждения участников в целом оставались неизменными.

Более того, разногласия в основном не были вызваны краткосрочными прогнозами по развитию ИИ. Исследователи отметили, что наибольшее значение имел один из ключевых моментов: обнаружение оценщиком ИИ чрезвычайно опасных способностей до 2030 года лишь незначительно уменьшало среднее расхождение между оптимистами и пессимистами.

Вместо этого обнаружено, что различные взгляды на долгосрочное будущее играли более значительную роль в формировании мнений. Оптимисты в целом считали, что достижение уровня искусственного интеллекта, сопоставимого с человеческим, займёт больше времени, чем предполагали пессимисты. Они утверждали, что необходимы фундаментальные прорывы в методах машинного обучения для достижения уровня интеллекта, сравнимого с человеческим, включая прогресс в области робототехники. В то время как программный ИИ может воспроизводить язык, оптимисты предполагали, что физические задачи, требующие навыков на уровне человека, представляют значительные вызовы для машин.

Одним из наиболее интригующих результатов исследования было выявление «фундаментальных разногласий в мировоззрении» как значительного источника расхождения. Эти разногласия связаны с отличающимися взглядами на то, где лежит бремя доказательства в дебате. Хотя обе группы согласились в том, что необычные утверждения требуют значительных доказательств, они не согласились в том, какие утверждения следует считать необычными. Исследователи отметили, что вера в то, что ИИ может привести к истреблению людей, кажется необычной, если учесть долговечность существования человечества на протяжении сотен тысяч лет.

В заключение, исследование пролило свет на глубокие причины разногласий относительно опасностей, представляемых искусственным интеллектом. Оно подчеркнуло важность фундаментальных разногласий в мировоззрении, долгосрочных перспектив и сложности признания необычных утверждений. Хотя исследование не смогло преодолеть разрыв во мнениях, оно предоставило ценные идеи относительно источников разделённости по этой спорной теме.

**Часто задаваемые вопросы (FAQ)**

1. Каков потенциал ИИ вызвать катастрофу?
Потенциал искусственного интеллекта вызвать катастрофу включает в себя сценарии исчезновения человечества или необратимого краха, где глобальный ВВП снижается до менее чем 1 триллиона долларов или глобальная популяция уменьшается до менее чем 1 миллиона на продолжительный период.

2. Какие риски связаны с ИИ?
Помимо упомянутых выше экстремальных сценариев, другие риски от ИИ включают расовые и гендерные предвзятости в существующих системах, ненадежность, злоупотребление для злонамеренных целей, таких как распространение фейковых новостей или создание неподтверждённого контента.

3. Изменили лись убеждения участников после ознакомления с различными точками зрения?
Несмотря на обширное ознакомление с новой информацией и противоположными аргументами, убеждения участников в целом оставались неизменными.

4. Какие факторы способствовали расхождениям во мнениях?
Расхождения во мнениях в основном были означены долгосрочными перспективами, с оптимистами, считающими, что достижение искусственного интеллекта на уровне человека займёт больше времени, чем пессимисты. Кроме того, фундаментальные разногласия в мировоззрении сыграли значительную роль в формировании разногласий во мнениях.

5. Что такое «фундаментальные разногласия в мировоззрении»?
«Фундаментальные разногласия в мировоззрении» относятся к различиям во взглядах на то, где лежит бремя доказательства в дебатах об ИИ. Хотя обе группы согласились, что для необычных утверждений требуются значительные доказательства, они не сошлись в мнениях, какие утверждения следует считать необычными.

**Основные определения:**

1. **Искусственный интеллект (AI)**: Симуляция процессов человеческого интеллекта машинами, особенно компьютерными системами. ИИ способен выполнять задачи, которые обычно требуют человеческого интеллекта, такие как визуальное восприятие, распознавание речи, принятие решений, перевод и решение проблем.

2. **Суперпрогнозисты (Superforecasters)**: Лица с доказанной репутацией точного прогнозирования исходов важных мировых событий. Суперпрогнозисты используют вероятностное мышление и строгий анализ для прогнозирования.

3. **Противодействующее сотрудничество (Adversarial Collaboration)**: Сотрудничество между экспертами и лицами с противоположными точками зрения с целью ознакомления участников с новой информацией и доводами.

4. **Бремя доказательства (Burden of Proof)**: Обязанность предоставить доказательства или обоснование для поддержки определённого утверждения или позиции. В контексте статьи это относится к различным точкам зрения на то, кто несёт ответственность за предоставление существенных доказательств для экстраординарных утверждений о опасностях ИИ.

**Ссылки:**
— [Институт прогнозирования (Forecasting Research Institute)](https://www.instituteforfutures.org)
— [Искусственный интеллект (Artificial Intelligence)](https://www.domain.ru/artificial-intelligence)
— [Суперпрогнозирование (Superforecasting)](https://www.domain.ru/superforecasting)

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact