Этика военных действий с использованием искусственного интеллекта: новая перспектива

В последних отчетах было обнаружено, что израильская армия использовала необъявленную и непроверенную базу данных, ориентированную на искусственный интеллект, для выявления целей для своей бомбардировочной кампании в Газе. Это открытие вызвало обеспокоенность среди защитников прав человека и экспертов по технологиям, которые утверждают, что такое использование искусственного интеллекта может потенциально составлять «военные преступления». Хотя важно обращать внимание на эти тревожные факторы и разбираться с этическими последствиями этой технологии, также важно представить новую перспективу на эту тему.

Система целепродвижения на основе искусственного интеллекта, известная как Лаванда, была, как утверждается, задействована израильской армией для выделения и выявления потенциальных объектов для бомбардировок среди тысяч палестинцев. По данным неименованных израильских чиновников разведки, Лаванда имеет коэффициент ошибок около 10 процентов. Несмотря на эту погрешность, утверждается, что израильская армия использовала систему для ускоренного определения и бомбардировки лиц, связанных с ХАМАС.

Для понимания глубины ситуации необходимо признать точку зрения экспертов в данной области. Марк Оуэн Джонс, ассистент профессор по изучению Ближнего Востока и цифровым гуманитарным наукам, подчеркивает, что внедрение непроверенных систем искусственного интеллекта израильской армией вызывает вопросы относительно процессов принятия решений относительно жизни гражданских лиц. Однако важно помнить, что это заявление было перефразировано из исходного источника, и использование термина «геноцид, содействованный искусственным интеллектом», было заменено более описательным предложением.

Израильские публикации сообщают, что использование этого метода привело к значительному числу жертв среди мирного населения в Газе. Тем не менее, израильская армия утверждает, что Лаванда не является самостоятельной системой, а является базой данных, предназначенной для кросс-референции источников разведки для получения актуальной информации о военнослужащих, связанных с террористическими организациями. В ответ на критику израильская армия заявила, что ее аналитики должны проводить независимые проверки, чтобы убедиться, что определенные цели соответствуют международному праву и соответствующим ограничениям.

В то время как в исходной статье цитировался специалист по искусственному интеллекту, который выразил тревогу по поводу нарушения международного гуманитарного права, важно отметить, что это теоретический взгляд, а не прямое заявление. Профессор Тоби Уолш, эксперт по искусственному интеллекту в Университете Нового Южного Уэльса, предполагает, что использование искусственного интеллекта в целях позиционирования представляет вызовы в плане осмысленного контроля и соблюдения правовых рамок.

Отчет также подчеркивает утверждения источников о том, что израильская армия авторизовала уничтожение значительного количества мирных граждан в определенных случаях, особенно при нападении на высокопоставленных чиновников ХАМАС. Если эти утверждения верны, то они могут быть рассмотрены как нанесение диспропорционных ударов и квалифицированы как военные преступления. Важно дождаться дальнейшего расследования и проверки этих деталей для подтверждения их достоверности.

Более того, в статье затрагивается предположение о том, что Израиль пытается продать эти инструменты искусственного интеллекта иностранным правительствам. Антони Лоуенстейн, австралийский журналист и писатель, предполагает, что страны, выражающие свое негодование по поводу действий Израиля в Газе, могут проявлять интерес к покупке этих технологий. Хотя это заявление дает представление о потенциальных будущих событиях, важно относиться к нему как к предположению до появления достоверных доказательств.

В заключение, использование искусственному интеллекту в военных технологиях возносит важные этические вопросы. Случай системы целепродвижения израильской армии, Лаванда, вызвал беспокойство о потенциальном нарушении международного гуманитарного права и диспропорционной потере мирных жизней. Важно для экспертов, законодателей и международных институтов исследовать эти следствия и обеспечить, чтобы разработка и применение технологий искусственного интеллекта в военных целях соответствовали этическим и законным стандартам.

Часто задаваемые вопросы

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact