Улучшение безопасности и ответственности искусственного интеллекта для безопасности потребителей

Искусственный интеллект (ИИ) перестал быть всего лишь модным словом; сегодня он преобразует отрасли и общества. Инновационные применения в сферах здравоохранения, финансов, транспорта и развлечений приносят значительную выгоду потребителям. Одной из областей, где ИИ, в частности Генеративный ИИ, оказывает заметное влияние, является урегулирование жалоб, уход за потребителями и доступ к доступным услугам, тем самым способствуя возможностям экономического роста.

Однако путь к прогрессу, основанному на ИИ, усеян вызовами, такими как дезинформация, киберугрозы, нарушения конфиденциальности, предвзятость и цифровое неравенство. Одним из уникальных рисков является появление вводящих в заблуждение результатов или галлюцинаций.

Признание и устранение этих рисков имеет решающее значение для обеспечения справедливого и ответственного ИИ для потребителей. Миссия IndiaAI полностью понимает эти риски и стремится содействовать безопасному и надежному ИИ. Для достижения этой цели необходимо уделить внимание справедливому и ответственному ИИ для потребителей, приоритизируя их выгоды и одновременно смягчая потенциальные вредные последствия. Это включает обеспечение безопасности, инклюзивности, конфиденциальности, прозрачности, ответственности и сохранение человеческих ценностей на протяжении разработки и внедрения платформ ИИ.

Недавно правительство объявило о миссии IndiaAI, подкрепленной значительными инвестициями в размере 10 372 крор в течение следующих пяти лет. Эта миссия нацелена на продвижение «ИИ для всех» и рассматривает регулирование ИИ с точки зрения потенциального вреда потребителям. С этим связано увеличивающееся понимание важности справедливого и ответственного ИИ для потребителей.

Одной из значительных проблем, которая стала актуальной, являются данные, смещенные в сторону определенных принципов. Эти смещения возникают из-за недостатка разнообразия в тренировочных данных и культурных различий. Если не заниматься этими смещениями, ИИ может углубить социальные неравенства, привести к цифровому разрыву и дискриминационным результатам. Для решения этой проблемы миссии IndiaAI следует придавать приоритет диверсификации наборов данных через периодические обзоры, контроль независимыми комитетами и прозрачные документы. Регуляторные песочницы могут помочь в борьбе с экспериментированием с альтернативами, содействуя инклюзивности. Миссии также следует сосредоточиться на сборе данных о вреде, связанном с ИИ, усилении государственной способности бороться с этими проблемами и доверить организациям потребителей мониторинг и устранение их.

Охрана групповой конфиденциальности является еще одним важным аспектом, особенно с планами создания платформы сбора неперсональных данных. Важно иметь четкое представление о групповой конфиденциальности, чтобы приоритизировать справедливость и инклюзивность в разработке ИИ. Более того, вопросы конфиденциальности данных имеют значительное значение, особенно в связи с Законом о защите персональных данных, цель которого — защита конфиденциальности потребителей. Некоторые исключения в рамках этого закона, такие как обработка публично доступных персональных данных без согласия, вызывают опасения относительно прав на конфиденциальность. Для решения этих проблем миссии следует пропагандировать принципы, такие как право на удаление данных, раскрытие цели обработки данных и внедрения мер ответственности для предотвращения злоупотреблений данными. Это обеспечивает безопасность и прозрачность в системах искусственного интеллекта и машинного обучения.

Дезинформация — еще одна ключевая проблема в области искусственного интеллекта. С наступающими выборами важно обеспечение целостности выборов. Министерство электроники и информационных технологий опубликовало предупреждения, направленные на борьбу с глубокими фейками и предвзятым контентом на социальных платформах. Однако возникли опасения относительно объема, юридической полномочности, процедурной прозрачности и пропорциональности этих предупреждений. Для эффективного преодоления вызовов дезинформации миссии следует увеличить государственную способность институционализировать кадры, такие как Оценка регуляторного воздействия, содействуя сотрудничеству, пониманию тонкостей и обеспечивая пропорциональные и прозрачные решения.

Одним из важных развитий является внедрение систем искусственного интеллекта, особенно генеративного ИИ, в процессы урегулирования жалоб потребителей (CGR). Интеграция ИИ в процессы урегулирования жалоб потребителей может усилить защиту прав потребителей и ускорить разрешение споров путем анализа больших объемов жалоб. Однако возникают опасения относительно возможной коммерческой эксплуатации, манипулирования взглядами пользователей, смещений и отсутствия человеческой поддержки. Для смягчения этих опасений миссия должна придавать приоритет разработке прозрачных моделей ИИ и этическим руководствам для использования ИИ в процессе урегулирования жалоб. Это включает обеспечение контроля со стороны людей, прозрачности, ответственности и постоянного мониторинга данных.

Цифровое неравенство в экосистеме ИИ — еще одна насущная проблема. Это включает ограниченный доступ к услугам ИИ, недостаточные навыки для их эффективного использования и недостаточное понимание результатов ИИ. Социальные факторы, такие как образование, этническая принадлежность, пол, социальный класс и доход, а также социотехнические показатели, такие как навыки, цифровая грамотность и техническая инфраструктура, способствуют этому разрыву. Для преодоления этого разрыва миссии следует принять многоаспектный подход. Это включает продвижение развития ИИ на региональных языках, поддержку местных талантов, содействие инновациям с использованием Лабораторий Акселерации ПРООН, пропаганду инструментов с открытым исходным кодом и наборов данных, а также пропаганду алгоритмической грамотности среди потребителей.

Обеспечение справедливых и ответственных практик ИИ необходимо для защиты потребителя. Кроме того, кроме того, пропаганда авторегулирования и взаиморегулирования также является важным. Создание беспристрастного органа, возглавляемого экспертами, с правом объективно информировать правительства о возможностях ИИ и предоставлять обоснованные рекомендации, может быть полезным. Такой подход аналогичен консультативной роли, которую играет Европейская Рада по ИИ.

Телекоммуникационная регулирующая служба Индии настаивает на срочной необходимости создания комплексной регулятивной среды в своем отчете июля 2023 года под названием «Рекомендации по использованию искусственного интеллекта и больших данных в телекоммуникационном секторе». Она предложила создание независимого законодательного органа — Агентство искусственного интеллекта и данных Индии (AIDAI) и рекомендовала образование многосторонней группы для консультирования АИДАИ и классификации приложений ИИ по уровню их риска. Эффективное взаимодействие между региональными органами власти, регуляторами секторов и центральным правительством будет критичным для плавного функционирования такой организации, учитывая широкое влияние ИИ на различные секторы.

Инвестиции в аппаратное и программное обеспечение, инициативы по повышению квалификации и создание осведомленности имеют ключевое значение для целостной экосистемы ИИ. Сотрудничество между правительством, промышленностью, академией и гражданским обществом важно для достижения баланса между справедливостью, инновациями и ответственностью. Пока Индия отправляется в свой путь к ИИ, необходимо придавать приоритет потенциалу и ответственности, руководствуясь справедливой и ответственной экосистемой для обеспечения равных выгод и снижения рисков.

FAQ

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact