Опасности и возможности использования искусственного интеллекта в финансовом секторе

Использование искусственного интеллекта (ИИ) в финансовой отрасли постоянно растет, и это не проходит без опасностей. Министерство финансов подчеркнуло повышенные кибербезопасностные риски, связанные с увеличением использования ИИ в финансовом секторе, настоятельно призывая к срочному сотрудничеству между правительством и отраслью для решения этих потенциальных опасностей и обеспечения стабильности финансовой системы.

Источник

Один из ключевых выводов отчета заключается в расширяющейся разнице в возможностях, порождаемой ИИ. В то время как крупные банки и финансовые учреждения имеют ресурсы для разработки собственных систем ИИ, меньшие учреждения остаются позади. Это делает их уязвимыми к киберугрозам, так как они часто полагаются на сторонние решения по ИИ. Для смягчения этого риска критически важно сотрудничество и обмен знаниями между финансовыми учреждениями, правительством и стартапами.

Другой вызов, выявленный в отчете, – это отсутствие обмена данными по предотвращению мошенничества, особенно затрагивающее меньшие финансовые учреждения. Ограниченный доступ к данным затрудняет их способность разрабатывать эффективные защиты от мошенничества с использованием ИИ, в отличие от более крупных учреждений, которые могут использовать огромные объемы данных для обучения моделей. В адрес этой проблемы Нарайана Паппу, генеральный директор компании Zendata, предлагает, чтобы стандартизация данных и оценка качества могли быть предложены в виде услуги стартапами. Техники, такие как дифференциальная конфиденциальность, могут способствовать безопасному обмену информацией между финансовыми учреждениями без ущерба личным данным клиентов.

Отчет также подчеркивает динамичный характер киберугроз и использование ИИ среди злоумышленников. Ожидается, что ИИ снизит порог для применения сложных техник в масштабе. Поэтому оборонительный ИИ играет критическую роль в защите организаций от этих развивающихся угроз. Маркус Фаулер, генеральный директор компании Darktrace Federal, подчеркивает важность оборонительного ИИ в защите организаций от этих развивающихся угроз.

Рекомендации отчета включают упрощение регулирования для избежания фрагментации и расширение стандартов, разработанных Национальным институтом стандартов и технологий (NIST) для финансового сектора. Также предлагается продвижение «нутриционных ярлыков» для поставщиков ИИ, которые предоставят прозрачность относительно типа данных, использованных в моделях ИИ и их предполагаемого использования. Более того, отчет подчеркивает необходимость улучшить объяснимость сложных систем ИИ, разработать стандарты подготовки и компетентности, стандартизировать определения в словаре по ИИ, решить проблемы цифровой идентификации и содействовать международному сотрудничеству в области регулирования ИИ и стратегий снижения рисков.

Хотя финансовые учреждения всё чаще используют ИИ и машинное обучение для предотвращения мошенничества, стоимость разработки этих инструментов ограничивает их широкое внедрение. Многие учреждения полагаются на внешних поставщиков для решений по ИИ и машинному обучению, и лишь небольшой процент занимается созданием собственных решений. Отчет призывает к увеличению сотрудничества и обмену знаниями для преодоления этих вызовов.

В завершение, использование ИИ в финансовой отрасли принесло как возможности, так и риски. Совместные усилия между правительством, отраслью и стартапами являются ключевыми для обеспечения того, чтобы меньшие финансовые учреждения не оказались уязвимыми перед киберугрозами. Путем решения проблем обмена данными, регулирования, прозрачности и стандартов компетентности финансовая отрасль может эффективно использовать силу ИИ, обеспечивая при этом защиту от потенциальных рисков.

Часто задаваемые вопросы (FAQ)

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact