Использование искусственного интеллекта (ИИ) в финансовой отрасли постоянно растет, и это не проходит без опасностей. Министерство финансов подчеркнуло повышенные кибербезопасностные риски, связанные с увеличением использования ИИ в финансовом секторе, настоятельно призывая к срочному сотрудничеству между правительством и отраслью для решения этих потенциальных опасностей и обеспечения стабильности финансовой системы.
Один из ключевых выводов отчета заключается в расширяющейся разнице в возможностях, порождаемой ИИ. В то время как крупные банки и финансовые учреждения имеют ресурсы для разработки собственных систем ИИ, меньшие учреждения остаются позади. Это делает их уязвимыми к киберугрозам, так как они часто полагаются на сторонние решения по ИИ. Для смягчения этого риска критически важно сотрудничество и обмен знаниями между финансовыми учреждениями, правительством и стартапами.
Другой вызов, выявленный в отчете, – это отсутствие обмена данными по предотвращению мошенничества, особенно затрагивающее меньшие финансовые учреждения. Ограниченный доступ к данным затрудняет их способность разрабатывать эффективные защиты от мошенничества с использованием ИИ, в отличие от более крупных учреждений, которые могут использовать огромные объемы данных для обучения моделей. В адрес этой проблемы Нарайана Паппу, генеральный директор компании Zendata, предлагает, чтобы стандартизация данных и оценка качества могли быть предложены в виде услуги стартапами. Техники, такие как дифференциальная конфиденциальность, могут способствовать безопасному обмену информацией между финансовыми учреждениями без ущерба личным данным клиентов.
Отчет также подчеркивает динамичный характер киберугроз и использование ИИ среди злоумышленников. Ожидается, что ИИ снизит порог для применения сложных техник в масштабе. Поэтому оборонительный ИИ играет критическую роль в защите организаций от этих развивающихся угроз. Маркус Фаулер, генеральный директор компании Darktrace Federal, подчеркивает важность оборонительного ИИ в защите организаций от этих развивающихся угроз.
Рекомендации отчета включают упрощение регулирования для избежания фрагментации и расширение стандартов, разработанных Национальным институтом стандартов и технологий (NIST) для финансового сектора. Также предлагается продвижение «нутриционных ярлыков» для поставщиков ИИ, которые предоставят прозрачность относительно типа данных, использованных в моделях ИИ и их предполагаемого использования. Более того, отчет подчеркивает необходимость улучшить объяснимость сложных систем ИИ, разработать стандарты подготовки и компетентности, стандартизировать определения в словаре по ИИ, решить проблемы цифровой идентификации и содействовать международному сотрудничеству в области регулирования ИИ и стратегий снижения рисков.
Хотя финансовые учреждения всё чаще используют ИИ и машинное обучение для предотвращения мошенничества, стоимость разработки этих инструментов ограничивает их широкое внедрение. Многие учреждения полагаются на внешних поставщиков для решений по ИИ и машинному обучению, и лишь небольшой процент занимается созданием собственных решений. Отчет призывает к увеличению сотрудничества и обмену знаниями для преодоления этих вызовов.
В завершение, использование ИИ в финансовой отрасли принесло как возможности, так и риски. Совместные усилия между правительством, отраслью и стартапами являются ключевыми для обеспечения того, чтобы меньшие финансовые учреждения не оказались уязвимыми перед киберугрозами. Путем решения проблем обмена данными, регулирования, прозрачности и стандартов компетентности финансовая отрасль может эффективно использовать силу ИИ, обеспечивая при этом защиту от потенциальных рисков.
Часто задаваемые вопросы (FAQ)
The source of the article is from the blog queerfeed.com.br