Банкам следует усовершенствовать меры защиты ИИ в связи с растущей сложностью и уязвимостью: McKinsey
Наличие только одного комитета для надзора за всеми приложениями ИИ поколения не является хорошим вариантом.
Согласно McKinsey & Co, финансовые учреждения призваны обновить свои структуры управления ИИ, чтобы учесть возросшую сложность и большее количество точек воздействия, связанных с генеративным ИИ.
Большинство текущих соглашений предполагают наличие одной группы или комитета, контролирующих все приложения ИИ поколения. Однако это не подходит для систем ИИ поколения, заявила McKinsey.
«Они часто включают в себя смесь различных моделей и программных компонентов, отголоски которых могут потребовать специализированного надзора», — написали аналитики McKinsey в отчете за март 2025 года «Как финансовые учреждения могут улучшить свое управление ИИ поколения».
Руководители по рискам должны принять новые модели для управления рисками ИИ поколения в своих компаниях, для начала.
«Благодаря новым многозадачным моделям ИИ поколения банки могут делать больше. Однако, поскольку модели обучаются как на публичных, так и на частных данных, они могут выдавать информацию или ответы, которые являются неверными, вводящими в заблуждение или сфабрикованными», — пишет McKinsey.
Инструменты ИИ поколения также могут вводить обязательства, связанные с входящим и исходящим IP и его чрезмерным распространением. Например, помощник по кодированию ИИ поколения может предположить, что банк использует вычислительный код, имеющий проблемы с лицензированием. Это может непреднамеренно раскрыть фирменные алгоритмы банка.
Чтобы бороться с этим, McKinsey заявила, что финансовые учреждения должны разработать системы для отслеживания того, откуда берутся данные, как они используются и соответствуют ли они правилам конфиденциальности.
«Отсутствие привязки кредитных решений к исходным данным может привести к штрафам со стороны регулирующих органов, судебным искам и даже потере лицензии за несоблюдение. Компаниям необходимо вести учет контента, сгенерированного ИИ, который может меняться в зависимости от того, что введено», — говорится в отчете.
Финансовые учреждения также должны установить меры безопасности для управления рисками, связанными с правовыми и этическими факторами.
«Эти модели стирают границы между контентом и существующим контентом, защищенным законами об интеллектуальной собственности», — предупредила McKinsey. «Кроме того, когда модели поколения ИИ обучаются на конфиденциальных данных, таких как информация о клиентах, требуется больше внимания конфиденциальности и соблюдению требований».
McKinsey предложила финансовым учреждениям использовать карту оценки рисков для определения того, какие элементы их управления ИИ-поколения требуют обновлений и насколько срочной является эта необходимость.
Шкала отражает степень воздействия на клиентов и уровень человеческого экспертного надзора за внутренней работой приложения ИИ-поколения. Она также отражает ожидаемое финансовое воздействие, стадию разработки приложения ИИ-поколения и многое другое, заявила McKinsey.
В конечном счете, человеческий надзор необходим для обеспечения этичного использования ИИ-поколения.
«Например, рецензентам необходимо редактировать конфиденциальные данные до того, как их обработают модели. Когда дело доходит до качества ответов, сгенерированных ИИ-поколения, финансовые учреждения должны создать «золотые списки» вопросов для тестирования моделей», — предложила McKinsey.
Они также должны запрашивать много отзывов от клиентов и сотрудников, добавила она.