Дипфейки как средство взлома систем биометрической идентификации – отчёт европейского института

  

11 Сентябрь 2023 (14:43)

Дипфейки как средство взлома систем биометрической идентификации – отчёт европейского института

Группа по безопасности искусственного интеллекта (ИИ) Европейского института телекоммуникационных стандартов (European Telecommunications Standards Institute, ETSI) опубликовала отчёт о рисках использования ИИ для манипулирования «образами цифровой идентичности»; в документе говорится об атаках на системы дистанционной биометрической идентификации и аутентификации с помощью дипфейков.

Дистанционная идентификация с помощью видео применяется многими европейскими банками для открытия счетов клиентов и обеспечения соответствия качества услуг стандартам. Системы распознавания голоса также используются для аутентификации пользователей при подтверждении транзакций. Уровень безопасности этих систем и их способность противостоять дипфейк-атакам значительно варьируются, отмечается в документе.

Атакующие могут использовать биометрические данные, полученные без ведома их владельцев, или полностью сгенерированные ИИ. Также дипфейк-атаки включают социальную инженерию – например, ИИ имитирует официальное лицо или старшего по должности и от их имени направляет запрос сотруднику на перевод денег. По данным исследования, 40% бизнесов или их клиентов уже столкнулись с подобными атаками.

Дипфейки – это комплексная проблема, панацеи от которой нет, бороться с ними следует комбинацией мер на различных уровнях, считают авторы отчёта.

Будучи некоммерческой организацией, ETSI сотрудничает с Еврокомиссией и Европейской ассоциацией свободной торговли (European Free Trade Association, EFTA) в области установления технических стандартов.

В отчёте ETSI предлагает несколько вариантов решений по защите от дипфейк-атак на биометрические системы. Это просветительская работа, привлечение внимания к проблеме, разработка регулирующих актов, требующих маркировки дипфейков. На техническом уровне можно использовать методы обнаружения дипфейков – т.е. криминалистическую экспертизу материалов, или привлекать ИИ-системы, «натасканные» на поиск фальсифицированного контента, говорится в документе.

Атаки на системы аутентификации можно сделать менее успешными, противопоставив им высокоуровневые запросно-ответные протоколы. В случае видеоидентификации, например, можно потребовать от человека совершить специфические движения, передвинуть объекты рядом и т.д. При голосовой аутентификации – попросить произнести сложно выговариваемые слова.

Также следует измерять время задержки ответов – продолжительное «молчание» скорее всего указывает на то, что компьютер обрабатывает необходимые для реакции данные.

«Более надёжным методом противостояния рискам для компаний и организаций может стать разработка тщательно проработанных процессов, где важные решения и транзакции одобряются не на основе внутренней биометрической аутентификации, но всегда подтверждаются по стандартной процедуре, включающей мультифакторную аутентификацию», – резюмируют авторы отчёта.