Как искусственный интеллект откроет хакерам доступ к вашему счету
Главная Технологии, Хакеры, Искусственный интеллект

По данным новых исследований, поддельные цифровые отпечатки пальцев, созданные искусственным интеллектом, могут обмануть дактилоскопические сканеры на смартфонах — а значит, хакерам будет легче обчищать банковские счета жертв.

Совместная работа исследователей Нью-Йоркского университета и Университета штата Мичиган рассказывает, как технологии глубокого обучения могут использоваться для подрыва биометрических систем безопасности. Исследование, спонсированное грантом Национального научного фонда США, получило первую награду на конференции по биометрии и кибербезопасности в октябре, сообщает Fortune.

Производители смартфонов вроде Apple и Samsung обычно используют биометрические технологии в своих девайсах, чтобы пользователи могли разблокировать свои устройства пальцами, без ввода пароля. Некоторые крупные банки, такие как Wells Fargo, стремясь предоставить своим клиентам должный уровень комфорта, открывают доступ к расчетным счетам по отпечаткам пальцев.

Но хотя сканеры отпечатков пальцев — это удобно, программное обеспечение, управляющее этими системами, можно взломать. Эта информация чрезвычайно важна — благодаря ей мы знаем, как преступники могут использовать новейшие технологии ИИ, чтобы обойти стандартные барьеры кибербезопасности.

Ученые обнаружили, что некоторые дактилоскопические системы безопасности можно обмануть, используя либо оцифрованные, либо фрагментарные изображения реальных отпечатков пальцев. Алгоритм под названием MasterPrints может обмануть биометрические системы безопасности, которые ориентированы на проверку лишь определенных частей отпечатка пальца, а не всего отпечатка.

Ирония в том, что люди, которые проверяют MasterPrints, могут с ходу распознать подделку по фрагментам отпечатков. Программное обеспечение не настолько умно.

Исследователи использовали нейронные сети — базовое программное обеспечение для формирования и подготовки данных — для создания убедительных цифровых отпечатков, которые выглядели даже лучше, чем изображения в предыдущем исследовании. Поддельные отпечатки пальцев казались настоящими не только человеческому глазу, но и некоторым сканерам отпечатков пальцев.

Как искусственный интеллект откроет хакерам доступ к вашему счету
Слева — примеры реальных отпечатков пальцев, справа — сгенерированные ИИ поддельные отпечатки

Джулиан Тогелиус, один из авторов статьи и профессор кафедры информационных технологий Нью-Йоркского университета, рассказал, что его команда подделала отпечатки пальцев в программе под названием DeepMasterPrints, используя вариант технологии нейронной сети — генеративно-состязательную сеть (GAN), которая, по его словам, «покорила вселенную ИИ за последние два года».

Исследователи использовали GAN для создания достаточно убедительных, но тем не менее сфабрикованных фото и видео, известных как «глубокие фейки» — законодатели, в свою очередь, беспокоятся, что они могут быть использованы для подделки видеороликов и пропаганды, которые люди примут за чистую монету.

Например, исследователи рассказали о том, как с помощью ИИ можно «лепить» видеоролики, на которых бывший президент Барак Обама говорит то, чего не было и в помине — и это только начало.

Измененные с помощью ИИ изображения также обманывают компьютеры — об этом в прошлом году заявили исследователи Массачусетского технологического института: они создали изображение черепахи, которое обмануло сервис для распознавания изображений Google. Эта технология приняла черепаху за винтовку, «распознав» скрытые в изображении элементы, по характеристикам совпадавшие с изображением оружия и незаметные человеческому глазу.

С помощью GAN исследователи обычно комбинируют две нейронные сети для создания реалистичных изображений с хитроумными свойствами, которые могут обмануть программное обеспечение. Используя тысячи общедоступных изображений отпечатков пальцев, исследователи научили одну нейронную сеть распознавать реальные изображения отпечатков пальцев, а другую — создавать собственные поддельные отпечатки.

«Затем мы загрузили фальшивые отпечатки пальцев второй нейронной сети в первую, чтобы проверить, насколько они реалистичны», — рассказывает Филипп Бонтрагер, кандидат компьютерных наук Нью-Йоркского университета. Со временем вторая нейронная сеть научилась создавать реалистичные изображения отпечатков, которые не вызывали подозрений у другой нейронной сети.

Потом исследователи загружали поддельные изображения отпечатков пальцев в программы для сканирования отпечатков, выпускаемые такими технологическими компаниями, как Innovatrics и Neurotechnology, чтобы проверить, можно ли их обмануть. Каждый раз, когда одна из коммерческих систем пропускала изображение поддельного отпечатка пальца, у исследователей появлялась возможность улучшить свои технологии и сгенерировать более убедительную подделку.

Нейронная сеть, ответственная за создание фальшивых изображений, внедряет компьютерный код в случайной последовательности, способный обмануть дактилоскопическое ПО, который Бонтрагер называет «зашумленными данными».

Хотя исследователи смогли отрегулировать эти «зашумленные данные» для отключения программ проверки отпечатков пальцев, используя так называемый эволюционный алгоритм, пока неясно, что этот код делает с изображением, поскольку человеческому глазу его влияние не заметно.

Безусловно, преступники сталкиваются с рядом препятствий, взламывая сканеры отпечатков пальцев. Прежде всего, многие дактилоскопические системы опираются на другие пункты защиты, такие как тепловые датчики для распознавания человеческих пальцев, объясняет Бонтрагер.

Но недавно разработанная нейросеть DeepMasterPrints — наглядное свидетельство того, что технология ИИ может использоваться в криминальных целях, а значит, органы кибербезопасности, банки, производители смартфонов и другие компании, использующие биометрические технологии, должны постоянно совершенствовать свои системы, чтобы идти в ногу со стремительным прогрессом в сфере ИИ.

Доктор Юстас Кранаускас, руководитель исследований и разработок компании Neurotechnology, создатель программного обеспечения для дактилоскопических датчиков, говорит, что недавняя исследовательская работа на тему обмана устройства считывания отпечатков пальцев затронула важную проблему. При этом он отмечает, что его компания использует дополнительные меры защиты, не учтенные в исследование, которые, как он выразился, обеспечивают «крайне низкий риск ложной идентификации при фактическом использовании».

По словам Кранаускаса, Neurotechnology также рекомендует своим корпоративным клиентам настраивать свои программы сканирования отпечатков пальцев на более высокий уровень безопасности, чем указанный исследователями в их работе.

Исследователь Бонтрагер отмечает, однако, что чем выше уровень безопасности устройства при считывании отпечатков пальцев, тем оно менее удобно для пользователей, поскольку компании обычно нуждаются в некоторой свободе действий, чтобы избавить клиентов от необходимости многократно прикладывать пальцы к сканерам для получения точных данных:

«Очевидно, что если вы выберете параметры повышенной безопасности, риск спуфинга будет ниже — как и удобство при использовании».

Подписывайтесь на наш канал в Яндекс.Дзен. Много эксклюзивных историй, полезных материалов и красивых фото.

Читайте также:
Пожалуйста, опишите ошибку
Закрыть