Технология дипфейк позволяет создать правдоподобный вымышленный видео- или аудиоконтент, который легко использовать с целью дезинформации. В основном на таких видео цифровые образы известных людей говорят или делают то, что эти люди на самом деле никогда не говорили и не делали.
В недавнем докладе «Социальная инженерия: стирая границы реальности» сотрудники компании CyberCube подчеркнули, что «появляется все больше возможностей создавать реалистичные аудио- и видеофейки с использованием искусственного интеллекта и машинного обучения».
Они напомнили, что технический прогресс и возросшая зависимость предприятий от видеосвязи повлияли на темпы развития этой технологии, и теперь преступники инвестируют в нее, чтобы в итоге воспользоваться ситуацией.
«Новые и развивающиеся методы социальной инженерии, такие как дипфейк-видео и аудио, коренным образом изменят ландшафт киберугроз. Постепенно эти методы становятся технически и экономически доступными для преступных организаций любого размера», — предупреждает Даррен Томсон, автор доклада CyberCube и глава отдела стратегии кибербезопасности.
Благодаря техническому прогрессу и тому, что пандемия COVID-19 спровоцировала более широкое использование технологий, сейчас в интернете публикуют все больше видео с предпринимателями и аудиозаписей их речи. Таким образом, по словам сотрудников CyberCube, у киберпреступников «появляется огромный запас данных для создания фотореалистичных имитаций. Преступники смогут использовать эти образы, чтобы оказывать воздействие на людей и манипулировать ими».
Сотрудники аналитической платформы также напомнили о технологии «топография рта», созданной Вашингтонским университетом: ее можно использовать для «точнейшей имитации движений рта человека во время речи».
«Представьте, что видео, на котором Илон Маск дает советы по торговле внутренней информацией, становится вирусным — только это не настоящий Илон Маск. Или политик объявляет о новом политическом курсе — только вот видео опять же ненастоящее», — поясняет Даррен Томсон из CyberCube.
По его словам, в политических кампаниях уже использовали видео, созданные на основе технологии дипфейк.
«Со временем преступники начнут применять те же методы против предприятий и обеспеченных частных лиц», — предупредил Томсон.
Он добавил, что махинации могут быть «очень простыми: например, фальшивое голосовое сообщение от руководителя, который просит сотрудников обработать мошеннический платеж или перевести средства на счет, созданный хакером».
Помимо дипфейк видео и аудио сотрудники CyberCube изучают «растущую популярность традиционных методов социальной инженерии, когда преступники используют человеческие слабости, чтобы получить доступ к личной информации и системам защиты».
«Один из аспектов — социальное профилирование. Это метод сбора информации, необходимой для создания фальшивой личности. В ход идут данные, доступные в интернете и на физических носителях, таких как выброшенные документы или украденные медкарты», — говорится в докладе.
Там же сказано, что «пандемия размыла границы домашних и корпоративных ИТ-систем, а онлайн-платформы используются все чаще, что упрощает манипуляции преступников».
Поэтому CyberCube предупреждает страховщиков, что бороться с развитием технологий дипфейк бесполезно, но отбор рисков будет приобретать все большее значение для киберстраховщиков.
«Нет универсального средства, которое поможет избежать потерь. Однако страховщики должны попытаться понять, как этот риск соотносится с принципами информационной безопасности», — сказал автор доклада Даррен Томсон.
По его словам, решением проблемы, по крайней мере на начальном этапе, может стать обучение и подготовка сотрудников к Deepfake-атакам.
В CyberCube подчеркнули, что технология Deepfake может привести к значительным убыткам, ведь ее можно использовать для дестабилизации политических систем или финансовых рынков.
По данным CyberCube, подобное уже произошло в 2019 году: «Используя программное обеспечение на основе искусственного интеллекта, киберпреступники сымитировали голос руководителя и незаконно потребовали перевести 243 тысячи долларов».