Компьютеризированный город, напоминающий материнскую плату, с высоты птичьего полета.

Картина киберугроз постоянно меняется: появляются новые угрозы, возрождаются прежние.

Компьютеризированное полигональное лицо накладывается на компьютеризированный город.

Вот одна из весьма актуальных угроз, о которой вам необходимо знать.

Параллельное дипфейковое видео актера Рона Ливингстона за рулем автомобиля.

Дипфейками называются публикации, фальсифицированные с применением машинного обучения с целью выдать персонажей таких публикаций за других лиц, в основном знаменитостей или политических деятелей.

Источник: канал YouTube VFX Chris UME

Подлинное видео

Дипфейк

Компьютерная программа использует лицо Роберта Дауни-младшего для создания дипфейкового видео.

В реально существующие публикации встраиваются путем наложения общедоступные звуковые записи, фотографии и видео известных людей.

Источник: Канал YouTube DeepFakery

Параллельное дипфейковое видео, на котором политик и дипломат Хилари Клинтон выступает на трибуне.

Такие переделанные клипы обычно изготавливаются шутки ради, но ими можно пользоваться и со злонамеренными целями,

Источник: Канал YouTube Derpfakes

Подлинное видео

Дипфейк

Человек сидит на диване и смотрит в свой смартфон.

например, обман жертв, помощь в социальной инженерии, создание ложных новостей и распространение неправдивой информации.

Крупный план рук киберпреступника, печатающего на клавиатуре ноутбука.

Недавно социальные инженеры, избрав своей жертвой главного исполнительного директора британской энергетической компании, внушили ему, что он беседует с руководителем головной компании — вплоть до имитации характерного для собеседника немецкого акцента. С помощью этого виртуозного дипфейка киберпреступники смогли выманить у главного исполнительного директора денежный перевод на сумму 220 тыс. евро.

Дипфейковая компьютеризированная карта лица отображается поверх лица человека.

Технологические компании стараются противодействовать такого рода манипуляциям, однако уязвимость к ним остается. Благодаря самой своей природе машинное обучение позволяет постоянно совершенствовать дипфейки, делая их всё более убедительными.

Параллельное дипфейковое видео президента Барака Обамы и кинодеятеля Джордана Пила.

Ваша главная защита от таких угроз — скептическое отношение к сенсационным или вызывающим подозрения публикациям, даже если сопровождающие их картинки или звуковой ряд кажутся вполне правдоподобными.

Источник: Канал YouTube BuzzFeed

Подлинное видео

Дипфейк

Дипфейковое видео, на котором Райан Рейнольдс заменяет лицо Джина Уайлдера на роль Вилли Вонки.

Несмотря на кажущуюся убедительность, вполне можно заметить технические изъяны, например, отсутствие блеска в глазах, неестественную моторику лица, несоответствие оттенков кожи и освещения, прочие аномалии.

Источник: Канал YouTube NextFace

Человек, изучающий информацию на своем ноутбуке, выглядит обеспокоенным.

Если видео вызывает у вас подозрения, поищите его оригинал в сети.

Человек, сам того не зная, разговаривает по смартфону с киберпреступником.

Если звонок показался подозрительным несмотря на убедительно звучавший голос собеседника, перепроверьте номер, с которого этот звонок поступил.

Человек сидит на диване и с беспокойством смотрит на свой смартфон.

Чтобы не стать жертвой обмана, необходимо проверять подлинность любых запросов важной информации или денежных средств, например, перезвонив собеседнику на заранее известный вам номер.

Человек сидит и читает важную информацию, отображаемую на своем ноутбуке.

Проявляйте бдительность в отношении дипфейков, поскольку такого рода приемы становятся всё более изощренными и распространенными.