Фейк плаг что это

Дипфейки и другие поддельные видео – как защитить себя?

Фейк плаг что это

Дипфейки: новые технологии обмана

Слово дипфейк (Deepfake) является составным и происходит от deep learning (глубинное обучение) и fake (фейк, подделка). Глубинное обучение – это сложный метод на базе искусственного интеллекта, который использует многоуровневые алгоритмы машинного обучения для извлечения все более сложных характеристик из необработанных входных данных. При этом ИИ способен обучаться на неструктурированных данных – таких как изображения лиц. Например, ИИ может собрать данные о движениях вашего тела.

Затем эти данные могут быть обработаны для создания дипфейк-видео при помощи так называемой генеративно-состязательной сети (Generative Adversarial Network, или GAN). Это еще одна специализированная система машинного обучения. В ней задействовано две нейросети, которые состязаются друг с другом, изучая характеристики учебных наборов данных (например, фотографий лиц) и создавая новые данные на базе этих характеристик (то есть новые «фотографии»).

Поскольку такая сеть постоянно сверяет создаваемые образцы с исходным учебным набором, поддельные изображения выглядят все более и более правдоподобно. Именно поэтому угроза, которую представляют дипфейки, постоянно растет. Кроме того, сети GAN могут создавать и другие поддельные данные помимо фотографий и видео. Например, дипфейк-технологии могут использоваться для имитации голоса.

Примеры дипфейков

Качественные дипфейки с участием знаменитостей найти несложно. Один из примеров – фейковое видео, выложенное актером Джорданом Пилом. Он записал небольшую речь голосом Барака Обамы, которая затем была совмещена с видеосъемкой реального выступления этого политика. Затем Пил продемонстрировал, как выглядят обе составляющие этого видео, и призвал своих зрителей критически относиться ко всему, что они видят.

Видео с руководителем Facebook Марком Цукербергом, в котором тот якобы говорит о том, как Facebook «управляет будущим» с помощью украденных данных пользователей, появилось в Instagram. На оригинальном видео запечатлена его речь в связи со скандалом о «русском следе» в выборах президента США – для создания фейка оказалось достаточно фрагмента длиной всего в 21 секунду. Однако голос Цукерберга был сымитирован не так хорошо, как в пародии Джордана Пила на Обаму, и фальшивку было легко распознать.

Впрочем, даже менее качественные подделки могут вызвать живой отклик. Видео с «пьяной» Нэнси Пелоси, спикером Палаты представителей США, набрало миллионы просмотров на YouTube – а это был всего лишь фейк, сделанный с помощью замедления реального видео, чтобы создать видимость невнятной речи. Кроме того, немало известных женщин внезапно обнаружили себя в роли порнозвезд – их лица были вмонтированы в порнографические ролики и изображения.

Мошенничество и шантаж с использованием дипфейков

Дипфейк-видео неоднократно использовались в политических целях, а также как способ мести. Однако сейчас к этим технологиям все чаще стали прибегать для шантажа и проворачивания крупных афер.

У генерального директора британской энергетической компании мошенники смогли выманить 220 000 евро с помощью дипфейковой имитации голоса руководителя головной компании, якобы запросившего срочно перевести указанную сумму. Подмена была настолько натуралистичной, что обманутый директор не стал перепроверять информацию, хотя средства переводились не в головной офис, а на сторонний счет. Только когда «босс» запросил еще один трансфер, его собеседник заподозрил неладное, но переведенные деньги уже бесследно исчезли.

Во Франции недавно прогремела афера, в которой, правда, технология дипфейков не использовалась, – мошенник по имени Жильбер Шикли выдавал себя за министра иностранных дел Франции Жана-Ива Ле Дриана, с большой точностью воссоздав не только его внешность, но и обстановку рабочего кабинета. Аферист от имени министра обращался к состоятельным частным лицам и руководителям компаний с просьбой выделить средства на выкуп французских граждан, оказавшихся в заложниках террористов в Сирии. Таким образом ему удалось выманить несколько миллионов евро. Сейчас это дело рассматривается в суде.

Фейк плаг что это

Авторы дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. Также мошенники могут, например, проникнуть в вашу сеть, сымитировав звонок от IT-директора и обманом заставив сотрудников предоставить пароли и привилегии доступа, после чего ваши конфиденциальные данные окажутся в полном распоряжении хакеров.

Фейковые порноролики уже использовались с целью шантажа женщин-репортеров и журналисток, как, например, произошло в Индии с Раной Айюб, которая занималась разоблачением злоупотреблений властью. Технологии производства дипфейков дешевеют, так что можно прогнозировать рост их использования в целях шантажа и мошенничества.

h2>Как защититься от дипфейков?

Проблему дипфейков уже пытаются начать решать на законодательном уровне. Так, в штате Калифорния в прошлом году было принято два закона, ограничивающих использование дипфейков: законопроект AB-602 запретил использование технологий синтеза изображений человека для изготовления порнографического контента без согласия изображаемых, а AB-730 – подделку изображений кандидатов на государственные посты в течение 60 дней перед выборами.

Но окажутся ли эти меры достаточными? К счастью, компании в сфере безопасности постоянно разрабатывают все более совершенные алгоритмы распознавания. Они анализируют видеоизображения и замечают незначительные искажения, возникающие в процессе создания фальшивки. Например, современные генераторы дипфейков моделируют двумерное лицо, а затем искажают его для встраивания в трехмерную перспективу видеоролика. По тому, куда направлен нос, легко распознать подделку.

Пока что технологии создания дипфейков еще недостаточно совершенны, и признаки подделки зачастую видны невооруженным глазом. Обращайте внимание на следующие характерные признаки:

Однако по мере совершенствования технологий ваши глаза все реже будут распознавать обман – а вот хорошее защитное решение обмануть будет куда сложнее.

Уникальные антифейковые технологии

Некоторые развивающиеся технологии уже помогают создателям видеоконтента защищать его аутентичность. С помощью специального шифровального алгоритма в видеопоток с определенными интервалами встраиваются хеши; если видео будет изменено, хеши также изменятся. Создавать цифровые сигнатуры для видео также можно, используя ИИ и блокчейн. Это похоже на защиту документов водяными знаками; в случае с видео, правда, трудности заключаются в том, что хеши должны оставаться неизменными при сжатии видеопотока различными кодеками.

Еще один способ борьбы с дипфейками – использовать программу, вставляющую в видеоконтент специальные цифровые артефакты, маскирующие группы пикселей, по которым ориентируются программы для распознавания лиц. Этот прием замедляет работу дипфейк-алгоритмов, и в результате качество подделки будет более низким, что, в свою очередь, снизит вероятность успешного использования дипфейка.

Лучшая защита – соблюдение правил безопасности

Технологии – не единственный способ защититься от дипфейк-видео. В борьбе с ними весьма эффективны даже базовые правила безопасности.

Так, например, встраивание автоматических проверок во все процессы, связанные с перечислением денежных средств, позволило бы предотвратить множество мошеннических действий, в том числе и с использованием дипфейков. Также вы можете:

Помните, что, если хакеры начнут активно использовать дипфейки для проникновения в домашние и корпоративные сети, соблюдение базовых правил кибербезопасности станет важнейшим фактором в минимизации рисков:

Как будут развиваться дипфейки?

Дипфейки эволюционируют угрожающими темпами. Еще два года назад подделки легко было отличить по низкому качеству передачи движения; кроме того, люди в таких видео практически никогда не моргали. Однако технологии не стоят на месте, и дипфейки последнего поколения выполнены заметно более качественно.

По приблизительным оценкам, сейчас по Сети гуляет более 15 000 дипфейк-видео. Некоторые из них шуточные, но есть и такие, которые создавались для манипуляций общественным сознанием. Сейчас изготовление нового дипфейка занимает от силы пару дней, так что вскоре их может стать намного больше.

Источник

Эффект зловещей долины: как распознать дипфейк и не дать себя обмануть

В понедельник, 6 сентября в сети появилось рекламное видео, на котором миллиардер и основатель Тинькофф Банка Олег Тиньков обещал подарить деньги. «Давайте бегом за бонусом. Мы дарим +50% к вашей сумме вложений. Например, вы инвестируете 20 000 рублей, а на счет для работы получаете 30 000 рублей, а там с нашим экспертом и все 70 000 за месяц можно заработать. » — говорит в видео человек с лицом Тинькова. Обращение оказалось подделкой — его записали мошенники с использованием технологии дипфейк. Представитель Тинькофф сообщил тогда Forbes, что видео — подделка и компания работает над его блокировкой.

В тот же день Forbes обнаружил еще одно видео, на котором рэпер Моргенштерн обещал подарить от 10 000 до 100 000 рублей всем, кто перейдет по ссылке. Пройдя по указанному адресу, пользователь попадает на баннер, на котором написано «Осталось три часа. Забирай свои 100 000 рублей скорее». Причем, отсчет в три часа не меняется — даже если зайти через шесть часов. Если подобный трюк с Тиньковым мошенники проделывают впервые, то с Моргенштерном похожая ситуация произошла в марте этого года. Тогда музыкант якобы предлагал получить денежные выплаты, но у тех, кто решил это сделать, начали пропадать деньги с банковских счетов.

Дипфейк (deepfake) — это технология создания и замены элементов на существующих видео при помощи искусственного интеллекта и нейронных сетей. Дипфейк можно использовать в качестве безобидной шутки, например, поместив свое лицо вместо лица любимого актера из фильма, или же использовать в более корыстных целях. Количество дипфейков растет стремительно. Если в декабре 2019 года исследовательская компания Sensity AI обнаружила около 24 000 подделок, то к концу 2020 года — уже 85 047 фейковых видео, созданных с использованием этой технологии.

В России мошенники пока неактивно используют дипфейки для обмана. Во втором квартале 2021 года они украли с банковских счетов россиян более 3 млрд рублей, совершив свыше 236 000 денежных переводов без согласия клиентов, говорится в отчете Центробанка. Для хищения денег злоумышленники в основном использовали телефонные звонки «служб безопасности» банков или создавали поддельные интернет-ресурсы.

Но популярность этой технологии у киберпреступников будет только расти, поскольку она уже широко доступна и продолжает постоянно совершенствоваться и упрощаться, считает руководитель отдела специальных проектов департамента Digital Risk Protection Group-IB Владимир Калугин. Помимо такого мошенничества, как в случае с дипфейком Тинькова, технология может применяться для получения конфиденциальных сведений с помощью распознавания лица, добавляет он.

Как обезопасить себя от дипфейка?

Легко ли сделать дипфейк

Для создания дипфейк-видео могут использоваться развлекательные приложения, например, RefaceAI (более 100 млн скачиваний в Google Store), или более продвинутые программы с готовыми библиотеками, такие как DeepFaceLab и SimSwap, говорит Калугин. SimSwap, по словам эксперта, требует минимальных технических навыков, обладает невысокими требованиями к мощности системы и распространяется с предобученной моделью, позволяя создавать дипфейк-видео на основании одного лишь фото.

Сегодня, чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне, соглашается старший исследователь данных в «Лаборатории Касперского» Владислав Тушканов. С другой стороны, по его мнению, самые известные дипфейки — например, «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, — были сделаны профессионалами в области видеоэффектов, а в последнем случае — еще и с помощью профессионального актера-двойника.

Как распознать дипфейк

Сейчас существуют автоматизированные системы, которые распознают дипфейк. Одну из таких систем разработали в Университете Буффало, она определяет подделку по ошибочным отражениям в глазах.

В целом, мошеннические видео несложно распознать. Как в случае с «поддельным» Тиньковым: человека в ролике, при внимательном изучении, легко отличить от реального, звучит другой голос, качества видео плохое, и распространяется оно в соцсетях — то есть предназначено для просмотра с небольших экранов мобильных устройств, говорит Тушканов. На это и рассчитывают мошенники: в ленте соцсети пользователя убедит даже просто примерно похожий персонаж и логотип известного банка рядом.

Несмотря на то, что технологии становятся все реалистичнее, они пока не смогли преодолеть так называемый эффект «зловещей долины» (uncanny valley) — явление, при котором малейшая неестественность во внешнем виде и поведении робота или объекта, выглядящего и действующего как человек, вызывает у наблюдателя тревогу и неприязнь, говорит Калугин. Он советует обратить внимание на пять основных моментов:

Но самое эффективное действие — обращать внимание на то, кто, где и как распространяет видео, не нужно доверять видео с непроверенных и сомнительных сайтов или видео, опубликованных третьими лицами без подтверждения в официальных источниках, советует Калугин.

Плохая новость в том, что между исследователями, которые создают алгоритмы генерации дипфейков, и теми, кто исследует способы их обнаружения, идет своего рода гонка: когда обнаруживается несовершенство дипфейка, на его основе создают способ обнаружения, но следующее поколение алгоритмов для генерации уже учится обходить этот способ, говорит Тушканов.

Как избежать обмана

Основной способ борьбы со злоумышленниками, использующими дипфейки для зловредных целей — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности, говорит Тушканов.

Нужно критически относиться к крайне щедрым предложениям, только мошенники обещают много денег просто так, продолжает он. Не нужно верить предложениями, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете. Нужно проверять данные на официальном сайте компании или организации, от имени которой предлагается выплата, прежде чем предпринимать какие-то действия.

Легко ли найти мошенников, которые делают дипфейки

Дипфейк-видео могут стать дополнительной зацепкой при проведении расследования, например, если в качестве базы используется фотография, доступ к которой имело ограниченное количество людей, или, если было использовано специально отснятое видео, то можно предположить где и когда оно снималось видео, на какую аппаратуру и кто участвовал, говорит Калугин.

Основная проблема в том, что интернет — это сеть, не имеющая границ, и более длительный период времени занимает не сам процесс установления и поиска «создателя», а организация процесса фактического взаимодействия с ним правоохранителей, считает адвокат дистанционного юридического сервиса «Амулекс.ру» Любовь Шебанова.

Руководитель юридической практики компании «Интерцессия» Кирилл Стус считает, что найти создателей дипфейка простому пользователю практически невозможно, так как мало кто знает и может отследить цифровой след создателя файла.

Что делать, если вы стали жертвой мошенников

Пользователь может подать заявление о блокировке информационного ресурса и обратиться с иском к регистратору доменного имени, на котором распространяется дипфейк, либо подать заявку на блокировку интернет-ресурса в Роскомнадзор, сказал Стус.

Создателей дипфейков можно привлечь к ответственности, если будет доказано создание и использование дипфейков для, например, вымогательства или мошенничества, говорит Шебанова. Для таких случаев подходит, к примеру, статья 159 УК РФ (мошенничество) или же статья 152 ГК РФ, позволяющая человеку, чье изображение было использовано в дипфейке, обратиться с иском о защите чести достоинства и деловой репутации, говорит Стус. Правда, сложившейся судебной практики по дипфейкам ни в России, ни в других странах, не существует, громкие случаи из СМИ нельзя назвать массовыми, а решения по ним единообразными, добавила Шебанова.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *