Дипфейк экс-министра обороны Израиля был перехвачен прямо в эфире. Следующий не будет.

Cyber8 мин чтения

Израильская телеведущая распознала дипфейк Галланта прямо во время трансляции. «Это подделка», — сказала она. Видео показывало бывшего министра обороны Израиля, говорящего на иврите с персидским акцентом. Это первый дипфейк, перехваченный в прямом эфире во время войны. Он не будет последним.

Shatterbelt Analysis·
Дипфейк экс-министра обороны Израиля был перехвачен прямо в эфире. Следующий не будет.

Израильский телеканал Channel 14 показал видео бывшего министра обороны Йоава Галланта в вечернем выпуске новостей. Видео якобы показывало Галланта, делающего заявления об иранской кампании. Ведущая остановилась. «Это подделка», — сказала она в прямом эфире. Галлант говорил на иврите с персидским акцентом. Синхронизация губ была слегка нарушена. Фон был сгенерирован.

Видео попало в новостную цепочку через аккаунт в социальных сетях, имитировавший формат пресс-релизов ЦАХАЛ. Его выявила интуиция ведущей, а не автоматическая система распознавания. Было начато внутреннее расследование. Арестов не последовало.

Это «дивиденд лжеца» в действии. Само существование дипфейков означает, что реальные видеодоказательства теперь можно отвергнуть как фальсификацию, а фальсифицированное видео может на мгновение сойти за реальное. Обе стороны выигрывают от этой двусмысленности. Обе её эксплуатируют.

Масштаб AI-генерированной дезинформации за первые три недели: EDMO задокументировала 592 фактчека AI-сгенерированного или манипулированного контента. NYT обнаружила 110+ AI-генерированных материалов за первые две недели. Cyabra зафиксировала 145+ млн просмотров одной проиранской кампании. BBC Verify определила топ-3 AI-видео с совокупным охватом более 100 млн просмотров. Сеть «Басидж» из 289 аккаунтов в X набрала 18+ млн просмотров. Иранский AI-контент в TikTok превысил 100 млн просмотров.

Премиум-аккаунты X распространяли 77% идентифицированной дезинформации. Лишь 2 из 34 отмеченных постов получили «заметки сообщества».

Почему эта война — первая AI-война дезинформации?

Предыдущие войны имели пропаганду. Эта война имеет промышленное производство синтетических медиа. Разница — в стоимости и скорости производства. Пропагандистский плакат создавался днями и распространялся неделями. Дипфейк-видео генерируется за минуты и достигает миллионов за часы. Информационная чёрная дыра внутри Ирана (1–4% интернета) означает, что иранцы не могут верифицировать реальность. Информационный потоп за пределами Ирана означает, что все остальные тонут в контенте, который не могут проверить.

Угроза дипфейков двусторонняя. Иран производит AI-контент для израильской и американской аудитории (видео Галланта, фальшивые заявления CENTCOM, сфабрикованные кадры потерь). Израильские и проамериканские акторы производят AI-контент для иранской аудитории (фальшивые объявления о сдаче КСИР, сфабрикованные кадры протестов, манипулированные спутниковые снимки с ущербом, которого не существует). Обе стороны используют одни и те же инструменты (генераторы изображений с открытым кодом, клонирование голоса, видеосинтез).

Ведущая, которая распознала дипфейк Галланта, была человеком. Распознавание было интуитивным, не алгоритмическим. В медиасреде, где инструменты обнаружения AI стабильно отстают от инструментов генерации, последний рубеж обороны против дезинформации — подготовка и суждение конкретных журналистов. Автоматизируйте это — и вы автоматизируете единственный фильтр, который работает.


FAQ

Могут ли инструменты обнаружения дипфейков успевать?

Нет. Инструменты обнаружения (GPTZero, Originality.ai, Microsoft Video Authenticator) стабильно отстают от генеративных на 6–12 месяцев. Инструменты работают против вчерашних дипфейков, не сегодняшних. Единственный надёжный метод — анализ метаданных (происхождение, источник загрузки, паттерн распространения) в сочетании с человеческим редакторским суждением. Дипфейк Галланта был обнаружен человеком, не программой.

Может ли дипфейк начать войну?

Видео Галланта было перехвачено до того, как могло повлиять на принятие решений. Но дипфейк главы государства, отдающего приказ об атаке, транслированный через взломанный медиаканал во время кризиса, может спровоцировать военный ответ раньше, чем возможна верификация. Цикл принятия решений по ракетной обороне (минуты) короче цикла проверки подлинности видео (часы). Эта асимметрия — настоящее оружие дипфейка.

Почему у X худшая проблема с дезинформацией?

Премиум-аккаунты X (платные подписчики) получают алгоритмическое продвижение. Это означает, что любой аккаунт, готовый платить $8/мес., получает преимущества в распространении вне зависимости от качества контента. Иранские и российские ботовые сети воспользовались этим, покупая премиум-аккаунты. В сочетании с практически полной ликвидацией штата модерации контента X стал основным каналом распространения государственной дезинформации.

Темы

CyberDeepfakeAiDisinformationIran WarInformation Warfare
Опубликовано 26 марта 2026 г.2,000 словUnclassified // OSINT

Ещё из Cyber

Все статьи →