КОРОЧЕ ГОВОРЯ: Видео, на котором, по-видимому, Зандиле Дабула, лидер южноафриканской антимигрантской группы Operation Dudula, говорит, что её родители из Зимбабве, распространяется в интернете. Однако видео — всего лишь убедительная подделка.

Операция Дудула — спорная южноафриканская антимигрантская группа и связанная с ней политическая партия. Она утверждает, что выступает против нелегальной миграции в Южную Африку, но без разбора нацеливалась и атаковала всех мигрантов, особенно из других африканских стран.

Члены группы также насильно лишали доступа к медицинским услугам людям, не предоставившим удостоверения личности Южной Африки. В 2025 году годовалый ребёнок умер после того, как, по сообщениям, участники операции «Дудула» не дали матери ребёнка попасть в клинику в Йоханнесбурге, городе в провинции Гаутенг в Южной Африке. Группа отрицала обвинение.

Поэтому может быть удивительно услышать, как лидер операции «Дудула» Зандиле Дабула говорит, что её родители — зимбабвийцы, как она видит в видео, распространяющемся в TikTok, Instagram и X.

Следите за нами в WhatsApp LinkedIn для последних новостей

На видео, кажется, Дабула стоит на улице и говорит кому-то за кадром: «Да, мои родители из Зимбабве, но я родился в Южной Африке, и это делает меня южноафриканцем.»

Один из руководящих принципов обнаружения ложной информации — «Если это звучит слишком шокирующе, чтобы быть правдой, скорее всего, это не так.» Это утверждение было настолько неожиданным, что Africa Check внимательно посмотрела видео и пришла к выводу, что, скорее всего, это дипфейк.

Видео, сгенерированное ИИ, основанное на старой фотографии

Видео очень убедительное, по крайней мере на первый взгляд. Однако более внимательный взгляд выявляет визуальные несоответствия и ошибки, что указывает на то, что устройство могло быть создано или изменено с помощью инструментов искусственного интеллекта (ИИ). Например, вокруг рта Дабулы есть визуальные ошибки, когда губы и зубы сливаются или меняют форму на протяжении всего видео.

Фоновые элементы также включают визуальные ошибки. Например, наблюдатели на заднем плане необычно неподвижны, иногда неестественно сливаются с другими элементами фона или кажутся окружёнными и сопровождаемыми неясными, размытыми пятнами. Эти ошибки легко упустить, так как они небольшие, тонкие и часто встречаются всего несколько кадров за раз.

Ниже приведены обрезанные и замедленные части видео, которые облегчают обнаружение некоторых ошибок.

Видео, сгенерированные с помощью ИИ, стали гораздо более убедительными с тех пор, как технология впервые стала доступна публично, как написал Africa Check в этой статье о достижениях программного обеспечения Google Veo AI для генерации видео. Veo 3, третья версия инструмента, может генерировать убедительные короткие видеоклипы с синхронизированным звуком из одного статичного изображения.

На самом деле, возможно, это видео было создано компанией Veo. Самая длинная версия видео в интернете — всего восемь секунд, что является верхним пределом для видео на Veo. Также, по-видимому, он основан на фотографии Дабулы, опубликованной в статье газеты Daily Sun за август 2024 года. Статья была посвящена попыткам операции «Дудула» насильно закрыть магазины, принадлежащие мигрантам в Совето, поселке в Йоханнесбурге. На фото Дабула, кажется, разговаривает с кем-то вне кадра, а фоновые элементы и её одежда совпадают с теми, что показаны на видео.

Africa Check связалась с Нхланхлой Хомолой, автором статьи в Daily Sun, которому приписывают фотографию Дабулы. Хомола заявила, что не знала о видео. Africa Check не обнаружила доказательств того, что распространявшийся клип был легитимным или что родители Дабулы из Зимбабве, что говорит о том, что видео не было интервью, проведённым примерно в то время, когда была опубликована статья в Daily Sun.

Видео с Дабулой, вероятно, было сгенерировано Google Veo или похожей моделью по старой фотографии. Некоторые из самых ранних версий видео, опубликованных на X, даже имеют соотношение сторон 16:9, типичное для Veo. В правом нижнем углу видео, где должен появиться водяной знак Veo, размещён эмодзи.

Однако даже если видео не было создано специально с помощью Veo, нет оснований полагать, что оно подлинное.

Нет доказательств того, что Дабула — зимбабвийка или родилась в семье зимбабвийцев

Глава известной антимигрантской организации с иностранными родителями был бы неожиданным и заслуживающим новостей. Если бы Дабула рассказал об этом в интервью или если бы были другие доказательства в поддержку этого утверждения, это было бы широко освещено надёжными источниками.

Не только нет надёжных доказательств в поддержку этого утверждения, но и Дабула всегда говорила СМИ, что она южноафриканка, только в ответ на вопросы о своём происхождении. В сентябре 2025 года она отрицала заявления о своей родине в Зимбабве и назвала себя «подлинным гражданином» Южной Африки.

Тем временем заявления о том, что родители Дабулы — зимбабвийцы, распространяются только неизвестными или ненадёжными источниками и не содержат подробностей. Никто из них не объясняет, когда и где должно было быть записано видео с Дабулой, и с кем она якобы разговаривала.

Независимо от того, проверяете ли вы подлинность изображения или видео, проверяете актуальную новость или решаете, пересылать ли сообщение в WhatsApp, полезно найти исходный источник заявления и сравнить его с тем, что сообщили надёжные новостные источники.

Тонкие признаки того, что это видео создано ИИ, легко упустить, но базовые навыки проверки достаточно, чтобы показать, что видео не взято из надёжного источника.