КОРОЧЕ ГОВОРЯ: Видео, на котором, по-видимому, Зандиле Дабула, лидер южноафриканской антимигрантской группы Operation Dudula, говорит, что её родители из Зимбабве, распространяется в интернете. Однако видео — всего лишь убедительная подделка.
Операция Дудула — спорная южноафриканская антимигрантская группа и связанная с ней политическая партия. Она утверждает, что выступает против нелегальной миграции в Южную Африку, но без разбора нацеливалась и атаковала всех мигрантов, особенно из других африканских стран.
Члены группы также насильно лишали доступа к медицинским услугам людям, не предоставившим удостоверения личности Южной Африки. В 2025 году годовалый ребёнок умер после того, как, по сообщениям, участники операции «Дудула» не дали матери ребёнка попасть в клинику в Йоханнесбурге, городе в провинции Гаутенг в Южной Африке. Группа отрицала обвинение.
Поэтому может быть удивительно услышать, как лидер операции «Дудула» Зандиле Дабула говорит, что её родители — зимбабвийцы, как она видит в видео, распространяющемся в TikTok, Instagram и X.
Следите за нами в WhatsApp LinkedIn для последних новостей
На видео, кажется, Дабула стоит на улице и говорит кому-то за кадром: «Да, мои родители из Зимбабве, но я родился в Южной Африке, и это делает меня южноафриканцем.»
Один из руководящих принципов обнаружения ложной информации — «Если это звучит слишком шокирующе, чтобы быть правдой, скорее всего, это не так.» Это утверждение было настолько неожиданным, что Africa Check внимательно посмотрела видео и пришла к выводу, что, скорее всего, это дипфейк.
Видео, сгенерированное ИИ, основанное на старой фотографии
Видео очень убедительное, по крайней мере на первый взгляд. Однако более внимательный взгляд выявляет визуальные несоответствия и ошибки, что указывает на то, что устройство могло быть создано или изменено с помощью инструментов искусственного интеллекта (ИИ). Например, вокруг рта Дабулы есть визуальные ошибки, когда губы и зубы сливаются или меняют форму на протяжении всего видео.
Фоновые элементы также включают визуальные ошибки. Например, наблюдатели на заднем плане необычно неподвижны, иногда неестественно сливаются с другими элементами фона или кажутся окружёнными и сопровождаемыми неясными, размытыми пятнами. Эти ошибки легко упустить, так как они небольшие, тонкие и часто встречаются всего несколько кадров за раз.
Ниже приведены обрезанные и замедленные части видео, которые облегчают обнаружение некоторых ошибок.
Видео, сгенерированные с помощью ИИ, стали гораздо более убедительными с тех пор, как технология впервые стала доступна публично, как написал Africa Check в этой статье о достижениях программного обеспечения Google Veo AI для генерации видео. Veo 3, третья версия инструмента, может генерировать убедительные короткие видеоклипы с синхронизированным звуком из одного статичного изображения.
На самом деле, возможно, это видео было создано компанией Veo. Самая длинная версия видео в интернете — всего восемь секунд, что является верхним пределом для видео на Veo. Также, по-видимому, он основан на фотографии Дабулы, опубликованной в статье газеты Daily Sun за август 2024 года. Статья была посвящена попыткам операции «Дудула» насильно закрыть магазины, принадлежащие мигрантам в Совето, поселке в Йоханнесбурге. На фото Дабула, кажется, разговаривает с кем-то вне кадра, а фоновые элементы и её одежда совпадают с теми, что показаны на видео.
Africa Check связалась с Нхланхлой Хомолой, автором статьи в Daily Sun, которому приписывают фотографию Дабулы. Хомола заявила, что не знала о видео. Africa Check не обнаружила доказательств того, что распространявшийся клип был легитимным или что родители Дабулы из Зимбабве, что говорит о том, что видео не было интервью, проведённым примерно в то время, когда была опубликована статья в Daily Sun.
Видео с Дабулой, вероятно, было сгенерировано Google Veo или похожей моделью по старой фотографии. Некоторые из самых ранних версий видео, опубликованных на X, даже имеют соотношение сторон 16:9, типичное для Veo. В правом нижнем углу видео, где должен появиться водяной знак Veo, размещён эмодзи.
Однако даже если видео не было создано специально с помощью Veo, нет оснований полагать, что оно подлинное.
Нет доказательств того, что Дабула — зимбабвийка или родилась в семье зимбабвийцев
Глава известной антимигрантской организации с иностранными родителями был бы неожиданным и заслуживающим новостей. Если бы Дабула рассказал об этом в интервью или если бы были другие доказательства в поддержку этого утверждения, это было бы широко освещено надёжными источниками.
Не только нет надёжных доказательств в поддержку этого утверждения, но и Дабула всегда говорила СМИ, что она южноафриканка, только в ответ на вопросы о своём происхождении. В сентябре 2025 года она отрицала заявления о своей родине в Зимбабве и назвала себя «подлинным гражданином» Южной Африки.
Тем временем заявления о том, что родители Дабулы — зимбабвийцы, распространяются только неизвестными или ненадёжными источниками и не содержат подробностей. Никто из них не объясняет, когда и где должно было быть записано видео с Дабулой, и с кем она якобы разговаривала.
Независимо от того, проверяете ли вы подлинность изображения или видео, проверяете актуальную новость или решаете, пересылать ли сообщение в WhatsApp, полезно найти исходный источник заявления и сравнить его с тем, что сообщили надёжные новостные источники.
Тонкие признаки того, что это видео создано ИИ, легко упустить, но базовые навыки проверки достаточно, чтобы показать, что видео не взято из надёжного источника.

ЛУЧШИЙ