Меню Поиск

Закрыть

Эксперт: Анализ визуальных артефактов и интонации помогает определять дипфейки

эксклюзив

17.09 19:05

Эксперт: Анализ визуальных артефактов и интонации помогает определять дипфейки

Теги: Киберпреступность , искусственный интеллект , Кибербезопасность


Фото: Максим Мишин, пресс-служба мэра и правительства Москвы

Анализ визуальных артефактов и интонации помогает экспертам определять дипфейки. Об этом Агентству городских новостей «Москва» сообщил ведущий специалист отдела анализа и оценки цифровых угроз Infosecurity (ГК Softline) Максим Грязев.

«Обнаружение дипфейков базируется на тщательной экспертизе видео- и аудиофайлов. Искусственный интеллект может достаточно точно имитировать голос человека, но остаются слабые места, которые могут выявить эксперты. Например, ИИ часто воспроизводит речь как поток без естественных интонационных вариаций или логических остановок. В реальной жизни люди тянут некоторые гласные звуки или изменяют интонацию в зависимости от контекста, что является важным маркером. Это помогает отличить дипфейк от настоящей речи. Также проводится анализ визуальных артефактов. В дипфейках часто встречаются неестественные движения лица, такие как неправильные движения глаз, рта, которые могут выглядеть ненатурально. Нередко наблюдаются размытые контуры или нестабильное освещение, когда тени на лице могут не совпадать с остальной частью изображения, что позволяет экспертам обнаружить подделку», – отметил Грязев.

По его словам, принятие закона о дипфейках является важным шагом в борьбе с данным типом мошенничества, однако полностью остановить злоумышленников не получится – мошенники всегда будут искать лазейки и новые методы для обхода системы, а любые нововведения лишь усложняют им задачу, но не могут гарантировать полное искоренение проблемы.

«Однако можно значительно снизить количество таких преступлений, развивая технологии обнаружения дипфейков и повышая экспертность в этой области. Ключевыми направлениями должны стать разработка инструментов для автоматического выявления подделок и регулярное обновление методов защиты. Государство должно активно инвестировать в развитие технологий и подготовку специалистов для борьбы с дипфейк-мошенничеством. Необходимы информационные кампании и повышение осведомленности населения о существовании таких угроз. Граждане также должны быть бдительными, не доверять сомнительным сообщениям и всегда проверять источники информации», – добавил Грязев.

Ранее в Госдуму были внесены законопроекты об охране голоса человека при его генерации с помощью искусственного интеллекта, а также о наказании за кражу и клевету с помощью дипфейков.

Рубрика: Технологии

Пожалуйста, укажите название Вашего СМИ/организации.
Или просто представьтесь, если Вы частное лицо:
Ок