Эксперты проекта «Перезвони сам» рассказали, как пользователи могут определить, что перед ними текст, изображение или видео, созданные нейросетями. Об этом сообщается на официальном сайте мэра Москвы.
«В большинстве случаев пользователи публикуют ИИ-контент в интернете для развлечений, например создают в социальных сетях аккаунты персон, которых не существует, и публикуют в них сгенерированные изображения. Но и злоумышленники могут использовать технологию, чтобы обмануть, ввести в заблуждение или совершить преступление. Они пишут заявления от имени публичных личностей, которых те не делали, создают видео, на которых знакомый человек якобы просит о помощи. Как правило, цель такого контента – публикация заведомо ложной информации, шантаж или вымогательство. В таких случаях важно знать, на что обращать внимание, чтобы вычислить ИИ-контент и не дать себя обмануть», – отметили в пресс-службе столичного департамента информационных технологий.
Отличительные черты ИИ-текста – на первый взгляд четкая структура (вступление, списки, деление на абзацы, заключение), но при внимательном прочтении иногда можно заметить нарушенную логику повествования и вымышленные факты. Главные выводы дублируются, часто без добавления новой информации. Проверить авторство текста помогут специальные программы – ИИ-детекторы, однако они не абсолютно точны. Также можно спросить у нейросетей, кто автор текста: ИИ или человек, и попросить аргументировать свою позицию.
Следует также обратить внимание на контекст и условия публикации: время размещения (аномальная активность, например поздно вечером или ночью); отсутствие материалов на ту же тему на проверенном интернет-ресурсе; анонимный канал в мессенджере; почтовая рассылка с незнакомого адреса.
Эксперты выделили признаки ИИ-фото: неестественный взгляд человека; искаженная анатомия (размер и форма ушей, количество пальцев); неестественные детали одежды и волос (необычные складки, пряди); странные тени (неправильное отражение от источников света); нарушенные пропорции и логика расположения объектов (неестественные размеры, парящие предметы); необычные надписи, эмблемы, логотипы (ошибки в словах, искажение или выдуманные элементы); отсутствие метаданных (нет информации о камере, параметрах файла, дате, местоположении).
Как и в случае с текстами, для проверки фотографий можно использовать ИИ-детекторы или предложить нейросетям ответить на вопрос: создано ли изображение ИИ или это фотография. Несмотря на то что ответ не дает 100% точности, вместе с другими фактами он поможет сделать вывод о том, подлинный снимок или нет.
На возможное ИИ-происхождение видео могут указывать следующие признаки, особенно если их несколько: несовпадение движения губ с произносимыми словами; неестественная мимика (например, человек смеется, а глаза при этом неподвижны или смотрят в никуда, нет движений век или они слишком частые); отсутствует естественная реакция зрачков на свет и фокусировка на объектах; эмоции, не соответствующие обстановке или настроению говорящего; слишком медленные или хаотичные движения рук, неестественная длина пальцев; артефакты изображения (статичные объекты или люди, которые то появляются, то исчезают, нереалистичные автомобили, животные неестественных размеров или цветов); идеальное лицо (отсутствие пор, мелких морщин, родинок или естественной асимметрии лица); несоответствие теней на лице или объектах источнику света; нарушения перспективы, пропорций предметов.
Особенно внимательно необходимо изучать видео, если на нем известный человек, например, политик, делает важное заявление или кто-то из знакомых просит о помощи либо совершить какие-либо другие действия. Стоит помнить, что в таких случаях не нужно принимать поспешных решений. Выяснить подлинность видео поможет сравнение с более ранними выступлениями человека – даже лучшие современные сервисы пока не могут идеально скопировать манеру речи, интонации, движения и мимику. Нужно также обратить внимание на то, где опубликован ролик: не стоит доверять каналам в социальных сетях или почтовым рассылкам с неизвестных адресов.
Сегодня один из самых распространенных способов мошенничества на основе дипфейк-технологии – это фальшивые видеозвонки, аудио и изображения, сгенерированные с применением искусственного интеллекта. О том, как защитить себя от дипфейков, можно узнать из памятки столичного проекта «Перезвони сам»: www.mos.ru/news/item/156782073/.
Проверить присланное аудиосообщение на наличие синтезированной речи и признаков мошенничества поможет бесплатный Telegram-бот «Стопфейк», созданный в рамках проекта «Перезвони сам»: sam.mos.ru/#telegram-bot. Сервис с применением искусственного интеллекта анализирует присланные текстовые сообщения, скриншоты переписок и аудиофайлы, определяя вероятность использования мошеннических схем.
