Страница 1 из 1

Мошенничество: картинки, голос используются злоумышленниками для синтезирования доказательств того, чего не происходило

Добавлено: 11 май 2023, 07:38
bngvamhcxj
Мошенничество в сети выходит на новый уровень своего развития вместе с совершенствованием интернет-технологий, поэтому злоумышленники также принялись за использование в своей преступной деятельности нейросети и вынуждены подстраиваться под эволюцию новых технологий, используя теперь, дипфейки. Теперь сети, которые связаны с картинками и голосом используются злоумышленниками для синтезирования доказательств того, чего не происходило, то есть — дипфейков. Таким образом, уже было достаточно много ситуаций, когда интернет-мошенниками создавались дипфейки для того, чтобы написать пост в социальной сети со ссылкой на страницу мошенников. Один из громких примеров — это использование образа Илона Маска. Интернет-мошенники находятся в постоянном совершенствовании своего «мастерства» и потому, учитывая возникновение недоверия у граждан к картинкам, они теперь создают и дипфейковые видео, которые уже гораздо сложнее отличить от оригинала. Дипфейки не являются плохой технологией, поскольку они успешно применяются в обучающих материалах, позволяя их сделать достаточно качественными. Также подобным образом возможно синхронизировать губы с речью при осуществлении перевода на различные языки в ходе переозвучки, что уже применяются в кинематографе. Мошенниками используют нейросети, когда ChatGPT может быть доступен под веб-интерфейс, однако получить к нему доступ возможно не ото всюду, поэтому злоумышленники активно этим пользуются. Ученые провел исследование, обнаружив вброс ресурса направленного якобы на скачивание клиента ChatGPT с возможностью получения сразу - 50 долларов США. В результате, конечно же это оказался не клиент, а "троян".