bngvamhcxj » 11 май 2023, 07:38
Мошенничество в сети выходит на новый уровень своего развития вместе с совершенствованием интернет-технологий, поэтому злоумышленники также принялись за использование в своей преступной деятельности нейросети и вынуждены подстраиваться под эволюцию новых технологий, используя теперь, дипфейки. Теперь сети, которые связаны с картинками и голосом используются злоумышленниками для синтезирования доказательств того, чего не происходило, то есть — дипфейков. Таким образом, уже было достаточно много ситуаций, когда интернет-мошенниками создавались дипфейки для того, чтобы написать пост в социальной сети со ссылкой на страницу мошенников. Один из громких примеров — это использование образа Илона Маска. Интернет-мошенники находятся в постоянном совершенствовании своего «мастерства» и потому, учитывая возникновение недоверия у граждан к картинкам, они теперь создают и дипфейковые видео, которые уже гораздо сложнее отличить от оригинала. Дипфейки не являются плохой технологией, поскольку они успешно применяются в обучающих материалах, позволяя их сделать достаточно качественными. Также подобным образом возможно синхронизировать губы с речью при осуществлении перевода на различные языки в ходе переозвучки, что уже применяются в кинематографе. Мошенниками используют нейросети, когда ChatGPT может быть доступен под веб-интерфейс, однако получить к нему доступ возможно не ото всюду, поэтому злоумышленники активно этим пользуются. Ученые провел исследование, обнаружив вброс ресурса направленного якобы на скачивание клиента ChatGPT с возможностью получения сразу - 50 долларов США. В результате, конечно же это оказался не клиент, а "троян".
[url=https://ria.ru/20230513/moshenniki-1871472026.html?utm_source=yxnews&utm_medium=desktop ]Мошенничество [/url] в сети выходит на новый уровень своего развития вместе с совершенствованием интернет-технологий, поэтому злоумышленники также принялись за использование в своей преступной деятельности нейросети и вынуждены подстраиваться под эволюцию новых технологий, используя теперь, дипфейки. Теперь сети, которые связаны с картинками и голосом используются злоумышленниками для синтезирования доказательств того, чего не происходило, то есть — дипфейков. Таким образом, уже было достаточно много ситуаций, когда интернет-мошенниками создавались дипфейки для того, чтобы написать пост в социальной сети со ссылкой на страницу мошенников. Один из громких примеров — это использование образа Илона Маска. Интернет-мошенники находятся в постоянном совершенствовании своего «мастерства» и потому, учитывая возникновение недоверия у граждан к картинкам, они теперь создают и дипфейковые видео, которые уже гораздо сложнее отличить от оригинала. Дипфейки не являются плохой технологией, поскольку они успешно применяются в обучающих материалах, позволяя их сделать достаточно качественными. Также подобным образом возможно синхронизировать губы с речью при осуществлении перевода на различные языки в ходе переозвучки, что уже применяются в кинематографе. Мошенниками используют нейросети, когда ChatGPT может быть доступен под веб-интерфейс, однако получить к нему доступ возможно не ото всюду, поэтому злоумышленники активно этим пользуются. Ученые провел исследование, обнаружив вброс ресурса направленного якобы на скачивание клиента ChatGPT с возможностью получения сразу - 50 долларов США. В результате, конечно же это оказался не клиент, а "троян".