-
Похожий контент
-
Автор AlexTi22
При проверке Dr. Web CureIt! было замечено 2 угрозы Trojan.Siggen31.46344 в одной из папок Temp в файле app.dll. Удаление при помощи CureIt не помогла, при перезагрузке проблема возвращается. Папки с этими файлами невозможно удалить вручную.
-
Автор KL FC Bot
Искусственный интеллект открывает не только новые возможности, но и новые угрозы. С помощью генеративного ИИ злоумышленники создают дипфейки и поддельные сайты, рассылают спам и даже притворяются родственниками и друзьями. Сегодня расскажем, как нейросети используют для мошенничества и фишинга, — и конечно же, поделимся советами о том, как обезопасить себя. Ну а подробный разбор фишинговых схем с использованием ИИ вы найдете на Securelist.
Pig Butchering, кетфишинг и дипфейки
ИИ-боты, притворяющиеся живыми людьми, активно используются злоумышленниками в романтических переписках — мошенники создают выдуманных персонажей и с их использованием одновременно общаются со множеством жертв, устанавливая с ними тесную эмоциональную связь. Подобная переписка может длиться неделями и даже месяцами, постепенно переходя от легкого флирта к обсуждению «выгодных инвестиционных схем», и заканчивается, разумеется, после того, как жертва вложит свои средства в мошеннические проекты. За счет длительного личного общения любые подозрения, которые могли возникнуть у жертвы, понемногу рассеиваются. Подобные схемы называются Pig Butchering, и мы уже подробно описывали их ранее, но если ранее они реализовывались за счет гигантских мошеннических ферм в Юго-Восточной Азии, на которых «работали» тысячи человек, то теперь для подобных разводок все чаще используется ИИ.
, при котором скамеры создают поддельную личность или притворяются другим реальным человеком, с развитием нейросетей значительно упростился. Современные генеративные нейросети способны достаточно точно сымитировать чью-то внешность, голос и стиль письма. Злоумышленнику достаточно собрать публично доступную информацию о том или ином человеке, а затем «скормить» эти данные ИИ. Пригодится все: фото и видео, публичные посты и комментарии, информация о родственниках, хобби, возрасте и так далее.
Поэтому, если к вам обращается родственник или друг, который почему-то пишет с нового аккаунта и, например, просит у вас денег в долг, — скорее всего, это вовсе не родственник и уж точно не друг. В подобном случае лучшее решение — связаться с реальным человеком по другому каналу, например по телефону, и спросить у него напрямую, все ли в порядке. Не повредит также задать несколько личных вопросов, ответы на которые злоумышленник не сможет найти в открытых источниках и даже в переписке.
Но правдоподобная имитация другого человека в переписке — лишь часть проблемы: есть ведь еще и аудио- и видеодипфейки. Недавно мы рассказывали, как скамеры распространяют дипфейки популярных блогеров и криптоинвесторов в соцсетях: «знаменитости» приглашают подписчиков на персональные консультации, в «эксклюзивные» инвестиционные чаты, разыгрывают денежные призы и дорогие подарки.
В самом деле, почему бы Дженнифер Энистон не разыграть MacBook?
View the full article
-
Автор KL FC Bot
В нашем блоге мы уже не раз рассказывали об уязвимостях в необычных гаджетах, будь то умные матрасы, роботы-пылесосы, аудиокнопки светофоров, детские игрушки, кормушки для животных и даже велосипеды. Но случай, о котором пойдет речь сегодня, пожалуй, один из самых экзотических. Не так давно исследователи кибербезопасности обнаружили две серьезнейшие уязвимости в приложениях для удаленного управления… секс-игрушками компании Lovense.
В этой истории прекрасно все: природа уязвимых гаджетов, намерение компании-производителя потратить 14 месяцев (!) на устранение проблем, а также скандальные подробности, раскрывшиеся после публикации исследователями доклада о дырах в открытом доступе. Не будем тянуть и перейдем к описанию этой фантастической в своей абсурдности ситуации.
Что входит в онлайн-инфраструктуру Lovense
Первый факт, придающий этой истории необычность, в том, что производитель интимных игрушек Lovense ориентирован как на пары, находящиеся в отношениях на расстоянии, так и на моделей, работающих на стриминговых платформах в популярном жанре вебкам.
View the full article
-
Автор KL FC Bot
Команда исследователей из Швейцарской высшей технической школы в Цюрихе опубликовала научную работу, в которой показала, как можно совершить так называемый «побег из песочницы» при помощи атаки типа Spectre v2 в виртуальной среде. Имея доступ только к изолированной виртуальной машине, они смогли похитить ценные данные, которые в норме доступны только администратору сервера. Атака возможна на серверах, построенных на базе процессоров AMD, включая новейшие модели с архитектурой Zen 5, а также на процессорах Intel поколения Coffee Lake.
Опасность атак типа Spectre для виртуальных сред
Мы регулярно пишем о процессорных уязвимостях, связанных со спекулятивным выполнением инструкций, в которых штатные особенности «железа» используются для похищения секретов. Предыдущие публикации на эту тему, в которых подробно описывается общий принцип для таких атак, можно прочитать здесь, здесь и здесь.
Впервые уязвимости такого типа были выявлены в 2018 году, и с тех пор исследователям ни разу не удалось показать сколько-нибудь реалистичную атаку с их использованием. Все работы сводились к идее, что в теории некая сложная таргетированная атака класса Spectre возможна. Более того, в большинстве научных работ на эту тему исследователи ограничивались простейшим сценарием атаки: берем компьютер, устанавливаем на него вредоносную программу и похищаем секреты с применением аппаратных особенностей процессора. Несостоятельность такого подхода заключается в том, что если уж кому-то удастся установить на ПК вредоносное ПО, то он сможет похитить данные тысячей других, куда более простых, способов. Из-за этого Spectre и подобные атаки вряд ли когда-то будут угрожать конечным устройствам. Однако, когда речь идет об облачных средах, списывать Spectre со счетов не стоит.
View the full article
-
-
Рекомендуемые сообщения
Пожалуйста, войдите, чтобы комментировать
Вы сможете оставить комментарий после входа в
Войти