-
Похожий контент
-
Автор KL FC Bot
«Разыгрываю 10 миллионов! Участвуйте в проекте по ссылке в профиле!» — популярный блогер внезапно запускает масштабную раздачу денег в Instagram*. В сторис — бодрый голос, знакомое лицо, уверенный тон. Все выглядит слишком хорошо, чтобы быть правдой.
На самом деле никакого проекта нет. Блогер ничего не запускала. Просто ее аккаунт угнали. Мошенники пошли дальше стандартных уловок: не только украли доступ и опубликовали ссылку на «розыгрыш», а из старых видео склеили новое и озвучили с помощью нейросетей. Читайте историю большого взлома, чтобы узнать, как крадут аккаунты в Instagram* с помощью подмены SIM-карты и что с этим делать.
PR-кампания мошенников идеальна, но есть нюанс
С популяризацией нейросетей жулики внезапно «поумнели». Если раньше, взломав блогера, они просто размещали ссылки на фишинговый сайт и надеялись, что аудитория клюнет на это, то теперь они устраивают полноценную PR-кампанию от лица жертвы. Вот, что мошенники сделали на этот раз.
Одно короткое видео. Написали сценарий, озвучили его сгенерированным голосом блогера, а видеоряд собрали из нарезки уже опубликованных рилсов. Пост с текстом. Опубликовали фото, в качестве подписи добавили слезодавительный рассказ о нелегком запуске «проекта», постарались сохранить авторский стиль. Четыре сторис. Нашли старые сторис, где блогер упоминает свой реальный проект, добавили в них ссылку на фишинговый сайт и выложили снова. Все это дает стойкое ощущение легитимности «проекта» — ведь примерно по такой же схеме с использованием всех форматов контента блогеры на самом деле анонсируют свои начинания. Мошенники не поленились и добавили даже отзывы «благодарной аудитории». Фейковые, конечно же.
Отзывы якобы реальных людей должны побудить аудиторию активнее участвовать в проекте
View the full article
-
Автор KL FC Bot
Недавно нашему бывшему коллеге пришла подозрительная нотификация от неизвестного ему сервиса GetGhared. Будучи человеком осторожным, он не стал переходить по ссылке, а сразу переслал уведомление нам. Проанализировав письмо, мы выяснили, что это действительно работа мошенников, а судя по статистике наших почтовых защитных решений, сервис для отправки больших файлов GetShared стал использоваться ими достаточно часто. Рассказываем, как выглядит применение GetShared в атаках, зачем злоумышленникам это нужно и как оставаться в безопасности.
Как выглядит атака при помощи GetShared
Жертве приходит вполне обычное, совершенно настоящее уведомление от сервиса GetShared, в котором говорится, что пользователю был прислан файл. В письме указаны название и расширение этого файла — например, в случае с атакой на компанию нашего коллеги это был DESIGN LOGO.rar.
Пример мошеннического письма, распространяемого через уведомление GetShared
В сопровождающем тексте применяется стандартная фишинговая уловка — мошенники запрашивают цены на что-то, якобы перечисленное в приложении, а для большей убедительности просят уточнить время доставки и условия оплаты.
View the full article
-
Автор KL FC Bot
Исследователь обнаружил уязвимость в PyTorch, фреймворке машинного обучения с открытым исходным кодом. Уязвимость, зарегистрированная под номером CVE-2025-32434, относится к классу Remote Code Execution (RCE) и имеет рейтинг 9,3 по шкале CVSS, то есть категорируется как критическая. Эксплуатация CVE-2025-32434 при определенных условиях позволяет злоумышленнику запускать на компьютере жертвы, скачивающей ИИ-модель произвольный код. Всем, кто использует PyTorch для работы с нейросетями, рекомендуется как можно скорее обновить фреймворк до последней версии.
Суть уязвимости CVE-2025-32434
Фреймворк PyTorch, помимо всего прочего, позволяет сохранять уже обученные модели в файл, который хранит веса связей. И, разумеется, загружать их при помощи функции torch.load(). Обученные модели часто выкладываются в общий доступ через разнообразные публичные репозитории и теоретически в них могут быть вредоносные закладки. Поэтому официальная документация проекта в целях безопасности рекомендует использовать функцию torch.load() с параметром weights_only=True (в таком случае загружаются только примитивные типы данных: словари, тензоры, списки, и так далее).
Уязвимость CVE-2025-32434 заключается в некорректно реализованном механизме десериализации при загрузке модели. Обнаруживший ее исследователь продемонстрировал, что атакующий может создать файл модели таким способом, что параметр weights_only=True приведет к прямо противоположному эффекту — при загрузке будет выполнен произвольный код, способный скомпрометировать среду, в котором запускается модель.
View the full article
-
Автор KL FC Bot
Преступники по всему миру оттачивают схемы по краже учетных записей в WhatsApp, Telegram и других популярных мессенджерах, и их жертвой может стать любой из нас. Только пострадав от такой атаки, можно в полной мере прочувствовать, каким важным инструментом стал мессенджер в жизни и сколь разнообразен ущерб от взлома «вотсапа» или «телеги». Но лучше до этого не доводить, а научиться распознавать основные схемы угона, чтобы вовремя его предотвратить.
Зачем угонять ваш аккаунт в WhatsApp или Telegram
Украденный аккаунт может быть интересен содержимым, правами доступа или просто тем, что это проверенная учетная запись, связанная с номером телефона и имеющая хорошую репутацию. Угнав у вас Telegram- или WhatsApp-аккаунт, его могут использовать:
для рассылки спама и фишинга от вашего имени по всем адресам, в том числе — в закрытые каналы и сообщества; чтобы написать всем вашим знакомым жалобные сообщения и попросить деньги, а еще лучше — сгенерировать нейросетью голосовое сообщение или «кружочек» с просьбой о помощи; чтобы украсть аккаунты у ваших друзей и знакомых, попросив их от вашего лица поучаствовать в голосовании, получить от вас в подарок подписку Telegram Premium или использовав другую из многочисленных схем обмана. Подобные сообщения вызовут больше доверия у адресатов, если придут с вашего, знакомого им, аккаунта; чтобы угнать Telegram-каналы или сообщества WhatsApp, в которых вы — администратор; чтобы шантажировать содержимым переписки, особенно если там есть секстинг или другие компрометирующие сообщения; чтобы тихо читать вашу переписку, если она представляет стратегическую ценность —например, если вы бизнесмен, политик, силовик, госслужащий и так далее; чтобы загрузить в ваш аккаунт новое фото, сменить имя и использовать аккаунт в целевых схемах мошенничества — от флирта с криптоинвесторами (Pig Butchering) до поручений от «начальника» (Boss Scam). Из-за такого разнообразия применений аккаунты нужны преступникам постоянно, а жертвой кражи может стать любой.
View the full article
-
Автор KL FC Bot
Генерация программного кода стала одной из сфер, где ИИ уже внедрен достаточно широко, — по некоторым оценкам, за минувший год около 40% нового кода было написано ИИ. CTO Microsoft считает, что через пять лет эта цифра достигнет 95%. Этот код еще предстоит научиться правильно сопровождать и защищать.
Безопасность ИИ-кода эксперты пока оценивают как невысокую, в нем систематически встречаются все классические программные дефекты: уязвимости (SQL-инъекции, вшитые в код токены и секреты, небезопасная десериализация, XSS), логические дефекты, использование устаревших API, небезопасные алгоритмы шифрования и хеширования, отсутствие обработки ошибок и некорректного пользовательского ввода и многое другое. Но использование ИИ-ассистента в разработке ПО добавляет еще одну неожиданную проблему — галлюцинации. В новом исследовании авторы подробно изучили, как на ИИ-код влияют галлюцинации больших языковых моделей. Оказалось, что некоторых сторонних библиотек, которые ИИ пытается использовать в своем коде, просто не существует в природе.
Вымышленные зависимости в open source и коммерческих LLM
Для изучения фантомных библиотек исследователи сгенерировали 576 тысяч фрагментов кода на Python и JavaScript с помощью 16 популярных LLM.
Модели выдумывали зависимости с разной частотой: реже всего галлюцинировали GPT4 и GPT4 Turbo (вымышленные библиотеки встретились менее чем в 5% образцов кода), у моделей DeepSeek этот показатель уже превышает 15%, а сильнее всего ошибается Code Llama 7B (более 25% фрагментов кода ссылаются на несуществующие библиотеки). При этом параметры генерации, которые снижают вероятность проникновения случайных токенов в выдачу модели (температура, top-p, top-k), все равно не могут снизить частоту галлюцинаций до незначительных величин.
Код на Python содержал меньше вымышленных зависимостей (16%) по сравнению с кодом на JavaScript (21%). Результат также зависит от того, насколько стара тема разработки. Если при генерации пытаться использовать пакеты, технологии и алгоритмы, ставшие популярными за последний год, несуществующих пакетов становится на 10% больше.
Самая опасная особенность вымышленных пакетов — их имена не случайны, а нейросети ссылаются на одни и те же библиотеки снова и снова. На втором этапе эксперимента авторы отобрали 500 запросов, которые ранее спровоцировали галлюцинации, и повторили каждый из них 10 раз. Оказалось, что 43% вымышленных пакетов снова возникают при каждой генерации кода.
Интересна и природа имен вымышленных пакетов. 13% были типичными «опечатками», отличающимися от настоящего имени пакета всего на один символ, 9% имен пакетов были заимствованы из другого языка разработки (код на Python, пакеты из npm), еще 38% были логично названы, но отличались от настоящих пакетов более значительно.
View the full article
-
Рекомендуемые сообщения
Пожалуйста, войдите, чтобы комментировать
Вы сможете оставить комментарий после входа в
Войти