Перейти к содержанию

Технологии предвыборного обмана в киберпространстве


Рекомендуемые сообщения

Выборы президента — важнейшее событие в жизни любой страны. В ожидании заветного дня оживляются политики, социологи, журналисты — и, конечно, мошенники. В том числе киберпреступники — о них и их методах обмана мы и поговорим сегодня.

 

russian-election-scam-2018-featured-1024

 

Технология первая: политический спам

 

Во время предвыборных кампаний кандидаты изо всех сил стараются склонить потенциальных избирателей на свою сторону: участвуют в дебатах, проводят митинги и собрания, выступают в СМИ, печатают статьи и распространяют агитационные плакаты и листовки. В потоке информации, которая сваливается на граждан, есть не только правда, но и ложные факты и утверждения — некоторые кандидаты не гнушаются тем, чтобы «подложить свинью» сопернику и подпортить его репутацию.

 

В век высоких технологий появились и новые способы агитации, один из них — политический спам. Его могут использовать для традиционной агитации, чтобы сформировать положительное мнение о кандидате. Но чаще его используют для «черного PR», и тому есть целый ряд причин. Во-первых, спам носит массовый характер и может рассылаться миллионами писем за считаные секунды. Во-вторых, спам анонимен —его легко отправить от любого имени. В третьих, чаще всего он ужасно раздражает адресатов.

 

Получается, что с помощью спама можно без труда скомпрометировать того или иного кандидата, партию или движение. Допустим, пользователь видит письмо, подписанное кандидатом А. Его раздражает такой подход к агитации — массовая рассылка, никакого уважения к избирателю! Негативная реакция переносится на указанного в письме отправителя и — вуаля — имидж партии или политического деятеля сильно пострадал.

 

Впрочем, неуважение к избирателям проявляют как раз настоящие авторы рассылки, а не вписанные адресаты, предполагая, что «люди все съедят и всему поверят». Чтобы не стать орудием в чужих руках, стоит с настороженностью относится к подобным сообщениям в период предвыборной гонки и не спешить верить им.

 


Читать далее >>

Ссылка на комментарий
Поделиться на другие сайты

В этом мы уже убедились: со стороны "непотопляемого" было сделано все,чтобы удержать его на плаву и сделать видимость безальтернативности и исключительности.Прошедшая кампания по количеству грязи,махинаций и подтасовок в пользу "красавчика" ничем не уступает аналогичному шоу в 90-х.

 

Хорошо,что ЛК в данной статье претендует на независимый взгляд, это дает повод считать ЛК той организацией,которая не зациклена на поддержке какой бы то ни было буржуазной политической силы,а просто занимается своим делом - информационной безопасностью.По крайней мере,хочется чтобы так было.

  • Улыбнуло 1
Ссылка на комментарий
Поделиться на другие сайты

 

 


ничем не уступает аналогичному шоу в 90-х

Я аж засмеялся. Полез в ВК и точно:

 

День рождения:

Коль, даже я не застал «шоу в 90-х», потому что в школу только в 93 пошёл. В 6 лет как-то не обращаешь внимания на политику. А тебе то откуда знать?

 

// Своё мнение о выборах оставляю за форумом.

  • Улыбнуло 1
Ссылка на комментарий
Поделиться на другие сайты

По крайней мере,хочется чтобы так было.

Статья, вроде, всё о том же кибер-мошенничестве, как и всегда. Только, антураж предвыборный.

Изменено пользователем Nesser
Ссылка на комментарий
Поделиться на другие сайты

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
  • Похожий контент

    • KL FC Bot
      От KL FC Bot
      В июле 2024 года Mozilla вместе с новой версией своего браузера Firefox представила технологию, которая называется Privacy-preserving attribution (атрибуция с сохранением приватности) и предназначена для отслеживания эффективности интернет-рекламы. Она включена по умолчанию в Firefox 128.
      Это довольно быстро привлекло внимание поборников онлайн-приватности и привело к появлению в новостях заголовков вроде «Теперь и Mozilla начинает продавать данные пользователей». Шумиха поднялась настолько серьезная, что техническому директору Firefox Бобби Холли пришлось объясняться с пользователями Reddit, что же на самом деле Mozilla сделала и зачем.
      Самое время разобраться более подробно, в чем суть технологии Privacy-preserving attribution, зачем она вообще нужна и почему в Mozilla решили представить ее именно сейчас.
      Google Ad Topics и «История ссылок» в Facebook*
      Начну с предыстории. Как вы, возможно, помните, разработчики самого популярного в мире браузера — Google Chrome — еще с 2019 года вынашивают планы по полному отключению поддержки сторонних cookies.
      Эта технология уже третье десятилетие повсеместно используется для отслеживания действий пользователей в Интернете. Так что, с одной стороны, она является основой индустрии онлайн-рекламы, а с другой — главным инструментом нарушения приватности пользователей.
      В качестве замены сторонних cookies некоторое время назад Google представила собственную разработку под названием Ad Topics. В рамках этой технологии отслеживание пользователя происходит на основе истории браузера Chrome и истории взаимодействия пользователя с приложениями в Android. Предполагалось, что благодаря внедрению Ad Topics поддержку сторонних cookies в браузере отключат уже во второй половине 2024 года.
      Другой крупнейший игрок индустрии цифровой рекламы, компания Meta**, которая также полагается на сторонние куки, придумала собственный вариант слежки за пользователями. Это так называемая История ссылок: все внешние ссылки в мобильных приложениях Facebook* теперь открываются во встроенном в приложение браузере, где компания все еще может следить за действиями пользователя.
      Что в итоге получается: в результате отключения поддержки сторонних cookies преимущество получают те участники рынка интернет-рекламы, у которых есть какое-либо крупное, полностью контролируемое ими цифровое пространство: самые популярные в мире браузер и ОС в случае Google, самая популярная соцсеть в случае Meta**. Более мелкие игроки при этом оказываются в зависимом положении.
      При этом данные пользователей все равно продолжают собирать в промышленных масштабах. И делают это все те же компании, к которым обычно и предъявляют основные претензии с точки зрения нарушения приватности, — Google и Facebook*.
      Возникает вопрос: а нельзя ли разработать какой-то механизм, который одновременно позволит рекламодателям отслеживать эффективность рекламы и при этом не предполагает массовый сбор данных пользователей? Ответом именно на этот вопрос и является технология Privacy-preserving attribution.
       
      View the full article
    • kmscom
      От kmscom
      На YouTube распространяются видео для обмана школьников
       

       
       "Лаборатория Касперского" обнаружила в YouTube Shorts видео, автор которых рассказывает пользователям, в частности школьникам, о том, как якобы легко зарабатывает много денег в интернете, однако в действительности это лишь первый этап фишинговой схемы для обмана пользователей, сообщили РИА Новости в компании.
       
      "Эксперты "Лаборатории Касперского" обнаружили в YouTube Shorts короткие видео, в которых человек рассказывает, как якобы каждый день легко зарабатывает много денег в интернете. При этом он готов поделиться своим идеями с теми, у кого нет опыта работы, в частности со школьниками. Как оказалось, это лишь первый этап многоуровневой скам-схемы, цель которой - выманить деньги пользователей", - говорится в сообщении.

      Отмечается, что если перейти в аккаунт этого пользователя, то можно увидеть большое количество однотипных видео с хэштегом #Minecraft и кадрами из этой игры.
       
      "Это сделано, чтобы канал чаще появлялся в рекомендациях у целевой аудитории потенциальных жертв. Под последними шортсами в этом аккаунте, где человек рассказывает, сколько денег он заработал, размещена ссылка уже на полное видео - на другом YouTube-канале. В ролике тот же человек объясняет, как школьникам можно заработать в интернете без вложений. В частности, он упоминает телеграм-бот популярной криптовалютной биржи. Ссылка на этот бот закреплена под полным видео", - отмечается в сообщении.
       
      В компании добавили, что телеграм-бот использует отдельные элементы дизайна популярной криптобиржи, а в его описании говорится, что он якобы создан для "автоматической P2P-торговли". В сообщении бота отмечается, что если человек воспользуется предложенным сервисом, то он якобы сможет получать прибыль за перепродажу криптовалюты.
       
      Для начала ему предлагают пополнить баланс, то есть перевести деньги на номер электронного кошелька любым удобным способом - в том числе банковской картой или криптовалютой. Авторы бота обещают, что через семь дней вложенная человеком сумма удвоится. Однако на самом деле деньги уйдут злоумышленникам, а человек не получит ничего.
       
      "Злоумышленники постоянно развивают свои схемы, делают их многоуровневыми, вплетают привлекательные темы... Видео, в котором школьникам предлагают ознакомиться с лёгкими способами заработка без вложений.., на момент, когда мы его обнаружили, набрало уже 156 тысяч просмотров. Под самим роликом больше 150 комментариев и большинство из них ожидаемо положительные - злоумышленники специально оставляют позитивные отзывы, чтобы усыпить бдительность пользователей", - отмечает контент-аналитик "Лаборатории Касперского" Ольга Свистунова.
       
      https://ria.ru/20230420/youtube-1866498811.html
    • KL FC Bot
      От KL FC Bot
      Вы когда-нибудь задумывались над тем, как мы понимаем, с кем говорим по телефону? Очевидно, не только по отображающемуся на экране имени. Ведь если при звонке с известного номера мы услышим незнакомый голос, то сразу поймем: что-то не так. Чтобы определить, кто наш собеседник, мы неосознанно оцениваем тембр, манеру речи, интонацию. Но насколько надежно полагаться на слух в эпоху развития цифровых технологий и искусственного интеллекта? Как показывают последние новости, не всегда стоит доверять тому, что мы слышим, — это может быть подделка. Дипфейк.
      Помоги, я в беде
      Весной 2023 года мошенники в Аризоне попытались выманить у женщины деньги с помощью телефонного звонка. Голос ее пятнадцатилетней дочери умолял о помощи, а после неизвестный мужчина выхватил телефон и, угрожая, потребовал выкуп — а фоном продолжали звучать крики дочери. Мать была абсолютно уверена, что действительно слышит голос своего ребенка. К счастью, ей удалось быстро убедиться, что с дочкой все в порядке, и понять, что ей звонили мошенники.
      Нельзя утверждать на 100%, что злоумышленники в этом случае использовали именно дипфейк для имитации голоса подростка. Возможно, это была попытка «обычного» мошенничества: качество связи, неожиданность ситуации, стресс — и воображение матери дорисовало все необходимое, чтобы поверить в этот фейк. Но даже если в этом случае и не использовались нейросетевые технологии, по мере их развития подобные случаи могут происходить чаще, становиться убедительнее и опаснее. Для того чтобы бороться с применением дипфейк-технологии злоумышленниками, необходимо понимать, как она работает.
      Что такое дипфейк?
      Технология искусственного интеллекта под названием deepfake (от deep learning «глубинное обучение» + fake «подделка») активно развивается последние несколько лет. С использованием машинного обучения можно создавать убедительные подделки изображений, видео- или аудиоданных. Так, с помощью нейросетей на фотографиях и в видео легко можно заменить лицо одного человека другим с сохранением мимики и освещения. И если на заре технологии качество таких подделок было очень низким и легко определялось на глаз, то по мере развития алгоритмов результат становился все убедительнее, и теперь его уже сложно отличить от реальности. В 2022 году в России даже выпустили первый в мире дипфейк-сериал, главные роли в котором очень убедительно «сыграли» дипфейки Джейсона Стэйтема, Марго Робби, Киану Ривза и Роберта Паттинсона.
      Дипфейк-версии голливудских звезд в российском сериале «ПМЖейсон». (Источник)
      Голосовой перенос
      Но сегодня мы поговорим о технологиях создания голосовых дипфейков. Иначе эту задачу можно назвать «переносом голоса» (или «клонированием голоса», если создают его полную цифровую копию). Перенос голоса базируется на автокодировщиках — определенном типе нейронных сетей, которые сначала сжимают входные данные (часть Encoder) до компактного внутреннего представления, а затем учатся разжимать их из этого представления обратно (часть Decoder), чтобы восстановить исходные данные. Так модель учится представлять данные в сжатом виде, выделяя при этом основную информацию.
      Схема автокодировщика. (Источник)
      Для создания голосовых дипфейков на вход модели подаются две аудиозаписи, при этом голос со второй записи переносится на первую. Из первого аудиоролика с помощью Content Encoder выделяется, что было сказано, из второго с использованием Speaker Encoder извлекаются глобальные характеристики желаемого голоса – то есть как говорит наш «целевой» человек. Сжатые представления того, что и как должно быть сказано, объединяются, а затем с помощью декодера генерируется результат. В результате сказанное в первой записи озвучивается голосом человека из второй записи.
      Процесс создания голосового дипфейка. (Источник)
      Помимо приведенного подхода на автокодировщиках существуют и другие, например с использованием генеративно-состязательных сетей (GAN) или диффузионных моделей. Исследования по созданию дипфейков активно поддерживаются, например, благодаря киноиндустрии: ведь объединив технологии аудио- и видеодипфейков, уже сейчас можно заменять лица актеров в кино и сериалах, выполнять дубляж кинофильмов с синхронизацией мимики героев с озвучкой на любом языке.
      Переходим к практике
      Изучая дипфейк-технологии, мы, разумеется, задались вопросом — насколько сложно создать собственный голосовой дипфейк? Оказалось, что в Сети можно найти множество бесплатных открытых инструментов для решения задач преобразования голоса — правда, получить качественный результат с их использованием будет не так-то просто. Понадобятся опыт программирования на Python и навыки работы в программах обработки звука, и все равно качество будет далеко не идеальным. Но, помимо open source, существуют также закрытые и платные решения.
      Так, в начале 2023 года Microsoft анонсировала алгоритм, способный по аудиопримеру продолжительностью всего в три секунды воспроизвести голос человека! Кроме того, эта модель позволяет работать с несколькими языками, что позволяет вам услышать себя, разговаривающего на иностранном языке. Все это выглядит многообещающе, но доступно пока лишь в формате исследования. А вот платформа ElevenLabs на своем сайте предоставила пользователям возможность создания голосовых дипфейков без каких-либо усилий: достаточно загрузить аудиозапись голоса и текст, который нужно произнести — и результат готов. Разумеется, технологию тут же начали применять как бог на душу положит.
      Борьба Гермионы и доверчивый банк
      В полном соответствии с законом Годвина, в уста актрисы Эммы Уотсон вложили текст «Майн кампф», а один из пользователей применил технологию ElevenLabs для «взлома» собственного банковского аккаунта. Звучит жутковато? Да, особенно с учетом популярных в народе страшилок о том, что мошенники собирают образцы голосов, вынуждая сказать «да» или «подтверждаю» в телефонном разговоре с представителями якобы банка, госучреждения или службы соцопросов, а затем крадут деньги с помощью голосовой авторизации.
      Но на деле все не так ужасно. Во-первых, для создания искусственного голоса ElevenLabs требуется около пяти минут аудиозаписей, так что простого «да» будет маловато. Во-вторых, банки тоже предусматривают подобные сценарии, поэтому голосом возможно инициировать лишь некоторые операции, не связанные с переводом средств, например узнать баланс счета. То есть украсть деньги таким образом не получится.
      К чести ElevenLabs, они быстро отреагировали на возникшую проблему: отрегулировали правила пользования сервисом, запретив бесплатным (читай — анонимным) пользователям создавать дипфейки на основе самостоятельно загруженных голосов, заблокировали аккаунты с жалобами на оскорбительный контент.
      Увы, все эти меры хоть и полезны, но все же не решают проблему использования голосовых дипфейков в низменных целях.
      Как еще обманывают дипфейками
      Хотя сама по себе технология дипфейков и безвредна, в руках мошенников она может стать опасным инструментом для обмана, дискредитации или дезинформации. К счастью, массовых случаев афер с использованием подмены голоса пока не наблюдалось, но несколько громких прецедентов с применением голосовых дипфейков уже произошло.
      В 2019 году мошенники, используя эту технологию, ограбили британскую энергетическую компанию. В телефонном разговоре злоумышленник притворился генеральным директором головного немецкого подразделения компании и потребовал срочно перевести 220 000€ (243 000$) на счета некоей компании-поставщика. После того как платеж был отправлен, мошенник звонил еще дважды — первый раз, чтобы усыпить бдительность сотрудников британского офиса и сообщить, что головной офис уже отправил возмещение этой суммы, а второй — чтобы затребовать еще один перевод. При этом все три раза руководитель британского подразделения был абсолютно уверен, что беседует со своим боссом — он узнал как его немецкий акцент, так и тембр и манеру речи. Второй перевод не был отправлен лишь потому, что в последний раз мошенник прокололся и позвонил с австрийского номера вместо немецкого, что насторожило британского директора.
      А в 2020 году с использованием голосовых дипфейков мошенникам удалось украсть до 35 000 000$ у некой японской компании (имя фирмы и общая сумма украденного не раскрываются следствием). Неизвестно, какие именно решения — открытые, платные или вообще собственные — использовали злоумышленники для подделки голоса, но в обоих случаях компании пострадали от дипфейк-мошенничества.
      Что дальше?
      По поводу будущего дипфейков мнения расходятся. Сейчас большая часть этих технологий находится в руках крупных корпораций и ограниченно доступна для публичного пользования. Но, как показывает история с гораздо более популярными в массах генеративными моделями вроде DALL-E, Midjourney и Stable Diffusion, а уж тем более — с большими языковыми моделями (кто же не слышал про ChatGPT?), подобные технологии вполне могут появиться в обозримом будущем в свободном доступе. Это подтверждается и недавней утечкой внутренней переписки Google, в которой представители Интернет-гиганта опасаются, что проиграют ИИ-гонку открытым решениям. А это, очевидно, спровоцирует рост случаев с использованием голосовых дипфейков, в том числе и для мошенничества.
      Наиболее перспективным шагом в развитии дипфейков станет, очевидно, генерация в режиме реального времени, что обеспечит дипфейкам (и мошенничеству на их основе) взрывной рост. Только представьте видеозвонок от кого-то, чьи лицо и голос полностью подделаны. С другой стороны, подобный уровень обработки данных может потребовать огромных ресурсов, доступных лишь крупным корпорациям, поэтому лучшие технологии так и останутся закрытыми, а мошенники не смогут идти в ногу с профессионалами. В то же время высокая планка качества позволит пользователям научиться без труда определять любительские подделки.
      Как защититься?
      Теперь вернемся к самому первому вопросу: можем ли мы доверять голосам, которые слышим (разумеется, если это не голоса в голове)? Конечно, мы не должны постоянно параноить, выдумывая кодовые фразы для общения с друзьями и близкими — хотя для серьезных случаев и это не повредит. Если все будет развиваться по пессимистичному сценарию, дипфейк-технология в руках мошенников в будущем может стать грозным оружием, но время подготовиться к этому и построить надежные методы защиты от подделок еще есть. Проводится множество исследований, посвященных борьбе с дипфейками, крупными компаниями разрабатываются защитные решения. Кстати, мы уже подробно рассказывали о способах борьбы с видеодипфейками в отдельном посте.
      А пока средства защиты от ИИ-подделок лишь на подходе, стоит помнить, что дипфейки — лишь вариант продвинутого социального инжиниринга. Риск столкнуться с подобным мошенничеством мал, но есть, поэтому про подобные виды обмана стоит знать и помнить. Если вам поступает необычный звонок, обращайте внимание на качество звучания, неестественную монотонность голоса, неразборчивость речи, шумы. Помните, что эффект неожиданности — это оружие злоумышленников, которые рассчитывают вызвать у вас панику. Всегда перепроверяйте информацию по другим каналам.
      View the full article
    • KL FC Bot
      От KL FC Bot
      Согласитесь, приятно зарабатывать деньги, не выходя из дома? За время пандемии (кто-то еще помнит, что это такое?) технологии удаленной работы достигли небывалой популярности. А где популярность — там и мошенники. И на сегодняшний день львиная доля «заработков в Интернете» — мошеннические схемы, на которых вы не только не озолотитесь, но и бесплатно поработаете на мошенников и потеряете свои кровные сбережения. О многих схемах обмана, которые позволяют их участникам якобы заработать в Интернете, мы уже писали — деньги обещают и за просмотр видеороликов, и в качестве компенсации за утечки данных, и за возврат НДС, и, наконец, просто за везение. Недавно мы обнаружили еще одну схему обмана, выглядящую очень похоже на реальную удаленную работу.
      Слушай внимательно…
      Мошенники предлагают потенциальным жертвам «выполнять работу, которая не под силу компьютеру, — распознавать аудиофайлы и получать за это деньги». И впрямь, транскрибация — расшифровка аудиозаписей, в том числе публичных выступлений, семинаров, судебных заседаний, интервью, лекций, особенно на русском языке, — пока что плохо поддается компьютерным алгоритмам, а востребована изрядно.

      Злоумышленники создали сразу несколько ресурсов с идентичным дизайном и контактами для связи, но разными названиями.

       
      View the full article
    • KL FC Bot
      От KL FC Bot
      В этом сезоне у киберпреступников чрезвычайно популярна новая схема атаки на клиентов Booking.com через внутреннюю систему обмена сообщениями этого сервиса. Для этого они используют взломанные аккаунты отелей на admin.booking.com. За последние месяцы разными компаниями было выпущено несколько исследований инцидентов такого рода.
      В данный момент Booking.com на территории России не работает, но тем не менее угроза может быть актуальна для русскоязычных читателей из других стран. Поэтому рассказываем подробнее, как работает данная атака, — и даем советы, как владельцам и сотрудникам отелей защититься от нее (и защитить своих клиентов).
      Заражение компьютеров сотрудников отелей стилером паролей
      В данном случае мы имеем дело с многоступенчатой атакой, если можно так выразиться — B2B2C. Начинается все с заражения компьютеров отелей, но непосредственная опасность угрожает не самой гостинице, а ее клиентам.
      Для угона аккаунтов отелей на admin.booking.com злоумышленники используют специальные вредоносные программы, которые называются стилерами паролей. Вообще говоря, стилеры обычно собирают любые пароли, которые могут обнаружить на зараженном компьютере. Но в данном случае, судя по всему, для киберпреступников представляют интерес именно учетные записи на Booking.com.
      В частности, в одном из вышеупомянутых исследований описана целевая атака на сотрудников отеля через электронную почту. Эта атака начинается с безобидного письма, в котором некто представляется недавним постояльцем и просит сотрудников гостиницы помочь ему с поиском утерянных документов.
      Первое письмо злоумышленников, отправленное атакованному отелю. Источник
      В следующем письме «постоялец» утверждает, что уже искал потерянный паспорт везде, где только можно, и не смог его обнаружить — так что отель остается единственным местом, где может находиться документ. Поэтому он просит сотрудника отеля уделить время его поискам и в качестве помощи присылает ссылку якобы на фотографии утерянного паспорта.
      Следующее письмо злоумышленников, которое содержит ссылку на зараженный архив со стилером паролей. Источник
       
      Посмотреть статью полностью
×
×
  • Создать...