Перейти к содержанию

Рекомендуемые сообщения

Опубликовано (изменено)

Спасибо, гугл, за заботу... так понимаю, что who calls можно сказать, прощай?

 

https://support.kaspersky.ru/14978?cid=KISA_11.20&utm_source=interceptor&utm_medium=product&utm_campaign=KISA_11.20

 

перешел в kisa по ссылке для ху коллз:

 

post-21959-0-14071100-1552106330_thumb.png

 

а вот остатки настроек kisa:

 

post-21959-0-88439700-1552106406_thumb.png

Изменено пользователем 7Glasses
Опубликовано

В целом гугл правильно сделал. Множество приложений имело разрешения для доступа к звонкам и СМС.

  • Согласен 1
Опубликовано

 

 


who calls можно сказать, прощай?
Я бы не был так категоричен. После первого запуска киса, киса предложил установить who calls. Думаю ничего страшного. Если гугл будет напирать, всегда можно сделать как adguard - обновление приложения загружается через само приложение. :)
Опубликовано

@ska79, и полная блокировка ЛК в маркете! круто! еще идеи?

@Mark D. Pearlstone, пусть тогда ЛК и kisa удаляет. есть же плэй защита!

 

труд людей просто смыли в унитаз. разработчики, тестировщики, бета-тестеры тратили силы впустую.

 

для ху коллз на андройде вижу только один

выход: сделать прилагу просто в виде справочника чтоб сохранить и наращивать наработки по номерам.

Опубликовано

@7Glasses, ЛК не Google. Они со своего антивируса прибыль имеют.

Опубликовано

 

 


и полная блокировка ЛК в маркете!
Почему полная то? Из киса выпилили функционал. Но такой функционал есть в who calls. Всего делов то удалить who calls с гугл плэй, и наладить получение новых версий приложения who calls с серверов ЛК.
Опубликовано

 

 


Этот глюк неправильным перенаправлением на Who Calls там появился
Не знаю почему, но я не могу с ПК найти в гугл плей who calls, со смартфона нахожу нормально.

Возможно дело в том что на ПК впн работает.

Опубликовано (изменено)

@Friend,Доказательство на скрине :)

@7Glasses,ip Беларуси, на ПК ip Чехия у меня, на смартфоне ip России. На смартфоне нормально нахожу в плей маркете

Нет, я ошибся на пк не выполнял вход в учётную запись гугл. Видимо поэтому не смог найти. Сейчас смартфон ip Чехия, нашёл who calls

post-8645-0-55094700-1552159367_thumb.png

Изменено пользователем ska79
Опубликовано
@Friend, релиз.@ska79, этот вопрос уже поднимался и был дан такой ответ. гугл психанет и тупо удалит все продукты, если захочет.
  • 2 недели спустя...
Опубликовано

вот и секретные документы подвезли!

https://www.kaspersky.ru/blog/ksk-kisa-descoping/22410/

 

ЛК тоже считает, что:

 

С другой стороны, для приложений от проверенных разработчиков, которым эта функция требуется для обеспечения безопасности, можно было сделать исключение. От этого пользователи, в конечном счете, только выиграли бы.

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
  • Похожий контент

    • KL FC Bot
      Автор KL FC Bot
      В наши дни технологии создания поддельных видео- и голосовых сообщений стали доступны каждому, и мошенники активно осваивают технологии дипфейков. От угроз не застрахован никто — современные нейросети могут клонировать голос человека всего по трем-пяти секундам аудиозаписи и создавать убедительно выглядящие видео на основе пары фотографий. Ранее мы уже рассказывали, как отличить настоящее фото или видео от фейка и отследить его происхождение до момента съемки или генерации. Теперь давайте разберем, как злоумышленники создают и используют дипфейки в реальном времени, как распознать подделку без сложной экспертизы и защитить себя и близких от «атаки клонов».
      Как делают дипфейки
      Исходный материал для дипфейков мошенники собирают из открытых источников — вебинаров, публичных видео в соцсетях и каналах, онлайн-выступлений. Иногда просто звонят по телефону и пытаются разговорить потенциальную жертву кражи идентичности, удерживая ее на связи как можно дольше, чтобы собрать данные для максимально качественной имитации голоса. А уж взломать мессенджер любителя голосовых и видеосообщений — это просто джекпот для мошенников. Получив доступ к видеозаписям и голосовым сообщениям, они генерируют убедительные подделки, которые 95% людей не могут отличить от настоящих сообщений своих близких и начальников.
      Инструментарий для создания дипфейков разнообразен — от простых ботов в Telegram до профессиональных генераторов вроде HeyGen и ElevenLabs. Мошенники используют дипфейки в связке с методами социальной инженерии — например, сначала имитируют звонки в мессенджере с постоянными «обрывами связи», а после присылают заранее сгенерированное видеосообщение с достаточно низким качеством видео, объясняя это плохой связью.
      В большинстве случаев в подобных сообщениях речь идет о какой-то форс-мажорной ситуации, в которой якобы оказалась жертва дипфейка. Разумеется, ей срочно требуются деньги, но, как назло, под рукой нет кошелька/банкомата/банковской карты, а связь настолько плоха, что онлайн-платежи тоже недоступны. Это дает мошенникам убедительную причину, по которой деньги нужно перевести не непосредственно жертве, а на какой-то «левый» счет, номер телефона или криптокошелек.
      Чаще всего в подобных разводках используют заранее сгенерированные видео, но в последнее время стали доступны и сервисы для дипфейк-стриминга в реальном времени. С их помощью можно, например, подменить собственное лицо в чат-рулетке или во время видеозвонка.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Далеко не все практикующие ИБ-специалисты считают целесообразным определять, кто именно стоит за вредоносным ПО, обнаруженном при атаке на их компанию. Типичный алгоритм действий при расследовании подобных инцидентов таков: нашли подозрительный файл → если антивирус его не заблокировал, проверили в «песочнице» → увидели вредоносную активность → добавили хеш в списки блокировки на средствах защиты информации (СЗИ) → пошли пить чай. Так поступают многие ИБ-специалисты, особенно когда у них нет достаточного времени на расследование инцидентов или не хватает знаний и навыков «раскрутить» по ниточке весь клубок хакерской атаки. Однако, когда речь идет о целевых атаках на компанию, это прямой путь к провалу, и вот почему.
      Если злоумышленник настроен серьезно, он редко ограничивается единственным вектором атаки. Возможно, вредоносный файл, который вы обнаружили, к этому моменту уже сыграл свою роль в многоступенчатой атаке и более не представляет особой ценности для атакующего. А злоумышленник уже глубоко проник в вашу инфраструктуру и продолжает действовать при помощи других вредоносных инструментов. Для того чтобы гарантированно устранить угрозу, необходимо выявить всю цепь атаки и нейтрализовать ее.
      Но как сделать это эффективно и быстро, пока злоумышленники не успели причинить реальный ущерб? Один из способов — погрузиться в контекст. По файлу определить, кто именно вас атакует; быстро выяснить, какие еще инструменты и тактики используются этими же злоумышленниками; проверить свою инфраструктуру на наличие связанных угроз. Для этих целей есть немало инструментов threat intelligence, но я покажу, как это работает, на примере нашего Kaspersky Threat Intelligence Portal.
      Практический пример пользы от атрибуции
      Допустим, вы загружаете на сайт найденный вами файл ВПО на портал Threat Intelligence и выясняете, что он используется, например, хакерской группировкой MysterySnail. Что вам дает это знание? Давайте посмотрим на доступную информацию:

       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Значительное количество современных инцидентов начинается с компрометации учетных записей. С тех пор как брокеры первоначального доступа стали отдельной преступной отраслью, атакующие могут значительно проще организовывать атаки на инфраструктуру компаний, просто закупая наборы из паролей и логинов сотрудников. А повсеместная практика использования различных методов организации удаленного доступа еще больше облегчила их задачу. При этом начальные этапы атаки часто выглядят как вполне легитимные действия сотрудников и долго остаются незамеченными классическими средствами защиты.
      Надеяться исключительно на средства защиты учетных записей и парольные политики — не вариант. Всегда есть шанс, что злоумышленники доберутся до учетных данных ваших сотрудников при помощи разнообразных фишинговых атак, зловредов-инфостилеров или просто за счет небрежности сотрудников, которые используют один и тот же пароль для рабочих и личных аккаунтов и не особенно следят за утечками на сторонних сервисах, где у них имеются учетные записи.
      В результате для выявления атак на инфраструктуру компании нужны инструменты, способные выявлять не только отдельные сигнатуры атаки, но и системы поведенческого анализа, способные детектировать отклонения от нормальных процессов пользователей и систем.
      Использование ИИ в SIEM для выявления компрометации учетных записей
      Как мы уже писали в предыдущем посте, для выявления атак, связанных с компрометацией учетных записей, мы оснастили нашу SIEM-систему Kaspersky Unified Monitoring and Analysis Platform (KUMA) пакетом правил UEBA, предназначенным для выявления аномалий в процессах аутентификации, в сетевой активности и при запуске процессов на рабочих станциях и серверах под управлением Windows. И в очередном обновлении мы продолжили развитие системы в том же направлении, добавив использование ИИ-подходов.
      Система формирует модель нормального поведения пользователей при аутентификации и отслеживает отклонения от привычных сценариев: нетипичное время входа, необычные цепочки событий, аномальные попытки доступа. Такой подход позволяет выявлять как попытки аутентификации с украденными учетными данными, так и использование уже скомпрометированных аккаунтов, включая сложные сценарии, которые раньше могли оставаться незамеченными.
      Вместо поиска отдельных индикаторов система анализирует отклонения от привычных паттернов. Это позволяет раньше обнаруживать сложные атаки и одновременно снижать количество ложных срабатываний. Это значительно снижает операционную нагрузку на SOC-команды.
      Раньше при использовании UEBA-правил для выявления аномальности приходилось делать несколько правил, которые выполняют предварительную работу, а также формируют дополнительные листы, сохраняющие промежуточные данные. Сейчас же в новой версии SIEM c новым коррелятором появилась возможность реализовать детектирование угона учетной записи при помощи одного специализированного правила.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Какой взрослый не мечтал в детстве, чтобы с любимой игрушкой можно было поговорить по-настоящему? Если для нас подобные мечты были лишь невинными фантазиями, которые развивали воображение, то для современных детей они очень быстро становятся реальностью.
      К примеру, в июне этого года один из крупнейших производителей детских игрушек — создавшая культовую куклу Барби компания Mattel — сообщила о начале сотрудничества с OpenAI для разработки ИИ-кукол. Однако Mattel станет не первой компанией, воплощающей в жизнь идею умных говорящих игрушек. Многие производители уже активно выпускают игрушечных ИИ-компаньонов для детей. В этом посте мы поговорим о том, как работают подобные игрушки, и изучим риски, связанные с их использованием.
      Что представляют собой ИИ-игрушки
      Под ИИ-игрушками в данном случае мы будем подразумевать настоящие физические игрушки, а не программы или приложения. На сегодняшний день искусственный интеллект чаще всего встраивают в мягкие игрушки или детских роботов. Такие игрушки способны вести с ребенком осмысленные развернутые беседы благодаря интеграции с большими языковыми моделями.
      Многие пользователи современных чат-ботов знают, что ИИ можно попросить сыграть любую роль: от персонажа книги или фильма до диетолога или эксперта по кибербезопасности. Как отмечают авторы исследования ИИ приходит в детскую: искусственные компаньоны и реальные риски, подготовленного Образовательным фондом U.S. PIRG, в случае с ИИ-игрушками производители изначально задают для них роль лучшего друга для ребенка.
      Примеры ИИ-игрушек, протестированных в исследовании: плюшевые компаньоны и детские роботы со встроенными языковыми моделями. Источник
      Важно отметить, что в основе таких игрушек не лежит какой-то особенный специализированный «детский ИИ». На своих сайтах их создатели говорят об использовании популярных моделей, которые многим уже прекрасно знакомы: ChatGPT от OpenAI, Claude от Anthropic, DeepSeek от одноименного китайского разработчика и Gemini от Google. В этом месте обеспокоенные технологиями родители уже могут вспомнить о нашумевшем случае с ChatGPT, когда ИИ от OpenAI довел подростка до самоубийства.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Как защитить организацию от опасных действий внедренного ИИ? Вопрос уже не теоретический, учитывая что реальный ущерб от автономного ИИ в компании может варьироваться от плохого обслуживания клиентов до уничтожения основных баз данных. Ответить на него сейчас торопятся многие государственные и экспертные организации, которых спрашивают об этом лидеры бизнеса.
      Для CIO и CISO ИИ-агенты создают масштабную проблему подконтрольности. ИИ-агенты принимают решения, вызывают инструменты и обрабатывают важные данные без прямого участия человека, и многие типичные инструменты ИТ и ИБ оказываются неприменимы для контроля действий ИИ.
      Удобную методичку по этому вопросу выпустил некоммерческий проект OWASP, разрабатывающий рекомендации по безопасной разработке и внедрению ПО. Подробный топ-10 рисков приложений на базе агентского ИИ включает как привычные командам ИБ угрозы наподобие злоупотребления привилегиями, так и специфические ИИ-риски вроде отравления памяти агента. Каждый риск снабжен примерами, пояснениями об отличиях от «смежных» рисков и рекомендациями по снижению угрозы. В этой статье мы сократили описание рисков и свели воедино рекомендации по защите.
      Топ-10 рисков, возникающих при внедрении автономных ИИ-агентов. Источник
       
      View the full article
×
×
  • Создать...