Перейти к содержанию

Риски, связанные с использованием умных замков | Блог Касперского


Рекомендуемые сообщения

Умные замки — это действительно удобная штука. На рынке современных устройств для дома их много и они достаточно разные. Одни умеют определять приближение владельца по его мобильному телефону и открываться без ключа. Другие управляются удаленно: можно, не находясь дома, открыть дверь друзьям или родственникам. Третьи еще и видеонаблюдение обеспечивают: позвонил кто-то в дверной звонок и вы сразу видите на смартфоне, кто к вам пришел.

Однако умные устройства несут с собой и дополнительные риски, абсолютно не характерные для обычных «офлайн»-замков. Если внимательно изучить эти риски, можно найти целых три причины отдать предпочтение классике. Вот их-то мы и обсудим в этом посте.

Причина первая: умные замки физически более уязвимы, чем обычные

Есть общая проблема: в умных замках сочетаются две разные концепции. По идее эти замки должны, с одной стороны, иметь надежную «умную часть» и, с другой, предоставлять серьезную защиту от физического взлома, чтобы их нельзя было открыть простой отверткой или перочинным ножом. Объединить эти концепции получается не всегда: выходит либо хлипкий умный замок, либо надежный, тяжелый, железный замок с уязвимой программной частью.

О вопиющих примерах того, как это не получилось сделать, мы уже рассказывали в другом посте. Там вы можете познакомиться с крутым навесным замком со сканером отпечатков пальцев — только под ним расположен доступный всем открывающий механизм (рычажок). А также — с умным замком для велосипеда, который разбирается отверткой.

Пример физически уязвимого умного замка

Верхняя панель с датчиком замка со сканером отпечатков пальцев легко снимается с помощью ножа. Под панелью сразу доступны внутренности механизма, в результате замок без труда можно открыть. Источник.

 

View the full article

Ссылка на комментарий
Поделиться на другие сайты

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
  • Похожий контент

    • KL FC Bot
      Автор KL FC Bot
      После того как мы написали о том, как можно взломать велосипед, нам некоторое время казалось, что вряд ли кому-то удастся удивить нас взломом более неожиданного предмета. Однако фантазия разработчиков устройств, по-видимому, безгранична — и хакеры от них не отстают в своей изобретательности.
      Итак, встречайте: подключенный к Интернету матрас, разработанный компанией Eight Sleep, и несколько способов его взломать, которые обнаружил исследователь безопасности Дилан Эйри.
      Умный матрас? Что это вообще такое?
      Сперва стоит поговорить о том, что вообще представляет собой умный матрас Eight Sleep, а также о том, зачем и кому может прийти в голову приобрести себе такое чудо техники. Разработчики Eight Sleep позиционируют свое решение как «идеальную систему сна» и адресуют ее в первую очередь людям с различными проблемами со сном — страдающим от бессонницы, некачественного сна, храпа и тому подобных неприятностей, которые могут здорово испортить жизнь.
      Основой этого продукта является наматрасник и дополняющий его внешний блок (в терминологии Eight Sleep — хаб), которые позволяют регулировать температуру постели, нагревая или охлаждая ее в зависимости от заданных владельцем настроек. Или автоматически — к этому мы вернемся чуть ниже. Для этого в наматрасник встроена система трубочек, по которым циркулирует вода, а подключенный к этой системе внешний блок занимается ее нагревом или охлаждением. При этом Eight Sleep Pod разделен на две независимые зоны, для каждой из которых можно задать разные настройки. Диапазон поддерживаемых температур весьма широк — от 12 до 43 °C.
      Комплект Eight Sleep Pod 4 Ultra — самая дорогая версия умного матраса Eight Sleep стоимостью $4699. Источник
      Но это еще не все! Также в наматрасник встроено несколько десятков «биометрических датчиков клинического класса», которые используются, чтобы отслеживать качество сна пользователей Eight Sleep. Заодно в наматраснике есть вибромоторы, позволяющие реализовать функцию будильника, а также датчики температуры и влажности окружающей среды. А в самой дорогой комплектации — Eight Sleep Pod 4 Ultra — в комплект входит еще и трансформируемое основание для кровати с электронным управлением.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Поучительный инцидент с атакой ransomware-группировки Akira наверняка на несколько лет станет любимым примером ИБ-специалистов. Злоумышленники зашифровали компьютеры организации, воспользовавшись ее видеокамерой. Хотя звучит это очень странно, в развитии событий есть логика, которую легко применить к другой организации и другим устройствам в ее инфраструктуре.
      Анатомия атаки
      Злоумышленники проникли в сеть, проэксплуатировав уязвимость в публично доступном приложении и получив возможность выполнять команды на зараженном хосте. Они воспользовались этим, чтобы запустить популярное приложение дистанционного доступа AnyDesk, а затем инициировали с этого компьютера RDP-сессию для доступа к файл-серверу организации. На сервере они попытались запустить свой шифровальщик, но EDR-система, установленная в компании, опознала вредоносное ПО и поместила его в карантин. Увы, это не остановило атакующих.
      Не имея возможности запустить свой шифровальщик на серверах и обычных компьютерах, которые находятся под защитой EDR, атакующие запустили сканирование внутренней сети и обнаружили в ней сетевую видеокамеру. В отчете команды по расследованию инцидента это устройство постоянно называют веб-камерой (webcam), но мы все же полагаем, что речь не о камере ноутбука или смартфона, а о независимом сетевом устройстве, применяемом для видеонаблюдения.
      Камера стала прекрасной мишенью для атакующих по нескольким причинам:
      устройство давно не обновлялось, его прошивка содержала уязвимости, позволяющие дистанционно скомпрометировать камеру и получить на ней права на запуск оболочки (remote shell); камера работает под управлением облегченной сборки Linux, на которой можно запускать обычные исполнимые файлы этой ОС, например Linux-шифровальщик, имеющийся в арсенале Akira; это специализированное устройство не имело (и, скорее всего, не могло иметь) ни агента EDR, ни других защитных средств, которые могли бы определить вредоносную активность. Злоумышленники смогли установить свое вредоносное ПО на эту камеру и зашифровать серверы организации прямо с нее.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Мы живём в эпоху ИИ-хайпа. Искусственный интеллект там, сям, здесь и там, везде и весь такой перспективный, слегка загадочный, но непременно сопровождающий человечество в светлое будущее технологической пока ещё непонятной чёрнодырочной сингулярности.
      Вероятно, некоторый читатель мог заметить в предыдущем предложении сарказм – а зря. Автоматизация на основе машинного обучения (ещё один термин: «ML» = «machine learning»), нейросетей и прочего ИИ уже подмяла под себя многие отрасли нашей жизни, и то ли ещё будет на линии хомосапиенсного развития. Кому интересно нырнуть в тему – поищите что уже случилось по линии промышленных революций Один, Два, Три и даже Четыре.
      В этом тренде кибербезопасность была, пожалуй, одним из пионеров использования новых, умных технологий. А что мне особенно приятно и гордо в этом процессе – наша компания была одной из первых в отрасли, начавших успешно внедрять это самое светлое ИИ-будущее. А как иначе справляться, например, с почти полумиллионом (на начало 2025 года) новых зловредов каждый день? Столько экспертов ни одна образовательная система мира не выпустит. Выход один – создавать умные системы, способные самостоятельно и с высокой точностью нейтрализовывать кибератаки. Экспертам же оставлять только самые сложные случаи и, конечно, непростую задачу такие системы изобретать и постоянно докручивать.
      На днях у нас случился радостный юбилей. 20 лет назад зародился прототип самой первой ИИ/ML технологии для автоматического анализа вредоносного кода и производства «детектов» – антивирусных обновлений, которые защищают компьютеры, гаджеты и прочие устройства от новых атак.
      Технология получила с первого взгляда странное название «Автодятел». Но на самом деле здесь всё просто: «дятлами» у нас ласково и в шутку назывались эксперты-аналитики, «долбящие» вирусы обрабатывающие входящий поток подозрительных файлов, а, соответственно, «автодятел» выполнял эту работу сам. Кстати, в то время я тоже работал «дятлом».
      Покопав архивы, мы нашли не только дату рождения первого птенца автоматИИзации, но и любопытные фотографии планов по его созданию. И место рождения вспомнили. Гнездо располагалось на 14 этаже здания «Радиофизики» на Планерной, где мы тогда снимали офис. Теперь устраивайтесь поудобнее, я расскажу вам увлекательную историю. Начиналось всё примерно вот как.
      С четверть века назад зловреды и встречались куда реже, да и были куда технологичнее современных, хотя писали их пионеры-энтузиасты, изобретательные программисты-одиночки и киберхулиганы. Поэтому и исследовать их было одно удовольствие — что ни вирус, то что-то новое узнаёшь, чему-то учишься. Я тогда вместе с остальными «дятлами» собственноручно «долбил» зловредов — анализировал поток вредоносных программ, если по-научному. Разумеется, к этому моменту собрать все существующие зловреды в одну книжку как в 1992 году уже было сложновато, но тем не менее с потоком мы справлялись, а в конце каждой рабочей недели я вручную собирал обновление антивирусных баз.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Практически каждый день новостные сводки пестрят заголовками в духе «Известного актера развели на десятки миллионов рублей» или «Пенсионерка отдала мошенникам все свои сбережения». На днях наша читательница сама едва не стала героиней подобных новостей — целый день она была на крючке мошенников. Ей звонили фейковые сотрудники Центробанка и Следственного комитета, которые просили никому не рассказывать об этой истории и угрожали огромными штрафами.
      Сегодня расскажем эту историю от ее лица. Читайте 10 уроков, которые она вынесла после, пожалуй, самого стрессового дня своей жизни.
      Урок 1. Не отвечать на звонки в мессенджерах
      Все началось со звонка в WhatsApp. Незнакомец по ту сторону смартфона сказал, что мне должно прийти письмо от Министерства науки и высшего образования Российской Федерации (Минобрнауки России), но оно якобы застряло в сортировочном центре из-за некорректного адреса доставки, который нужно поменять.
      — Как это можно сделать?
      — Мы сейчас пришлем вам ссылку на бота почты, нужно авторизоваться через «Госуслуги» и вручную изменить адрес.
      — Хорошо, спасибо!
      Конечно, никакого письма я не ждала, но, поскольку я еще учусь в университете и большая доля переписок по учебе происходит в WhatsApp, история с письмом от Минобра меня ничуть не смутила — мало ли какие у них теперь правила? И это было первой ошибкой.
      Надежный вариант борьбы с мошенниками на раннем этапе — полностью отключить звонки с неизвестных номеров в Telegram, WhatsApp и Viber. А если этот вариант кажется вам экстремальным, то не поленитесь сбросить звонок незнакомца и в текстовом формате уточнить, что именно ему нужно.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Уже сегодня технологии на базе ИИ внедрены в каждой второй компании, а за ближайшие два года к ним присоединится еще 33% коммерческих организаций. ИИ в том или ином виде будет внедрен повсеместно. Экономический эффект, который получают компании от внедрения, варьируется от повышения удовлетворенности клиентов до прямого роста выручки. По мере того как понимание сильных и слабых сторон ИИ-систем бизнесом будет углубляться, эффективность только увеличится. Но уже сейчас очевидно, что о рисках, которые несет внедрение ИИ, нужно подумать заранее.
      Даже ранние примеры внедрения демонстрируют, что цена ошибки ИИ-системы может быть высока и может выражаться в том числе во влиянии на репутацию, отношения с клиентами, здоровье пациентов и многое другое. А если учесть еще и киберфизические системы вроде автономных автомобилей, то вопросы безопасности станут еще острее.
      Внедрять безопасность постфактум, как это было с предыдущими поколениями технологий, будет дорого и порой невозможно. Чтобы в этом убедиться, достаточно найти свежие оценки ущерба, который мировой экономике наносит киберпреступность: на 2023 год это $8 трлн. Неудивительно, что страны, претендующие на технологическое лидерство в XXI веке, торопятся внедрить регулирование ИИ (например, China’s AI Safety Governance Framework, EU AI Act, US Executive Order on AI). Но в законах редко указываются технические подробности и практические рекомендации — это не их задача. Поэтому для практического применения любых регуляторных требований формата «обеспечить надежность и этичность ИИ, а также контролируемость его решений» необходимы конкретные практические рекомендации, позволяющие достичь этого результата.
      Чтобы помочь практикам, внедряющим ИИ уже сегодня, а также сделать будущее нашего мира более безопасным, специалисты «Лаборатории Касперского» при участии Эллисон Вайлд, члена команды по функциональной совместимости Сети по вопросам политики в области искусственного интеллекта Форума ООН по управлению Интернетом; доктора Мелодены Стивенс, профессора управления инновациями и технологиями школы государственного управления имени Мохаммеда бин Рашида; и Серхио Майо Масиаса, менеджера инновационных программ из Технологического института Арагона, создали набор рекомендаций. Документ был представлен в ходе семинара «Кибербезопасность в сфере ИИ: баланс между инновациями и рисками» на 19-м ежегодном Форуме по управлению Интернетом (UN Internet Governance Forum, IGF) для обсуждения с международным сообществом формирующих политику работы с AI экспертов.
      Следование описанным в документе практикам поможет инженерам, специалистам DevOps и MLOps, которые разрабатывают и затем эксплуатируют ИИ-решения, достичь высокого уровня защищенности и безопасности ИИ-систем на всех этапах их жизненного цикла. Рекомендации документа нужно индивидуально оценивать для каждого внедрения ИИ, поскольку их применимость зависит от разновидности ИИ и модели внедрения.
      Какие риски нужно учесть
      Многообразие применений ИИ вынуждает организацию учитывать очень разнородные риски:
      Риск от неиспользования ИИ. Звучит на первый взгляд забавно, но только сравнив выигрыш и потери компании от внедрения ИИ, можно правильно оценивать все остальные риски. Риски несоответствия регулированию. Быстро развивающееся регулирование ИИ делает этот риск динамичным, его нужно часто оценивать заново. Кроме регулирования ИИ как такового, нужно учитывать сопутствующие риски, например нарушения законов по обработке персональных данных. ESG-риски, то есть социально-этические риски применения ИИ, риски раскрытия чувствительной информации и риски для экологии. Риск нецелевого использования ИИ-сервисов пользователями — от шуточных до злонамеренных сценариев. Угрозы ИИ-моделям и наборам данных, применявшимся в тренировке. Угрозы сервисам компании, возникающие при внедрении ИИ. Возникающие при этом угрозы данным, которые обрабатываются в рамках этих сервисов. При этом «под капотом» трех последних групп рисков находятся все угрозы и задачи, традиционные для ИБ в сложных облачных инфраструктурах: контроль доступа и сегментация, управление уязвимостями и обновлениями, создание систем мониторинга и реагирования, контроль цепочек поставок.
       
      View the full article
×
×
  • Создать...