Перейти к содержанию

Облачные технологии


dan-1

Рекомендуемые сообщения

Привет всем:)

доклад по облаку, конкретнее облачная ос.

Какие преимущества и недостатки перед обычными ос у облачных? Как вы понимаете термин облако? Есть опыт в облачных ос?

спасибо если сразу ответите :lol:

Ссылка на комментарий
Поделиться на другие сайты

Облачные технологии

 

Kaspersky Security Network

 

В облачных ОС? Нет такого понятия, есть понятие Распределённые вычисления :lol:

Ссылка на комментарий
Поделиться на другие сайты

В облачных ОС? Нет такого понятия, есть понятие Распределённые вычисления

то есть нельзя chrome os назвать облачной?

 

p.s. мой препод по осс олень? :lol:

Изменено пользователем dan-1
Ссылка на комментарий
Поделиться на другие сайты

Привет всем:)

доклад по облаку, конкретнее облачная ос.

Какие преимущества и недостатки перед обычными ос у облачных? Как вы понимаете термин облако? Есть опыт в облачных ос?

спасибо если сразу ответите :lol:

Чтобы сделать доклад, советую четко определиться с тем, что такое "облако". При подготовке доклада логично начать с того, что "на пальцах" для себя выделить следующие варианты:

1. Хранение и обработка данных может производиться на одном компьютере. Типовой пример - персоналка (т.е. там локально хранятся данные, там-же установлены приложения, там-же они запускаются ...). По понятной причине надежность и быстродействие определяются надежностью и быстродействием данного ПК, и если хочется работать с данными где угодно - придется таскать этот ПК за собой.

2. Мы может разделить процесс обработки, выделив клиентскую рабочую станцию и сервер как хранилище данных, передейдя к технологии клиент-сервер. В такой технологии главное отличие в том, что данные хранятся и частично обрабатываются на сервере (сервере БД, файл-сервере), с сервером может работать много клиентов - при этом они могут совместно работать с одними данными, или каждый со своими - это определяется привилегиями. Но при этом обработка данных по крайней мере частично происходит на клиенте, как следствие необходима установка некоего клиентского ПО. Кроме того, важна "ширина" канала между клиентом и сервером. При этом если речь идет о файл-сервере, то он только хранит данные, для обработки они будут "гоняться" туда-сюда между клиентом и сервером. В случае с сервером БД данные могут частично обрабатываться на сервере, и при оборажении выполняется запрос того минимума данных, который нужен для работы ... при условии конечно, что у программиста руки росли откуда надо ;)

3. Трехуровневая архитектура. Является идеалогическим развитием п.п. 2, усовершенствование состоит в том, что обработка данных убирается с клиента. В такой технологии кроме сервера баз данных и (или) файл сервера появляется третий уровень - сервер приложений (Application Server). Этот уровень расположен между клиентмо и сервером. на нем производится обработка данных и куда по сути перемещается приложения с клиента. В таком случае получается, что на рабочей станции не нужно ничего, кроме некоего браузера для доступа к Application Server. Другим похожим подходом является терминальный сервер - он связан с сервером БД и файл-сервером, на нем установлены и запускаются клиенсткие программы, а клиенты к нему подключаются удаленным столом. Отличие в том, что для 3-х уровневой архитектуры необходимо разрабатывать соотвтетсвующий код, который будет работать на Application Server, на на сервере терминалов можно запускать любой EXE без всякой доработки (например, 1С). Важно, что при данном подходе требования к вычислительной мощности рабочей станции минимальны и они не влияют на скорость обработки и быстродействие. Канал между серверами БД, файл сервером и Application Server обычно очень быстрый (иногда эти сервера реально совмещены в одном "железе"), а требования по каналу между клиентом и Application Server обычно невелики, так как обрабатываемые данные на клиента не передаются. Еще одним вариантом являются некоторые виртуальные машины, которые аналогичны по принципу доступа терминальному серверу - т.е. для клиента где-то на виртуальной машину установлена и запущена ОС, к которой он подключается неким аналогом удаленого рабочего стола

4. Облако. Развитие п.п. 3, при котором вместо одного сервера каждого типа появляется облако из множества серверов, что дает значительное повышение надежности и быстродействия. Как и в п.п. 3 на стороне клиента нужен только некий "браузер" для подключения к серверам в облаке, все обработка данных, запуск приложений, хранение информации и т.п. вынесены в "облако". Естественно, что между серверами облака может быть организовано распределение нагрузки, данных и т.п.

 

Я описал это именно "на пальцах", не строгим научным языком. Но из описания можно вынести 2 важных вывода:

1. между п.п. 3 и 4 нет значимой разницы - она по сути только в масштабах

2. если внимательно почитать описание п.п. 3-4, то несложно сделать выод, что как таковой нет никакой "облачной ОС" в прямом понимании этого слова. Мы видим, что для работы с облаком нам нужен браузер или некий клиент удаленного рабочего стола, как следствие "облачная ОС" в текущам понимании этого слова - это любая операционка, образанная до минимума, лишь бы там был этот самый необходимый браузер/клиент + поддержка периферии (поддержка сети, монитора, клавиатуры/мышки/тачскрина, микровон/камера/динамики).

При этом при небольшом желании можно создать свою "облачную ОС", для этого нужно просто иметь несколько мощных серверов и собственно реализовать п.п. 3-4 в любом понравившемся виде. Я такое сделал много лет назад, ради главного плюса - я могу работать с любого ПК или планшета со своими данными, при этом мне ничего не нужно туда устанавливать, а все данные находятся в едином и защищенном хранилище. Другой плюс - нет проблем с синхронизацией документов, настроек, закладок и т.п. Вот я например сейчас пишу эти строки, но сижу то я далеко на за тем ПК, на котором запущен браузер и открыт данный форум :) Ну а минусы вытекают из плюсов (и именно поэтому я пользуюсь личным "облаком") - все данные передаются куда-то там в облака, и при этом:

- данные всех пользователей доступны владельцу облака и он может безгранично следить за ними, включая их трафик

- типовая защита состоит в логине и пароле - украдут их, получат доступ к всему, что есть у пользователя (по сути это аналог кражи у него системника)

- в публично доступных "облачных ОС" пользователю доступен достаточно ограниченный функционал

- пропадет канал связи - и вся работа "облачной ОС" будет парализована

  • Согласен 1
Ссылка на комментарий
Поделиться на другие сайты

Вот я например сейчас пишу эти строки, но сижу то я далеко на за тем ПК, на котором запущен браузер и открыт данный форум

 

Я тоже припоминаю, что когда 10 лет тому назад пришёл работать в телекоммуникационную компанию, то поработал за такими "облачными ОС" :lol:

 

Компьютеры были у всех сплошь убогие, типа Пентиум II MMX с 200 мб. оперативы на борту и 98-ой виндой. На винду был накачен Citrix Meta Frame, при помощи которого мы цеплялись к удалённому серверу. У всех сторонних наблюдателей складывалось ощущение, что у нас супер навороченные компы, так как в окне сеанса всё нереально летало и мелькало. Но зато стоило открыть вордовский документ локально — всё, приехали! Тормоза сразу же получались дикие )))

Ссылка на комментарий
Поделиться на другие сайты

Раз уж речь об облаках... Кто рабоал с Panda Security - "облачным антивирусом"? Развод? Реалии? Или это всего-лишь подобие KSN?

Ссылка на комментарий
Поделиться на другие сайты

Раз уж речь об облаках... Кто рабоал с Panda Security - "облачным антивирусом"? Развод? Реалии? Или это всего-лишь подобие KSN?
Ну почему сразу развод? Я так понимаю четкого определения "облачный антивирус" нету, но сказано что используются "облачные технологии". Маркетинговый ход, "облачно-круто", а так на практике дествительно технология способная ускорить "дезинфекцию" не дожидаясь получения очередной порции сингатур. Появляется неизвестный исполняемый файлик на множестве клиентов, анализируется и тут же всем клиентам отправляется ответ, хорошо это или плохо, если плохо то высылается алгоритм устранения, ну это в теории. Поправьте если что.

А так же хотелось бы спросить, мог бы KAV/KIS отсылать базы по команде, по мере их появления и не по расписанию "оптом"? Или это уже происходит, я давно не интересовался. То что базы скачивать нужно это мне понятно, зараза может всплыть и без интернета (диски, флешки, харды, локальная сеть).

Изменено пользователем Cosmic radiation
Ссылка на комментарий
Поделиться на другие сайты

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
  • Похожий контент

    • KL FC Bot
      Автор KL FC Bot
      Технологию ключей доступа (КД, passkeys) рекламируют все ИТ-гиганты как эффективную и удобную замену паролям, которая может покончить с фишингом и утечками учетных данных. Суть в следующем — человек входит в систему при помощи криптографического ключа, сохраненного в специальном аппаратном модуле на его устройстве, а разблокирует эти данные при помощи биометрии или ПИН-кода. Мы подробно разобрали текущее положение дел с passkeys для домашних пользователей в двух статьях (терминология и базовые сценарии использования, сложные случаи), но у компаний к ИБ-технологиям совершенно другие требования и подходы. Насколько хороши ключи доступа и FIDO2 WebAuthn в корпоративной среде?
      Мотивы перехода на passkeys в компании
      Как и любая крупная миграция, переход на ключи доступа требует бизнес-обоснования. В теории passkeys решают сразу несколько злободневных проблем:
      Снижают риски компрометации компании с использованием кражи легитимных учетных записей (устойчивость к фишингу — главное заявленное преимущество КД). Повышают устойчивость к другим видам атак на identity, таким как перебор паролей — brute forcing, credential stuffing. Помогают соответствовать регуляторным требованиям. Во многих индустриях регуляторы обязуют применять для аутентификации сотрудников устойчивые методы, и passkeys обычно признаются таковыми. Снижают затраты. Если компания выбрала passkeys, хранящиеся в ноутбуках и смартфонах, то высокого уровня безопасности можно достичь без дополнительных затрат на USB-устройства, смарт-карты, их администрирование и логистику. Повышают продуктивность сотрудников. Хорошо налаженный процесс аутентификации повседневно экономит время каждому сотруднику и снижает процент неудачных входов в ИТ-системы. Также переход на КД обычно увязывают с отменой всем привычных и ненавистных регулярных смен пароля. Снижают нагрузку на хелпдеск за счет уменьшения числа заявок, связанных с забытыми паролями и заблокированными учетными записями.  
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Сейчас практически невозможно представить себе современную компанию, которая не рассказывает о применении искусственного интеллекта. Причем маркетологи далеко не всегда утруждают себя объяснением того, зачем ИИ в продукте нужен, а главное, как именно он там реализован, — им кажется, что самого факта применения достаточно для того, чтобы сделать продукт более ценным, инновационным и высокотехнологичным. Мы сторонники другого подхода — нам важно не просто сказать «у нас есть ИИ», а объяснить, как именно технологии машинного обучения и искусственного интеллекта применяются в наших решениях. Перечислять все наши ИИ-технологии в одном посте было бы слишком долго — у нас есть целый центр экспертизы AI Technology Research, который занимается различными аспектами ИИ. Поэтому в данном материале я сосредоточусь исключительно на технологиях, облегчающих жизнь SIEM-аналитика, работающего с Kaspersky Unified Monitoring and Analysis (KUMA).
      SIEM AI Asset Risk Scoring
      Традиционно одной из самых ресурсоемких задач аналитика SIEM является приоритизация алертов. Особенно если система только установлена и работает с дефолтными правилами корреляции из коробки, пока еще не подогнанными к реалиям конкретной компании. Помочь с этой проблемой могут технологии анализа больших данных и системы искусственного интеллекта — благодаря модулю SIEM AI Asset Risk Scoring команды мониторинга и реагирования могут определять приоритеты алертов и предотвращать потенциальный ущерб. Этот модуль служит для оценки рисков активов путем анализа исторических данных и тем самым помогает приоритизировать входящие оповещения, что, в свою очередь, ускоряет проведение триажа и позволяет генерировать гипотезы, которые можно использовать для проактивного поиска.

      На базе информации об активируемых цепочках правил корреляции SIEM AI Asset Risk Scoring позволяет строить паттерны нормальной активности на конечных точках. Затем, сравнивая с этими паттернами повседневную активность, модуль выявляет аномалии (например, резкие скачки трафика или множественные обращения к сервисам), которые могут говорить о том, что происходит реальный инцидент и аналитику следует глубже изучить именно эти алерты. Это позволяет обнаружить проблему на ранней стадии, до того как будет нанесен ущерб.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      В попытке обойти механизмы защитных решений злоумышленники все чаще прячут вредоносные и фишинговые ссылки внутрь QR-кодов. Поэтому в решение [KSMG placeholder] Kaspersky Secure Mail Gateway [/placeholder] мы добавили технологию, способную «читать» QR-коды (в том числе и спрятанные внутрь PDF-файлов), доставать из них ссылки и проверять их до того, как они окажутся в почтовом ящике сотрудника компании. Рассказываем, как это работает.
      Пример фишингового QR-кода внутри PDF-файла
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      В июле 2024 года Mozilla вместе с новой версией своего браузера Firefox представила технологию, которая называется Privacy-preserving attribution (атрибуция с сохранением приватности) и предназначена для отслеживания эффективности интернет-рекламы. Она включена по умолчанию в Firefox 128.
      Это довольно быстро привлекло внимание поборников онлайн-приватности и привело к появлению в новостях заголовков вроде «Теперь и Mozilla начинает продавать данные пользователей». Шумиха поднялась настолько серьезная, что техническому директору Firefox Бобби Холли пришлось объясняться с пользователями Reddit, что же на самом деле Mozilla сделала и зачем.
      Самое время разобраться более подробно, в чем суть технологии Privacy-preserving attribution, зачем она вообще нужна и почему в Mozilla решили представить ее именно сейчас.
      Google Ad Topics и «История ссылок» в Facebook*
      Начну с предыстории. Как вы, возможно, помните, разработчики самого популярного в мире браузера — Google Chrome — еще с 2019 года вынашивают планы по полному отключению поддержки сторонних cookies.
      Эта технология уже третье десятилетие повсеместно используется для отслеживания действий пользователей в Интернете. Так что, с одной стороны, она является основой индустрии онлайн-рекламы, а с другой — главным инструментом нарушения приватности пользователей.
      В качестве замены сторонних cookies некоторое время назад Google представила собственную разработку под названием Ad Topics. В рамках этой технологии отслеживание пользователя происходит на основе истории браузера Chrome и истории взаимодействия пользователя с приложениями в Android. Предполагалось, что благодаря внедрению Ad Topics поддержку сторонних cookies в браузере отключат уже во второй половине 2024 года.
      Другой крупнейший игрок индустрии цифровой рекламы, компания Meta**, которая также полагается на сторонние куки, придумала собственный вариант слежки за пользователями. Это так называемая История ссылок: все внешние ссылки в мобильных приложениях Facebook* теперь открываются во встроенном в приложение браузере, где компания все еще может следить за действиями пользователя.
      Что в итоге получается: в результате отключения поддержки сторонних cookies преимущество получают те участники рынка интернет-рекламы, у которых есть какое-либо крупное, полностью контролируемое ими цифровое пространство: самые популярные в мире браузер и ОС в случае Google, самая популярная соцсеть в случае Meta**. Более мелкие игроки при этом оказываются в зависимом положении.
      При этом данные пользователей все равно продолжают собирать в промышленных масштабах. И делают это все те же компании, к которым обычно и предъявляют основные претензии с точки зрения нарушения приватности, — Google и Facebook*.
      Возникает вопрос: а нельзя ли разработать какой-то механизм, который одновременно позволит рекламодателям отслеживать эффективность рекламы и при этом не предполагает массовый сбор данных пользователей? Ответом именно на этот вопрос и является технология Privacy-preserving attribution.
       
      View the full article
    • KL FC Bot
      Автор KL FC Bot
      Утечки учетных данных остаются одним из самых популярных у злоумышленников способов проникновения в организацию. Только за 9 месяцев 2023 года по данным Kaspersky Digital Footprint Intelligence в даркнете было опубликовано 315 миллионов записей учетных данных, среди которых множество реквизитов доступа к корпоративным ресурсам, в том числе и к ресурсам компаний из списка Fortune 500.  Чтобы эффективнее управлять связанными с этим рисками, минимизировать число уязвимых аккаунтов, быстрее замечать и пресекать несанкционированный доступ, компании внедряют системы управления identity, о которых мы подробно писали ранее. Но эффективный процесс управления identity невозможен, пока большинство корпоративных систем не поддерживают процедуру унифицированной аутентификации. Для внутренних систем компании она обычно завязана на централизованный каталог, например Active Directory, а во внешних SaaS-системах взаимодействие с корпоративным каталогом identity ведется через платформу Single Sign-on (SSO) —либо внешнюю, либо развернутую в инфраструктуре компании, такую как ADFS.
      Для сотрудников это предельно удобно — логинясь во внешние системы, такие как SalesForce или Concur, сотрудник проходит единый для корпоративной сети процесс аутентификации, включая ввод пароля и предъявление второго фактора (кода OTP, USB-токена и так далее, согласно корпоративной политике), ему не нужны никакие дополнительные логины и пароли. Более того, однократно войдя утром в одну из систем, в остальные можно входить автоматически. Помимо удобства этот процесс в теории безопасен, поскольку службы IT и ИБ имеют полный централизованный контроль над учетными записями, парольными политиками, методами МФА и логами.
      Но на практике уровень безопасности внешних систем, поддерживающих SSO, зачастую оказывается не таким уж высоким.
       
      Подводные камни Single Sign-On
      Пока пользователь входит в SaaS-систему, сервер этой системы, клиентское устройство пользователя и платформа SSO проходят несколько этапов взаимодействия, в которых платформа SSO проверяет пользователя и выдает SaaS-системе и клиентскому устройству токены аутентификации, которые подтверждают права пользователя. При этом платформа может снабжать токен целым рядом параметров, напрямую влияющих на безопасность. Они могут включать:
      указание периода действия токена (и сессии), по истечении которого потребуется повторная аутентификация; привязка токена к конкретному браузеру или мобильному устройству; привязка токена к конкретным IP-адресам или IP-диапазонам, что позволяет реализовать в том числе географические ограничения; дополнительные условия окончания сессии, например закрытие браузера или выход пользователя из самой SSO-платформы. Ключевая проблема заключается в том, что некоторые облачные провайдеры неверно интерпретируют или вовсе игнорируют эти ограничения, нарушая таким образом модель безопасности, которую выстроила команда ИБ. Более того, в ряде случаев SaaS-платформы недостаточно контролируют корректность самих токенов, открывая простор для их подделки.
       
      Посмотреть статью полностью
×
×
  • Создать...