Сеансы пользователей Kaspersky Security для виртуальных сред 5.1. Легкий агент
-
Похожий контент
-
От user123
Добрый день! Прошу знающих людей подсказать по следующей проблеме. На данный момент установлен KSC14, SVM установлен на 6-ти нодах Hyper-V, часть серверов работают в легким агентом 5.2. В рамках перехода на Linux, пытаюсь добавить в имеющуюся инфраструктуру SVM на кластере Proxmox VE состоящем из 3-х нод. В оснастке управления SVM отображаются существующие ноды на Hyper-V, при попытке добавить ноду на проксмоксе, выдает ошибку "Configuration with '3' nodes is not supported". Ни в какой документации я не нашел ограничения на количество нод. Собственно, вопрос. Конфигурации с каким количеством нод поддерживаются, или возможно, вопрос не в количестве нод, а я что-то делаю неправильно. Заранее благодарю за помощь
-
От Galem333
Допустим, возьмём Vmware Workstation Pro, и будем мы запускать в ней вредоносное ПО. Из мер безопасности приняты (отсутствие общих папок), всё, гостевые дополнения установлены, Интернет включен. Также вопрос к любителям побаловаться на виртуальной машине: бывало ли у вас такое, что вирус выбирался из виртуальной среды и наносил урон основной системе?
-
От Ruby_Heart
Здравствуйте, подозреваю на своем компьютере вирус, который делает ботнет из компьютера, он заменяет системные файлы, плодит бесконечные desktop.ini, мимикрирует под службы( intel, realtek ,microsoft), а также запускает без моего ведома виртуальную машину. Виртуалку удалось отключить только путем отключения виртуализации в биос. Доктор веб и kaspersky rescue tool ничего не находят. Прикладываю отчеты FRST. Заметил такую вещь, что когда пытался восстановиться с точки восстановления - это стало невозможно, он ссылался на битый С: раздел, после рекомендованного chkdsk точка пропала.
Addition_02-07-2022 15.03.02.txt drivers.txt FRST_02-07-2022 15.03.02.txt
-
От Kilobox
Привет. Пытаюсь перекатиться с NSX-v на NSX-t
Действую по инструкциям:
https://support.kaspersky.ru/15667 https://support.kaspersky.com/help/ksv/6.1/ru-RU/90476.htm И в самом конце получаю интересную картину: все инстансы развернуты, имеют Deployment Status - Up, но Health Status - Down
На гипервизорах ESXi в syslog видно, что ВМ не достукиваются до второго интерфейса SVM-ок (который vmservice-vshield-pg):
2022-05-30T14:09:29.849Z ContextMux[18188493]: [WARNING] (EPSEC) [18188493] SolutionHandler[0xdfd0f0e910] failed to connect to solution[7498071167106809856] at [169.254.1.60:48651]: Connection refused (111) for guest[5025611f-c712-4107-2939-b3f96ccfd63d : /vmfs/volumes/627258e3-cd54d7d9-0785-e43d1a9863de/vdi-0051/vdi-0051.vmx] 2022-05-30T14:09:29.849Z ContextMux[18188493]: [ERROR] (EPSEC) [18188493] Solution[7498071167106809856] entry not found in the map when trying to disconnect 2022-05-30T14:09:29.849Z ContextMux[18188493]: [ERROR] (EPSEC) [18188493] Entry not found in map for Solution[7498071167106809856] 2022-05-30T14:09:29.849Z ContextMux[18188493]: [WARNING] (EPSEC) [18188493] SolutionHandler[0xdfd0f0e910] scheduling reconnect to solution[7498071167106809856] at 169.254.1.60:48651 in 30000 ms for guest[5025611f-c712-4107-2939-b3f96ccfd63d : /vmfs/volumes/627258e3-cd54d7d9-0785-e43d1a9863de/vdi-0051/vdi-0051.vmx]
Пинг проходит, netcat - нет:
[root@hv-esxi005p:] ping 169.254.1.60 PING 169.254.1.60 (169.254.1.60): 56 data bytes 64 bytes from 169.254.1.60: icmp_seq=0 ttl=64 time=0.159 ms 64 bytes from 169.254.1.60: icmp_seq=1 ttl=64 time=0.129 ms
[root@hv-esxi005p:] nc -zv 169.254.1.60 48651 nc: connect to 169.254.1.60 port 48651 (tcp) failed: Connection refused
Если открыть SVM через консоль vSphere, видно, что у них даже системного имени не появилось, просто localhost
Вход под рутом, который указывался при регистрации службы на стороне KSC также не доступен. То есть всё это похоже на то, что настройка инстансов не завершилась. Но при этом Deployment Status - Up 🤷♂️
Единственное, что смутило, в инструкции есть такой момент по настройке сетевых параметров разворачиваемых инстансов
Но в моем случае чекбокс возле eth1 серый и не выбирается. Но интерфейс и vmk при этом успешно создаются. Предположил, что это неточность инструкции и "System Configured" интерфейс самонастраивается
Версии ПО
-
От Ишбульдин Ирек
Здравствуйте. При развертывании SVM на гипервизорах hyper-v (которые являются узлами кластера), возникает проблема при добавлении гипервизоров (Вложение "Ошибка SVM"
cluster_cspn.cspn.orb.ru доменное имя кластера. Причем пинингуется данный хост имя со всех серверов участвующих в развертывании сервера защиты SVM. Гипервизоры имеют другое имя и также пингингуются и доступны для удаленного подключения.
Согласно инструкции были даны права доменному администратору
"Гипервизор Microsoft Windows Server (Hyper-V)
Для развертывания, удаления и изменения конфигурации SVM на гипервизоре Microsoft Windows Server (Hyper-V) требуется встроенная учетная запись локального администратора или доменная учетная запись, входящая в группу Администраторы Hyper-V. В случае доменной учетной записи вам также требуется выдать права на удаленное подключение и использование следующих пространств имен WMI:
root\cimv2;
root\MSCluster;
root\virtualization;
root\virtualization\v2 (для версий операционных систем Microsoft Windows для серверов, начиная с версии Windows Server 2012 R2)."
P.S.: Дополнительно сообщаю что сервер защиты SVM 4.0 функционирует в нормальном режиме
Сообщение от модератора Elly Тема перемещена
-
Рекомендуемые сообщения
Пожалуйста, войдите, чтобы комментировать
Вы сможете оставить комментарий после входа в
Войти