Перейти к содержанию

Помогите! Нужны ли какие-то меры?


Sweet dream5

Рекомендуемые сообщения

Здравствуйте!

Я использую лицензионную версию Касперский Интернет Секьюрити 2010.

Вчера Каспер сообщил, что обнаружил 2 вируса, по видимому Трояна, а также 10 вредных ПО. Однако полная проверка К. ничего не показала. Более того, Каспер "горит зеленым цветом" с надписью "Компьютер защищен".

Значит ли это, что Каспер уже нашел и уничтожил имеющиеся угрозы, или мне самостоятельно нужно совершать определенные действия?

П.С. Сбоев в работе Антивируса и компьютера пока нет.

Ссылка на комментарий
Поделиться на другие сайты

Sweet dream5

добро пожаловать на форум!

Значит ли это

раз зелёный - всё ок.

 

но если хотите подтверждения - сделайте логи по правилам раздела, где Вы создали данную тему.

http://forum.kasperskyclub.ru/index.php?showtopic=1698

Ссылка на комментарий
Поделиться на другие сайты

но если хотите подтверждения - сделайте логи по правилам раздела, где Вы создали данную тему.

http://forum.kasperskyclub.ru/index.php?showtopic=1698

Я попробую их сделать.)

 

 

'Roman_Five'

С первыми утилитами я не разобралась.(((

Есть отчет только третьей- гетсистеминфо.

Выкладываю:

http://www.getsysteminfo.com/read.php?file...a8a52d8fb684ab0

GetSystemInfo_MICROSOF_629397_Baby_girl_2010_12_25_10_55_49.zip

Ссылка на комментарий
Поделиться на другие сайты

С первыми утилитами я не разобралась.(((

<_<

 

- обновите драйвер на сетевую

http://www.realtek.com.tw/downloads/downlo...;DownTypeID=3#1

- очистите временные папки

http://www.filehippo.com/download_ccleaner...600f8e45ae1ee9/

- также исправьте ошибки в реестре с помощью Ccleaner

Ссылка на комментарий
Поделиться на другие сайты

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
  • Похожий контент

    • KL FC Bot
      От KL FC Bot
      Уже сегодня технологии на базе ИИ внедрены в каждой второй компании, а за ближайшие два года к ним присоединится еще 33% коммерческих организаций. ИИ в том или ином виде будет внедрен повсеместно. Экономический эффект, который получают компании от внедрения, варьируется от повышения удовлетворенности клиентов до прямого роста выручки. По мере того как понимание сильных и слабых сторон ИИ-систем бизнесом будет углубляться, эффективность только увеличится. Но уже сейчас очевидно, что о рисках, которые несет внедрение ИИ, нужно подумать заранее.
      Даже ранние примеры внедрения демонстрируют, что цена ошибки ИИ-системы может быть высока и может выражаться в том числе во влиянии на репутацию, отношения с клиентами, здоровье пациентов и многое другое. А если учесть еще и киберфизические системы вроде автономных автомобилей, то вопросы безопасности станут еще острее.
      Внедрять безопасность постфактум, как это было с предыдущими поколениями технологий, будет дорого и порой невозможно. Чтобы в этом убедиться, достаточно найти свежие оценки ущерба, который мировой экономике наносит киберпреступность: на 2023 год это $8 трлн. Неудивительно, что страны, претендующие на технологическое лидерство в XXI веке, торопятся внедрить регулирование ИИ (например, China’s AI Safety Governance Framework, EU AI Act, US Executive Order on AI). Но в законах редко указываются технические подробности и практические рекомендации — это не их задача. Поэтому для практического применения любых регуляторных требований формата «обеспечить надежность и этичность ИИ, а также контролируемость его решений» необходимы конкретные практические рекомендации, позволяющие достичь этого результата.
      Чтобы помочь практикам, внедряющим ИИ уже сегодня, а также сделать будущее нашего мира более безопасным, специалисты «Лаборатории Касперского» при участии Эллисон Вайлд, члена команды по функциональной совместимости Сети по вопросам политики в области искусственного интеллекта Форума ООН по управлению Интернетом; доктора Мелодены Стивенс, профессора управления инновациями и технологиями школы государственного управления имени Мохаммеда бин Рашида; и Серхио Майо Масиаса, менеджера инновационных программ из Технологического института Арагона, создали набор рекомендаций. Документ был представлен в ходе семинара «Кибербезопасность в сфере ИИ: баланс между инновациями и рисками» на 19-м ежегодном Форуме по управлению Интернетом (UN Internet Governance Forum, IGF) для обсуждения с международным сообществом формирующих политику работы с AI экспертов.
      Следование описанным в документе практикам поможет инженерам, специалистам DevOps и MLOps, которые разрабатывают и затем эксплуатируют ИИ-решения, достичь высокого уровня защищенности и безопасности ИИ-систем на всех этапах их жизненного цикла. Рекомендации документа нужно индивидуально оценивать для каждого внедрения ИИ, поскольку их применимость зависит от разновидности ИИ и модели внедрения.
      Какие риски нужно учесть
      Многообразие применений ИИ вынуждает организацию учитывать очень разнородные риски:
      Риск от неиспользования ИИ. Звучит на первый взгляд забавно, но только сравнив выигрыш и потери компании от внедрения ИИ, можно правильно оценивать все остальные риски. Риски несоответствия регулированию. Быстро развивающееся регулирование ИИ делает этот риск динамичным, его нужно часто оценивать заново. Кроме регулирования ИИ как такового, нужно учитывать сопутствующие риски, например нарушения законов по обработке персональных данных. ESG-риски, то есть социально-этические риски применения ИИ, риски раскрытия чувствительной информации и риски для экологии. Риск нецелевого использования ИИ-сервисов пользователями — от шуточных до злонамеренных сценариев. Угрозы ИИ-моделям и наборам данных, применявшимся в тренировке. Угрозы сервисам компании, возникающие при внедрении ИИ. Возникающие при этом угрозы данным, которые обрабатываются в рамках этих сервисов. При этом «под капотом» трех последних групп рисков находятся все угрозы и задачи, традиционные для ИБ в сложных облачных инфраструктурах: контроль доступа и сегментация, управление уязвимостями и обновлениями, создание систем мониторинга и реагирования, контроль цепочек поставок.
       
      View the full article
    • Alexk6
      От Alexk6
      После криворукого админа возникли проблемы. Поймали шифровальщик. Админ сделал терминальный сервер из Win 11 Home на котором работали 6-7 человек, все с админскими правами. Браузером пользовались все с этого сервера. Файлы меньше 8 мб не затронуты. Ссылка на шифрованный файл и его орегинал https://cloud.mail.ru/public/a4nf/zJDX69Qs9
    • Friend
      От Friend
      В нашей стране очень много банков.
      Каким банком пользуетесь Вы? Почему решили выбрать его? Есть кэшбэк за покупки при оплате картой банка, туда начисляют зарплату, там хорошие проценты, банкоматы банка есть почти везде, хакеры еще ни разу не взломали данный банк, бесплатное обслуживание карты и т.п. ?
    • Ig0r
      От Ig0r
      Пожалуйста, голосуйте. Можно и высказаться.
    • KL FC Bot
      От KL FC Bot
      Удобство облачных хранилищ файлов наподобие Dropbox и OneDrive омрачается лишь тем, что злоумышленники, спецслужбы или просто сотрудники хостинг-провайдера могут несанкционированно просматривать файлы в облаке. Но решение для конфиденциального хранения есть: целый ряд сервисов предлагает хранить файлы в зашифрованном виде. Некоторые называют это End-to-End Encryption, сквозным шифрованием, по аналогии с Signal и WhatsApp. Реклама гласит, что файлы шифруются еще на устройстве хозяина и отправляются в облако уже зашифрованными, а ключ шифрования есть только у владельца файлов. И никто, даже сотрудники сервиса, не может получить доступ к информации. Но так ли это на самом деле?
      Наташа, мы сломали все шифрование. Честно
      Исследователи с факультета прикладной криптографии ETH Zurich детально разобрали алгоритмы пяти популярных зашифрованных хранилищ: Sync.com, pCloud, Icedrive, Seafile и Tresorit. Оказалось, что разработчики каждого из этих сервисов допустили ошибки в реализации шифрования, позволяющие в той или иной степени манипулировать файлами и даже получать доступ к фрагментам незашифрованных данных. В двух других популярных хостингах, MEGA и Nextcloud, исследователи обнаружили дефекты раньше.
       
      View the full article
×
×
  • Создать...