От
KL FC Bot
Стремительное развитие ИИ-систем и попытки их повсеместного внедрения вызывают и оптимизм, и опасения. Искусственный интеллект способен помочь человеку в самых разных областях деятельности, и индустрия кибербезопасности знает об этом не понаслышке. Например, мы в «Лаборатории Касперского» применяем машинное обучение уже почти 20 лет и точно знаем, что без ИИ-систем в принципе невозможно защититься от гигантского количества существующих киберугроз. За это время мы идентифицировали и широкий спектр проблем, которые могут порождаться использованием ИИ — от обучения на некорректных данных и злонамеренных атак на ИИ-системы до применения ИИ в неэтичных целях.
Различные площадки и международные организации уже разработали общие принципы этичного ИИ (например, вот рекомендации ЮНЕСКО), однако более конкретные руководства для индустрии кибербезопасности пока не стали общепринятыми.
Чтобы применять искусственный интеллект в кибербезопасности без негативных последствий, мы предлагаем индустрии принять Этические принципы ИИ (AI ethical principles), первую версию которых мы представляем на проходящем в эти дни в Киото саммите ООН Internet Governance Forum. Разумеется, принципы требуют обсуждения в индустриальном сообществе и уточнения, однако мы их придерживаемся уже сейчас. Что же это за принципы? Вот краткая версия.
Прозрачность и объяснимость
Пользователь имеет право знать, что обеспечивающая его безопасность компания использует ИИ-системы. Знать, в каких целях и каким образом эти системы принимают решения. Поэтому мы обязуемся разрабатывать системы ИИ, работа которых интерпретируема и объяснима в максимально возможном объеме, а также внедрять необходимые предосторожности и защитные меры, чтобы ИИ-системы генерировали корректные результаты. При необходимости с кодом, техническими и бизнес-процессами «Лаборатории Касперского» можно ознакомиться посетив один из наших центров прозрачности.
Посмотреть статью полностью
Рекомендуемые сообщения
Пожалуйста, войдите, чтобы комментировать
Вы сможете оставить комментарий после входа в
Войти