Перейти к содержанию

Рекомендуемые сообщения

Опубликовано (изменено)

О чем речь? :)

Изменено пользователем oit
  • 4 недели спустя...
Опубликовано (изменено)
13.06.2020 в 13:13, ska79 сказал:

играешьв в warface?

Изменено пользователем KuZbkA
Опубликовано
2 часа назад, KuZbkA сказал:

играешьв в warface?

нет

Опубликовано
17 часов назад, Mark D. Pearlstone сказал:

MR1 дали?

У меня. :) Только не уверен что подойдёт он мне

Опубликовано
4 часа назад, ska79 сказал:

Только не уверен что подойдёт он мне

Что так?

Опубликовано
51 минуту назад, Mark D. Pearlstone сказал:

Что так?

Да есть опасения что интерфейс будет на белорусском языке саппорт техрелиз выдал ru by сказали что ru ru не готов еще.

Собираюсь пробовать ru by

Опубликовано
Только что, ska79 сказал:

Да есть опасения что интерфейс будет на белорусском языке

Не будет. KSEC там не должно быть, а язык русский.

  • Спасибо (+1) 1
Опубликовано
Только что, Mark D. Pearlstone сказал:

Не будет

О, спасибо )) теперь точно попробую

Опубликовано
33 минуты назад, ska79 сказал:

теперь точно попробую

Делись.

Гость
Эта тема закрыта для публикации ответов.
  • Похожий контент

    • KL FC Bot
      Автор KL FC Bot
      Израильские исследователи из Offensive AI Lab (что можно примерно перевести как «Лаборатория наступательного ИИ») опубликовали работу, описывающую метод восстановления текста из перехваченных сообщений от чат-ботов с ИИ. Рассказываем о том, как работает эта атака и насколько она опасна в реальности.
      Какую информацию можно извлечь из перехваченных сообщений чат-ботов на основе ИИ
      Разумеется, чат-боты отправляют сообщения в зашифрованном виде. Однако в реализации как самих больших языковых моделей (LLM), так и основанных на них чат-ботов есть ряд особенностей, из-за которых эффективность шифрования серьезно снижается. В совокупности эти особенности позволяют провести так называемую атаку по сторонним каналам, когда содержимое сообщения удается восстановить по тем или иным сопутствующим данным.
      Чтобы понять, что же происходит в ходе этой атаки, придется слегка погрузиться в детали механики LLM и чат-ботов. Первое, что надо знать: большие языковые модели оперируют не отдельными символами и не словами как таковыми, а так называемыми токенами — своего рода смысловыми единицами текста. На сайте OpenAI есть страница под названием «Токенизатор», которая позволяет понять, как это работает.
      Этот пример демонстрирует, как работает токенизация сообщений моделями GPT-3.5 и GPT-4. Источник
      Вторую особенность, важную для данной атаки, вы наверняка замечали, когда общались с чат-ботами: они присылают ответ не крупными кусками, а постепенно — примерно так же, как если бы его печатал человек. Но, в отличие от человека, LLM пишут не отдельными символами, а токенами. Соответственно, чат-бот отправляет сгенерированные токены в режиме реального времени, один за другим. Вернее, так делает большинство чат-ботов — исключение составляет Google Gemini, из-за чего он не подвержен данной атаке.
      Третья особенность: на момент публикации исследования большинство существующих чат-ботов, перед тем как зашифровать сообщение, не использовали сжатие, кодирование или дополнение (это метод повышения криптостойкости, в котором к полезному сообщению добавляются мусорные данные, чтобы снизить предсказуемость).
      Использование этих особенностей делает возможным атаку по сторонним каналам. Хотя перехваченные сообщения от чат-бота невозможно расшифровать, из них можно извлечь полезные данные — а именно длину каждого из отправленных чат-ботом токенов. В итоге у атакующего получается последовательность, напоминающая игру в «Поле чудес» на максималках, не для одного слова, а для целой фразы: что именно зашифровано, неизвестно, но известна длина отдельных слов токенов.
       
      Посмотреть статью полностью
×
×
  • Создать...