Спам в личных сообщениях
-
Похожий контент
-
-
От KL FC Bot
Последние недели в Сети активно обсуждают новые правила в политике безопасности Meta*. Компания-владелец Facebook**, Instagram** и WhatsApp** сообщила части своих пользователей, что с 26 июня их личные данные будут использованы для развития генеративного искусственного интеллекта Meta AI**.
О каких данных идет речь, можно ли отказаться от их добровольной передачи и как обеспечить свою цифровую безопасность — в этом материале.
Meta* собирается использовать контент из Facebook** и Instagram** для обучения своего ИИ?
Meta AI** существует более девяти лет: подразделение, занимающееся развитием ИИ, компания открыла еще в 2015 году. Для обучения своих нейросетей Meta* нужны данные — и скоро источником знаний для ИИ может стать пользовательский контент крупнейших в мире соцсетей.
Все началось в мае 2024 года, когда в Интернете стали массово появляться сообщения об очередном изменении политик безопасности Meta*: якобы компания с конца июня планирует использовать контент из Facebook** и Instagram** для тренировок генеративного ИИ. Но уведомления об этом пришли не всем, а лишь некоторым пользователям из Евросоюза и США.
На волне поднявшегося негодования Meta* выпустила официальное заявление для жителей Евросоюза по этому поводу, но пока оно оставляет больше вопросов, чем дает ответов. Пресс-релиза, где бы черным по белому было написано: «Начиная с такого-то числа Meta AI** будет использовать ваши данные для обучения», не существует — но недавно появилась страница «Генеративный ИИ в Meta*», где подробно описано, какие данные и как компания собирается использовать для развития искусственного интеллекта. Снова без дат.
Посмотреть статью полностью
-
От Val_m
Добрый день, зарегистрировался недавно, не дает отправить человеку на форуме личное сообщение с вот такой вот ошибкой:
Подскажите, это какое-то ограничение, связанное с защитой от спамеров, ботов и прочего? Через сколько после регистрации эта функция начинает работать? Или дело не в этом?
-
От domsalvatorr
Привет,
Это мой первый пост после того, как я присоединился к этому обсуждению, поэтому, пожалуйста, простите меня и окажите любезную помощь, если я разместил сообщение не в том подразделе.
Я здесь новичок, но настоящий энтузиаст и до сих пор люблю это сообщество. У меня есть опыт преподавания кодирования и образования, и я чувствую, что могу помочь с документацией, по крайней мере, для начала.
Я новый участник этого форума и хочу поделиться и получить некоторые знания. Я с нетерпением жду возможности создать собственное обсуждение, чтобы решить мой вопрос и получить некоторые знания, хотя я принимал участие в различных обсуждениях, которые определенно мне очень помогли.
Также в какую категорию следует брать, зависит от каких факторов?
Заранее спасибо.
-
От KL FC Bot
Израильские исследователи из Offensive AI Lab (что можно примерно перевести как «Лаборатория наступательного ИИ») опубликовали работу, описывающую метод восстановления текста из перехваченных сообщений от чат-ботов с ИИ. Рассказываем о том, как работает эта атака и насколько она опасна в реальности.
Какую информацию можно извлечь из перехваченных сообщений чат-ботов на основе ИИ
Разумеется, чат-боты отправляют сообщения в зашифрованном виде. Однако в реализации как самих больших языковых моделей (LLM), так и основанных на них чат-ботов есть ряд особенностей, из-за которых эффективность шифрования серьезно снижается. В совокупности эти особенности позволяют провести так называемую атаку по сторонним каналам, когда содержимое сообщения удается восстановить по тем или иным сопутствующим данным.
Чтобы понять, что же происходит в ходе этой атаки, придется слегка погрузиться в детали механики LLM и чат-ботов. Первое, что надо знать: большие языковые модели оперируют не отдельными символами и не словами как таковыми, а так называемыми токенами — своего рода смысловыми единицами текста. На сайте OpenAI есть страница под названием «Токенизатор», которая позволяет понять, как это работает.
Этот пример демонстрирует, как работает токенизация сообщений моделями GPT-3.5 и GPT-4. Источник
Вторую особенность, важную для данной атаки, вы наверняка замечали, когда общались с чат-ботами: они присылают ответ не крупными кусками, а постепенно — примерно так же, как если бы его печатал человек. Но, в отличие от человека, LLM пишут не отдельными символами, а токенами. Соответственно, чат-бот отправляет сгенерированные токены в режиме реального времени, один за другим. Вернее, так делает большинство чат-ботов — исключение составляет Google Gemini, из-за чего он не подвержен данной атаке.
Третья особенность: на момент публикации исследования большинство существующих чат-ботов, перед тем как зашифровать сообщение, не использовали сжатие, кодирование или дополнение (это метод повышения криптостойкости, в котором к полезному сообщению добавляются мусорные данные, чтобы снизить предсказуемость).
Использование этих особенностей делает возможным атаку по сторонним каналам. Хотя перехваченные сообщения от чат-бота невозможно расшифровать, из них можно извлечь полезные данные — а именно длину каждого из отправленных чат-ботом токенов. В итоге у атакующего получается последовательность, напоминающая игру в «Поле чудес» на максималках, не для одного слова, а для целой фразы: что именно зашифровано, неизвестно, но известна длина отдельных слов токенов.
Посмотреть статью полностью
-
Рекомендуемые сообщения
Пожалуйста, войдите, чтобы комментировать
Вы сможете оставить комментарий после входа в
Войти