Чат-боты на базе LLM и приватность: что происходит с нашими данными
Привет! Недавно мне довелось прочесть интересное американское исследование о том, как крупнейшие разработчики чат‑ботов на базе LLM обращаются с пользовательскими данными. Захотелось поделиться с вами, потому что в России чат‑боты практически во всех интернет-сервисах, и даже в Госуслугах. Так что вопрос приватности для нас тоже актуален.
Авторы исследования проанализировали политики конфиденциальности крупнейших игроков рынка и опирались на Закон Калифорнии о защите конфиденциальности потребителей (CCPA). В результате оказалось, что все компании по умолчанию используют пользовательские чаты для обучения моделей, а возможность отказаться либо спрятана глубоко в настройках, либо ее попросту нет.
У нас же в России действует закон «О персональных данных», который не регламентирует четко и прозрачно специфику работы именно чат-ботов на базе LLM. Хотя работа над этим идет.
Читать далееИсточник: Хабрахабр
Похожие новости
- «А трактор случайно не в залоге?» — история одной интеграции с ФЦИИТ
- Design by Contract в эпоху AI: как контракты Мейера защищают криптографию там, где тесты молчат
- Schnorr/MuSig2 Nonce-Forensics:
- SEBERD IT Base: почему я сделал ещё один сайт про кибербезопасность и зачем
- Приватная Cвязь на Go и Flutter
- Манифест созидателя
- OSINT для ленивых. Часть 8: GEOINT по фото за 3 минуты
- MarketingNews: Кейс: «Призы от всего атомного сердца». как «Пятёрочка» создала фиджитал-вселенную с Atomic Heart и переосмыслила механику промоакций
- Как я собрал себе C2 на малинке за один вечер
- Краткая история биометрии: как была изобретена идентификация по радужке глаза