Как мы повышали доверие к YandexGPT, или Сертификация по ISO 42001
Сервисы с ИИ развиваются стремительно — сегодня почти каждый продукт старается встроить в себя хотя бы один нейросетевой‑модуль. Иногда достаточно одной фразы «Мы используем искусственный интеллект», чтобы привлечь внимание аудитории и повысить интерес к продукту.
Однако чем глубже ИИ встраивается в реальные бизнес‑процессы, тем выше становится запрос на его ответственное использование и управление им. Возникает очевидный вопрос: как убедиться, что такие системы этичны, устойчивы и безопасны?
Для крупных разработчиков LLM доверие стало одной из ключевых целей. Чтобы его добиться, компании стремятся продемонстрировать прозрачность работы моделей, объясняют их решения, применяют механизмы обеспечения справедливости и недискриминации, а также используют стратегию управления рисками.
Меня зовут Анна Зинчук, я руководитель службы комплаенса и обучения информационной безопасности. В статье я расскажу, как измерить доверие к ИИ и закрепить его.
Читать далееИсточник: Хабрахабр
Похожие новости
- Как я пилотировала Kaspersky NGFW и что из этого вышло
- Нежданные гости: F6 проанализировала первые масштабные атаки группы Kinsing на российские компании
- Миллион IP против одного GPT-5: история одной DDoS-атаки
- Опыт цифровизации службы безопасности банка. Единая IT-экосистема на базе BPMS
- Сервис DashaMail обновил функционал аннотаций в GMail
- Вредные советы по автоматизации
- Кем работать в IT в 2025: сетевой инженер в информационной безопасности
- [Перевод] Как найти исходный IP любого веб-сайта за WAF
- Приоритизация уязвимостей с EPSS в кибербезопасности
- Безопасность приложений: инструменты и практики для Java-разработчиков