Нейросети могут быть опасными: сгенерированные лица и синтезированные голоса все более реалистичны
Технология машинного обучения, нейросети - все это стало уже давно привычным во многих отраслях науки, технологий, медицины и других сфер. В том, что они могут быть очень полезными, нет никаких сомнений. Но есть и обратная сторона медали - использование возможностей современных технологий для обмана.
Если раньше киберпреступники массово рассылали фишинговые письма, то сейчас уже известны случаи, когда они же пытаются подделать голос руководителя компании для достижения своих целей. Мы уже писали о трендах в киберзащите, связанных с искусственным интеллектом, и проблема фейковых голосов и лиц - одна из них. Подробнее - под катом.
Читать далееИсточник: Хабрахабр
Похожие новости
- bit kogan: ЦБ снизил ставку — почему и что дальше?
- WAF (гав-гав): гибкая настройка пользовательских правил PT AF PRO
- Павел Сабуров: Как новичок на Ozon за месяц обогнал опытных продавцов мебели
- Absolute Zero Reasoner: ИИ научился программированию без входных данных — и это может поменять всё
- Мой начальник хочет no-code в проде. Я против — и готов уйти
- [Перевод] Как я «случайно» получил root-доступ к платёжному терминалу
- Программируя с использованием AI ты продаешь душу дьяволу
- Spark_news: Более 20% стартапов-«единорогов» с оценкой выше $1 млрд могут обанкротиться — Accel
- Наше расследование: ищем отечественные микросхемы в «отечественных» счетчиках электроэнергии. Часть 4 и снова блогер…
- Чудо-курсы с обещанием быстрых результатов: 200 лет рекламы, которая не меняется