[Перевод] Как Интернет вещей смещает аналитику на периферию
В эпоху Интернета вещей (Internet of Things, IoT) все более актуальными становятся задачи обработки, фильтрации и анализа данных как можно ближе к их источнику, поскольку это позволяет действовать удаленно вместо того, чтобы пересылать эти данные в центры обработки данных (ЦОД) или облака для фильтрации и анализа.
Еще одна причина для развертывания инструментов аналитики на периферии сети заключается в том, что сегодня появляются все новые варианты применения Интернета вещей, и во многих случаях объем данных, генерируемых на периферии, предъявляет такие высокие требования к полосе пропускания и вычислительной мощности, что доступные ресурсы не способны их удовлетворить. То есть ЦОД, предназначенные для решения более традиционных корпоративных задач, могут не справляться с потоками данных от интеллектуальных устройств, датчиков и т. п.
Например, если показания датчика температуры двигателя ветровой турбины лежат в пределах рабочего диапазона, не обязательно сохранять их с интервалом в одну секунду, поскольку очень быстро накопится колоссальный объем данных. Лучше придерживаться подхода, когда показания, выходящие за пределы рабочего диапазона или указывающие на определенные тенденции (например, неизбежный сбой в работе компонента), будут генерировать предупреждение и, возможно, сохраняться централизованно только после выявляения этой первой аномалии в целях последующего анализа. Читать дальше →
Еще одна причина для развертывания инструментов аналитики на периферии сети заключается в том, что сегодня появляются все новые варианты применения Интернета вещей, и во многих случаях объем данных, генерируемых на периферии, предъявляет такие высокие требования к полосе пропускания и вычислительной мощности, что доступные ресурсы не способны их удовлетворить.
Например, если показания датчика температуры двигателя ветровой турбины лежат в пределах рабочего диапазона, не обязательно сохранять их с интервалом в одну секунду, поскольку очень быстро накопится колоссальный объем данных. Лучше придерживаться подхода, когда показания, выходящие за пределы рабочего диапазона или указывающие на определенные тенденции (например, неизбежный сбой в работе компонента), будут генерировать предупреждение и, возможно, сохраняться централизованно только после выявляения этой первой аномалии в целях последующего анализа. Читать дальше →
Источник: Хабрахабр
Похожие новости
- Новые правила обезличивания персональных данных с 1 сентября 2025 года
- AlinaTen: Американский стартап Spear AI привлёк инвестиции для внедрения ИИ в военные подводные технологии
- Поднимаем свой Jabber/XMPP сервер в 2025 году
- Большой разлив чая: сервис анонимных слухов о мужиках Tea спалил персданные пользовательниц
- [Перевод] От согласия на использование Cookie, до выполнения команд: реальный вектор от SQLi + утечки персональных данных до RCE
- [Перевод] Обнаружение уязвимостей агентов ИИ. Часть III: Утечка данных
- Берём анализы на болезни TLS у Гемотеста
- Магия KNOX и её разоблачение: изучаем OEMConfig от Samsung
- Работа с JWT-токенами в браузере без боли и страданий
- Каждая третья крупная компания в России работает с фрилансерами на постоянной основе