Камеры глубины — тихая революция (когда роботы будут видеть) Часть 1
Недавно я описывал, благодаря чему роботы завтра начнут НАМНОГО лучше соображать (пост про аппаратное ускорение нейросетей). Сегодня разберем, почему роботы скоро будут НАМНОГО лучше видеть. В ряде ситуаций намного лучше человека.
Речь пойдет про камеры глубины, которые снимают видео, в каждом пикселе которого хранится не цвет, а расстояние до объекта в этой точке. Такие камеры существуют уже больше 20 лет, однако в последние годы скорость их развития выросла многократно и уже можно говорить про революцию. Причем многовекторную. Бурное развитие идет по следующим направлениям:
Structured Light камеры, или камеры структурного света, когда есть проектор (часто инфракрасный) и камера, снимающая структурный свет проектора;
Time of Flight камеры, или камеры, основанные на измерении задержки отраженного света;
Depth from Stereo камеры — классическое и, пожалуй, наиболее известное направление построения глубины из стерео;
Light Field Camera — они же камеры светового поля или пленоптические камеры, про которые был отдельный подробный пост;
И, наконец, камеры, основанные на Lidar-технологиях, особенно свежие Solid State Lidars, которые работают без отказа примерно в 100 раз дольше обычных лидаров и выдают привычную прямоугольную картинку.
Кому интересно, как это будет выглядеть, а также сравнение разных подходов и их текущее и завтрашнее применение — добро пожаловать под кат!
Читать дальше →
Источник: Хабрахабр
Похожие новости
- Обзор переносных колонок Commo от Яндекса
- Дилемма, которая привела к краху Kodak
- Статья 5: Алгоритмы – реализация и модель ошибок
- Argon ONE UP: модульный ноутбук на Raspberry Pi CM5
- Что на самом деле делала кнопка «Турбо»
- [Перевод] Самодельная монтировка телескопа на ESP32
- Испанская барахолка под Валенсией: новые находки
- Обзор USB-CAN переходника USBCAN-II C
- [Перевод] Заселяем привидение в старый телевизор
- Карта размером с SIM, а скорость как у NVMe — что такое Mini SSD