electronique-news.com
02
'26
Written on Modified on
Plateformes de vision Edge AI pour systèmes multicaméras
e-con Systems présente des technologies de vision Edge AI et multicaméras pour la robotique, la mobilité et l’industrie lors de NVIDIA GTC 2026 et Embedded World 2026.
www.e-consystems.com

e-con Systems présentera des plateformes intégrées de vision Edge AI combinant flux multicaméras synchronisés, acquisition 3D de profondeur et analytique basée sur l’intelligence artificielle à la NVIDIA GTC (16–19 mars 2026, San Jose, États-Unis) ainsi qu’à Embedded World (10–12 mars 2026, Nuremberg, Allemagne). Ces technologies ciblent la robotique, les systèmes de transport intelligents, l’automatisation industrielle et d’autres applications de vision embarquée nécessitant une perception en temps réel et une gestion évolutive des dispositifs.
Contexte des salons et plateformes présentées
À NVIDIA GTC 2026, l’entreprise exposera au stand #3119. À Embedded World 2026, les démonstrations en direct auront lieu hall 2, stand #2-111 (QUAD GmbH).
Les présentations techniques portent sur le traitement d’images par IA en temps réel, l’intégration multisenseur et l’analytique en périphérie (edge computing), avec des architectures conçues pour des déploiements industriels à grande échelle.
Architecture de traitement multicaméra avec Edge AI
La démonstration multicaméra repose sur un flux synchronisé provenant de huit caméras HDR avec interface GMSL, associé à l’exécution de modèles d’IA sur une plateforme de calcul en périphérie.
Les principaux éléments techniques comprennent :
- Synchronisation en temps réel de huit caméras HDR GMSL pour une acquisition multisenseur déterministe.
- Mesure de profondeur 3D haute résolution via une caméra indirect Time-of-Flight (iToF) à onde continue basée sur le capteur onsemi AF0130.
- Analytique basée sur l’IA pour la perception robotique et les systèmes autonomes.
- Gestion des dispositifs connectée au cloud pour la configuration à distance et la supervision de flottes au sein d’une digital supply chain.
La combinaison des données RGB et de profondeur permet des flux de fusion multisenseur pour la détection d’obstacles, le suivi d’objets et la cartographie spatiale dans des environnements dynamiques. Le traitement en périphérie réduit la latence par rapport aux architectures exclusivement cloud et permet une utilisation dans des applications soumises à des contraintes de bande passante ou à des exigences élevées en matière de sûreté.
Vision basée sur Holoscan pour les systèmes de transport intelligents
Une autre démonstration intègre une plateforme caméra compatible Holoscan avec une analytique vidéo basée sur l’IA générative pour les systèmes de transport intelligents (ITS). L’architecture traite localement des flux vidéo à haut débit et prend en charge des pipelines d’inférence tels que la détection d’anomalies et l’analyse du comportement du trafic.
Cette approche répond aux exigences des déploiements ITS où la prise de décision en temps réel — comme la gestion de la congestion ou la détection d’incidents — doit être effectuée en périphérie afin de respecter des contraintes de latence et de fiabilité au sein d’un automotive data ecosystem.
Plateforme de calcul robotique pour le développement de la vision par IA
La plateforme de calcul robotique combine modules caméra, capacité de calcul Edge AI et intégration système dans un environnement de développement unifié. L’objectif est de réduire la complexité d’intégration lors du passage du prototype à la production en robotique et en automatisation industrielle.
La plateforme prend en charge différentes interfaces et technologies de capteurs, notamment Time-of-Flight, MIPI, GMSL, USB, stéréo, GigE, HDR et caméras basse luminosité. Elle répond ainsi aux exigences hétérogènes des robots mobiles autonomes (AMR), des systèmes d’inspection et des applications robotiques industrielles.
Selon Suresh Madhu, BU Head – Mobility chez e-con Systems, l’approche vise un déploiement évolutif de la vision par IA en combinant conception avancée de caméras, calcul en périphérie et intégration complète avec les plateformes NVIDIA, avec un accent mis sur des systèmes prêts pour un usage sur le terrain.
Domaines d’application et présence industrielle
e-con Systems conçoit et fabrique des solutions de vision embarquée allant de caméras OEM personnalisées à des plateformes ODM complètes. Ses technologies sont utilisées dans les secteurs de la mobilité, de l’automatisation industrielle, du médical, du commerce de détail, de l’agriculture et des infrastructures de villes intelligentes.
L’entreprise dispose de plus de 20 ans d’expérience en vision embarquée. Selon les données communiquées, plus de 350 produits clients intègrent ses technologies d’imagerie et plus de deux millions de caméras ont été livrées aux États-Unis, en Europe, au Japon et en Corée du Sud, entre autres marchés.
Les démonstrations présentées à NVIDIA GTC 2026 et à Embedded World 2026 illustrent comment l’association de systèmes multicaméras synchronisés, de capteurs de profondeur 3D et d’analytique Edge AI permet de construire des architectures de perception évolutives pour la robotique, les transports et la vision industrielle.
www.e-consystems.com
Vision basée sur Holoscan pour les systèmes de transport intelligents
Une autre démonstration intègre une plateforme caméra compatible Holoscan avec une analytique vidéo basée sur l’IA générative pour les systèmes de transport intelligents (ITS). L’architecture traite localement des flux vidéo à haut débit et prend en charge des pipelines d’inférence tels que la détection d’anomalies et l’analyse du comportement du trafic.
Cette approche répond aux exigences des déploiements ITS où la prise de décision en temps réel — comme la gestion de la congestion ou la détection d’incidents — doit être effectuée en périphérie afin de respecter des contraintes de latence et de fiabilité au sein d’un automotive data ecosystem.
Plateforme de calcul robotique pour le développement de la vision par IA
La plateforme de calcul robotique combine modules caméra, capacité de calcul Edge AI et intégration système dans un environnement de développement unifié. L’objectif est de réduire la complexité d’intégration lors du passage du prototype à la production en robotique et en automatisation industrielle.
La plateforme prend en charge différentes interfaces et technologies de capteurs, notamment Time-of-Flight, MIPI, GMSL, USB, stéréo, GigE, HDR et caméras basse luminosité. Elle répond ainsi aux exigences hétérogènes des robots mobiles autonomes (AMR), des systèmes d’inspection et des applications robotiques industrielles.
Selon Suresh Madhu, BU Head – Mobility chez e-con Systems, l’approche vise un déploiement évolutif de la vision par IA en combinant conception avancée de caméras, calcul en périphérie et intégration complète avec les plateformes NVIDIA, avec un accent mis sur des systèmes prêts pour un usage sur le terrain.
Domaines d’application et présence industrielle
e-con Systems conçoit et fabrique des solutions de vision embarquée allant de caméras OEM personnalisées à des plateformes ODM complètes. Ses technologies sont utilisées dans les secteurs de la mobilité, de l’automatisation industrielle, du médical, du commerce de détail, de l’agriculture et des infrastructures de villes intelligentes.
L’entreprise dispose de plus de 20 ans d’expérience en vision embarquée. Selon les données communiquées, plus de 350 produits clients intègrent ses technologies d’imagerie et plus de deux millions de caméras ont été livrées aux États-Unis, en Europe, au Japon et en Corée du Sud, entre autres marchés.
Les démonstrations présentées à NVIDIA GTC 2026 et à Embedded World 2026 illustrent comment l’association de systèmes multicaméras synchronisés, de capteurs de profondeur 3D et d’analytique Edge AI permet de construire des architectures de perception évolutives pour la robotique, les transports et la vision industrielle.
www.e-consystems.com

