Menu

Edge Computing : Qu'est-ce que c'est ?

7 min de lecture Mis à jour le 05 Avr 2026

Définition

L'edge computing est une architecture de traitement des données qui rapproche le calcul et le stockage au plus près de la source des données, à la périphérie du réseau. Dans l'IoT, cela signifie traiter les données directement sur les passerelles et capteurs (Raspberry Pi) plutôt que de tout envoyer vers le cloud, réduisant la latence, la bande passante et les coûts.

Qu'est-ce que l'edge computing ?

L'edge computing (ou informatique en périphérie) est un paradigme de traitement des données qui déplace une partie du calcul, du stockage et de l'intelligence logicielle depuis les data centres centralisés vers les appareils situés à la « périphérie » (edge) du réseau, c'est-à-dire au plus près de la source de données. Plutôt que d'envoyer toutes les données brutes vers le cloud pour traitement, les appareils edge (Raspberry Pi, passerelles industrielles, serveurs locaux) filtrent, agrègent et analysent les données localement, n'envoyant vers le cloud que les résultats pertinents ou les alertes.

Ce paradigme est né de la conjonction de deux tendances : l'explosion du volume de données générées par les capteurs IoT (qui rend le transfert intégral vers le cloud impraticable et coûteux) et le besoin croissant de réactivité en temps réel (où les millisecondes de latence réseau vers le cloud sont inacceptables pour les applications critiques). L'edge computing ne remplace pas le cloud : il le complète en créant une architecture hybride où chaque couche traite les données appropriées à son niveau.

Dans l'écosystème IoT, l'edge computing se manifeste à plusieurs niveaux : le « device edge » (traitement directement sur le capteur ou le microcontrôleur), le « gateway edge » (traitement sur la passerelle Raspberry Pi qui agrège plusieurs capteurs) et le « local edge » (serveur local sur site qui traite les données de multiples passerelles avant envoi au cloud). Chaque niveau offre un compromis différent entre puissance de calcul et proximité des données.

Pourquoi l'edge computing est important

L'edge computing répond à des défis fondamentaux que le cloud seul ne peut pas résoudre, particulièrement dans le contexte IoT où les données sont générées en continu par des milliers de capteurs.

  • Latence ultra-faible : le traitement local élimine l'aller-retour réseau vers le cloud (50-200 ms typiquement), permettant des réactions en quelques millisecondes. Essentiel pour les alertes de sécurité, le contrôle industriel et la détection d'anomalies en temps réel.
  • Réduction de la bande passante : un capteur de vibration échantillonnant à 1 kHz génère des mégaoctets de données par jour. Le traitement edge extrait les métriques pertinentes (fréquence dominante, amplitude maximale) et ne transmet que quelques octets, réduisant la bande passante de 99%.
  • Résilience réseau : les appareils edge continuent de fonctionner et de prendre des décisions même en cas de coupure réseau, stockant les données localement pour synchronisation ultérieure. Critique pour les sites distants avec connectivité intermittente.
  • Souveraineté des données : le RGPD impose des restrictions sur le transfert de données personnelles. L'edge computing permet d'anonymiser ou d'agréger les données localement avant de les envoyer au cloud, facilitant la conformité réglementaire.
  • Réduction des coûts cloud : moins de données transférées et stockées dans le cloud signifie des factures d'infrastructure réduites, un avantage significatif pour les déploiements IoT à grande échelle.

Comment ça fonctionne

L'architecture edge computing dans un contexte IoT se structure en couches. Au niveau le plus bas, les capteurs collectent les données brutes (température toutes les secondes, vibrations à haute fréquence, images de caméra). Ces données sont transmises au noeud edge (typiquement un Raspberry Pi ou un serveur embedded) qui exécute la logique de traitement local.

Le traitement edge inclut plusieurs types d'opérations. Le filtrage élimine les données redondantes ou hors plage (pas besoin d'envoyer 3 600 mesures identiques par heure si la température n'a pas changé). L'agrégation calcule des statistiques sur des fenêtres temporelles (moyenne, min, max, écart-type sur 5 minutes). La détection d'anomalies compare les mesures en temps réel avec des seuils ou des modèles appris pour déclencher des alertes immédiates. L'inférence ML exécute des modèles de machine learning légers (TensorFlow Lite) pour la classification ou la prédiction directement sur l'appareil.

Les résultats du traitement edge sont publiés via MQTT vers le backend central (Django) qui gère le stockage long terme, les tableaux de bord, les analyses avancées et la coordination entre sites. Le Raspberry Pi utilise Python pour implémenter la logique edge, avec des bibliothèques comme NumPy pour le traitement numérique, pandas pour l'agrégation temporelle, et paho-mqtt pour la communication. Docker conteneurise les services edge pour faciliter le déploiement et les mises à jour à distance.

Exemple concret

Chez KERN-IT, l'edge computing est un composant clé de nos architectures IoT. Pour un opérateur télécom belge, les Raspberry Pi déployés dans les armoires techniques ne se contentent pas de relayer les données capteurs : ils exécutent un pipeline d'edge computing complet. Localement, chaque Pi calcule des moyennes mobiles sur les relevés de température, détecte les tendances anormales (hausse rapide indiquant un début de surchauffe) et déclenche une alerte immédiate (notification MQTT + activation d'un relais de ventilation) sans attendre la réponse du serveur central.

Les données agrégées (une mesure par minute au lieu d'une par seconde) sont envoyées via MQTT vers notre backend Python (Flask ou Django selon le projet) et visualisées sur KERN MAP. En cas de perte de connectivité réseau, le Raspberry Pi continue de collecter et de traiter les données localement, les stockant dans un buffer SQLite. Dès que la connexion est rétablie, les données sont synchronisées automatiquement. Cette architecture a réduit le volume de données transférées de 95% tout en améliorant le temps de réaction aux incidents critiques de 30 secondes (aller-retour cloud) à moins de 100 millisecondes (traitement local).

Mise en oeuvre

  1. Identifier les traitements à déporter : analysez quelles opérations bénéficient d'une exécution locale (alertes temps réel, filtrage, agrégation) vs celles qui nécessitent le cloud (analyses historiques, dashboards, ML avancé).
  2. Choisir le matériel edge : Raspberry Pi 4/5 pour les projets standard, NVIDIA Jetson pour l'inférence ML sur images/vidéo, serveur local pour les sites avec de nombreuses passerelles.
  3. Développer le pipeline de traitement : implémentez le filtrage, l'agrégation et la détection d'anomalies en Python sur le Raspberry Pi, avec des fenêtres temporelles configurables.
  4. Implémenter le buffer offline : ajoutez un stockage local (SQLite, fichiers JSON) pour les données en attente de synchronisation, avec un mécanisme de reprise automatique après reconnexion.
  5. Conteneuriser les services : empaquetez le pipeline edge dans des conteneurs Docker pour un déploiement reproductible et des mises à jour à distance via Fabric ou Ansible.
  6. Monitorer les noeuds edge : surveillez l'état de santé des Raspberry Pi (CPU, mémoire, espace disque, température) via des métriques publiées sur MQTT et affichées sur le dashboard central.

Technologies et outils associés

  • Raspberry Pi : plateforme edge computing la plus utilisée dans l'IoT, offrant un OS Linux complet et des interfaces GPIO pour les capteurs.
  • Docker : conteneurisation des services edge pour un déploiement uniforme et des mises à jour simplifiées sur les flottes d'appareils.
  • MQTT : protocole de messagerie léger pour la communication entre les noeuds edge et le backend central.
  • TensorFlow Lite : version allégée de TensorFlow pour l'inférence de modèles ML directement sur les appareils edge.
  • Python (NumPy, pandas) : langage et bibliothèques pour le traitement numérique et l'agrégation de données sur les noeuds edge.
  • SQLite : base de données embarquée utilisée comme buffer local pour le stockage offline des données en attente de synchronisation.

Conclusion

L'edge computing transforme les architectures IoT en rapprochant l'intelligence du terrain, réduisant la latence, la bande passante et la dépendance au cloud tout en améliorant la résilience et la conformité RGPD. Ce n'est pas une alternative au cloud mais un complément essentiel qui optimise l'ensemble de la chaîne de traitement. Chez KERN-IT, nous implémentons l'edge computing sur Raspberry Pi au coeur de nos solutions IoT, combinant le traitement local Python avec notre backend Python (Flask ou Django selon le projet) et la visualisation KERN MAP pour offrir à nos clients belges des systèmes de monitoring réactifs, fiables et économiques.

Conseil Pro

Implémentez toujours un buffer local (SQLite ou file de messages persistante) sur vos noeuds edge avant de les déployer. La connectivité réseau n'est jamais fiable à 100%, et perdre des données capteurs pendant une coupure réseau peut invalider des heures de monitoring. Le buffer garantit la continuité des données.

Un projet en tête ?

Discutons de comment nous pouvons vous aider à concrétiser vos idées.