Source : Data at the edge: Meet modern data processing demands with edge computing by Eric Roshaan
Nous avons tous expérimenté la latence sous une forme ou une autre. C’est malheureusement quelque chose qui nous est trop familier. Nous sommes même allés jusqu’à l’accepter comme un élément normal, quoique indésirable, de l’expérience de l’utilisateur. Pourtant, malgré les diverses mesures prises au fil des ans, ce problème existe toujours et est toujours aussi perturbant.
Le fait est qu’aussi exaspérante que soit la latence, elle n’a pas nécessairement toujours des “conséquences désastreuses”, du moins pas pour l’utilisateur occasionnel. Dans ce cas, les ramifications de la latence se limitent généralement à l’expérience de l’utilisateur (oui, il est vrai que c’est une mauvaise image pour celui qui a développé le produit ou le service, mais l’utilisateur ne perdra rien d’autre que sa patience, pour l’essentiel). En revanche, les effets de la latence peuvent être beaucoup plus graves dans d’autres cas, notamment en raison de l’avènement de nouvelles fonctions automatisées qui ne nécessitent que peu ou pas de temps de latence.
Prenons l’exemple d’une voiture autopilotée. C’est l’un des meilleurs exemples d’une forme de technologie qui nécessite le moins de temps de latence possible. Les données recueillies par les nombreux capteurs du véhicule doivent être traitées en un minimum de temps pour que les ordinateurs de bord puissent prendre des décisions en une fraction de seconde pendant la conduite. Vous n’avez pas besoin de moi pour savoir ce qui pourrait se passer si la latence faisait son apparition lorsque vous êtes à bord d’un véhicule autonome sur une autoroute. C’est la recette d’un désastre.
De nos jours, les entreprises fournissent un large éventail de services. Que se passe-t-il si vous êtes une grande entreprise qui a besoin que les données soient transmises et traitées instantanément avec une faible latence ? Dans ce cas, la latence peut devenir un problème qui doit être résolu, et rapidement.
La bonne nouvelle, c’est que si la latence ne peut être éliminée, elle peut très certainement être minimisée. C’est là qu’intervient l’Edge Computing ou l’informatique de périphérie.
Qu’est-ce que l’edge computing au juste ?
Dans une architecture traditionnelle d’informatique en cloud, les données sont transmises de leur source à un centre de données complexe et centralisé. Ces données sont ensuite traitées et renvoyées à l’utilisateur ou à l’application qui les a demandées.
L’Edge Computing , quant à lui, est un modèle informatique émergent dans lequel des micro-centres de données hautement spécialisés, dotés de capacités de stockage et de calcul relativement limitées, sont installés aussi près que possible de la source des données pour permettre un traitement plus rapide et plus fiable (c’est-à-dire que l’on rapproche le centre de données des données, et non l’inverse). Ce modèle informatique est beaucoup plus simple que le cloud computing traditionnel : les données n’ont pas à franchir autant d’obstacles, ce qui signifie que le temps de latence sera réduit, ainsi que toute une série d’autres avantages que nous examinerons plus en détail ultérieurement.
La décentralisation est la clé
Alors que le volume de données à notre disposition continue d’augmenter à un rythme exponentiel et que l’internet des objets est de plus en plus largement adopté, nous atteindrons bientôt un point où il ne sera plus viable de s’appuyer entièrement sur des centres de données centralisés pour le traitement des données.
C’est là que l’Edge Computing entrera en jeu. En traitant les données brutes localement, nous pouvons alléger la charge du serveur de données central, ce qui signifie que seules les informations traitées pertinentes (qui nécessitent des capacités de traitement plus élevées) sont transmises au centre pour être traitées ultérieurement. Il s’agit en quelque sorte d’un filtre qui empêche les données inutiles ou non pertinentes d’atteindre le cloud.
C’est une situation gagnant-gagnant. Comme ces micro-centres de données sont hautement spécialisés et proches de la source de données, ils peuvent travailler sur des données sensibles au temps avec un temps de latence minimal. De plus, le centre de données central n’a plus besoin de gaspiller des ressources et de la bande passante sur des données brutes et peut se concentrer uniquement sur ce qui peut faire le meilleur usage de ses capacités.
Il ne s’agit donc pas d’un avenir où l’edge computing remplacera totalement les modèles traditionnels du cloud computing, mais plutôt d’un avenir où l’edge computing et le cloud computing seront utilisés ensemble pour améliorer l’efficacité, comme indiqué ci-dessus.
L’edge computing est plus qu’une solution aux problèmes de latence et de bande passante
Nous avons déjà vu comment l’Edge Computing peut réduire les temps de latence et aider les entreprises à optimiser leur bande passante, mais ses avantages ne s’arrêtent pas là. Voici quelques autres avantages qu’il apporte :
Une sécurité renforcée
Le concept d’Edge Computing lui-même présente intrinsèquement certains avantages par rapport au cloud. Je m’explique : les serveurs cloud sont conçus avec plusieurs fonctions interconnectées à l’esprit, alors que l’Edge Computing est plus spécialisé.
Lorsqu’un dispositif périphérique est piraté, seules les informations relatives à cette fonction ou à ce processus spécifique peuvent être extraites. En revanche, dans le cas du cloud computing, une brèche peut compromettre des informations plus complètes et contextuelles relatives à tous les processus exécutés sur le serveur.
En outre, l’Edge Computing réduit la quantité et la fréquence des données transmises au Cloud Computing, ce qui réduit les possibilités d’interception des données en cours de transmission.
Plus de rentabilité
Bien que l’investissement initial puisse être important puisque vous installez vos propres serveurs périphériques près de votre lieu de travail (c’est-à-dire là où vous générez vos données), ils sont généralement moins chers à mettre en place que les serveurs cloud, car ils ne nécessitent pas autant de puissance de traitement en raison de la nature plus spécialisée des données à traiter.
En outre, la majeure partie du cloud computing que nous pratiquons aujourd’hui est rendue possible par les fournisseurs de services cloud (CSP). Ces derniers éliminent la nécessité de mettre en place vos propres serveurs privés cloud et agissent en tant que fournisseurs d’infrastructure en tant que service – moyennant une redevance, bien entendu – ce qui peut malheureusement s’avérer coûteux à long terme.
Revenons donc aux serveurs Edge : Malgré des coûts initiaux élevés, ils peuvent vous aider à réduire les coûts globaux de traitement des données, étant donné que la majeure partie du traitement des données sera désormais effectuée en interne et que très peu de données seront envoyées dans le cloud.
Plus de fiabilité
En traitant les données localement, les organisations n’ont plus besoin de rester connectées à l’internet 24 heures sur 24 et 7 jours sur 7. Cela signifie qu’elles n’ont pas à s’inquiéter des fluctuations du réseau et que les données peuvent être traitées sans interruption, même dans des endroits éloignés où l’accès à l’internet est limité.
Grâce à l’edge Computing, les opérations du réseau n’ont plus besoin de tourner autour d’un serveur central. Par conséquent, même en cas de défaillance d’un dispositif périphérique particulier, le reste du réseau ne sera pas affecté, contrairement à un cloud computing, où le serveur central peut servir de point central de défaillance.
En quoi l’Edge Computing est-il le plus utile ?
l’Edge Computing a de nombreuses applications, mais nous avons réduit cette liste aux cas d’utilisation que nous estimons les plus remarquables pour cette technologie.
Véhicules autonomes
Revenons à l’exemple des voitures autonomes. Nous avons déjà examiné les conséquences de la latence dans ce cas. Ici, l’Edge Computing peut être utilisé pour traiter instantanément les grandes quantités de données générées par les différents capteurs embarqués du véhicule. Bien que l’Edge Computing ne dispose pas d’une puissance de traitement aussi importante qu’un serveur cloud, elle a l’avantage (en ce qui concerne les véhicules autonomes) grâce à son temps de latence quasi nul, ce qui lui permet de prendre des décisions rapides sur la route.
Villes intelligentes
La ville intelligente de demain est une ville où diverses technologies sont intégrées dans les processus urbains pour faciliter un contrôle efficace, une meilleure prise de décision et une meilleure optimisation des processus, ce qui peut finalement se traduire par un niveau de vie plus élevé. Des technologies telles que l’Edge Computing constituent les fondements mêmes de ce concept et sont à l’origine de la révolution des villes intelligentes d’aujourd’hui.
Plusieurs processus de la ville intelligente, tels que la gestion automatisée du trafic et de l’énergie, impliquent le traitement instantané d’un flux régulier et continu d’informations. Collecter ces informations et les transmettre à un serveur central ne fonctionnera pas pour un certain nombre de raisons. Bien sûr, le temps de latence est un problème qui vient à l’esprit, mais il y a aussi les problèmes liés à l’éloignement des sites et même les limites du serveur central de données lui-même. En déployant plusieurs processeurs edge à travers la ville, les tâches de données simples et répétitives peuvent être effectuées en douceur et sans décalage, tandis que les fonctions plus complexes peuvent être envoyées au serveur central pour un traitement plus approfondi.
Traitement des données à distance
Les capacités de traitement des données instantanées et sans latence de L’Edge Computing peuvent être exploitées par les organisations qui ont des actifs ou des opérations dans des zones éloignées. Comme c’est le cas ici, ces données peuvent être traitées à la périphérie, même lorsque la connectivité est limitée, ce qui est normal dans un endroit éloigné.
Les organisations qui ont des environnements d’exploitation dans des zones éloignées, comme les plates-formes pétrolières offshore ou les mines, peuvent constamment surveiller et traiter les données en temps réel de ces opérations, malgré les limitations du réseau.
Services de diffusion en continu
Avec l’entrée en scène de la technologie edge computing, les services de streaming peuvent tirer parti de ses capacités pour améliorer la diffusion de contenu.
Le nombre d’appareils connectés dans le monde ne cessant d’augmenter, il n’est plus judicieux pour les services de diffusion en continu de consacrer des ressources à l’amélioration de leur infrastructure cloud. La solution consiste à créer un réseau de serveurs périphériques décentralisés, plus proches des utilisateurs. Cela peut permettre aux services de diffusion en continu de transmettre un plus grand volume de données avec une latence considérablement réduite, car ces serveurs périphériques doivent faire face à des distances et à un trafic réduits. En conséquence, les services de diffusion en continu peuvent apporter une foule d’améliorations en temps réel à leur contenu, comme une meilleure qualité vidéo et une mise en mémoire tampon réduite ou inexistante, ce qui garantit une meilleure expérience pour l’utilisateur.
À retenir
Si les avantages les plus immédiats de L’Edge Computing concernent bien sûr la réduction de la latence, nous avons également examiné quelques autres avantages qu’elle procure. Ce n’est pas pour rien que l’Edge Computing est l’une des technologies dont on parle le plus aujourd’hui et il n’est pas exagéré de dire que la plupart des données seront bientôt traitées à la périphérie.