Cloudifier Enterprise Edge avec des composants Open Source

author-image

Par

L'egde computing fait son entrée auprès du grand public, tandis que les entreprises cherchent à étendre le cloud aux sites locaux et à tirer parti de l'IoT et des applications professionnelles numériques transformationnelles. Les dirigeants I&O [infrastructure et opérations] doivent intégrer l'egde computing dans leurs plans de cloud computing en tant que base pour de nouveaux types d'applications à long terme.1

Bob Gill, analyste chez Gartner

Enjeux

Les technologies de gestion et de traitement des charges de travail informatiques de l'entreprise - les technologies opérationnelles (TO), les technologies des communications (TC) et les technologies de l'information (TI)- ont connu une évolution constante au cours des dernières années. Les défis liés à la gestion d'interactions complexes dans un environnement qui s'étend du centre de données à la périphérie et qui comprend des services hybrides et multicloud nécessitent des capacités de mise à l'échelle fluide des ressources de calcul, de stockage et de mise en réseau pour s'adapter à des exigences en évolution rapide. Cinquante pour cent des données d'entreprise devraient être créées et traitées en périphérie d'ici 2022, et cela devrait atteindre soixante quinze pour cent d'ici 2025.2 Cette croissance du traitement des données à la périphérie accélère l'utilisation des services d'edge computing natifs du cloud et des services cloud distribués.

Les fournisseurs de services de communication (CSP) mettent tout en œuvre pour monétiser les investissements 5G. L'edge computing offre diverses opportunités aux CSP pour répondre aux cas d'utilisation d'Enterprise Edge en utilisant diverses fonctionnalités 5G telles que la faible latence ultra-fiable (uRLLC) pour augmenter les revenus de l'entreprise et l'expérience client. Le développement de modèles d'IA à la périphérie et la gestion de ces modèles représentent un défi majeur pour les FSC dans le traitement des nouveaux cas d'utilisation d'Enterprise Edge.3

L'edge computing natif du cloud s'est avéré être un moyen efficace pour répondre aux exigences de l'entreprise. De nombreuses entreprises explorent la possibilité d'utiliser une infrastructure convergée, basée sur des normes et sur la technologie des conteneurs et des microservices pour améliorer l'agilité, la sécurité et établir des connexions à faible latence et à large bande passante entre le cloud et la périphérie.

Les besoins de l'entreprise étaient auparavant pris en charge par du matériel de réseau virtualisé et des fonctions de réseau virtuel (VNF) pour réduire les dépenses et développer des services à valeur ajoutée supplémentaires. S'appuyant largement sur des machines virtuelles pour équilibrer les charges de travail et les ressources, ce modèle a connu un certain succès dans l'ensemble du secteur, mais il impose également des exigences informatiques plus lourdes au réseau exécutant les VNF. Un modèle plus agile et économe en ressources, également déployé sur les équipements universels de locaux clients (uCPE), tire parti de la technologie des conteneurs et des composants open source pour fournir une solution plus résiliente et plus facile à gérer.

Les principaux problèmes auxquels sont confrontées les entreprises qui évaluent les implémentations d'edge computing au sein de leurs activités afin de consolider les opérations de TO, de TC et de TI sont les suivants :

  • Un accès facile aux services cloud : les entreprises clientes ont besoin d'un moyen ouvert, flexible et rentable d'accéder aux avantages obtenus lors de l'extension du cloud à la périphérie de l'entreprise. La rapidité et la facilité avec lesquelles les réseaux peuvent être configurés pour atteindre la périphérie est une considération importante.
  • Améliorer l'agilité de l'entreprise : les entreprises clientes s'efforcent de construire des systèmes qui peuvent répondre à l'évolution rapide des conditions de l'entreprise sans investir de grosses sommes dans des composants matériels spécialisés ou des logiciels propriétaires. L'agilité est également facilitée grâce à la mise à disposition d'un moyen simple et sécurisé permettant d'obtenir une connectivité Internet à l'échelle de l'entreprise sans avoir besoin d'une solution personnalisée et exclusive.
  • Simplifier les exigences en matière de personnel : les entreprises doivent être en mesure de réduire les exigences en matière de formation du personnel sur site grâce à la gestion automatisée du cycle de vie des logiciels, au contrôle des politiques via un point de vue à vitre unique et à des processus de maintenance facilités.
  • Trouver des moyens de réduire les coûts CapEx et OpEx : en regroupant les charges de travail CT, IT et OT sur un serveur de périphérie unique, des économies de coûts peuvent être réalisées, ce qui réduit les dépenses d'équipement et les coûts opérationnels.
  • Développer des implémentations CPE fiables et interopérables : la sélection des composants matériels et logiciels pour le déploiement d'une solution cloud native fonctionnelle éprouvée nécessite de traiter divers problèmes, notamment la connectivité réseau, l'orchestration, la sécurité organisationnelle et le développement de plate-forme.
  • Contribuer à la protection des données et respecter les réglementations en matière de résidence et de confidentialité des données : les entreprises peuvent bénéficier des différentes applications d'apprentissage automatique que les services cloud fournissent tout en protégeant leurs données.
  • Amélioration de la latence des applications : le traitement des données est de plus en plus nécessaire à proximité de l'endroit où les données sont générées, en particulier avec les applications d'analyse prédictive de l'IA.
  • Amélioration de la visibilité : les équipes CloudOps gérant un grand nombre de sites et d'applications cloud de pointe ont besoin d'une visibilité cohérente de leur plateforme numérique pour chaque site.
  • Augmentation de la disponibilité : les sites de cloud périphérique distribués sur site contribuent à augmenter la disponibilité du système, réduisant ainsi la nécessité de dépendre de processus manuels.

Solution

Un partenariat technologique forgé par Intel, IBM® et Red Hat fournit une solution cloud native tournée vers l'avenir aux entreprises clientes qui cherchent à capitaliser sur des services de pointe conçus avec des composants basés sur des normes. Une nouvelle solution Enterprise Edge pour les CPE universels, avec Red Hat® OpenShift®, IBM Cloud Satellite et IBM Cloud Pak pour l'automatisation du réseau, répond aux principaux défis rencontrés par les entreprises qui migrent vers des environnements natifs du cloud et connectent les systèmes locaux à la périphérie avec des ressources cloud. Utilisant du matériel commercial standard (COTS) basé sur l'architecture Intel®, cette solution Enterprise Edge offre une large gamme de services réseau, notamment un réseau étendu défini par logiciel (SD-WAN) pour une disponibilité supérieure, des services de pare-feu, de routage et de commutation, Wi-Fi, etc. Des fonctionnalités supplémentaires peuvent être activées dans la solution, telles qu'une passerelle d'accès sans fil (WAG), une prise en charge de l'intelligence artificielle/apprentissage automatique (AI/ML), des capacités d'Internet des objets (IoT), etc.

La solution répond aux défis suivants :

Accès : les composants matériels et logiciels testés et validés offrent une approche simplifiée pour le développement et la mise en œuvre d'une infrastructure native du cloud sur site. La solution offre une connectivité transparente pour les entreprises communiquant avec des succursales partout dans le monde dans un cadre gérable, sécurisé et facile à déployer. L'environnement basé sur Kubernetes fonctionne sur Red Hat OpenShift Cluster Manager, allouant des ressources de calcul, de mise en réseau et de stockage et équilibrant les charges de travail, offrant aux entreprises clientes un accès flexible et extensible aux services basés sur le cloud. IBM Cloud Satellite étend les services IBM Cloud à la périphérie de l'entreprise avec Red Hat OpenShift Kubernetes Service (ROKS).

Agilité : la plateforme conteneur - Red Hat OpenShift Container Platform Plus - représente la première solution native du cloud pour gérer les processus virtualisés et conteneurisés. Cette plateforme permet aux entreprises clientes de déployer rapidement des applications et des microservices dans les succursales locales et d'appliquer l'automatisation, des fonctionnalités avancées de provisioning guidées par l'IA et la gestion du cycle de vie des logiciels pour prendre en charge les pratiques et les politiques commerciales. IBM Cloud Pak for Network Automation contribue à la solution en fournissant aux entreprises des opérations réseau automatisées basées sur l'IA et une plate-forme pour développer et déployer rapidement de nouveaux services à la périphérie. IBM Cloud Satellite fournit des outils de développement cohérents pour améliorer la vitesse de développement à travers le cloud public et les déploiements d'applications périphériques.

Besoins en formation du personnel simplifiés : la solution Enterprise Edge réduit les besoins en personnel spécialisé et formé pour effectuer les tâches de maintenance, de mise à jour et de configuration dans le réseau ou avec l'uCPE à la périphérie. Le modèle de contrôle centralisé de la solution fournit une automatisation axée sur les politiques et peut être combiné avec des outils d'IA

pour gérer intelligemment de nombreux processus de périphérie d'entreprise. IBM Cloud Satellite est une solution de services cloud gérée par IBM qui offre un panneau de verre unique pour les charges de travail à travers le cloud distribué, la gestion de l'ingénierie de fiabilité du site (SRE) des services cloud et la configuration et la livraison des ressources Kubernetes basées sur des règles.

CapEx et OpEx réduits : la plate-forme de conteneur OpenShift permet d'exécuter diverses applications sur un noyau partagé, prenant en charge la consolidation des opérations CT, OT et IT sur un seul serveur. L'utilisation de conteneurs pour les opérations d'entreprise génère une empreinte bien moindre et une consommation d'énergie plus faible que les machines virtuelles entièrement fonctionnelles.

Le développement et la gestion des machines virtuelles peuvent être complexes. Chaque machine virtuelle, de part sa conception, contient une image distincte du système d'exploitation et possède une empreinte de stockage qui s'étend généralement sur plusieurs gigaoctets. La portabilité des applications sur les clouds hybrides ou les installations d'edge computing est très limitée. En comparaison, les conteneurs ont une excellente portabilité sur site et dans les environnements cloud, ce qui génère une empreinte plus faible, souvent de l'ordre du mégaoctet, une gestion plus simple que les machines virtuelles, une méthode intégrée pour des mises à jour logicielles et des correctifs efficaces, et des temps de démarrage des applications rapides. Les services IBM Cloud Satellite Infrastructure fournissent une infrastructure cloud dédiée sur site (IaaS) avec une consommation mensuelle OpEx et un dimensionnement flexible sans engagement d'infrastructure à long terme. Ces facteurs contribuent à abaisser les valeurs CapEx et OpEx pour l'entreprise.

S'appuyer sur des composants basés sur des normes : la solution Enterprise Edge pour CPE universel est conçue avec des composants open source, ce qui facilite la conception, le développement et le déploiement d'une solution complète, minimise les problèmes d'interopérabilité et offre de nombreux modules complémentaires et améliorations grâce à l'écosystème de l'edge computing et l'IoT. La prise en charge de l'architecture pour Intel® Smart Edge Open donne aux développeurs l'accès à une boîte à outils logicielle Multi-Access Edge Computing (mec) pour améliorer les capacités de service et optimiser les performances pour une grande variété de cas d'utilisation d'entreprise.

La plate-forme de conteneur Red Hat OpenShift étend la flexibilité et l'interopérabilité d'une infrastructure ouverte basée sur des normes à un large éventail de cas d'utilisation natifs du cloud, offrant des fonctionnalités d'automatisation et de gestion avancées aux entreprises opérant à la périphérie.

Haute disponibilité et sécurité : les fonctions de réseau disponibles natives du cloud, comprenant des fonctionnalités de pare-feu conteneur et de réseau SD-WAN intelligent, offrent une sécurité élevée et une haute disponibilité pour les options de connectivité externes.

Ingrédients et contributions Red Hat

La solution Enterprise Edge comprend la plate-forme de conteneur Red Hat OpenShift Plus, une plateforme de nouvelle génération pour l'hébergement d'applications natives du cloud. La plate-forme de conteneur Red Hat OpenShift est une plate-forme de conteneurs Kubernetes prête à l'emploi avec des opérations automatisées en pile complète pour gérer les déploiements hybrides et multicloud. Elle permet de fournir des applications plus rapidement et de rendre les développeurs plus productifs. La gestion automatisée du cycle de vie offre une sécurité accrue, des solutions d'exploitation personnalisées, des opérations de cluster faciles à gérer et une portabilité des applications. Cette solution de référence, la première implémentation native du cloud prête à être commercialisée pour fournir des services uCPE étendus, a été optimisée pour améliorer les performances et la fiabilité sur une plate-forme basée sur l'architecture Intel.

Red Hat OpenShift Platform Plus offre une plateforme cloud hybride unique permettant aux entreprises de créer, déployer, exécuter, gérer, automatiser et sécuriser des applications intelligentes à grande échelle. OpenShift Platform Plus comprend :

  • Red Hat OpenShift Container Platform – un ensemble complet de services qui aide les développeurs à coder rapidement les applications tout en offrant flexibilité et efficacité aux équipes d'exploitation informatique.
  • Red Hat Advanced Cluster Security for Kubernetes – une solution qui fournit une sécurité native de Kubernetes pour améliorer la sécurité de l'infrastructure et de la charge de travail tout au long du cycle de vie de l'application.
  • Red Hat Advanced Cluster Management for Kubernetes – pour une visibilité étendue de tout un domaine Kubernetes avec des capacités intégrées de gouvernance et de gestion du cycle de vie des applications.

Dans cette solution, les fonctionnalités de Red Hat OpenShift Container Platform Plus sont complétées par plusieurs autres solutions Red Hat, notamment :

  • Plate-forme d'automatisation Red Hat Ansible – Jette les bases de l'automatisation de la construction et de l'exploitation au sein d'une entreprise. La plate-forme comprend tous les outils nécessaires à la mise en œuvre de l'automatisation à l'échelle de l'entreprise pour le déploiement et la configuration des uCPE, et la gestion du cycle de vie des fonctions de réseau de conteneurs natifs du cloud (CNF) et des fonctions de réseau virtuel (VNF) dans les bureaux d'entreprise situés dans le monde entier.
  • Red Hat Enterprise Linux – Offre une fiabilité et une évolutivité d'entreprise éprouvées dans divers environnements d'exploitation - nuages métalliques, virtuels, conteneurs et hybrides.

Ingrédients et contributions IBM

IBM fournit des services cloud distribués à la périphérie de l'entreprise avec du matériel et des options IaaS dotées d'une technologie d'automatisation, d'orchestration et de gestion du cycle de vie des fonctions et des applications réseau. Les technologies fournies par IBM comprennent :

  • IBM Cloud Satellite – Déploie et exécute des applications de manière cohérente sur site, en edge computing et dans les environnements de cloud public de n'importe quel fournisseur de cloud.
  • IBM Cloud Pak pour l'automatisation du réseau – La plateforme cloud de télécommunications alimentée par l'IA automatise les opérations réseau avec une simplicité sans contact.
  • IBM Edge Application Manager – Met à l'échelle et exécute des solutions de périphérie dans divers environnements hybrides en utilisant des techniques de gestion autonomes.

IBM Cloud Satellite et Red Hat OpenShift permettent aux fournisseurs de services de communication (CSP) d'étendre le cloud telco, offrant des fonctionnalités CPE sur site aux petites et moyennes entreprises ainsi qu'aux grandes entreprises. Cela permet de créer des opportunités pour de nouveaux produits et services gérés de niveau de service opérateur.

Ingrédients et contributions Intel

La base matérielle sur laquelle fonctionne la solution Enterprise Edge comprend les processeurs Intel® Atom®, les processeurs Intel Xeon® D et les processeurs évolutifs Intel® Xeon®. Intel a fait progresser différentes implémentations Edge depuis plusieurs années, notamment l'IoT, l'entreprise et le réseau Edge, en collaborant activement avec les partenaires de l'écosystème pour atteindre une convergence plus efficace des charges de travail à l'aide des technologies uCPE émergentes. Les conceptions de référence de solution et les vérifications de performance garantissent un traitement de la charge de travail éprouvé et prévisible ainsi qu'une haute fiabilité.

Les configurations de la solution Enterprise Edge varient en fonction des cas d'utilisation spécifiques. Travaillant en étroite collaboration avec Red Hat, à mesure que la transformation numérique a été largement adoptée par les fournisseurs de services de communication, Intel a développé une conception de référence d'infrastructure de virtualisation des fonctions réseau (NFVI) pour offrir un service de qualité de production aux FSC. La conception de référence fournit une base pour les fournisseurs de logiciels indépendants (ISV) qui développent des solutions de conception de cloud réseau, notamment des implémentations uCPE, pour assurer l'interopérabilité des composants. Les détails des tests de performance à utiliser comme mesure pour établir les accords de niveau de service constituent une autre caractéristique utile de la conception de référence.

En tant que plate-forme agile pour la mise en place d'une architecture native du cloud, les ingrédients Intel offrent les avantages suivants aux entreprises clientes :

  • Capacité de charge de travail flexible – L'architecture, basée sur le processeur Intel Atom, le processeur Intel Xeon D et la famille de processeurs évolutifs Intel® Xeon®, prend en charge toute la gamme des charges de travail rencontrées au niveau de l'entreprise. Les cas d'utilisation des applications comprennent le web, la base de données, la mise en réseau, les applications de sécurité, la cryptographie, les mégadonnées et l'inférence IA.
  • Sécurité renforcée des conteneurs – Dans les environnements où la haute sécurité est privilégiée, la technologie de virtualisation basée sur les fonctionnalités de l'architecture Intel permet de garantir que les conteneurs et les microservices associés sont isolés au niveau des conteneurs.
  • Opérations cryptographiques accélérées – Prise en charge de processus cryptographiques simplifiés et à grande vitesse offrant une protection optimale des données en cours d'utilisation, en transit et au repos.
  • Sécurité accrue des données – Pour les tâches informatiques confidentielles, les applications distribuées à l'aide de la technologie des conteneurs peuvent être strictement confinées et les droits contrôlés avec précision.
  • Avantages de la sécurité des plateformes – Pour maintenir un niveau élevé de sécurité des plateformes, les fonctionnalités basées sur l'architecture Intel permettent de mieux sécuriser les processus de démarrage, facilitent l'attestation des plateformes et offrent un cadre prêt pour Kubernetes.

Pour compléter l'innovation en silicium, Intel est un contributeur de premier plan depuis de nombreuses années en matière de développement de communauté de logiciels open source. Les contributions comprennent des travaux pour l'ensemble des projets de la Cloud Native Computing Foundation (CNCF) dédiés à l'évolution native du cloud, permettant à l'écosystème d'exploiter pleinement et de manière transparente les capacités matérielles. Cela inclut également le projet de base Kubernetes, qui prend en charge un cadre de plug-in flexible et extensible, et des extensions de découverte de fonctionnalités de nœuds (NFD) qui permettent la découverte et la consommation de capacités matérielles uniques d'une manière neutre pour le fournisseur.

Intel a développé une large gamme d'extensions de cette manière, tout en contribuant à des projets CNCF pour le maillage de service, la connectivité réseau, le stockage, l'optimisation du plan de données réseau, la planification et bien d'autres domaines encore. S'il est vrai que la technologie native du cloud et l'innovation logicielle ont abstrait bon nombre des complexités des topologies sous-jacentes que l'on trouve dans les infrastructures de réseaux et d'edge computing, certains aspects importants de ces segments de marché n'ont pas été abordés, et des frais généraux ont été introduits qui ne répondaient pas aux exigences uniques de certaines applications dans l'espace. L'innovation d'Intel permet, de manière relativement transparente, de découvrir et de consommer les capacités matérielles, ce qui offre aux citoyens un réseau et un edge computing de premier ordre dans le paysage natif du cloud.

Intel travaille également en collaboration avec la communauté open source pour créer des solutions innovantes, telles que Red Hat OpenShift et Intel Smart Edge Open, une boîte à outils logicielle informatique de périphérie sans redevance optimisée pour les cas d'utilisation informatique de périphérie sur l'architecture Intel. La boîte à outils offre une distribution certifiée Kubernetes avec des chemins de développement flexibles et faciles ainsi qu'un ensemble optimisé de capacités qui aident à intégrer et à gérer les applications et les fonctions réseau sur tout type de réseau.

Capacités des solutions et avantages pour les entreprises

Les entreprises qui prennent leurs distances par rapport aux appareils traditionnels ont une formidable opportunité d'améliorer leur efficacité, agilité et gérabilité en en passant à un environnement CPE universel basé sur les CNF et les VNF. Les sections suivantes résument les capacités et les avantages qui peuvent être obtenus.

La convergence accroît l'agilité et l'efficacité des processus

La convergence est un thème récurrent et cohérent lors de l'évaluation des capacités et des avantages des déploiements Enterprise Edge. Bob Ghaffari, directeur général de la division Enterprise and Cloud Networking chez Intel, envisage de multiples approches de la convergence, notamment la convergence des charges de travail, la convergence des plateformes d'orchestration, de gestion et d'infrastructure, et la convergence des plateformes matérielles. Décrivant certains des projets dans lesquels Intel est impliqué, Ghaffari a déclaré : « Un bon exemple de cette tendance technologique est une charge de travail d'analyse vidéo de détail pour la périphérie sur une plate-forme uCPE fonctionnant côte à côte avec la mise en réseau et les fonctions de sécurité. Nous voyons nos partenaires écosystémiques bâtir des solutions autour de cette convergence

Si nous avons la capacité de prendre des spécifications ouvertes, de définir une architecture ouverte et de créer des plateformes ouvertes avec lesquelles tout le monde peut innover, cela signifie que nous pouvons tous commercialiser des solutions beaucoup plus rapidement. Ainsi, l'ouverture nous permet à tous d'être gagnants grâce à la collaboration. Mais cela nous permet également de fournir des solutions innovantes à nos clients et de faire avancer le secteur beaucoup plus rapidement.4

Rajesh Gadiyar, vice-président et directeur technique, Network Platforms Group, Intel

QNAP est un exemple. L'entreprise dispose de fonctions intégrées de vidéosurveillance et d'analyse vidéo en plus d'une plate-forme uCPE, qui exécute également des fonctions de sécurité SD-WAN et vFirewall. L'analyse vidéo utilise la boîte à outils OpenVINO™ sur la couche logicielle et sur la couche matérielle Intel Movidius™ Myriad™ X Vision Processing Unit (VPU) pour offrir un moteur de calcul neuronal dédié afin d'accélérer l'inférence d'apprentissage profond. Elle a également intégré les microservices de la boîte à outils Intel Smart Edge Open dans son système d'exploitation NFVI pour ajouter des capacités d'orchestration natives du cloud. » 5

Les pratiques DevSecOps renforcent la sécurité de l'entreprise

Alors que les attaques malveillantes augmentent sur les réseaux d'entreprise, DevSecOps (développement, sécurité et opérations) a pris de l'ampleur en tant que moyen de prévention des violations. L'offre de conteneurs sécurisés pour les applications d'entreprise critiques à la périphérie de l'entreprise nécessite l'activation d'un flux de travail DevSecOps et l'intégration de la planification et de la conception des dispositions de sécurité aux toutes premières étapes du développement. Afin d'offrir des lignes directrices aux entreprises qui souhaitent des protections fortes pour les conteneurs, le Département américain de la défense a publié le Guide de durcissement des conteneurs en octobre 2020. Le guide décrit les pratiques DevSecOps qui devraient être appliquées pour prévenir les atteintes à la sécurité et atténuer les risques lors de l'utilisation de la technologie des conteneurs.

En développant sa plate-forme Kubernetes de qualité professionnelle, Red Hat OpenShift-Red Hat a conçu un framework DevSecOps complet qui comprend de nombreuses fonctionnalités intégrales, des chaînes d'outils DevOps disponibles et des solutions de partenaires de sécurité recommandées pour fournir des méthodes afin de déployer plus facilement des conteneurs tout en minimisant les risques et en identifiant et bloquant les vecteurs d'attaque. Le cadre et ses capacités sont abordés dans un aperçu de la solution Red Hat DevSecOps, Comment déployer une solution DevSecOps complète.

Le défi d'établir un environnement Kubernetes efficace et sécurisé pour les applications d'entreprise indispensables exige prévoyance et planification. Les pratiques DevSecOps peuvent améliorer la mission d'une entreprise et renforcer la sécurité sur l'ensemble de la plate-forme de conteneurs.

L'automatisation réduit les tâches de maintenance et la gestion du cycle de vie

Les tâches de maintenance associées aux succursales basées sur le cloud et connectées par l'intermédiaire de SD-WAN peuvent être importantes et les processus manuels à grande échelle sont sujets à des erreurs humaines. Grâce à l'automatisation intelligente, les systèmes réseau et les serveurs complexes peuvent être gérés efficacement avec une plus grande visibilité sur les fonctionnalités des composants et l'efficacité globale de l'infrastructure.

IBM Cloud Pak for Network Automation offre des fonctionnalités d'automatisation intelligente pour orchestrer des fonctions de réseau virtuelles et natives du cloud en quelques minutes et un portefeuille d'applications et de services à la pointe de la technologie. Avec la couche d'orchestration fournie par IBM pour lier tous les composants de la pile, les FSC peuvent profiter pleinement des avantages de l'automatisation, tels que le provisionnement sans contact. Les FSC sont alors en mesure de créer une plus grande différenciation concurrentielle des nouveaux services impliquant des fonctions de réseau et des tranches spécifiques à l'utilisation mises en œuvre sans avoir besoin d'une intégration personnalisée.

IBM Edge Application Manager permet aux FSC de déployer et de gérer jusqu'à 40 000 nœuds périphériques. Il tire parti de la gestion autonome de la charge de travail pour surveiller en permanence l'état des nœuds du point de terminaison. Il surveille également les performances des applications, notamment les applications d'inférence de l'IA exécutées au sein de ces nœuds.

La technologie des conteneurs améliore la portabilité et l'interopérabilité des applications

Les déploiements conteneurisés à la périphérie de l'entreprise offrent agilité, sécurité et portabilité pour soutenir les infrastructures natives du cloud, offrant un moyen d'utiliser des composants, des outils et des processus de flux de travail familiers que les développeurs utilisent généralement dans les environnements informatiques. La distribution de correctifs et de mises à jour d'applications métier dans des conteneurs permet de gérer les cycles de vie des logiciels de manière efficace et très visible. Cette fonctionnalité améliore également la sécurité car toutes les vulnérabilités détectées peuvent être rapidement corrigées via la distribution de nouveaux binaires d'application dans des conteneurs à travers plusieurs succursales de manière rationalisée et automatisée.

Les conteneurs construits conformément aux lignes directrices de l'OCI fonctionneront de manière fiable sur toutes les infrastructures natives du cloud qui respectent les normes de l'OCI. Cette approche est une amélioration par rapport aux solutions propriétaires pour le déploiement de logiciels qui compliquent les processus et les tâches. Les conteneurs simplifient la portabilité des applications à la périphérie de l'entreprise et fournissent une utilisation efficace des ressources de réseau, de système et de stockage disponibles grâce à la virtualisation.

Environ 10 % des données générées par les entreprises sont créées et traitées en dehors d'un centre de données ou d'un cloud centralisé traditionnel. D'ici 2025, Gartner prévoit que ce chiffre atteindra 75 %. » 6

Conclusion

La solution Enterprise Edge, combinant les composants Intel, Red Hat et IBM dans un framework basé sur des normes, apporte aux entreprises des services CPE Edge natifs du cloud, fournissant l'équivalent d'un cloud pour les services réseau qui peuvent fonctionner sur site pour les clients. Les entreprises disposant d'un grand nombre de sites de succursales, de fournisseurs de services et autres ont grand intérêt à choisir un moyen fiable et rentable de déployer des fonctions réseau grâce à la portabilité légère de la plate-forme de conteneurs Red Hat OpenShift et du logiciel d'orchestration fourni par IBM. L'infrastructure basée sur l'architecture Intel peut fournir le niveau de traitement nécessaire pour diverses applications à la périphérie de l'entreprise : les processeurs Intel Atom compacts et économes en énergie, la famille de processeurs Intel Xeon D pour les charges de travail lourdes et la famille de processeurs évolutifs Intel hautes performances pour l'IA/ML et l'analyse.

En savoir plus

Intel® Network Builders

Intel® Network Builders favorise un écosystème dynamique pour mener la transformation du réseau de demain.

En savoir plus ›