Tendances Technologiques/Tout defini par logiciel

< Tendances Technologiques
Revision as of 11:57, 17 February 2020 by Felix.legros (talk | contribs)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)


Status Publié
Version originale 28 janvier 2020
Mise à jour 17 février 2020
Publication Officielle Tout Défini par Logiciel.pdf
Traffic cone.png Cette page est sujet à des mises à jours. On encourage toutes rétroactions. Veuillez utiliser la page de discussion pour apporter des commentaires et des suggestions. Une fois que cette version soit approuvée et finalisée, elle va être traduite.

Le tout défini par logiciel (SDx), aussi souvent appelé « SDE » ou « SDA » est le concept d’une infrastructure informatique entièrement virtualisée. De cette manière, l’infrastructure peut être livrée aux clients en tant que service.

Cacher la Vue Détaillée


Sommaire opérationnel

Comme le logiciel est intrinsèquement plus flexible que le matériel, cela donne à l’informatique la possibilité de répondre plus rapidement aux exigences opérationnelles en constante évolution. Le SDx réduit au minimum les coûts en automatisant le contrôle du processus et en remplaçant le matériel traditionnel par un logiciel. Les avantages de la réduction du temps d’approvisionnement du réseau, la simplification de l’environnement réseau, la réduction des coûts de service et l’amélioration de l’efficacité de la gestion du réseau sont les facteurs clés de la croissance rapide du marché du SDx.

La portée du travail des ingénieurs de terrain dans un environnement SDx est réduite. Les tâches de gestion et de maintenance sont simplifiées à l’aide du SDx, mais il y a encore des considérations à prendre en compte. Quel que soit l’aspect du découplage par rapport au matériel, les systèmes construits pour être entièrement virtualisés doivent encore faire l’objet de tests approfondis à l’aide du matériel sur lequel ils seront éventuellement utilisés. Dans la virtualisation de réseau, la complexité de l’infrastructure est un facteur clé de succès. Les contrôleurs nécessitant une maintenance élevée doivent être réduits au minimum, car le défaut de le faire entraînera un plus grand nombre de défaillances et une plus grande vulnérabilité aux menaces à la sécurité. Les deux principaux avantages du SDx sont l’optimisation des coûts et la réduction de la main-d’œuvre, mais l’effort humain est encore nécessaire et ne peut être négligé dans le processus. Les principes fondamentaux du système sous-jacent doivent être compris ainsi que les tendances actuelles. L’instrumentation peut alors être programmée en conséquence pour répondre à ces exigences.

Sommaire technique

En général, le SDx est obtenu par le découplage des fonctions de contrôle logiciel du matériel sur lequel il fonctionne, par l’implémentation de l’interface de programmation d’application (IPA) qui permet ce concept. En mode SDx, l’infrastructure est virtualisée, entièrement contrôlée par le logiciel et fournie en tant que service aux clients. L’automatisation est réalisée en supprimant le contrôle du matériel dans le sens où les aspects comme la configuration, le déploiement et l’approvisionnement sont contrôlés et pilotés par le logiciel.[1]

En général, « SDx » est un terme générique qui inclut trois concepts principaux :

  • Réseau défini par logiciel (SDN) : une architecture réseau pour rendre les périphériques réseau programmables. Le réseau SDN répond à l’incapacité des réseaux traditionnels à prendre en charge les besoins dynamiques et évolutifs des applications d’aujourd’hui en matière d’informatique et de stockage.[2] Le réseau SDN atteint cet objectif en séparant la gestion du réseau de l’infrastructure et des composants réseau sous-jacents. Cela signifie que le comportement du réseau peut être contrôlé à l’aide d’un logiciel externe aux périphériques de réseau physique. Les réseaux sont donc plus personnalisables du point de vue de l’offre de services, où les services peuvent être adaptés aux clients individuels. Un réseau SDN est séparé en trois couches : la couche d’application, la couche de contrôle et la couche d’infrastructure. Entre la couche de contrôle et la couche d’infrastructure se trouve ce que l’on appelle l’interface de plan de contrôle et de plan de données. La couche de contrôle est là où le logiciel SDN réside et exécute ses fonctions. Les commutateurs physiques de la couche infrastructure utiliseront soit une technologie exclusive, soit un protocole Open-Flow. Avec ce protocole, le trafic est acheminé d’une manière qui permet au serveur du plan de contrôle de dicter où les commutateurs envoient les paquets, ce qui élimine la responsabilité/fonctionnalité du plan de données. Le contrôleur exécutera également plusieurs applications de politiques, d’ingénierie du trafic et de sécurité pour contrôler les éléments du réseau via des IPA. De plus, ces IPA permettent d’intégrer rapidement de nouvelles fonctionnalités.
  • Stockage défini par logiciel (SDS) : il s’agit d’un logiciel de stockage de données qui est indépendant du matériel sous-jacent.[3] Le stockage s’adapte automatiquement aux nouvelles exigences en associant flexibilité des ressources et programmabilité. La programmabilité inclut la gestion basée sur des politiques et l’approvisionnement automatisé des ressources. Le logiciel est découplé du matériel. SDS vous permet d’exploiter les solutions de stockage existantes, telles que les réseaux de stockage SAN (Storage Area Network) et NAS (Network Attached Storage), sur n’importe quel matériel standard du secteur.
  • Centres de données définis par logiciel (SDDC) : il s’agit d’une infrastructure dans laquelle tous les éléments de l’infrastructure du centre de données (réseau, stockage, CPU et sécurité) sont fournis en tant que service. Le contrôle du centre de données est automatisé par logiciel. Fondamentalement, les SDDC ont trois composantes de base : la virtualisation du réseau, la virtualisation des serveurs et la virtualisation du stockage.[4]
  • Services d’application définis par logiciel (SDAS)
  • Périphérie définie par logiciel (pour IoT)
  • Calcul défini par logiciel (SDC)
  • Stockage défini par logiciel (SDS)
  • Infrastructure logicielle (SDI)

Autres termes connexes ou chevauchant partiellement les domaines du SDx :

  • Informatique définie par logiciel : le but de l’informatique logicielle est de retirer l’intelligence du matériel et de l’abstraire pour en faire une couche logicielle beaucoup plus standardisée. Les fonctions technologiques sont transférées vers une infrastructure virtualisée, présentant ainsi l’infrastructure informatique comme des bassins de ressources virtuelles et physiques.
  • Environnement défini par logiciel : dans un environnement SDE, le stockage, l’infrastructure du centre de données et la gestion du réseau sont automatisés par un logiciel intelligent plutôt que par du matériel.
  • Sécurité définie par logiciel : il s’agit d’une nouvelle approche pour améliorer la sécurité dans un environnement réseau défini par logiciel. Parce que la sécurité définie par logiciel est entièrement basée sur des logiciels, la politique de sécurité est élastique et la sécurité est disponible sur demande.[5]
  • Hyperviseur défini par logiciel (SDH) - désigne la virtualisation de la couche hyperviseur et sa séparation de sa console de gestion.

Utilisation par l’industrie

D’ici 2020, la taille de l’univers numérique doublera tous les deux ans. L’industrie subit une pression croissante pour remplacer son infrastructure informatique existante par des modèles innovants permettant de réduire les coûts. Par conséquent, les entreprises adoptent de plus en plus le SDx, car il offre un modèle opérationnel plus simple, principalement grâce à la virtualisation et à la flexibilité apportée par le logiciel de contrôle du matériel. Dans ce marché en pleine croissance, une abondance de solutions techniques et de produits devient disponible afin d’atomiser tous les aspects de la prestation des services informatiques. On prévoit une croissance du marché de 32 % au cours de la période de 2016-2020. Le virage vers la virtualisation de l’infrastructure informatique est l’occasion de réduire significativement les coûts.[6]

Les exemples les plus connus et les plus adoptés du concept de SDx en usage sont la plateforme en tant que service (PaaS) et l’infrastructure en tant que service (IaaS) de l’infonuagique. Propulsée par la virtualisation et le SDx, l’infonuagique est devenue un concept courant et la solution informatique de choix au cours des dernières années au point où certains ou les principaux fournisseurs informatiques ont réorienté leur stratégie commerciale vers ce concept. Un exemple est Microsoft qui, en 2011, a consacré 90 % de son budget de 9,6 milliards de dollars en R et D à l’infonuagique.[7] Un investissement qui a porté ses fruits puisque Microsoft est devenue la troisième entreprise au monde à atteindre 1 000 milliards de dollars de valeur marchande, grâce à son passage stratégique de l’informatique personnelle traditionnelle à l’infonuagique[8]

D’autres concurrents comme Amazon, Google, Apple, etc., investissent également massivement et comptent sur un rendement de l’investissement positif de l’infonuagique, d’autant plus que certaines grandes entreprises[9] ont déjà adopté la stratégie « informatique en nuage d’abord ». Le marché du stockage défini par logiciel représentait 4,18 milliards en 2016 et devrait croître à un taux de croissance annuel composé (TCAC) de 39,0 % pour atteindre 42,1 milliards en 2023. Le marché du stockage défini par logiciel représentait 4,18 milliards en 2016 et devrait croître à un taux de croissance annuel composé (TCAC) de 39,0 % pour atteindre 42,1 milliards en 2023.

Le marché mondial des réseaux définis par logiciel devrait afficher un TCAC de près de 24 % au cours de la période 2019-2023, selon la dernière étude de marché de Technavio. Toutefois, l’élan du marché ralentira au cours des prochaines années en raison du ralentissement de la croissance d’une année à l’autre. L’un des facteurs clés qui déterminent la taille du marché mondial des réseaux définis par logiciel est la demande croissante de solutions d’infonuagique.

Le marché mondial du calcul défini par logiciel devrait afficher un TCAC de plus de 13 % au cours de la période 2019-2023, selon la dernière étude de marché de Technavio.

La taille du marché mondial des SDDC devrait passer de 33,5 milliards de dollars américains en 2018 à 96,5 milliards de dollars américains en 2023, avec un TCAC de 23,6 % pendant la période prévision. Les SDDC permettent une gestion et une surveillance unifiées des ressources du centre de données, permettant une allocation plus rapide des ressources informatiques, de stockage et de réseau en utilisant un point de contrôle unique fourni par la solution de SDDC. Cependant, les centres de données traditionnels font face à des problèmes d’intégration des serveurs, des réseaux et de l’infrastructure de stockage dans le centre de données au moyen des technologies des SDDC. Ces facteurs peuvent restreindre l’adoption des SDDC.

Utilisation par le gouvernement du Canada

Le gouvernement du Canada (GC) compte beaucoup sur la technologie de l’information (TI) pour mener ses activités opérationnelles et ses activités quotidiennes. La TI joue un rôle essentiel dans les opérations gouvernementales tout en jouant un rôle clé dans la transformation des activités du gouvernement du Canada. La TI constitue également une composante essentielle de la stratégie du gouvernement visant à relever les défis de la transformation numérique et à améliorer les services au public dans l’intérêt des citoyens, des entreprises, des contribuables et des employés.

Le programme d’architecture de sécurité intégrée (ASI) du GC, dirigé par le Secrétariat du Conseil du Trésor du Canada (SCT) et appuyé par Services partagés Canada (SPC) et le Centre de la sécurité des télécommunications (CST), est une initiative pangouvernementale visant à fournir une approche normalisée pour élaborer une architecture de sécurité informatique qui garantit que les blocs de sécurité fondamentaux sont appliqués dans l’entreprise à mesure que l’infrastructure sera renouvelée. Ces trois intervenants ont formé le comité tripartite sur la sécurité des TI afin d’élaborer et de maintenir une vision, une stratégie et une conception uniformes et cohérentes de l’architecture de sécurité des TI dans le cadre du programme d’ASI.[10]

Le programme d’ASI du GC est divisé en huit domaines d’intérêt particuliers en matière de sécurité d’entreprise [11]: gestion des identités, des justificatifs et des accès (ICA); sécurité aux points de terminaison (END); sécurité des données (DAT); sécurité des applications (APP); sécurité des réseaux et communications (NCS); sécurité des opérations (OPS); sécurité des services informatiques et de stockage (CSS).[12]

La transition de l’architecture cible CSS est axée sur la virtualisation des services de calcul, de stockage, de fichiers, de réseau et de base de données dans le cadre d’un environnement défini par logiciel (SD).

Dans un environnement SD, l’infrastructure informatique SD est en train de passer d’un ensemble d’infrastructures matérielles normalisées et consolidées à des services virtualisés avec gestion du cycle de vie complet, à la demande, indépendamment de l’emplacement des services et actifs physiques sous jacents. Comme l’infrastructure du plan de contrôle est isolée des demandes de service et des ressources matérielles, l’infrastructure informatique peut être implémentée dans les logiciels des solutions des fournisseurs d’infonuagique, et est bien adaptée à une implémentation hybride.

Les rôles du SCT, de SPC et du CST dans l’exécution du programme d’ASI varient mais se complètent. Le rôle du SCT est d’élaborer la vision à long terme et d’établir les priorités du programme d’ASI du GC. Il dirige également l’élaboration de stratégies et de conceptions d’entreprise. Le rôle de SPC est de mettre en œuvre des conceptions pour une infrastructure de TI consolidée et d’assurer la prestation de services. Enfin, le rôle du CST consiste à fournir une expertise technique spécialisée en matière de conception d’entreprise et à contribuer au soutien et à l’examen de la conception des composantes essentielles.

Le GC prend des mesures pour transformer les anciens systèmes et l’infrastructure de TI vieillissante en un environnement intégré, sécuritaire, moderne et souple qui lui fournira ainsi qu’aux citoyens et aux partenaires, un accès fiable aux programmes et services du GC.

Les ministères et organismes du gouvernement canadien, directement ou par l’intermédiaire de ses mandataires (SPC), sont en train d’adopter le concept du SDx. Le Conseil du Trésor du Canada appuie l’informatique et d’autres concepts fondés sur le SDx par le biais de ses initiatives et directives.[13]

Les concepts de réseaux définis par logiciel (SND), de stockage défini par logiciel (SDS) et de centres de données définis par logiciel (SDDC) ont déjà été adoptés dans une certaine mesure par le GC.

Cependant, il convient de mentionner que la majorité des adoptions du SDx dans le GC à ce stade, sont à travers la solution hybride SDx et des implémentations, comme le réseau étendu[14], défini par logiciel, qui communiquent et s’intègrent avec des réseaux étendus plus traditionnels qui pourraient être géographiquement séparés, ou habitant différentes zones du réseau.

Répercussions pour Services partagés Canada


Proposition de valeur

Chaque sujet lié au SDx (SDN, SDDC, SDAS, etc.) a ses propres avantages et valeurs opérationnels particuliers. Toutefois, la valeur opérationnelle globale de la mise en œuvre du SDx est : l’amélioration de l’infrastructure hybride flexible et évolutive, l’amélioration de l’agilité, du contrôle et de la vitesse opérationnelle, l’augmentation des économies de coûts grâce à l’automatisation et l’amélioration de la sécurité.

Amélioration de l’infrastructure hybride flexible et évolutive

  • L’infrastructure logicielle est très flexible, en ce sens qu’elle permet d’améliorer les capacités d’infonuagique et de périphérie, ce qui permet aux charges de travail et aux états des applications d’être déplacés plus facilement vers et depuis les centres de données d’infonuagique et sur site. Alors que les nouveaux environnements hybrides prolifèrent, où les données clients sont souvent dispersées sur site, en colocation, dans les environnements de périphérie et à nuages multiples, la capacité à fonctionner de manière transparente dans tous les environnements est essentielle. Le SDx permet aux entreprises de travailler entre les centres de données sur site et les fournisseurs hors site avec plus de précision.
  • Les systèmes définis par logiciel permettent de passer d’un système à l’autre et de changer d’environnement lorsque cela est souhaitable. Les applications peuvent être configurées instantanément sur un système défini par logiciel et démontées instantanément. Le SDx évite les tracas d’un matériel à « jeter et remplacer » ou l’embauche de personnel supplémentaire pour gérer un changement d’environnement. Elle permet à une organisation d’évoluer avec une marge très faible. Puisque la gestion et le contrôle de l’infrastructure de réseau, de stockage et/ou de centre de données sont automatisés par des logiciels intelligents plutôt que par les composants matériels de l’infrastructure, le SDx peut augmenter ou diminuer automatiquement en fonction des exigences de charge du client. Cela signifie que les organisations sont mieux placées pour gérer l’intégration et la sortie de nombreuses clientèles sans avoir besoin de nouveaux employés pour gérer le nouveau trafic.

Le SDx offre également la flexibilité des choix de déploiement, aide les dirigeants des infrastructures et des opérations (I et O) à permettre des flux de travail hybrides, comme les données peuvent être ingérées, traitées et intégrées à travers n’importe quel scénario de déploiement.

Amélioration de l’agilité, du contrôle et de la vitesse opérationnelle

  • Le SDx améliore l’agilité; l’agilité est la facilité avec laquelle le calcul des données d’une organisation peut naviguer rapidement dans des environnements complexes, en fonction de ses besoins spécifiques. Puisque le SDx supporte l’automatisation, l’orchestration et les activités événementielles, il permet un déploiement et des changements plus rapides en réponse à l’évolution des conditions commerciales par rapport aux approches architecturales traditionnelles.
  • Dans un environnement défini par logiciel, la gestion et le contrôle de l’infrastructure de stockage, de réseau et/ou de centre de données sont automatisés par un logiciel intelligent, plutôt que par du matériel. Les réseaux définis par des logiciels (SDN) fournissent une vue centralisée de l’ensemble du réseau, ce qui facilite la centralisation de la gestion de l’entreprise. Étant donné que les SDN suppriment les plans de contrôle et de données, ils permettent d’accélérer la prestation de services et de fournir plus d’agilité dans l’approvisionnement des périphériques réseau virtuels et physiques à partir d’un emplacement central. L’infrastructure peut être mise à l’échelle ou réduite par SDx, sans être liée à des composantes spécifiques de l’infrastructure physique. Cette capacité augmente la rapidité de livraison aux clients.

Réduction des coûts grâce à l’automatisation

  • Le SDx découple le logiciel du matériel standard de l’industrie. Cela permet aux responsables techniques de maintenir le matériel pendant une plus longue période sans avoir à mettre à niveau et à migrer les données, et évite l’immobilisation du fournisseur de matériel. Cela aide également les organisations à réduire les cas coûteux de mises à niveau majeures ou à grande échelle, où de grandes parties de l’infrastructure doivent être modifiées et où il faut investir dans du nouveau matériel.
  • Le modèle d’achat au fur et à mesure flexible des systèmes définis par logiciel peut également aider à réaliser des économies de coûts. Au lieu de choisir parmi un certain nombre de grands fournisseurs, le SDx permet aux entreprises de tirer parti de fournisseurs émergents, plus petits et parfois moins coûteux pour des secteurs d’activité précis.
  • Bien que l’automatisation puisse être réalisée avec des scripts manuels, elle est souvent facilitée avec SDx en raison d’une plus grande extensibilité. L’état final idéal est un cadre intelligent et intégré pour améliorer l’automatisation de l’ensemble de la couche d’infrastructure. De nombreuses tâches de mise en réseau des centres de données sont effectuées manuellement, ce qui augmente le temps, le coût et la probabilité d’erreurs humaines et réduit la flexibilité. SDx intègre l’automatisation dans le réseau, le centre de données, l’infrastructure et étend le contrôle programmatique. Ce contrôle accru peut même réduire la consommation globale d’énergie et se traduire par des économies d’énergie.

Amélioration de la sécurité

  • Un des avantages des SDN est la sécurité centralisée. La virtualisation des machines a rendu la gestion du réseau plus difficile. Les machines virtuelles faisant partie intégrante des systèmes physiques, il est plus difficile d’appliquer de manière cohérente les politiques de pare-feu et de filtrage de contenu. De plus, des complexités telles que la sécurisation de dispositifs de type « apportez votre propre appareil », viennent s’ajouter aux défis de sécurité des réseaux d’aujourd’hui.[15]
  • Le contrôleur SDN fournit un point de contrôle central pour distribuer les informations de sécurité et de politique de manière cohérente dans toute l’organisation. Bien que la centralisation du contrôle de sécurité en une seule entité (contrôleur SDN) présente l’inconvénient de créer un point central d’attaque, le SDN peut être utilisé efficacement pour gérer la sécurité sur l’ensemble du réseau s’il est correctement mis en œuvre.

Difficultés

La technologie de l’information (TI) permet au GC de mener ses activités et de fournir des services aux Canadiens. Elle est essentielle sur le plan stratégique pour accroître la productivité du gouvernement et améliorer les services au public dans l’intérêt des citoyens, des entreprises, des contribuables et des employés. Le GC investit une part importante de son budget annuel dans la TI et l’infrastructure associée. Toutefois, l’évolution rapide de la technologie, les pratiques opérationnelles incompatibles et une approche fragmentée des investissements en TI peuvent nuire à la prestation efficace et efficiente des programmes et services gouvernementaux.[16]

SDx est un excellent concept qui apporte de nombreux avantages. Cependant, SDx fait face à divers défis en matière d’adoption, notamment la gestion du contrôle programmatique, la surveillance d’environnements en constante expansion, le rapprochement de systèmes existants incompatibles, le travail avec l’industrie immature du SDx et le recyclage du personnel existant ou l’embauche de nouveaux employés expérimentés en SDx.

Si une organisation décide de s’orienter vers le SDx, il peut se révéler très difficile d’assurer le contrôle programmatique de certaines ou de toutes les plates-formes d’infrastructure. Si le contrôle programmatique est une priorité, cela influencera les décisions d’achat et de déploiement des infrastructures. Le passage du contrôle manuel au contrôle programmatique peut être un obstacle au changement. De plus, chaque fois qu’un nouveau service démarre en SDx, il déploie l’infrastructure virtuelle nécessaire et le nombre d’éléments monitorés peut augmenter rapidement avec une demande accrue. Cela peut dépasser la gestion traditionnelle de la capacité de surveillance. Aujourd’hui, on s’attend à ce que les TI disposent d’un contexte de service. Le défi consiste à s’assurer que les systèmes SDx peuvent effectuer un suivi de la performance dans le contexte d’un client ou d’un locataire particulier du réseau. Cela peut être difficile si l’automatisation des programmes et la surveillance ne sont pas synchronisées.

En outre, les applications anciennes et en paquets peuvent ne pas être suffisamment compatibles avec les services pour participer aux architectures d’applications modernes de la nouvelle ère comme SDx. Les réseaux traditionnels sont difficiles à automatiser en raison de la nature distribuée de leur processus décisionnel de commutation ou de routage qui sont colocalisés sur le même appareil. Il se peut que certains anciens systèmes ne puissent jamais passer aux architectures SDx.

L’offre de produits SDx est également très variée et en constante évolution. Il y a des fournisseurs établis et émergents qui offrent différentes propositions de valeur et capacités de produits. Les responsables informatiques auront souvent du mal à naviguer dans les solutions des fournisseurs SDx. Le transfert de valeur vers le logiciel perturbe les modèles d’affaires traditionnels. En l’absence d’un processus d’orientation efficace défini par logiciel à suivre, les professionnels des TI ont de la difficulté à planifier et à mettre en œuvre un cadre cohérent qui s’étend des centres de données sur place aux environnements d’infonuagique hybrides et de périphérie.

Des investissements importants dans du personnel possédant des compétences spécialisées seront nécessaires pour développer et gérer efficacement le SDx au sein d’une organisation. La plupart des architectes n’ont pas les connaissances du domaine requises pour déployer avec succès un ensemble complet, flexible et modulaire de capacités d’infrastructure qui soutiennent le développement, le déploiement et l’exploitation des applications mises en œuvre à l’aide de services d’application définis par logiciel. La mise en œuvre d’architectures définies par logiciel peut se révéler difficile pour les professionnels techniques. Les professionnels de l’informatique doivent déployer, intégrer et orchestrer de nombreux composants de la technologie SDx, provenant souvent de différents fournisseurs, tels que le stockage défini par logiciel (SDS), les réseaux définis par logiciel (SDN) et le calcul défini par logiciel (SDC). Par ailleurs, des entreprises ont cherché des solutions convergentes telles que l’infrastructure hyperconvergée (HCI) et les systèmes intégrés hyperconvergés (HCIS) d’un seul fournisseur, où le fournisseur a intégré les piles SDx dans une offre de solutions cohérentes. Il s’agit là d’un autre défi, car une approche à fournisseur unique de SDx peut répondre à de nombreux problèmes d’intégration, mais souvent pas à l’ensemble de l’entreprise.

Considérations

Les solutions SDx promettent la capacité de gérer et de contrôler les systèmes et solutions informatiques à moindre coût en termes de temps, d’argent et de complexité. SPC étant le principal fournisseur de services numériques et de TI du GC, il faudrait faire preuve de prudence dans l’utilisation de ce concept à l’avenir.

Au cours des dernières années, la demande de solutions SDx s’est accrue et de nombreux fournisseurs en ont profité. Les principaux acteurs du marché du SDx sont Cisco, HP, IBM, Microsoft, Citrix, EMC2 et VMware. Les autres qui méritent d’être mentionnés sont Juniper Networks, NEC, 6Wind, Arista Networks, Avaya 0, Dell, Ericsson, Fujitsu, Big Switch Networks, Brocade, DataCore, Hitachi Data Systems, NetApp, Nexenta, Pertino, Pivot3, Plexxi, PLUMgrid et SwiftStack.

Toutefois, l’avenir des réseaux d’entreprise, des centres de données, du stockage de données, de la mise en œuvre de la sécurité, est susceptible d’être un système hybride où certaines fonctions seront traduites dans la couche logicielle exerçant le contrôle. Cependant, de nombreux autres aspects continueront d’exister au sein même du matériel. L’équilibre de l’architecture de la solution continuera d’être essentiel à l’atteinte des résultats souhaités.

SPC doit être conscient du fait que tous les produits SDx n’offrent pas tous les avantages. Cas d’utilisation et plans stratégiques requis. SDx en est aux premiers stades de maturité et connaîtra des changements importants au cours des cinq prochaines années. Les responsables des TI doivent évaluer la dépendance exclusive à l’égard de fournisseurs et élaborer des plans d’urgence pour la migration vers d’autres technologies. La plupart des offres logicielles sont limitées aux silos d’infrastructure et manquent d’interopérabilité, d’automatisation et d’intégration entre les silos, sauf si elles sont fournies par un seul fournisseur. D’autres considérations pour la mise en œuvre comprennent la planification d’environnements et de capacités définis par logiciel au-delà du centre de données jusqu’aux environnements de périphérie avec IoT et l’impact que cela aura sur leur organisation.

Les professionnels des TI auront de la difficulté à planifier et à mettre en œuvre un cadre cohérent qui peut s’étendre des centres de données sur site aux environnements d’infonuagique hybrides et de périphérie. Il est important que les organisations développent d’abord un cadre SDx par étapes. Il faut comprendre comment le cadre sera mis en œuvre, qui l’utilisera et comment il s’intégrera dans une stratégie globale d’infonuagique hybride d’entreprise. En effet, permettre des architectures autonomes définies par logiciel peut créer un étalement de cette technologie. Si les services informatiques n’adhèrent pas à un cadre d’orientation solide pour la mise en œuvre du SDx, il peut en résulter une prolifération des plans de contrôle du SDx (en particulier de la part de fournisseurs multiples) et des problèmes de complexité et d’interopérabilité accrus.

Une stratégie de centre de données développée pour les opérations hybrides est une autre considération. Alors que les organisations informatiques adoptent des environnements hybrides entre les centres de données, les environnements de périphérie et les services d’infonuagique, une stratégie claire pour traiter les architectures distribuées et les opérations hybrides sera précieuse. En l’absence d’une stratégie claire de transformation basée sur les besoins de l’organisation, les responsables informatiques peuvent être absorbés par la technologie et ne pas avoir une vue d’ensemble de la manière et du moment où ils doivent remodeler le centre de données pour les opérations hybrides. Le centre de données « parfait » n’est pas un centre qui met en œuvre toutes les nouvelles technologies disponibles, mais plutôt un centre qui convient parfaitement aux besoins précis, actuels et futurs d’une organisation, tout en équilibrant l’innovation technologique avec une valeur commerciale réelle et quantitative.

La transformation globale du SDx s’étendra probablement sur plusieurs années, au cours desquelles la gestion et les priorités pourraient changer. Le taux de roulement des dirigeants principaux de l’information (DPI) est souvent de trois à cinq ans. Si un nouveau DPI arrive et que les objectifs, les délais et les avantages mesurables ne sont pas documentés dans une stratégie, il ou elle peut décider que les efforts de SDx déjà en cours ne valent pas la peine d’être investis. L’établissement des objectifs et des attentes avec la direction est d’une importance cruciale.

Une nouvelle formation du personnel pour en faire des courtiers de services de TI hybrides est une considération primordiale. L’une des principales priorités liées à la transition vers l’infonuagique hybride est de recycler le personnel capable de gérer le développement et les opérations pour ce nouvel environnement. En particulier, le personnel devra mieux connaître les multiples architectures et solutions afin de s’assurer que l’organisation intègre correctement le SDx dans l’infrastructure informatique plus vaste.

SPC pourrait envisager d’effectuer une analyse des options à partir des dix logiciels les plus coûteux et des domaines qui peuvent être automatisés pour l’extensibilité des programmes actuellement fournis au GC afin d’évaluer si des solutions crédibles de SDx pourraient être mises à profit pour réaliser des économies et une plus grande efficacité opérationnelle. Une organisation ne devrait pas préférer une approche traditionnelle à l’approche SDx, mais plutôt envisager d’évaluer les services et les secteurs d’activité pour déterminer où SDx pourrait être utilisé. Il vaut mieux éviter les initiatives et les changements à grande échelle dans le domaine de la technologie SDx. L’abandon à grande échelle des produits traditionnels et établis n’est pas une stratégie prudente pour les organisations peu flexibles. Il sera important de comprendre quelles technologies existantes et actuelles sont remplacées par SDx, ainsi que la façon dont les technologies existantes devront changer en raison de la nouvelle architecture.

SPC devrait considérer où le SDx peut avoir le plus grand impact et répondre aux besoins immédiats, repérer les points faibles opérationnels et d’exécution des activités et établir les priorités du projet SDx en conséquence. Il est essentiel de faire preuve de souplesse et d’évaluer comment tirer parti du SDx pour réussir son implémentation, car la mise en œuvre du SDx dans un ordre prédéfini pourrait ne pas être appropriée. Certains secteurs de l’infrastructure de SPC n’auront peut-être jamais besoin de faire partie de la transition vers le SDx. Par exemple, si une configuration de stockage particulière ne change qu’une ou deux fois par an, cela ne vaut probablement pas la peine d’utiliser un logiciel pour définir cette pièce.

En fin de compte, la détermination du bon moment pour agir et évoluer vers le SDx ne devrait pas être dictée par la publicité des fournisseurs ou la disponibilité du budget, mais devrait plutôt être motivée par la nécessité de répondre aux exigences opérationnelles.

Références


  1. CIO QuickPulse. (Janvier 2015). The Road to a Software-Defined. Récupéré de F5.
  2. Sadiku, M., Nelatury, S., & Musa, S. (Janvier 2015). Software Defined Everything. Récupéré de oaji.
  3. Wikipedia. (17 mai 2019). Software-defined storage. Récupéré de Wikipedia.
  4. Beal, V. (n.d.). SDDC - software-defined data center. Récupéré de Webopedia.
  5. Sadiku, M., Nelatury, S., & Musa, S. (2017, January). Software Defined Everything. Récupéré de oaji.
  6. Wood, L. (12 janvier 2016). Research and Markets: Global Software Defined Anything (SDx) Market Growth of 32% CAGR by 2020 - Analysis, Technologies, Opportunities & Forecasts 2016-2020. Récupéré de BusinessWire.
  7. CloudTimes. (12 avril 2011). Microsoft Says to Spend 90% of R&D on Cloud Strategy. Récupéré de CloudTimes.
  8. Vena, D. (25 avril 2019). How Microsoft Hit $1 Trillion: Cloud Computing, Steady Growth. Récupéré de The Motley Fool.
  9. Konrad, A. (23 mars 2016). Why Coca-Cola Works With Both Google And Its Rivals In The Cloud And Warns Not To Worry About Price. Récupéré de Forbes.
  10. Government of Canada. (7 janvier 2018). Government of Canada Enterprise Security Architecture (ESA) Program. Récupéré de GCPedia.
  11. Shared Services Canada. (4 Octobre 2016). Cyber and IT Security - July 7, 2014. Récupéré de ssc-spc.gc.ca.
  12. Government of Canada. (27 mars 2018). Policy on Management of Information Technology. Récupéré de Government of Canada.
  13. Government of Canada. (1er novembre 2017). Direction on the Secure Use of Commercial Cloud Services: Security Policy Implementation Notice (SPIN). Récupéré de canada.ca.
  14. SDxCentral Staff. (9 février 2017). What’s the Difference Between Hybrid WAN and SD-WAN. Récupéré de sdxcentral.com.
  15. Data Center. (8 août 2017). 7 Advantages of Software Defined Networking. Récupéré de imaginenext.ingrammicro.com.
  16. Treasury Board of Canada Secretariat. (2 août 2019). Directive on Management of Information Technology. Récupéré de tbs-sct.gc.ca.