En tant qu’acteurs majeurs du marché du software-defined storage, nous surveillons en permanence les évolutions dans le secteur du stockage. De nombreuses entreprises mettent sur le marché de nouvelles innovations convaincantes, appropriées aux entreprises, qui représentent d’excellentes occasions de stimuler la transformation de l’informatique et des activités. Examinons les tendances du stockage qui se sont imposées jusqu’à présent, en 2020, afin d’identifier les innovations susceptibles de se traduire en opportunités intéressantes pour vous.

L’IA dans le stockage

L’intelligence artificielle (IA) est amenée à jouer un rôle de plus en plus important dans le stockage, tout simplement parce que l’intervention humaine devient un frein au succès. L’IA permet d’automatiser le placement des données en évaluant les ressources, en réévaluant les modèles et en exécutant divers objectifs métiers relatifs à la criticité, la réactivité et la pertinence, sans nécessiter d’intervention humaine. De plus, les analyses basées sur l’IA permettent de tirer des renseignements utiles d’énormes quantités de données différentes plus efficacement. Les entreprises disposent ainsi d’informations prédictives sans nécessiter d’implication humaine.

Le secteur du software-defined storage utilise déjà l’IA pour analyser les performances et l’utilisation de l’espace de stockage. Il aide ainsi les administrateurs à prendre des décisions en toute connaissance de cause sur l’ajout de capacité, la réduction de goulots d’étranglement et la mise hors service d’anciens systèmes. Les analyses basées sur l’IA pour améliorer l’efficacité du stockage, la résilience et la rentabilité seront de plus en plus fréquentes à l’avenir et de nombreux fournisseurs de software-defined storage les intégreront dans leurs solutions.

Stockage plus intelligent grâce à l’IA

De nombreuses entreprises redoublent d’efforts pour développer l’analyse de données prédictive basée sur l’IA. Elles auront donc besoin de nouveaux types de services de stockage. Encore trop de plateformes de stockage n’offrent pas l’envergure, les performances, la connectivité Cloud et la capacité nécessaires pour répondre à la fois aux besoins de traitement intensif et d’archivage. Les fournisseurs seront amenés à proposer des solutions software-defined storage offrant une plateforme de stockage étendue et unifiée, autoréglable grâce à l’IA sous-jacente et facilement adaptable pour gérer les données non structurées et les archives à partir de la même interface.

Plus grande résilience du stockage multi-cloud hybride

Le stockage Cloud est presque devenu synonyme de capacité élastique. Aujourd’hui, les entreprises possèdent des données stockées dans plusieurs Cloud, des Clouds privés et des infrastructures locales. Cette année, nous avons le sentiment que les entreprises auront tendance à regrouper toutes ces données éparses, étant donné qu’elles déplacent les données inactives non structurées dans le Cloud et que les coûts de stockage diminuent. Cela nécessite une solution software-defined storage couvrant plusieurs Clouds publics, Clouds privés et des infrastructures locales. Les fournisseurs capables de combler le fossé entre dispositifs publics et privés prendront l’avantage.

L’ancienne distinction entre stockage primaire et secondaire a tendance à s’effacer

À mesure que les données augmentent et que les charges de travail se multiplient, il devient difficile de suivre l’ancienne méthode de gestion distinguant le stockage primaire et secondaire. Les problèmes de capacité inutilisée, d’incompatibilité des logiciels d’une plateforme à l’autre et tout simplement le manque de clarté quant au placement des données commencent à faire grimper les coûts et le niveau de complexité, tout en nuisant aux performances et à la résilience.

Certains fournisseurs prévoient une évolution future vers le tout-flash, où tout reposera sur un stockage hautes performances. D’autres fournisseurs insistent sur le fait que les disques durs ne sont pas morts et auront toujours une place. Mais tout le monde est d’accord sur le fait que les plateformes émergentes brouillent la frontière entre stockage primaire et secondaire pour optimiser l’efficacité et la valeur. Il devient également de plus en plus nécessaire de supprimer la distinction entre les données, ainsi que leur répartition manuelle à divers emplacements. Les entreprises s’appuieront de plus en plus sur l’intelligence de l’apprentissage machine offert par les outils software-defined pour automatiser les prises de décision en matière de placement des données.

Des contraintes de l’hyperconvergence plus visibles

L’infrastructure hyperconvergée (HCI) a été un succès, mais a produit suffisamment de générations pour que les entreprises puissent constater ses limites.

La HCI est essentiellement une solution unique mais pas toujours adaptée à tous les cas : essayez d’y exécuter une analyse big data et vous commencerez à avoir des problèmes. Elle finit également par être sur ou sous-provisionnée car le stockage, le calcul et les performances du réseau doivent forcément évoluer ensemble, sans tenir compte des besoins différents des charges de travail en calcul ou en stockage supplémentaire.

Il est probable que les entreprises se tourneront vers des HCI modifiées, comme les HCI désagrégées (dHCI), dans lesquelles le stockage et le calcul peuvent évoluer de manière indépendante. D’autres envisageront de mettre en place des infrastructures de stockage appropriées à chaque charge de travail, et beaucoup de ces solutions seront software-defined.

Exploitation des métadonnées à des fins pratiques

Autrefois, le stockage concernait des blocs de données qui résidaient sur des disques. Les tendances en matière de stockage ont changé. Aujourd’hui, la valeur des données est de plus en plus déterminée par leur pertinence, qui découle elle-même des métadonnées. Les métadonnées donnent aux entreprises la possibilité de développer une gestion des données basée sur des stratégies et même sur l’IA. Ce type de gestion permet, entre autres, de protéger certains fichiers à tout prix, de déplacer automatiquement certains jeux de données vers les plateformes de stockage les moins coûteuses, et même d’accélérer les performances en conservant certains fichiers sur le stockage le plus rapide. La gestion des données basée sur les métadonnées deviendra une force perturbatrice en 2020 dans le monde du stockage des données non structurées et, d’ici 2022, sera considérée comme une capacité essentielle pour les entreprises de toute taille.

Nous prévoyons des gains de performances sans précédent et, éventuellement, un nouveau niveau de stockage

Le stockage tout-flash s’est répandu depuis quelques années et nous connaissons bien maintenant les avantages (et les limites) des disques SAS Flash dans le stockage, que ce soit dans les solutions matérielles ou software-defined. Mais cette année aura lieu une évolution importante vers un nouveau niveau de performances (que nous appellerons Tier 0 ou Tier 1). Les entreprises de pointe vont commencer à adopter des disques NVMe et même NVMe-over Fabrics (IP ou Fibre Channel) afin d’accélérer le temps de réponse et le délai de récupération d’informations utiles pour leurs charges de travail les plus exigeantes.

Les fournisseurs présenteront sans doute la Storage Class Memory (SCM) comme la panacée pour les performances de stockage. Quoi qu’il en soit, cette nouvelle évolution ouvrira de nouvelles possibilités d’innovation en matière de services, mais imposera également de nouvelles exigences pour les réseaux et les infrastructures de calcul. Les plateformes software-defined storage devraient être bien placées pour tirer parti des nouveaux disques et protocoles réseau.

La consolidation des NAS va également s’accélérer

Combien d’entreprises en possession de dizaines de serveurs de stockage, de filers, de plateformes SAN/NAS unifiées, systèmes tous plus anciens qu’il ne le faudrait et fournissant moins de performances qu’ils ne devraient, sont obligées de faire des compromis à cause des coûts et de la complexité ? Les fournisseurs de software-defined storage se sont targués de pouvoir agréger ces systèmes sous une couche de virtualisation de stockage qui extrait les partages de fichiers du matériel sous-jacent. Ces capacités sont plus stratégiques que jamais, car les entreprises veulent déplacer les fichiers entre les différentes classes de stockage à mesure qu’ils vieillissent. Une couche de gestion software-defined unique permet de faciliter cette évolution et certains fournisseurs de software-defined storage offrent également une migration automatisée.

C’est l’année du software-defined storage

Vous avez dû vous en rendre compte, nous sommes de fervents partisans du software-defined storage. Nous connaissons tous ses avantages (par exemple, des fonctionnalités telles que la migration automatisée, l’IA intégrée, la possibilité d’assimiler et de mettre en pool la capacité existante), qui permettent de réduire les délais, les coûts et les risques pour des entreprises de toutes tailles. Les anciennes habitudes qui consistaient à ajouter des plateformes de stockage propriétaires en mode bloc, fichier ou objet ont tendance à disparaître. Les entreprises intelligentes savent que l’agilité et la polyvalence s’obtiennent grâce aux logiciels, et que le software-defined storage ouvre des possibilités tout simplement inaccessibles avec d’autres approches. C’est pourquoi les rapports indiquent que le marché mondial du software-defined storage pourrait atteindre une valeur de 7 milliards de dollars en 2020.

The post Les principales tendances en matière de software-defined storage appeared first on DataCore Software.

Consulter la source originale