Quest tient les comptes du stockage de données

Image 2L’entreprise n’utilise que 20% à 40% de sa capacité de stockage réellement installée, estime une étude récente du cabinet d’analystes Gartner. C’est la raison pour laquelle, suite au rachat de MonoSphere en janvier 2009, Quest Software progresse vers la gestion du stockage d’entreprise (Storage Resource Management) où il affronte désormais Brocade, CA, EMC, HP et Symantec, entre autres. La version 3.8 de Storage Horizon aide l’entreprise à mieux suivre et planifier ses investissements en surveillant l’évolution des applications en place. Au-delà de l’analyse des usages, elle automatise la ré-allocation des ressources, moyennant 982 EUR par téraoctet. Un investissement rapidement compensé par les économies d’achat de matériels, économies substantielles selon l’éditeur qui fournit une calculette de ROI sur son site Web et souligne que Storage Horizon 3.8 n’exige aucun agent logiciel. La réduction drastique des coûts de stockage est évaluée désormais en fonction des coûts directs (d’acquisition de nouveaux matériels) mais aussi indirects (électricité, refroidissement et surface occupée du datacenter). Storage Horizon 3.8 inclut le support de la technologie de thin provisionning InServ de 3PAR qui présente un espace de stockage à une application, tout en ne lui allouant physiquement que la capacité réellement utilisée, augmentant ainsi l’espace disque disponible pour les autres applications.

Windows Azure: les premiers prix sortent du nuage

MugliaMicrosoft veut tout stocker et tout synchroniser en ligne. Sous le parapluie Windows Azure, l’éditeur de Seattle révèle peu à peu sa stratégie de stockage et de traitements ‘in the Cloud’. La plateforme Azure devient un véritable OS du Cloud Computing, comme pour mieux contrer les offres vSphere de VMware ainsi que les frameworks de Google ou d’Amazon. Si plusieurs services Windows Azure sont d’ores et déjà délivrés gratuitement, son lancement officiel n’est prévu que pour novembre prochain, quelques semaines après la version professionnelle de Windows 7... Les partenaires et les clients professionnels de Microsoft sont invités, dès maintenant, à envisager un nouveau modèle économique de développement, de déploiement et de facturation/règlement des services applicatifs. Reste que les prix et la qualité des services fournis à la demande seront déterminants pour le choix des DSI.

Tarifs à la demande

Les derniers éléments de tarif annoncés par l’éditeur à la Nouvelle Orléans ne marquent pas de véritable rupture. Le stockage sous Windows Azure est établi à 0,15 dollar par mois le Giga-octet, un paiement à l’acte surtaxé de 1 cent (0,01$) tous les 10.000 accès supplémentaires (effacement compris). La facture finale restant difficile à prévoir, Microsoft s’engage à fournir des abonnements dégressifs, en fonction du volume. Le temps de traitement atteint, pour sa part, 0,12 dollar de l’heure auxquels il convient d’ajouter la bande passante vers Internet bien sûr. Pour Microsoft, c’est désormais le prix à payer pour tout connecter, tout synchroniser, tout partager dans l’entreprise, où que se trouve l’information. Dans quelles conditions ? Avec un niveau de service garanti de 99,9% pour le stockage et de 99,95% pour la disponibilité des services en réseau. Autrement dit, le stockage en ligne pourra déraper contractuellement, au plus durant 8 heures, 45 minutes et 36 secondes par an.

Bob Muglia, le président de Microsoft entrevoit surtout des gains en rapidité de développement et de déploiement : « Ce qui rend unique la plateforme Windows Azure, c’est le fait que Microsoft gère toute la complexité. Les partenaires peuvent donc se focaliser sur ce qui compte pour leur activité : bâtir des solutions et des services novateurs et piloter de nouveaux revenus. »
Face au client, le changement de modèle ne sera pas aussi simple à faire avaler surtout si les fonctionnalités avancées d’Azure dépendent de l’usage d’Internet Explorer et des dossiers virtuels introduits par Windows 7…

Alliance VCE : questions et réponses de l’intégrateur SysConsult

Quelques minutes avant la table ronde de l’alliance VCE du premier juillet, j’ai interviewé Nasser Bagtache, le fondateur de SysConsult sur les avancées technologiques du stockage et leur impact réel dans les entreprises qu’il cotoie comme le groupe Schneider. Dans le cadre du projet GCS du groupe Français, il note que les data centers – situés en Asie et en Grande-Bretagne – restent fréquemment soumis à un manque de souplesse au niveau du provisioning des espaces de stockage. Nasser Bagtache attend une couche de virtualisation du stockage fiable et mûre capable d’encapsuler les équipements matériels d’EMC.
Selon lui, l’arrivée de la technologie SSD (solid state disc) simplifie les opérations d’accès aux grands gestionnaires de données. Les réseaux de stockage iSCSI et FCoE vont également jouer un rôle important, la convergence des réseaux permettant un transport unifié des requêtes (réseau et transport de données des disques) qui va simplifier le travail de l’intégrateur. A propos de l’alliance VCE, il s’interroge cependant : comment VMware, Cisco et EMC vont-ils coopérer pour rendre les données mobiles et la virtualisation complète et totale ? J’espère que les responsables présents ont pu lui répondre durant la soirée…

L’interview du fondateur de SysConsult en image :

L’alliance VCE dessine le data center du futur

TR_VCEChristian Hiller, Christian Chevalier et Laurent Blanchard, respectivement PDG d’EMC France, VMware France et Cisco France, ont répondu au DSI virtuel que j’ai joué, le temps d’une table ronde au Pavillon Gabriel le 1er juillet, face à leurs clients et partenaires. Mes questions iconoclastes portaient sur les évolutions du data center, en particulier vers le modèle Cloud computing. Concrètement, l’alliance VCE – formée par ces trois géants de l’industrie IT – veut dessiner, au-delà d’une coopération technique, la nouvelle dimension des centres de données.
Après avoir présenté les enjeux pour l’entreprise, la société et l’environnement (lire Vertualiser), Christian Hiller, PDG d’EMC France, a dévoilé le V-Max, nouvelle pierre angulaire de l’infrastructure de stockage du datacenter virtuel. Il estime que « le triptyque classique composé d’une application, d’un serveur et de son stockage dédié est mort. On ne pourra pas continuer comme çà. L’avenir c’est le cloud […] Ce modèle va apporter une bien meilleure utilisation des ressources informatiques, matériels, logiciels et humaines ainsi que des gains de qualité », prévoit-il.  Christian Chevalier, le PDG de VMware France est convaincu, pour sa part, que « le Cloud apportera au DSI la capacité de se concentrer sur son objectif : la maîtrise des applications, la réponse à ses propres clients internes, et ce grâce à des technologies totalement maîtrisées, masquant la complexité ». Pour Laurent Blanchard, le PDG de Cisco France, « le Cloud permet au DSI de prendre un petit peu de recul, d’apporter plus de souplesse tout en conservant ses critères de disponibilité de services, de performances et de sécurité ». Quels sont les objectifs de l’Alliance VCE ? Comment se concrétise-t-elle en 2009 ? Où sont les standards du Cloud ? Ce modèle préfigure-t-il une nouvelle consolidation des acteurs ?… Pour obtenir toutes leurs réponses, en images, cliquez ci-dessous :

Première partie sur l’Alliance VCE :

Deuxième partie sur le Data Center virtuel :

Troisième partie sur le Cloud Computing :
]

La bande LTO 5 prévue pour janvier 2010

ltoDeux environnements informatiques sur trois continuent à mixer l’archivage sur bandes et son alternative, sur disques durs. En dépit de sa mort annoncée et du ralentissement économique, la bande magnétique résiste donc bien. Le consortium LTO qui compte dans ses rangs hp, IBM et Quantum, entre autres,  a déjà commercialisé quatre générations de lecteurs de bandes haute capacité. La bande LTO4 Ultrium offre ainsi, depuis deux ans et demi, un volume de 1,6 To par cartouche, pour un taux de transfert de 240 Mo/s (en mode compression 2:1) et suggère un chiffrement des données au niveau du lecteur de bandes. Mais, crise oblige, son adoption n’est pas à la hauteur des ventes escomptées par ses partisans. La nouvelle génération LTO5 arrivera donc probablement en janvier 2010, pour relancer le marché. Sa capacité devrait atteindre 3,2 To par cartouche pour un taux de transfert de l’ordre de 360 Mo/s (toujours avec un taux de compression de 2:1). Le remplacement des générations de bandes dans les entreprises, en dépit d’une volumétrie d’informations croissante, n’atteint pas encore le rythme de celui des disques durs renouvellés tous les 18 à 24 mois. Logiquement, un grand nombre de responsables d’exploitation devraient sauter une ou plusieurs générations intermédiaires pour passer directement au LTO 5, dès qu’ils seront en limite de capacité sur leur technologie en place.
Serait-ce votre cas bientôt ?…

NetApp et EMC s’affrontent pour optimiser l’archivage

dedeupUne stratégie d’administration de la volumétrie, en période de vaches maigres, consiste à associer le stockage multiniveau, la déduplication et quelques automates de déplacement de données. Rappelons que le stockage multiniveau apporte la protection adaptée à la valeur des données ; ainsi, les informations de l’ERP et les fichiers de la bureautique vont-ils s’appuyer sur des disques rapides ou économiques avant d’être glissés vers les bandes. Une procédure de déduplication judicieusement intégrée à cette organisation fera gagner de précieux Tera-octets aux espaces de stockage secondaires. D’où la bagarre actuelle entre NetApp et EMC pour intégrer les algorithmes de Data Domain.
L’optimisation de la gestion du stockage est « consciente des applications » chez NetApp. Elle suit une approche à base de règles d’entreprise chez EMC, pour rester conforme aux règles des branches d’activités. Le programme System Manager (sous Windows) de NetApp, gratuit pour les clients du fournisseur, pilote les baies de stockage FAS2000 et FAS3000. Il automatise les tâches de gestion de périphériques courantes, offre la déduplication, l’allocation dynamique et les snapshots. De nouvelles versions d’applications packagées d’Operations Manager, de Provisioning Manager et de Protection Manager seront également disponibles au mois de juillet 2009. « L’objectif de NetApp est d’offrir à ses clients les outils d’optimisation du stockage qui leur permettront d’améliorer leurs processus métier et de réduire leurs coûts », déclare Patrick Rogers, Vice-président en charge du marketing des solutions chez NetApp.
« La gestion centrée sur les applications présente deux inconvénients majeurs », estime Mark Lewis d’EMC. « Premièrement, il est impossible d’appliquer des règles cohérentes et systématiques lorsque chaque application a sa propre méthode pour archiver et protéger les informations. Quand la rétention, la gestion des enregistrements et la conformité sont gérées par chaque application, il devient extrêmement difficile d’avoir une stratégie globale à l’échelle de l’entreprise. Deuxièmement, ce mode de gestion limite à une seule application l’exploitation d’informations susceptibles d’avoir de la valeur pour d’autres. » En revanche, une gestion centralisée à base de règles, tant des informations que de leurs déplacements, permet d’intégrer étroitement conformité, gestion du risque et archivage. Elle réduit les coûts et les risques associés à la rétention et à la destruction des informations, en exploitant les technologies de déduplication et de stockage différencié et en étendant l’archivage à un plus grand nombre d’applications. Lancée en avril dernier, la famille de produits EMC SourceOne a été spécialement conçue pour répondre aux problématiques actuelles d’archivage et gouvernance. Mark Lewis a démontré qu’un client utilisant EMC SourceOne Email Management pour archiver ses eMails pouvait réduire son coût total de possession de 50% et rentabiliser sa solution en seulement 12 mois.

Tandberg Data glisse sa robotique dans une appliance VTL

TD_DPS1200stackRepris par le fonds d’investissements Cyrus Capital, Tandberg Data conserve son siège Européen à Dortmund, en Allemagne, et sa R&D aux USA, une partie seulement des laboratoires de Norvège ayant été récupérée suite au dépôt de bilan de fin avril de la holding scandinave. « Rien ne change au niveau du top management », rassurent toutefois Jan Hillebrand et Christèle Le Lidec de Tandberg Data France. Le spécialiste de l’archivage des PME-PMI se transformerait dans la continuité : « Nous travaillons toujours sur la complémentarité entre le stockage sur disques durs et l’archivage sur bandes ». Dernière nouveauté prouvant cette stratégie : l’appliance DPS 1200 – combinée sur la photo ci-dessus aux modules DPS Xtend et T24 – apporte une solution complète de stockage intelligent conçue pour régler la complexité de gestion des archives électroniques et simplifier l’administration des sauvegardes d’entreprise. La librairie VTL intégrée fournit une robotique maison directement connectée à l’appliance et intimement surveillée par l’interface de gestion Web (via le protocole https). Du coup, tous les transferts sur bandes s’effectuent en local, sans solliciter la bande passante du réseau ni même un serveur de sauvegarde externe – comme c’est le cas d’autres équipements VTL ‘stand-alone’. Avec l’appliance, la librairie de bandes virtuelles, bien connue des grands comptes, se démocratise. Et, l’équipement est partageable ce qui facilite la consolidation et la gestion d’entités indépendantes, filiales ou clients d’un centre de données ; en pratique, plusieurs librairies virtuelles avec leurs propres connecteurs, lecteurs et bandes peuvent être partagées entre plusieurs serveurs de sauvegarde, par initiateur iSCSI notamment. Côté réseau, on trouve deux ports Gigabit Ethernet, la connexion d’une robotique externe ou d’une baie disques restant possible en lien SAS direct – à concurrence de 5 modules de stockage de 9 To maximum par module. Disponible auprès du réseau de distribution de Tandberg Data via les grossistes Ingram et Tech Data ou Exclusive Storage, le modèle DPS1200 (6 To, 2U) est proposé à partir de 14.260 €.

L’allocation dynamique du stockage d’HDS prouve sa rentabilité

Image 21L’entreprise Overstock.com a adopté la technologie d’allocation dynamique Hitachi. Carter Lee, Vice-président Opérations technologiques, précise : « Hitachi Data Systems a simplifié rapidement le processus de provisionnement de stockage sans interruption. Ses solutions de virtualisation ont permis des économies de capacité de stockage atteignant 50 % sur certaines baies, un délai d’allocation d’espace réduit de 75 % et un accroissement des taux d’utilisation supérieur à 30 %. Nous avons réduit la migration de données liée aux temps d’arrêt de plusieurs heures à moins de 30 minutes. Dans l’ensemble, le recours à la virtualisation, l’allocation dynamique et le stockage par classes (tiered storage) d’Hitachi nous a permis de diminuer nos coûts d’équipement et d’exploitation pour un retour sur investissement optimal ». Suite à l’annonce récente du programme Switch IT On, Hitachi Data Systems prône l’allocation dynamique pour améliorer l’efficacité des environnements en place chez les clients, en recouvrant de la capacité de stockage à tous les niveaux de leur infrastructure. Certains clients du fabricant nippon ont ainsi récupéré jusqu’à 200 To d’espace de stockage et réalisé des économies atteignant jusqu’à 2 millions de dollars grâce au report de l’achat de matériel supplémentaire, précise un communiqué récent d’HDS. Les avantages de l’allocation dynamique ? La réduction des coûts, l’optimisation automatique des performances et la facilité d’allouer les ressources. Ils s’étendent désormais à la plateforme modulaire AMS 2000 du constructeur. Parmi les services proposés, retenons la récupération d’espace, l’évaluation de l’environnement de l’entreprise, la planification du nouveau processus d’allocation dynamique, la migration des données et la récupération de la capacité inutilisée, sans interruption de l’application. Pour en savoir plus consultez le communiqué Dynamic Provisioning d’HDS.

Dell entend simplifier l’évolution du Data Center

dell_powervault_nx3000La baie de stockage EqualLogic PS4000 de Dell (vendue à partir de 14.300 Euros) combinée aux derniers serveurs de la marque veut simplifier la planification, le déploiement et l’administration des environnements physiques et virtuels. Son logiciel Auto‐Snapshot Manager 2.0 est conçu pour la sauvegarde et la reprise d’activités sous VMware vSphere 4. Il apporte aux serveurs critiques une haute disponibilité et répond aux plans de continuité de services les plus simples à exploiter.  La baie EqualLogic supporte les API VMware vStorage. Ses performances bénéficient du module Multipathing Extension Module for VMware vSphere 4. Associée aux serveurs PowerEdge, aux conseils et services d’intégration Dell elle apporte continuté de services et souplesse au data centre.
Le nouveau serveur NAS PowerVault NX3000 intègre, pour sa part, le moteur Windows Storage Server 2008 de Microsoft. Conçu pour les utilisateurs, locaux et distants, des PME, il gère le partage des fichiers entre postes Windows et non‐Windows et sait réduire les doublons de fichiers, grâce à la technologie Single‐Instant Storage (SIS). Il stocke aussi les données de serveurs d’applications, lorsqu’il est configuré en cible iSCSI.

L’étalonnage Baselight de FilmLight s’appuie sur LSI

color_modelFilmLight, fournisseur de technologies numériques pour le cinéma et la vidéo, retient pour Baselight, son système d’étalonnage des couleurs, le contrôleur 3ware SATA RAID de LSI. « De nombreuses sociétés de post-production utilisent le système d’étalonnage des couleurs Baselight. Les contrôleurs 3ware RAID de LSI nous aident à répondre aux besoins de nos clients en termes de performances et de protection, voire à les anticiper », explique Mike Grieve, directeur commercial de FilmLight. L’étalonnage des couleurs est un processus à la fois créatif et technique très exigeant, appliqué à tous les types de productions, depuis les spots publicitaires et les longs métrages télévisés jusqu’aux films utilisant le format numérique 4K. L’architecture multi-nœuds de Baselight permet d’exécuter un traitement 4K en temps réel et de disposer d’une capacité de disque pouvant atteindre 96 To, le tout géré et protégé par les contrôleurs 3ware RAID. De quoi mettre en ligne de nombreux projets de différents formats, d’où un gain de temps et d’argent. « Les secteurs des médias et de la post-production ont besoin d’une qualité technique irréprochable pendant tout le cycle de production », précise Brent Blanchard, directeur international des ventes et du marketing de LSI. « Qu’il s’agisse de traitement à hautes performances ou de multi-streaming, les contrôleurs 3ware RAID de LSI sauront répondre aux besoins de ces secteurs. » Chaque système Baselight utilise le contrôleur à 16 ports LSI 3ware 9650SE-24M8 SATA RAID PCIe®, qui est connecté à un fond de panier (backplane) CI-Design SATA II. En combinant un composant matériel RAID 5 et logiciel RAID 0, FilmLight parvient à exécuter son propre système de fichiers parallèle occupant jusqu’à huit bandes sur Baselight et à fournir ainsi une lecture en temps réel d’images en très haute définition.