Vous êtes sur la page 1sur 55

TrueNAS muscle

l'interface de ses NAS


avec TrueCommand
Serge Leblal , publié le 06 Juin 2019

0Réaction

Panorama des principaux frameworks IA


1. 1Effervescence autour des
frameworks IA

2. 2Scikit-learn, le framework
phare de la prédictivité

3. 3

...
LIRE LE DOSSIER
Développant des solutions de stockage réseau reposant sur la solution open
source FreeNAS, iXsystems muscle son OS et ses baies pour accompagner
les besoins de ses clients en local et dans le cloud.

Brett Davis, exécutif vice-président chez iXsystems, nous a retracé les origines de FreeNAS.
(Crédit S.L.)
En direct de San José. Deux ans après notre visite des locaux d’iXsystems nous sommes
de retour chez le spécialiste des NAS reposant sur le système d’exploitation open
source TrueNAS (FreeNAS en entrée de gamme), qui arrive dans sa version
12.0. Signalons que parmi les fondations open source de FreeNAS, on
retrouve OpenZFS, FreeBSD, TrueOS, Bhyve et désormais Minio pour la partie objet. La
start-up lancée par Anand Babu Periasamy est en passe de réussir son pari de devenir une
couche de stockage objet compatible S3 disponible sur plusieurs plateformes.

La société a poursuivi son développement avec le lancement en 2018 des TrueNAS M40
et M50 équipés de SSD NVMe pour la partie cache et supportant une connexion aux
principaux fournisseurs de cloud pour la partie OS. Aujourd’hui, la principale nouveauté
matériel chez IXsystems, c’est l’adoption du NVMe (en lecture) - et du Nadim (en
écriture) - pour assurer la fonction de cache sur les TrueNAS all-flash. Les modèles
hybrides (flash et disques durs) se contentent de SSD et de NVDimm. Coté logiciel, on
note l’arrivée de la compatibilité avec VMware vSphere et le partenariat avec Asigra
pour commercialiser les TrueNAS Enterprise Backup capables d’assurer les sauvegardes
de solutions SaaS comme Office 365 ou Salesforce.

Une interface plus étoffée


L’interface a également été profondément revue avec TrueCommand 1.0 qui apporte
des tableaux de bord plus détaillées sur le matériel en cours d’exploitation, ou encore un
provisionnement des volumes iSCSI plus simple. TrueCommand – disponible à partir de
TrueNAS 11.2 seulement - permet également de monitorer en temps réel l’activité des
systèmes de stockage et de configurer les interfaces réseau. La remontée des tickets
s’affiche dans TrueCommand avec la possibilité de les commenter pour partager des
informations avec d’autres administrateurs. Le scripting et l’automatisation sont
également de la partie avec support de JSON. Il n’est toutefois pas encore possible
d’arrêter tous les services sur plusieurs NAS, il est toujours nécessaire de le faire
individuellement. TrueCommand gère gratuitement les installations FreeNAS et
TrueNAS avec jusqu'à 50 lecteurs par instance ou 50 lecteurs sur plusieurs systèmes. Le
prix est ensuite de 10 dollars par drive.
Avec TrueCommand 1.0, iXsystems a profondément amélioré les remontées d'informations et les
commandes à destination de ses NAS. (Crédit S.L.)

Tout est inclus dans le prix de base chez iXsystems, à savoir compression, think
provisionning ou encore snapshots. C’est le propre du modèle open source mais avec un
support de niveau entreprise : déploiement, intervention sur site, hotline 24/7, correction
des failles… Plusieurs centaines d’entreprises font aujourd’hui confiance à TrueNAS
pour héberger leurs données. Mais un des principaux marchés d’iXsystems reste celui des
média/entertainment pour assurer la postproduction des films et séries. Le fournisseur
annonce plus de 10 millions de téléchargements de son OS FreeNAS (500K
annuellement) reposant sur OpenZFS, et une communauté forte de 200 000 membres. Les
principaux marchés nationaux restent les États-Unis, l’Allemagne, le Royaume-Uni et la
France.

Une erreur dans l'article?Proposez-nous une correction


Article rédigé par
Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / LOGICIEL / INTELLIGENCE ARTIFICIELLE

Onepanel promeut
un PaaS dédié à l'IA
Serge Leblal , publié le 22 Octobre 2019

0Réaction


/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance

TÉLÉCHARGER

Avec sa plate-forme qui permet aux codeurs et aux data scientists de créer
et déployer des modèles et des pipelines d'apprentissage profond dans un
environnement reproductible, élastique et multi-cloud, Onepanel découple
l'IA des freins liés à l'infrastructure.

Cofondé par Rush Tehrani (CTO), Onepanel vient aider les entreprises à mettre en place des
applications IA prêtes pour la production. (Crédit : LMI/SL)
Fondée en 2017, Onepanel a développé une plateforme évolutive permettant d’exploiter
au mieux les infrastructures dans les projets IA grâce à l’utilisation
de Kubernetes. Onepanel, qui propose un PaaS pour créer, modifier et exécuter
des workflows IA automatisés prêts à entrer en production, aligne des outils et services à
destination des développeurs et des datascientists. « Avec l'infrastructure et le flux de
travail combinés à des capacités d'automatisation, n'importe quelle entreprise est en
mesure de soutenir des initiatives d'IA à l’image de grands groupes web », nous a
expliqué le CEO de Onepanel, Donald Scott, lors d'une rencontre à San Francisco.

Onepanel propose un environnement (PaaS, one premise bare-metal ou cloud


privé) permettant d’exécuter des modèles d'apprentissage profond (grille de données,
outils de données synthétiques, outils bio-informatiques et environnements de
simulation) à l'aide de plusieurs conteneurs et, ce, avec une accélération parallèle sur
plusieurs instances GPU. « La solution est disponible sur les cloud d’AWS, Azure
et GCP avec un dataset pour conserver la persistance des données sur un bucket S3 ou
compatible », nous a indiqué Rush Tehrani, CTO de Onepanel.

La plateforme de Onepanel assiste les data scientists pour la création de leur modèle IA.

La plateforme de Onepanel repose sur 7 briques : Data load pour aider les développeurs
et les datascientists à intégrer leur datasets, Data annotation pour labelliser les vidéos et
les images déployées dans le training IA du workflow, Model developpement pour lancer
des instances CPU et GPU (workspaces chez Onepanel), High scalability model training
pour réaliser des traitements parallèles sur des centaines de
machines, Metrics & analytics pour remonter des mesures en temps
réel, Model management pour centraliser tous les modèles et
enfin Model Deployment pour passer des modèles IA en production en mode élastique
avec des instances serverless.

Plusieurs cas d’usage ont été mis en avant par Onepanel durant leur présentation et
notamment le traitement en lot d’images haute résolution pour aider les radiologues à
détecter des lésions de type cancéreuses. Autre exemple dans l’urbanisme avec l’analyse
des vibrations remontées par les voitures connectées pour évaluer l’état des routes et
établir les travaux à réaliser. Onepanel travaille avec plusieurs partenaires, mais sans
exclusivité. « Beaucoup de partenaires nous ont demandé l’exclusivité, mais ce n’est pas
notre politique », assure le CEO. La solution de Onepanel est facturée à l’usage avec un
prix au compute, sans oublier les coûts engendrés par le compute et le stockage
du cloud provider. Les modèles IA ainsi que leurs modèles d'environnement peuvent être
partagés ou vendus sur la place de marché de Onepanel. La technologie de cette start-up
est très intéressante et cible les datascientists dont les besoins en IA sont de plus en plus
importants. « Nous proposons une solution simple pour provisionner des ressources IA »,
indique le CEO. « Près de 2000 utilisateurs sont déjà clients de notre plateforme lancée
en 2017 », souligne le dirigeant. « En Inde, beaucoup d’entreprises utilisent
notre plateforme car elle est facile à mettre en œuvre », conclut le CTO.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / LOGICIEL / INTELLIGENCE ARTIFICIELLE

L'IA vient renforcer


les marques
avec Commerce.AI
Serge Leblal , publié le 18 Octobre 2019

0Réaction

/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance

TÉLÉCHARGER

« Toutes les données sont de bonnes données, jusqu'à ce qu'elles ne le soient


plus ». C'est le credo de la start-up Commerce.AI qui entend accompagner
l'aide à la décision des e-commerçants dans le domaine de la mode ou de la
grande distribution.

Andy Pandharikar, CEO de Commerce.Ai, a été particulièrement secret quant aux fondements de
sa solution. (Crédit S.L.)
En direct de Sunnyvale. Comment les marques peuvent-elles utiliser l'intelligence
artificielle pour mieux comprendre les besoins de leurs clients et créer de nouveaux
produits. C’est une des questions auquel la start-up Commerce.AI tente de répondre en
travaillant avec les marques et les distributeurs/revendeurs. Cofondée par
Andy Pandharikar, anciennement CEO de la jeune pousse Fitiquette,
Commerce.AI travaille déjà avec Walmart (son premier client), Chanel, Suzuki, Coca
Cola ou encore Unilever pour les aider à changer la manière dont elles conçoivent leurs
nouveaux produits.

Chanel par exemple voulait mieux écouter ses différents revendeurs pour analyser ses
ventes. Il est ici question de tuning à partir de milliers de ressources pour saisir les
dernières tendances et créer des produits avec les caractéristiques que les clients
recherchent. « Comprendre les tendances avec catégorisation des demandes est un gros
travail si on considère la masse de sources et les données à traiter », nous a indiqué
Andy Pandharikar. « L’IA a changé la façon dont les marques découvrent les nouveaux
produits à créer et à quoi ils doivent ressembler dans l'industrie de la mode […] C'est un
atout énorme pour les marques de mode, car elles peuvent évaluer les marges avec plus
de précision et d'organisation grâce à l'intelligence artificielle, ce qui nécessite moins de
main-d'œuvre ». Les clients forcent également les fournisseurs et les revendeurs à
modifier leurs stratégies de prix. Il est donc devenu nécessaire de faire preuve de
souplesse dans la structuration des prix afin de fidéliser la clientèle. Avec l’IA, les
entreprises peuvent surveiller la gamme de produits de leurs concurrents, qui serait
segmentée par produit et par marque, ainsi que le pourcentage de chevauchement. Cet
outil permet ensuite aux entreprises d'ajuster rapidement et avec une grande précision leur
propre gamme de produits et leurs prix. Un avantage concurrentiel qui offre une visibilité
complète sur les produits offerts sur le marché.

Pas de détails sur la secret sauce


De nombreuses entreprises sont surchargées de données clients ingérables
qu'elles utilisent peu ou pas du tout. C'est une incroyable mine d'or de données qui
pourrait être utilisée pour améliorer les ventes. L’intelligence artificielle vient fournir aux
entreprises les renseignements opportuns dont elles ont besoin pour résoudre leurs
problèmes d'affaires, comme la génération de prospects et la conception de nouveaux
produits. Les entreprises de marketing prédictif apportent des solutions d'intelligence
artificielle pour le marketing, les ventes et les systèmes CRM.

Lors de notre session avec Commerce.AI, le CEO de la start-up est


malheureusement restée très vague sur le fonctionnement de sa plateforme, invoquant une
fois de plus la fameuse « secret sauce ». Nous aurons tout de même appris que la solution
était disponible sur le cloud public avec AWS, GCP mais aussi Alibaba pour les clients
asiatiques.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / LOGICIEL / DÉCISIONNEL

Promethium passe la
vitesse supérieure avec
une solution aboutie
Serge Leblal , publié le 17 Octobre 2019

0Réaction

/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance

TÉLÉCHARGER

Si la solution de Promethium était encore un prototype très ambitieux l'an


dernier, la start-up a réalisé un travail énorme pour valider sa promesse
initiale de data mâtinée d'analytique pour répondre aux requêtes des
employés dans l'entreprise.
CEO et cofondateur de Promethium, Kaycee Lai a mené à bon port un projet très ambitieux.
(Crédit S.L.)
En direct de Mountain View. Après avoir peaufiné sa plate-forme d'automatisation du
contexte pour réduire le temps et la main-d'œuvre consacrés aux analyses afin
d’automatiser la gouvernance des données, Promethium est prêt à commercialiser sa
solution. L’an dernier, Kaycee Lai, le CEO et cofondateur de la start-up lancée en février
2018, nous avait confronté à son projet de créer un framework combinant des sources
multiples et des briques analytiques pour aider à trouver les données qui permettront de
bien répondre à une question ou problème. Les entreprises possèdent des actifs de
données tentaculaires et elles ont beaucoup à gagner si elles réussissent à bien cataloguer
le contenu, le contexte et les relations entre ces ensembles de données. Afin par
exemple de se conformer au RGPD, ainsi qu'aux autres cadres réglementaires évoluant à
l'échelle mondiale.
Plusieurs sources de données structurées et non structurées sont adressables avec le moteur
de Promethium : Oracle, Teradata, Cloudera, Amazon RDS et Redshift, mais
encore Athena, Informatica…

« Ce n’est pas le compute, la mémoire ou la vitesse du réseau qui est importante dans
ce contexte, mais les ressources humaines qui analysent les données »
explique Kaycee Lai, « voilà pourquoi nous venons accélérer ce traitement avec notre
data catalogue ». Trois moyens permettent de scanner les données disponibles et une fois
le catalogage réalisé, il suffit de rédiger ses questions en langage naturel pour obtenir des
réponses s’appuyant sur les informations de l’entreprise. L’intégration des différents
outils peut ses réaliser en réutilisant des data modèle pour les services financiers
développés par exemple pour Oracle. Avant de prendre une décision, il est possible de
confronter plusieurs sources de données pour valider la qualité des informations.
L'interface de Promethium avec le moteur de requêtes en langage naturelle.

« Il est difficile d’aller dans les entreprises pour leur expliquer qu’elles doivent
reconstruire tout ce qu’elles ont mis en place pour analyser leurs données. Nous nous
greffons donc aux solutions existantes pour apporter un outil capable de naviguer dans les
différents silos », souligne le CEO de Promethium. « Les clients qui ont le plus
pipelines, on a déjà Oracle, Teradata, S3 ou Snowflake, certains avec plus de vingt
millions de tables. Nos cibles sont avant les data scientists, mais également les
data analysts et les data marketing ». Promethium facture à l’usage et par utilisateur avec
une souscription annuelle. Autre modèle par utilisateur mais uniquement pour retrouver
des données. C’est un peu moins cher. L’an dernier, le CEO nous avait indiqué qu’il
privilégiait une facturation au volume de données mais certaines entreprises se sont
montrées très réticentes, nous a expliqué le CEO. Kaycee Lai a donc changé son fusil
d’épaule en proposant plus de souplesse aux clients. La solution est disponible
en premise, mais aussi dans le cloud avec les frais inhérents qui se rajoutent. Les langues
supportées aujourd’hui vont de l’anglais à l’espagnol en passant par le français. Pour la
commercialisation, le CEO n’exclut pas de passer par des partenaires qui travaillent déjà
avec Colibra, Informatica, Capgemini par exemple. Le marché européen est aujourd’hui
une cible importante pour la start-up qui a bien compris ce qu’elle pouvait apporter à
l’heure du RGPD.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / RÉSEAU


Détection des intrusions
réseau en temps réel
chez Corelight
Serge Leblal , publié le 16 Octobre 2019

0Réaction

LIVRES BLANCS

 La surveillance à distance fournit des informations en temps réel qui améliorent la maintenance

 Guide pratique : Etes-vous dans un contexte favorable à l'hyperconvergence ?

 PME et ETI en phase de croissance : comment adapter votre datacenter ?

Dans la tradition d'autres outils d'analyse de réseau


comme Sourcefire, Corelight apporte aux professionnels de la sécurité une
vision approfondie du trafic de données sur les systèmes qu'ils supervisent.
« Cette technologie d'analyse des paquets est devenue très importante car vous ne pouvez
pas évitez le réseau et le SIEM est le système d’enregistrement pour réaliser si besoin
des forensics », explique Greg Bell, CEO de Corelight. (Crédit S.L.)
En direct de San Francisco. Solution concurrente du
fameux Snort de Sourcefire (dans le giron de Cisco depuis 2013) pour l’analyse des
paquets et la détection d’intrusion sur le réseau, Corelight gère l'inspection approfondie
des paquets sur les réseaux avec une appliance physique ou virtuelle. Dotée d’une
interface graphique, la solution est plutôt facile à déployer et à utiliser. Corelight repose
en fait sur la plateforme de monitoring open source Zeek, précédemment connue sous le
nom de Bro (une référence au Big Brother de G.Orwell) et développée en 1994 par Vern
Paxson aujourd’hui employé de Corelight. Celle-ci peut effectuer des analyses de trafic,
des enquêtes médico-légales, des analyses au niveau de l'application, le suivi des fichiers,
et permettre à quiconque d'accéder à la moindre information saisie. Mieux encore, elle le
fait à l'aide d'une analyse dynamique, ce qui signifie que vous pouvez facilement voir les
utilisateurs, les fichiers et les nœuds d'extrémité à travers différentes connexions et
sessions. Bro vient aussi avec un langage de scripts. Le logiciel fonctionne sous
Linux, FreeBSD et Mac. Contrairement à la plupart des autres projets open source
qui ont tendance à mourir de négligence dans l'année qui suit leur sortie, Zeek a toujours
un écosystème important et solidaire.

La spécialité de Corelight est d'agir en tant que « middleware » matériel entre les
agrégateurs de paquets, en ajoutant et transformant les données, puis en envoyant les
données transformées en amont vers les autres dispositifs traditionnels d'enregistrement,
d'alerte et de détection comme les systèmes de gestion des informations et des
événements de sécurité (SIEM). Il transforme les paquets en données plus utiles. « Les
logs hétérogènes sont un vrai casse-tête », nous a expliqué le CEO de Corelight Greg
Bell.

Vern Paxson à l'origine de l'outil de supervision Zeek (anciennement Bro) est aujourd'hui chief scientist
chez Corelight. (Crédit S.L.)
Comprendre les données brutes du réseau
L'une des meilleures façons de transformer les données est d'attribuer des ID uniques par
session aux connexions et aux fichiers, ce qui permet à ces utilisateurs et fichiers d'être
suivis sur différentes connexions - non seulement dans le produit Corelight, mais aussi
dans les produits en amont. Il est ainsi possible de capturer et reconstruire des fichiers
spécifiques et de larges catégories de fichiers directement à partir du flux de paquets. On
peut également ajouter différents scripts d'analyse pour détecter des choses telles qu'une
augmentation soudaine de l'entropie dans différents flux de fichiers, ce qui pourrait
indiquer une attaque de type ransomware. « Nous transformons les données brutes du
réseau en logs facilement utilisables », nous a indiqué Greg Bell. « Et, ce, même si le
trafic est chiffré ». Corelight exploite des composants FPGA dans ses appliances pour
accélérer l’analyse des paquets, et offrir des performances de 25 Gbit/s avec son
unité AP 3000. En combinant ses appliances, la société est montée à 700 Gbit/s avec un
organisme public aux USA et à 300 Gbit/s avec un client en Europe.

Les solutions de Corelight reposent sur Zeek.


Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / LOGICIEL / BASE DE DONNÉES

Des GPU au service de


l'analyse temps réel chez
Kinetica
Serge Leblal , publié le 15 Octobre 2019

0Réaction

/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance

TÉLÉCHARGER

La base de données GPU de Kinetica est non seulement extrêmement


évolutive, mais intègre également l'analyse graphique, l'intelligence de
localisation et l'apprentissage machine avec des requêtes SQL standard.

Irina Farooq, Ken Wattana et Daniel Raskin de Kinetica à San Francisco. (Crédit S.L.)
En direct de San Francisco - Anciennement connue sous le nom
de GPUdb, Kinetica, que nous avions déjà rencontré l’an dernier, est un vétéran sur le
marché des bases de données accélérées par GPU. Cette solution a, en effet, été créée en
2009 pour répondre aux besoins de l'United States Army Intelligence and Security
Command (INSCOM) de Fort Belvoir (Virginie) qui désirait suivre des millions de
signaux différents en temps réel pour évaluer les menaces à la sécurité nationale. Les
fondateurs de la start-up - Amit Vij et Nima Negahban – sont partis de zéro pour
construire leur base de données centrée sur la parallélisation massive combinant la
puissance de traitements des GPU et des CPU pour explorer et visualiser les données
dans l'espace et le temps.

Aujourd’hui, Kinetica possède plus de 140 employés dans le monde avec des bureaux au
Royaume-Uni et en Allemagne pour le marché européen. Parmi ses clients, on peut citer
les Indonésiens d’OVO qui exploitent les capacités de la base de données pour construire
une relation client en temps réel pour mieux servir leurs distributeurs de boissons dans les
centres commerciaux. Le service postal américain, US Postal Service, optimise la
distribution de son courrier au niveau mondial avec la solution. Accompagner l’essor
attendu de la 5G est également une des priorités de Kinetica avec des opérateurs
asiatiques comme Softbank et Telkomsel. L’idée est ici d’accélérer les analyses
géospatiales pour optimiser la couverture réseau. Il s’agit d’accélérer le traitement des
signaux mobiles pour augmenter les investissements dans certaines zones et améliorer les
services. 50% des revenus de la société proviennent aujourd’hui de l’international, nous a
assuré Daniel Raskin, directeur marketing de la société. La société ne gagne toujours pas
d’argent et préfère investir pour développer ses ressources commerciales et R&D. « Le
focus est aujourd’hui la croissance », a précisé Daniel Raskin. Un tour de table de série B
est attendu dans les prochaines semaines pour accompagner cette ambition, comme nous
avons pu le voir dans une slide qui ne nous était pas destinée.
Ce tableau de bord Kinetica Reveal permet ide suivre les prévisions des risques en temps réel.

Un périmètre élargi
Le champ d'application de cette base a été élargi pour devenir la plate-
forme Kinetica Active Analytics. Cette dernière combine l'analyse des données
historiques et en continu, la géolocalisation et l'apprentissage machine dans un ensemble
optimisé et prêt pour le cloud (voir infographie ci-dessous). Kinetica combine sa base de
données distribuée, en mémoire, accélérée par GPU avec des analyses en continu,
l'intelligence de localisation et l'apprentissage machine. Vectorisée, en colonnes et
conçue pour les charges de travail analytiques (OLAP), Kinetica distribue
automatiquement toute charge de travail entre les CPU et les GPU. Kinetica utilise SQL-
92 pour un langage de requête, tout comme PostgreSQL et MySQL, et prend en charge
une gamme étendue de fonctionnalités, notamment la recherche de texte, l'analyse de
séries chronologiques, l'intelligence de localisation et l'analyse graphique. «
Active Analytics est connecté au monde réel pour accélérer les traitements analytiques et
permettre aux entreprises de découvrir de nouvelles opportunités », indique le
responsable marketing.

Disponible dans les clouds AWS, Azure et GCP, Kinetica est aussi déclinable on-premise.

Kinetica peut fonctionner sur l'ensemble du corpus de données en gérant intelligemment


les données sur la mémoire des GPU, la mémoire système, les SSD, les disques durs et le
stockage cloud compatible S3. « Notre architecture distribuée tire partie de tous les
matériels [Dell EMC, Nvidia et IBM sont parmi les partenaires de la société] », a
souligné Irina Farooq, chief product officer chez Kinetica. Selon la société, cette capacité
à gérer tous les niveaux de stockage est un point qui la distingue de ses concurrents
directs à savoir OmniSci, Brytlyt, SQream DB et BlazingDB.

Une montée en gamme vers SMACK


Grâce à ses capacités d'ingestion parallèle distribuée, Kinetica peut absorber à grande
vitesse des ensembles de données en continu (avec Kafka) et réaliser des analyses
complexes sur des données en continu et historiques simultanément. Il est possible de
créer ou d’importer des modèles TensorFlow préformés pour exécuter des inférences via
le traitement par lots, le traitement par flux ou un service cloud public.

Kinetica dispose d'une bibliothèque de fonctions géospatiales robuste et accélérée par


le GPU pour effectuer le filtrage à la demande, l'agrégation, les séries temporelles, la
jonction spatiale et l'analyse de géodata. La plateforme peut également afficher des
géométries, des cartes thermiques et des contours illimités à l'aide d'une technologie de
rendu côté serveur (puisque le rendu côté client d'ensembles de données volumineux
prend beaucoup de temps). Avec toutes ces fonctionnalités, Kinetica dépasse le simple
marché des bases de données accélérés et entre en concurrence avec une gamme
beaucoup plus large de solutions, allant des solutions SMACK (Spark, Mesos, Aka,
Cassandra et Kafka) sur-mesure aux plateformes plus traditionnelles de traitement et
d'entreposage des données distribuées. Solution propriétaire, Kinetica propose aux
entreprises un abonnement annuel basé sur le nombre de téraoctets en mémoire ; le
stockage des données dans d'autres niveaux n’est pas facturé. La licence d'abonnement
permet d'exécuter Kinetica n'importe où sur site ou dans le cloud. Les coûts
d'abonnement sont totalement prévisibles. Un essai gratuit de 30 jours est disponible.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / DATACENTER / STOCKAGE

Stockage as a service
chez StorOne
Serge Leblal , publié le 28 Juin 2019

0Réaction


Panorama des principaux frameworks IA
1. 1Effervescence autour des
frameworks IA

2. 2Scikit-learn, le framework
phare de la prédictivité

3. 3

...
LIRE LE DOSSIER

Si HPE nourrit de grandes ambitions avec son programme Greenlake, un


acteur comme StorOne ambitionne également de surprendre le marché
avec une offre on-premise de Storage as a Service.
Toujours aussi prudent, le CEO de StorOne Gal Naor distille ses informations au compte-
gouttes. (Crédit S.L.)
Le marché du stockage est toujours partagé entre les fournisseurs historiques qui
accaparent une grosse partie des commandes grâce à une politique de
rachats leurs permettant de renouveler leurs offres et de nouveaux entrants qui doivent à
tout prix se distinguer. La start-up israélienne StorOne lancée en 2011 par Gal Naor,
cofondateur de StorWize revendu en 2010 à IBM, fait encore partie des seconds. Jamais,
à court d’idées, Gal Naor propose cette fois un modèle de consommation original à tous
ceux qui désirent passer en mode OPEX pour leur stockage flash. StorOne, qui a écrit sa
propre pile de stockage qui supporte tous les protocoles de stockage (bloc - FC et iSCSI,
fichier - NFS, et objet - S3), lance une offre StaaS (Storage as a Service) avec un tarif de
999$ par mois pour 18 To. « C’est la plus basse des offres Capex et Opex avec tous les
services inclus » assure le dirigeant. « Et il s’agit d’une véritable souscription sans
engagement à long terme ».

Cette offre on-premise, mais en mode abonnement comprend toutes les fonctionnalités
qu’on peut attendre d’une baie flash à savoir snapshot, data protection et simplicité dans
le management. Des baies de stockage flash développées par l’équipe de StorOne avec
une capacité de 360 To max dans 2U et une modularité des performances pouvant
atteindre le million d’IOPS. « L’idée est d’apporter aux entreprises la meilleure solution
pour des usages multiples comme le cloud avec des systèmes bloc, fichiers et objet dans
la même baie », assure le CEO. StorOne exploite le même matériel que les concurrents
avec des contrôleurs x86, mais assure faire la différence avec la partie logicielle. « 8 ans
de développement ont été effectués contre 18 mois pour les autres. 18 mois ce n’est pas
de l’innovation, mais juste de l’intégration. Nous avons travaillé 8 ans en partant de zéro
pour arriver à des performances maximales avec un minimum de hardware. Plus de 50
brevets ont été déposés, assure le CEO. C’est pourquoi, nous n’avons besoin que de 64
Go de RAM sans contrôleur RAID. Nous sommes une très petite équipe, mais nous ne
voyons pas petit. Nous ne nous voyons toutefois pas entrer en compétition avec Dell
EMC, HPE ou NetApp, car ils équipent des entreprises beaucoup plus importantes. Nous
ciblons les ETI et les grosses PME avec une offre capable de rivaliser avec les solutions
HCI. Un partenariat a d’ailleurs été établi avec IBM dans ce sens », indique Gal Naor.

Des accord avec Dell et Tech Data


Des usages dans les bases de données avec une prédiction des performances, des
snapshots modifiables et un environnement de tests pour les codeurs ou encore pour le
VDI avec une certification VMware sont envisagés par l’équipe de StorOne. Le NVMe et
le FC sont d’ailleurs des options disponibles si le client le demande. L’offre de StorOne
est alléchante, mais une petite start-up n’a pas les ressources pour assurer la distribution
et le support d’une telle proposition, voilà pourquoi Gal Naor a noué un accord avec
Dell pour la plateforme matérielle et un partenariat avec Tech Data et ses partenaires pour
assurer la commercialisation de cette offre. « Le matériel n’est pas cheap et le support est
celui de Dell pour la partie matérielle », souligne le CEO. Après 60 mois, le matériel
appartient aux clients et StorOne s’engage à ajuster les prix chez les clients comme pour
le cloud. « Cette fois, l’innovation se situe sur le terrain du business et non pas au niveau
technologique comme nos propositions précédentes. Cette décision est un ajustement
pour coller au marché ». HPE a d’ailleurs commencé à faire de même, mais à une échelle
beaucoup plus importante avec son programme Greenlake.
Pour finir, rappelons simplement que StorOne annonce une cinquantaine de clients dans
le monde et qu’un accord OEM est à venir avec un acteur du HCI. « Les partenariats
prennent du temps », conclut Gal Naor.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

services
TOUTE L'ACTUALITÉ / STOCKAGE / SAUVEGARDE
Migration, sauvegarde
ou
archivage, Atempo Miri
a assure tous les
services
Serge Leblal , publié le 12 Juillet 2019

0Réaction

Panorama des principaux frameworks IA


1. 1Effervescence autour des
frameworks IA

2. 2Scikit-learn, le framework
phare de la prédictivité
3. 3

...
LIRE LE DOSSIER

Avec sa plateforme logicielle Miria dédiée à la migration, à la sauvegarde et


à l'archivage de grands volumes de données non structurées, Atempo vise
clairement les grands comptes.

Luc d'Urso a racheté Atempo en 2017 pour compléter son offre de sauvegarde Wooxo. (Crédit
S.L.)
“Beaucoup d’entreprises sous-estiment la complexité liée à la migration des données”,
c’est par ces quelques mots que Luc d’Urso, CEO d’Atempo, résume les qualités de
Miria, sa solution de sauvegarde, d’archivage, de déplacement et de synchronisation des
données non structurées. Rappelons pour mémoire qu'Atempo a été racheté en 2017 Luc
d'Urso, également patron de Wooxo, un éditeur français de solutions de synchronisation
et de partage de fichiers d'entreprise, pour se développer sur le marché des grands
comptes. Disposant de plus d'une dizaine de bureaux dans le monde, Atempo revendique
plus de 4 500 clients manipulant de larges volumes de données, dans différents secteurs
d'activités comme notamment l'industrie, l'audiovisuel, la santé, les télécommunications,
le secteur public et l'éducation.

Miria permet de préserver des contenus numériques sur le long terme, d'optimiser ses
ressources de stockage et de gérer des métadonnées répondant aux besoins
de recherche/e-discovery et de conformité réglementaire. Proposé en
indirect (Tech Data, Cheops ou Axians) ou via des partenaires à valeur ajoutée
comme DDN Storage, Qumulo, Huawei ou encore Dell et Nutanix, Miria repose sur
un core engine capable de gérer l’explosion du volume des données non structurés dans
des secteurs clefs. La TV et les studios de production, par exemple, peuvent gérer 500 Po
en local et 50 Po dans le cloud. C’est donc un nouveau challenge pour les solutions de
sauvegarde qui doivent travailler dans un environnement mixte. Voilà pourquoi Miria est
la fois : fournisseur de stockage, mais également cloud agnostique grâce à une
architecture software defined. Des connecteurs ont été développés pour travailler avec les
principaux clouds du marché.
L'architecture Miria travaille en local et dans le cloud. (Crédit Atempo)

Plusieurs modules pour répondre à tous les besoins


Avec sa solution Miria et sa partie data management, Atempo entend casser les différents
silos pour aider les clients à changer leurs habitudes. “Il ne s’agit plus seulement de
bouger les données, mais également de les comprendre et de migrer si besoin des données
du cloud vers des ressources locales”, nous a expliqué Ferhat Kaddour, vice-président
en charge des ventes et alliances chez Atempo. “Tout ce qui a plus de 30 jours peut ainsi
passer sur du stockage secondaire”. Atempo utilise un serveur pour découvrir les
ressources hébergeant les données - à l’exception des bandes - avant de les
analyser. Certains clients cherchent également à migrer d’un cloud à l’autre et c’est une
nouvelle complexité à gérer. “Plusieurs entreprises nous demandent de limiter le nombre
de copies avec checksum et d’autres veulent 2 copies pour des questions réglementaires”,
poursuit Ferhat Kaddour.

Dans ses projets de développement, Atempo entend supporter l’indexation Lustre,


mais également utiliser des ressources IA pour améliorer le déplacement des données
considérées comme froides. Pour les tarifs, Atempo calcule le prix de sa licence sur le
volume total sauvegardé sur la cible de stockage. Le data mover étant inclus. Déjà bien
implanté à l’international avant son rachat par le groupe de Luc d’Urso, Atempo affiche
une belle liste de clients : l’Université de Lausanne, LaboParis, Zyxel France, le National
Film Board du Canada ou encore la Diriac.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !


NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / STOCKAGE

Qumulo étoffe sa
gamme NAS scale-out
avec plus de capacité
Serge Leblal , publié le 09 Juillet 2019

0Réaction

LIVRES BLANCS

 La surveillance à distance fournit des informations en temps réel qui améliorent la maintenance

 Guide pratique : Etes-vous dans un contexte favorable à l'hyperconvergence ?


 PME et ETI en phase de croissance : comment adapter votre datacenter ?

Si Qumulo met lui aussi en avant son désintérêt pour le matériel au profit
du logiciel, la société n'oublie pourtant pas de mettre à jour sa plateforme
matérielle pour gagner en capacité et services.

Au format 2U, la baie P-184T de Qumulo vient répondre notamment aux besoins de
performances des sociétés de post-production vidéo (Crédit Qumulo)
Fondée en 2012 à Seattle par des anciens d'Isilon (nous avons déjà détaillé les arcanes de
la plate-forme), Qumulo s’est tout de suite démarquée sur le marché des baies de
stockage avec une plateforme NAS reposant sur une architecture distribuée supportant les
modes fichiers et objets. Une extension vers le cloud est également de la partie pour
mettre en place une solution hybride. Après AWS, un accord avec GCP vient d’ailleurs
d’être noué pour proposer la plate-forme aux clients de Qumulo. « Nous ciblons des
partenaires pour répondre à différents usages comme le HPC et les médias notamment »,
nous a expliqué à Palo Alto Molly Presley, responsable marketing
de Qumulo. Avec Cloud Studio, Qumulo propose de stocker des fichiers sur le cloud,
mais également de lancer des traitements avec des effets spéciaux assurés par les
ressources GPU en ligne.

Si le système de fichiers Qumulo fonctionne sur du matériel standard – HPE est un des
fournisseurs proposé - la start-up annonce régulièrement des mises à jour hardware. C’est
le cas aujourd'hui avec la baie full-flash P-184T (2U) qui vient se placer au dessus des
modèles P-23T et P-92T. Reposant elle aussi sur des contrôleurs
Intel Xeon Gold 6126 (12 cœurs à 2,6 GHz), elle apporte une capacité de stockage brute
de 184 To avec 24 SSD NVMe (7,68 To) alors que la P-92T plafonne à 92 To brute (24
SSD NVMe de 3,84 To). Coté performances, une mise à jour logicielle
de Qumulo Core augmente (jusqu’à 40%) la vitesse d’écriture sur la série P.

Trois baies avec un peu plus de capacité de stockage ont été annoncées chez Qumulo. (Crédit S.L.)

La série C s’enrichit avec l’arrivée du modèle C168T (1U) d’une capacité de 168 To
brute (12 disques durs de 14 To secondés par 3,8 To de flash pour la partie cache). Cette
gamme dite hybride combine donc des disques durs et des SSD pour offrir de la capacité
de stockage (DD) sans négliger les performances (SSD) et, ce, à un tarif serré. Pour la
partie contrôleurs, Qumulo fait appel à des puces Intel Xeon-D D-1531 (6 cœurs à 2,2
GHz) comme pour le C72T. Enfin, Qumulo complète ses annonces avec
le K168T (1U) d’une capacité de 168 To (12 disques durs de 14 To avec 2,8 To de flash
pour la partie cache) destiné à l’archivage. Elle exploite elle aussi des contrôleurs
Intel Xeon-D D-1531 (6 cœurs à 2,2 GHz).

L'interface revue de Qumulo permet de suivre l'évolution de la consommation du stockage. (Crédit S.L.)

L'abonnement au stockage Qumulo comprend l'analyse en temps réel et la gestion des


quotas, la réplication continue et les snapshots. Si l'analyse en temps réel montre la
capacité utilisée par le stockage, elle révèle également les tendances d'utilisation - grâce
au recours à des algorithmes prédictifs - et rend visibles les pics d'utilisation. Signalons
qu’une fonction d'audit de sécurité permet de savoir quels utilisateurs ont accédé aux
fichiers et ce qu'ils ont fait pendant l'accès. Une interface remaniée est proposée aux
administrateurs pour mieux suivre tout ce qui se passe et anticiper les besoins. Des API
sont également disponibles pour se connecter à des outils analytiques comme Splunk. Les
souscriptions et autres options logicielles sont une évolution notable dans le monde du
stockage, avec un discours récurrent sur l’abandon du matériel pour se concentrer sur le
logiciel. Les ressources hardware étant fournies par de grands acteurs du marché.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / CLOUD / STOCKAGE


ObjectiveFS ajoute le
support d'Azure à son
système de fichiers
Serge Leblal , publié le 27 Juin 2019

0Réaction

Panorama des principaux frameworks IA


1. 1Effervescence autour des
frameworks IA

2. 2Scikit-learn, le framework
phare de la prédictivité

3. 3

...
LIRE LE DOSSIER
Concurrent de GlusterFS, WekaIO ou encore Minio, ObjectiveFS propose
d'exploiter un serveur de fichiers compatible S3 qui permet de créer
un object store sécurisé et persitant on-premise ou cloud.

Grâce Nordin, CEO d'ObjectiveFS, travaille déjà sur l'optimisation des performances de son
système pour certaines applications. (Crédit S.L.)
Installée au cœur de la silicon valley, ObjectiveFS a été fondée par un couple,
Grâce Nordin (CEO) et Thomas Nordin (CTO), avec l’ambition de proposer un système
de fichiers distribué reposant sur Posix et capable d'exploiter les ressources
du cloud public. L'idée est avant tout de répondre à une problématique devenue courante
dans les entreprises : comment exploiter dans le cloud des applications traditionnelles ou
des VM travaillant jusqu’à présent en mode bloc ou combiner des ressources bloc avec
des instances objet. Par exemple, la mise à l'échelle de serveurs Web pour gérer plus de
trafic, la mise en place d'une infrastructure d'hébergement Web redondante ou
l’implémentation d'un serveur de messagerie plus robuste sont quelques raisons de
partager des fichiers entre instances EC2. ObjectiveFS propose donc un système de
fichiers sécurisé et structuré en mode objet, où les logiciels et outils existants peuvent
fonctionner de manière transparente avec des ressources cloud (sur S3 ou GCS) ou des
serveurs internes. Précisons que la solution supporte uniquement la plateforme x86 avec
les systèmes Linux, OSX et Windows. Ce système de fichiers, qui s’exécute en local ou
sur des instances, est donc capable de partager des fichiers entre différentes ressources
sans faire appel à un cluster de stockage.

Afin de protéger les données au repos et en mouvement, ObjectiveFS dispose également


de contrôles d'intégrité de bout en bout. En construisant sur un object store évolutif, les
administrateurs peuvent disposer d'un stockage qui s'adapte automatiquement et ne sera
plus jamais à court d'espace. Il n’est donc plus nécessaire de décider à l'avance de la
quantité d'espace de stockage attribuée. ObjectiveFS utilise l'évolutivité des plateformes
objet comme AWS S3 et GSC pour limiter les goulets d’étranglement au niveau des
performances. Comme nous l’a expliqué Thomas Nordin lors de sa présentation, « les
performances augmentent quand on rajoute des serveurs ».

Système de fichiers Posix au-dessus de S3, ObjectiveFS chiffre l'ensemble des données durant leur
stockage mais également leur transport.
Uniquement compatible avec AWS S3 à l'origine, ObjectiveFS a ensuite intégré le
support de la plateforme GCS de Google et même des solutions objet on-premise via une
API compatible S3 (Minio, NetApp ou HGST). Et – un peu plus tard dans l’année selon
Grâce Nordin - le support d’Azure Blob devrait arriver avec un mode de
management multicloud pour les données. Le support d’Azure est une demande des
partenaires de la start-up. « Aujourd'hui, 40% de nos clients sont en Europe et une
centaine sont dans le Fortune 500 », a souligné Grâce Nordin. On peut citer Virgin
Media, Lamborghini, BAE System ou encore Merck. Pour la partie
tarification, ObjectiveFS facture au nombre d’instances - avec une souscription mensuelle
ou annuelle – et non pas au volume. La start-up serait aujourd’hui profitable selon
la CEO qui désire conserver le contrôle de son entreprise et écarte donc les solutions de
financement trop intrusives.

Une erreur dans l'article?Proposez-nous une correction

Article rédigé par


Serge Leblal
Directeur des rédactions d'IT News Info
Cet article vous a plu? Partagez le !

NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK

Commentaire
SUIVRE TOUTE L'ACTUALITÉ

Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE

TOUTE L'ACTUALITÉ / LOGICIEL / GESTION DE CONTENU

Data Dynamics, de la
migration au
management de données
Serge Leblal , publié le 24 Juin 2019

0Réaction

/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance

TÉLÉCHARGER

Si des sociétés comme Alation ou Waterline Data se sont spécialisées dans le


management des données structurées, Data Dynamics est passé de la
gestion des migrations à celle des données non structurées.
Piyush Mehta, CEO de Data Dynamics, ne cherche pas à aller sur le marché RGPD. (Crédit S.L.)
Comment mieux exploiter les données résidentes dans les entreprises en les regroupant
par utilisateur, groupe ou encore date ? C’est l’éternelle question de la mise au ban des
silos à laquelle tente de répondre Data Dynamics que avons rencontré dans la Silicon
Valley au début du mois, dans le cadre de l’IT Press Tour. Spécialiste de la migration de
données, Data Dynamics ajoute une corde à son arc en faisant évoluer son produit phare
vers le data management avec StorageX 8.1.

Quatre approches sont aujourd’hui proposées par StorageX 8.1. La première, Analyse,
repose sur Elastisearch pour cataloguer et faciliter la recherche et l’analyse de toutes les
données non structurées conservées dans une entreprise. Move est destinée à conserver au
mieux les données en fonction des plateformes hétérogènes locales
ou cloud disponibles (Azure Blob pour l’instant). Manage permet d'appliquer les
politiques de gouvernance afin d’assurer l’optimisation du placement des données – avec
une organisation pour les environnements Cassandra - tout en offrant une sécurité
optimale. La dernière approche, Modernize, livre une série de recommandations pour
mieux exploiter ses ressources de stockage en corrélation avec les données
conservées. Signalons encore qu’une version 8.1.1, avec des fonctionnalités de sécurité
additionnelles, est attendue en décembre prochain. Et la prochaine déclinaison majeure, la
8.2, devrait passer aux microservices pour accroître la souplesse d’utilisation, avec
l’inévitable contribution de l’IA et des API pour mieux s’intégrer aux applications
métiers.

Tous les types de stockage sont supervisés par la solution de Data Dynamics. (Crédit Data Dynamics)

Ces différents outils travaillent bien sûr de concert pour accélérer l’adoption des
technologies, mais également des meilleures pratiques. Comme par exemple le recours à
l’automatisation. Comme nous l’a indiqué Piyush Mehta, CEO de Data Dynamics, «
l’automatisation est la clef pour réduire les coûts de gestion […] C’est un mouvement qui
a démarré aux Etats-Unis mais également en Europe et notamment en France. L’éditeur
compte déjà des clients en France dont deux grandes banques. Interrogé sur la
conformité RGPD, le dirigeant nous a étonnement répondu que cela ne concernait que
quelques clients qui désirent identifier les propriétaires et les accès aux fichiers. 
«
La transformation des logiciels dans les entreprises va s’accompagner d’une hausse des
données générées et il sera nécessaire de mieux les gérer », estime le CEO de
Data Dynamics. « Le marché est aujourd’hui porteur ». Tout d’abord installé en Grande-
Bretagne pour adresser le marché européen, Data Dynamics a recruté une personne en
France pour commercialiser son produit et développer un réseau de partenaires à la
rentrée.



IXsystems fait passer ses NAS
Open source à l’échelle des
grands comptes

Parmi les startups de la Silicon Valley qui innovent en matière de


stockage, ce fabricant de baies peu chères sous FreeBSD et OpenZFS
passent aux solutions clés en mains avec environnement graphique,
gestion multi-site et modules applicatifs.






par

 Yann Serra, LeMagIT

Publié le: 07 juin 2019

Adieu la ligne de commande. IXsystems, le fabricant californien des serveurs


de stockage TrueNAS, entièrement basés sur des couches logicielles Open
Source, cède à son tour à la console d’administration entièrement graphique.
Ses produits seront désormais accompagnés d’un environnement
TrueCommand qui présente sur le réseau une interface Web bardée de
tableaux de bord pour régler le Thin provisionning, la compression des données
et les snapshots, mais aussi lancer des services ou encore gérer les tickets
d’incident.

TÉLÉCHARGER GRATUITEMENT CE GUIDE

Les 14 définitions clés du Stockage

Les problématiques de stockage sont probablement devenues les plus capitales du SI,
comprendre les enjeux est essentiel : ce guide de définitions vous fournit une base
experte solide pour aller de l’avant !
 Adresse e-mail professionnelle
L'adresse e-mail indiquée semble erronée.

o J'accepte les conditions d'utilisation de TechTarget, ainsi que la politique de


confidentialité et le transfert de mes informations aux États-Unis pour traitement
afin de me fournir les informations pertinentes décrites dans notre Politique de
confidentialité.

o J'accepte que mes informations soient traitées par TechTarget et


ses partenaires afin de communiquer avec moi par le biais du téléphone ou du
courrier électronique et ce à propos d’informations pertinentes dans mon
contexte professionnel. Je peux me désinscrire à tout moment.
Télécharger Maintenant

« On peut définir des configurations en trois clics, revenir en arrière avec un
bouton parce qu’on change finalement d’avis, avoir un aperçu de l’ensemble
de la flotte sous la forme de graphiques, cliquer sur les NAS qui ont une icône
d’alerte rouge pour régler un problème. Et tout est scriptable via une
interface JSON », se félicite Morgan LittleWood, le directeur des produits chez
d’iXsystems.

« Cette nouvelle interface incarne surtout notre volonté de passer de produits de stockage
d’appoint, à une gamme [s'adressant] aux grandes entreprises. »Morgan
LittleWoodDirecteur produits iXsystems

« Pour nous, cette nouvelle interface incarne surtout notre volonté de passer
de produits de stockage d’appoint, généralement déployés chez les petites
entreprises, à une gamme qui s’adresse à présent aux grandes entreprises,
avec un vrai support au siège et la possibilité d’administrer des baies de
disques sur les sites distants », précise-t-il.

« Bien entendu, nous appréhendions le passage à l’administration graphique,


car nos utilisateurs sont principalement des administrateurs issus de
communautés Open Source pour lesquels la ligne de commande est sacrée.
Mais tout ce que les bêta-testeurs nous ont demandé, c’est de mettre un
habillage sombre qui rappelle celui du Shell sous Linux », plaisante Brett
Davis, le responsable des ventes d’iXsystems.

La même semaine, Suse annonçait lui aussi que la ligne de commande avait
vécu et que la prochaine version de sa distribution orientée stockage et dédiée
au SDS Ceph serait enfin dotée d’un environnement graphique.

Des modules applicatifs et bientôt de la haute disponibilité


multisite
Rencontré par le MagIT dans le cadre d’un tour des startups de la Silicon
Valley en quête des prochaines pépites du stockage, iXsystems est peu
connu en Europe, mais compterait déjà plusieurs milliers de clients,
principalement aux USA. Son activité est à la fois de développer le système
de stockage en cluster TrueOS, installable sur n’importe quel serveur et aussi
de vendre des boîtiers NAS préconfigurés avec, les TrueNAS.

TrueOS repose sur le système FreeBSD, le système de fichiers


parallélisé ZFS et le module de stockage objet Minio. Il supporte de partager le
contenu de ses volumes aux protocoles SMB, CIFS, AFP et S3, mais aussi en
mode bloc en iSCSI et FiberChannel. Les développements réalisés par
iXsystems pour enrichir TrueOS comprennent le système de packages
Pkgbase pour simplifier le déploiement des applications, ainsi que le logiciel
IOcage pour gérer les containers Jails (il s’apparente en quelque sorte à une
sorte de Docker pour FreeBSD).

Depuis la version 11.3, lancée au moment de notre visite, TrueOS accepte


des modules applicatifs, soit sous la forme de machines virtuelles exécutées
par Bhyve, l’hyperviseur de FreeBSD, soit sous celle de containers, au format
Jails.

À date, ces modules comprennent le logiciel de sauvegarde en cloud Asigra –


la version fournie peut protéger dix volumes sans licence supplémentaire –
les outils Iconik et Plex pour diffuser des contenus multimédias, la plateforme
collaborative NextCloud ou encore ZoneMinder qui sert de tour de contrôle pour
une flotte de caméras de vidéosurveillance.

Outre l’environnement graphique TrueCommand, la prochaine version 12.0 de


TrueOS, attendue pour la fin de l’année, devrait apporter plusieurs
améliorations au système de fichiers OpenZFS. Sont cités le chiffrement,
la réplication et l’import de pools de stockage, ou encore l’optimisation de la
bande passante.
« Ces optimisations sont celles qui nous permettront de basculer dans la
dimension multisite, avec notamment la fourniture de nouvelles fonctions
de haute disponibilité », précise Brett Davis.

Du Full Flash à 50 centimes par Go


Concernant l’offre matérielle, on trouve en entrée de gamme les FreeNAS, de
simples serveurs autonomes sur lesquels est installé TrueOS. Au-dessus, les
TrueNAS sont différentes machines SuperMicro ou Quantas au format Rack
avec plus ou moins de logements pour les disques. Au format 2U, le
modèle X20 peut grimper à 1 Po, tandis que le M50 en 4U atteint 10 Po avec
des disques durs traditionnels ou 1,6 Po en avec uniquement des unités SSD.

L’autre différence entre les gammes X et M est que les premières disposent
d’un cache sur disque SSD, tandis que les secondes utilisent des barrettes de
mémoire persistante NVDIMMs.

L’utilisation de logiciels Open source permettrait à ces matériels d’afficher des tarifs
particulièrement bas.

Surtout, l’utilisation de logiciels Open source permettrait à ces matériels


d’afficher des tarifs particulièrement bas. Ceux communiqués sont d’environ
100 000 dollars par Po pour des nœuds composés de disques traditionnels et
de 50 centimes par Go pour les configurations entièrement Flash.

L’idée de ZFS est d’assembler différents nœuds en cluster. IXsystems


propose d’ailleurs des clusters clés en main, les « TrueRack » qui
interconnectent les nœuds avec plus ou moins de switches 10 ou 100 GbE.
Accessoirement, iXsystems présente sur le store d’AWS des instances
virtuelles de FreeNAS, pour étendre un cluster avec de l’espace en cloud.

Cela dit, les nœuds peuvent eux-mêmes être étendus jusqu’à 10 Po avec des
tiroirs de disque JBOD, qui portent ici la référence « ES » et qui existent en
version 12, 24 ou 60 disques. À l’heure actuelle, ces JBods ne sont proposés
qu’avec une liaison SAS. Il est question dans un avenir plus ou moins proche
de mettre des modèles accessibles en NVMe-over-fabric. Il faudra néanmoins
que les unités NVMe équipent déjà les matériels d’iXsystems, ce qui n’est pas
encore le cas.

À l’avenir, iXsystems devrait, d’une part, proposer des versions encore plus
compactes des FreeNAS, les modèles « Mini ». D’autre part, les TrueRacks
pourraient évoluer en véritables infrastructures hyperconvergées, avec la
possibilité d’exécuter des machines virtuelles Windows ou Linux au-dessus de
l’hyperviseur Bhyve.

Vous aimerez peut-être aussi