0Réaction
2. 2Scikit-learn, le framework
phare de la prédictivité
3. 3
...
LIRE LE DOSSIER
Développant des solutions de stockage réseau reposant sur la solution open
source FreeNAS, iXsystems muscle son OS et ses baies pour accompagner
les besoins de ses clients en local et dans le cloud.
Brett Davis, exécutif vice-président chez iXsystems, nous a retracé les origines de FreeNAS.
(Crédit S.L.)
En direct de San José. Deux ans après notre visite des locaux d’iXsystems nous sommes
de retour chez le spécialiste des NAS reposant sur le système d’exploitation open
source TrueNAS (FreeNAS en entrée de gamme), qui arrive dans sa version
12.0. Signalons que parmi les fondations open source de FreeNAS, on
retrouve OpenZFS, FreeBSD, TrueOS, Bhyve et désormais Minio pour la partie objet. La
start-up lancée par Anand Babu Periasamy est en passe de réussir son pari de devenir une
couche de stockage objet compatible S3 disponible sur plusieurs plateformes.
La société a poursuivi son développement avec le lancement en 2018 des TrueNAS M40
et M50 équipés de SSD NVMe pour la partie cache et supportant une connexion aux
principaux fournisseurs de cloud pour la partie OS. Aujourd’hui, la principale nouveauté
matériel chez IXsystems, c’est l’adoption du NVMe (en lecture) - et du Nadim (en
écriture) - pour assurer la fonction de cache sur les TrueNAS all-flash. Les modèles
hybrides (flash et disques durs) se contentent de SSD et de NVDimm. Coté logiciel, on
note l’arrivée de la compatibilité avec VMware vSphere et le partenariat avec Asigra
pour commercialiser les TrueNAS Enterprise Backup capables d’assurer les sauvegardes
de solutions SaaS comme Office 365 ou Salesforce.
Tout est inclus dans le prix de base chez iXsystems, à savoir compression, think
provisionning ou encore snapshots. C’est le propre du modèle open source mais avec un
support de niveau entreprise : déploiement, intervention sur site, hotline 24/7, correction
des failles… Plusieurs centaines d’entreprises font aujourd’hui confiance à TrueNAS
pour héberger leurs données. Mais un des principaux marchés d’iXsystems reste celui des
média/entertainment pour assurer la postproduction des films et séries. Le fournisseur
annonce plus de 10 millions de téléchargements de son OS FreeNAS (500K
annuellement) reposant sur OpenZFS, et une communauté forte de 200 000 membres. Les
principaux marchés nationaux restent les États-Unis, l’Allemagne, le Royaume-Uni et la
France.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
Onepanel promeut
un PaaS dédié à l'IA
Serge Leblal , publié le 22 Octobre 2019
0Réaction
/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance
TÉLÉCHARGER
Avec sa plate-forme qui permet aux codeurs et aux data scientists de créer
et déployer des modèles et des pipelines d'apprentissage profond dans un
environnement reproductible, élastique et multi-cloud, Onepanel découple
l'IA des freins liés à l'infrastructure.
Cofondé par Rush Tehrani (CTO), Onepanel vient aider les entreprises à mettre en place des
applications IA prêtes pour la production. (Crédit : LMI/SL)
Fondée en 2017, Onepanel a développé une plateforme évolutive permettant d’exploiter
au mieux les infrastructures dans les projets IA grâce à l’utilisation
de Kubernetes. Onepanel, qui propose un PaaS pour créer, modifier et exécuter
des workflows IA automatisés prêts à entrer en production, aligne des outils et services à
destination des développeurs et des datascientists. « Avec l'infrastructure et le flux de
travail combinés à des capacités d'automatisation, n'importe quelle entreprise est en
mesure de soutenir des initiatives d'IA à l’image de grands groupes web », nous a
expliqué le CEO de Onepanel, Donald Scott, lors d'une rencontre à San Francisco.
La plateforme de Onepanel assiste les data scientists pour la création de leur modèle IA.
La plateforme de Onepanel repose sur 7 briques : Data load pour aider les développeurs
et les datascientists à intégrer leur datasets, Data annotation pour labelliser les vidéos et
les images déployées dans le training IA du workflow, Model developpement pour lancer
des instances CPU et GPU (workspaces chez Onepanel), High scalability model training
pour réaliser des traitements parallèles sur des centaines de
machines, Metrics & analytics pour remonter des mesures en temps
réel, Model management pour centraliser tous les modèles et
enfin Model Deployment pour passer des modèles IA en production en mode élastique
avec des instances serverless.
Plusieurs cas d’usage ont été mis en avant par Onepanel durant leur présentation et
notamment le traitement en lot d’images haute résolution pour aider les radiologues à
détecter des lésions de type cancéreuses. Autre exemple dans l’urbanisme avec l’analyse
des vibrations remontées par les voitures connectées pour évaluer l’état des routes et
établir les travaux à réaliser. Onepanel travaille avec plusieurs partenaires, mais sans
exclusivité. « Beaucoup de partenaires nous ont demandé l’exclusivité, mais ce n’est pas
notre politique », assure le CEO. La solution de Onepanel est facturée à l’usage avec un
prix au compute, sans oublier les coûts engendrés par le compute et le stockage
du cloud provider. Les modèles IA ainsi que leurs modèles d'environnement peuvent être
partagés ou vendus sur la place de marché de Onepanel. La technologie de cette start-up
est très intéressante et cible les datascientists dont les besoins en IA sont de plus en plus
importants. « Nous proposons une solution simple pour provisionner des ressources IA »,
indique le CEO. « Près de 2000 utilisateurs sont déjà clients de notre plateforme lancée
en 2017 », souligne le dirigeant. « En Inde, beaucoup d’entreprises utilisent
notre plateforme car elle est facile à mettre en œuvre », conclut le CTO.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
0Réaction
/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance
TÉLÉCHARGER
Andy Pandharikar, CEO de Commerce.Ai, a été particulièrement secret quant aux fondements de
sa solution. (Crédit S.L.)
En direct de Sunnyvale. Comment les marques peuvent-elles utiliser l'intelligence
artificielle pour mieux comprendre les besoins de leurs clients et créer de nouveaux
produits. C’est une des questions auquel la start-up Commerce.AI tente de répondre en
travaillant avec les marques et les distributeurs/revendeurs. Cofondée par
Andy Pandharikar, anciennement CEO de la jeune pousse Fitiquette,
Commerce.AI travaille déjà avec Walmart (son premier client), Chanel, Suzuki, Coca
Cola ou encore Unilever pour les aider à changer la manière dont elles conçoivent leurs
nouveaux produits.
Chanel par exemple voulait mieux écouter ses différents revendeurs pour analyser ses
ventes. Il est ici question de tuning à partir de milliers de ressources pour saisir les
dernières tendances et créer des produits avec les caractéristiques que les clients
recherchent. « Comprendre les tendances avec catégorisation des demandes est un gros
travail si on considère la masse de sources et les données à traiter », nous a indiqué
Andy Pandharikar. « L’IA a changé la façon dont les marques découvrent les nouveaux
produits à créer et à quoi ils doivent ressembler dans l'industrie de la mode […] C'est un
atout énorme pour les marques de mode, car elles peuvent évaluer les marges avec plus
de précision et d'organisation grâce à l'intelligence artificielle, ce qui nécessite moins de
main-d'œuvre ». Les clients forcent également les fournisseurs et les revendeurs à
modifier leurs stratégies de prix. Il est donc devenu nécessaire de faire preuve de
souplesse dans la structuration des prix afin de fidéliser la clientèle. Avec l’IA, les
entreprises peuvent surveiller la gamme de produits de leurs concurrents, qui serait
segmentée par produit et par marque, ainsi que le pourcentage de chevauchement. Cet
outil permet ensuite aux entreprises d'ajuster rapidement et avec une grande précision leur
propre gamme de produits et leurs prix. Un avantage concurrentiel qui offre une visibilité
complète sur les produits offerts sur le marché.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
Promethium passe la
vitesse supérieure avec
une solution aboutie
Serge Leblal , publié le 17 Octobre 2019
0Réaction
/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance
TÉLÉCHARGER
« Ce n’est pas le compute, la mémoire ou la vitesse du réseau qui est importante dans
ce contexte, mais les ressources humaines qui analysent les données »
explique Kaycee Lai, « voilà pourquoi nous venons accélérer ce traitement avec notre
data catalogue ». Trois moyens permettent de scanner les données disponibles et une fois
le catalogage réalisé, il suffit de rédiger ses questions en langage naturel pour obtenir des
réponses s’appuyant sur les informations de l’entreprise. L’intégration des différents
outils peut ses réaliser en réutilisant des data modèle pour les services financiers
développés par exemple pour Oracle. Avant de prendre une décision, il est possible de
confronter plusieurs sources de données pour valider la qualité des informations.
L'interface de Promethium avec le moteur de requêtes en langage naturelle.
« Il est difficile d’aller dans les entreprises pour leur expliquer qu’elles doivent
reconstruire tout ce qu’elles ont mis en place pour analyser leurs données. Nous nous
greffons donc aux solutions existantes pour apporter un outil capable de naviguer dans les
différents silos », souligne le CEO de Promethium. « Les clients qui ont le plus
pipelines, on a déjà Oracle, Teradata, S3 ou Snowflake, certains avec plus de vingt
millions de tables. Nos cibles sont avant les data scientists, mais également les
data analysts et les data marketing ». Promethium facture à l’usage et par utilisateur avec
une souscription annuelle. Autre modèle par utilisateur mais uniquement pour retrouver
des données. C’est un peu moins cher. L’an dernier, le CEO nous avait indiqué qu’il
privilégiait une facturation au volume de données mais certaines entreprises se sont
montrées très réticentes, nous a expliqué le CEO. Kaycee Lai a donc changé son fusil
d’épaule en proposant plus de souplesse aux clients. La solution est disponible
en premise, mais aussi dans le cloud avec les frais inhérents qui se rajoutent. Les langues
supportées aujourd’hui vont de l’anglais à l’espagnol en passant par le français. Pour la
commercialisation, le CEO n’exclut pas de passer par des partenaires qui travaillent déjà
avec Colibra, Informatica, Capgemini par exemple. Le marché européen est aujourd’hui
une cible importante pour la start-up qui a bien compris ce qu’elle pouvait apporter à
l’heure du RGPD.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
0Réaction
LIVRES BLANCS
La surveillance à distance fournit des informations en temps réel qui améliorent la maintenance
La spécialité de Corelight est d'agir en tant que « middleware » matériel entre les
agrégateurs de paquets, en ajoutant et transformant les données, puis en envoyant les
données transformées en amont vers les autres dispositifs traditionnels d'enregistrement,
d'alerte et de détection comme les systèmes de gestion des informations et des
événements de sécurité (SIEM). Il transforme les paquets en données plus utiles. « Les
logs hétérogènes sont un vrai casse-tête », nous a expliqué le CEO de Corelight Greg
Bell.
Vern Paxson à l'origine de l'outil de supervision Zeek (anciennement Bro) est aujourd'hui chief scientist
chez Corelight. (Crédit S.L.)
Comprendre les données brutes du réseau
L'une des meilleures façons de transformer les données est d'attribuer des ID uniques par
session aux connexions et aux fichiers, ce qui permet à ces utilisateurs et fichiers d'être
suivis sur différentes connexions - non seulement dans le produit Corelight, mais aussi
dans les produits en amont. Il est ainsi possible de capturer et reconstruire des fichiers
spécifiques et de larges catégories de fichiers directement à partir du flux de paquets. On
peut également ajouter différents scripts d'analyse pour détecter des choses telles qu'une
augmentation soudaine de l'entropie dans différents flux de fichiers, ce qui pourrait
indiquer une attaque de type ransomware. « Nous transformons les données brutes du
réseau en logs facilement utilisables », nous a indiqué Greg Bell. « Et, ce, même si le
trafic est chiffré ». Corelight exploite des composants FPGA dans ses appliances pour
accélérer l’analyse des paquets, et offrir des performances de 25 Gbit/s avec son
unité AP 3000. En combinant ses appliances, la société est montée à 700 Gbit/s avec un
organisme public aux USA et à 300 Gbit/s avec un client en Europe.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
0Réaction
/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance
TÉLÉCHARGER
Irina Farooq, Ken Wattana et Daniel Raskin de Kinetica à San Francisco. (Crédit S.L.)
En direct de San Francisco - Anciennement connue sous le nom
de GPUdb, Kinetica, que nous avions déjà rencontré l’an dernier, est un vétéran sur le
marché des bases de données accélérées par GPU. Cette solution a, en effet, été créée en
2009 pour répondre aux besoins de l'United States Army Intelligence and Security
Command (INSCOM) de Fort Belvoir (Virginie) qui désirait suivre des millions de
signaux différents en temps réel pour évaluer les menaces à la sécurité nationale. Les
fondateurs de la start-up - Amit Vij et Nima Negahban – sont partis de zéro pour
construire leur base de données centrée sur la parallélisation massive combinant la
puissance de traitements des GPU et des CPU pour explorer et visualiser les données
dans l'espace et le temps.
Aujourd’hui, Kinetica possède plus de 140 employés dans le monde avec des bureaux au
Royaume-Uni et en Allemagne pour le marché européen. Parmi ses clients, on peut citer
les Indonésiens d’OVO qui exploitent les capacités de la base de données pour construire
une relation client en temps réel pour mieux servir leurs distributeurs de boissons dans les
centres commerciaux. Le service postal américain, US Postal Service, optimise la
distribution de son courrier au niveau mondial avec la solution. Accompagner l’essor
attendu de la 5G est également une des priorités de Kinetica avec des opérateurs
asiatiques comme Softbank et Telkomsel. L’idée est ici d’accélérer les analyses
géospatiales pour optimiser la couverture réseau. Il s’agit d’accélérer le traitement des
signaux mobiles pour augmenter les investissements dans certaines zones et améliorer les
services. 50% des revenus de la société proviennent aujourd’hui de l’international, nous a
assuré Daniel Raskin, directeur marketing de la société. La société ne gagne toujours pas
d’argent et préfère investir pour développer ses ressources commerciales et R&D. « Le
focus est aujourd’hui la croissance », a précisé Daniel Raskin. Un tour de table de série B
est attendu dans les prochaines semaines pour accompagner cette ambition, comme nous
avons pu le voir dans une slide qui ne nous était pas destinée.
Ce tableau de bord Kinetica Reveal permet ide suivre les prévisions des risques en temps réel.
Un périmètre élargi
Le champ d'application de cette base a été élargi pour devenir la plate-
forme Kinetica Active Analytics. Cette dernière combine l'analyse des données
historiques et en continu, la géolocalisation et l'apprentissage machine dans un ensemble
optimisé et prêt pour le cloud (voir infographie ci-dessous). Kinetica combine sa base de
données distribuée, en mémoire, accélérée par GPU avec des analyses en continu,
l'intelligence de localisation et l'apprentissage machine. Vectorisée, en colonnes et
conçue pour les charges de travail analytiques (OLAP), Kinetica distribue
automatiquement toute charge de travail entre les CPU et les GPU. Kinetica utilise SQL-
92 pour un langage de requête, tout comme PostgreSQL et MySQL, et prend en charge
une gamme étendue de fonctionnalités, notamment la recherche de texte, l'analyse de
séries chronologiques, l'intelligence de localisation et l'analyse graphique. «
Active Analytics est connecté au monde réel pour accélérer les traitements analytiques et
permettre aux entreprises de découvrir de nouvelles opportunités », indique le
responsable marketing.
Disponible dans les clouds AWS, Azure et GCP, Kinetica est aussi déclinable on-premise.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
Stockage as a service
chez StorOne
Serge Leblal , publié le 28 Juin 2019
0Réaction
Panorama des principaux frameworks IA
1. 1Effervescence autour des
frameworks IA
2. 2Scikit-learn, le framework
phare de la prédictivité
3. 3
...
LIRE LE DOSSIER
Cette offre on-premise, mais en mode abonnement comprend toutes les fonctionnalités
qu’on peut attendre d’une baie flash à savoir snapshot, data protection et simplicité dans
le management. Des baies de stockage flash développées par l’équipe de StorOne avec
une capacité de 360 To max dans 2U et une modularité des performances pouvant
atteindre le million d’IOPS. « L’idée est d’apporter aux entreprises la meilleure solution
pour des usages multiples comme le cloud avec des systèmes bloc, fichiers et objet dans
la même baie », assure le CEO. StorOne exploite le même matériel que les concurrents
avec des contrôleurs x86, mais assure faire la différence avec la partie logicielle. « 8 ans
de développement ont été effectués contre 18 mois pour les autres. 18 mois ce n’est pas
de l’innovation, mais juste de l’intégration. Nous avons travaillé 8 ans en partant de zéro
pour arriver à des performances maximales avec un minimum de hardware. Plus de 50
brevets ont été déposés, assure le CEO. C’est pourquoi, nous n’avons besoin que de 64
Go de RAM sans contrôleur RAID. Nous sommes une très petite équipe, mais nous ne
voyons pas petit. Nous ne nous voyons toutefois pas entrer en compétition avec Dell
EMC, HPE ou NetApp, car ils équipent des entreprises beaucoup plus importantes. Nous
ciblons les ETI et les grosses PME avec une offre capable de rivaliser avec les solutions
HCI. Un partenariat a d’ailleurs été établi avec IBM dans ce sens », indique Gal Naor.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
services
TOUTE L'ACTUALITÉ / STOCKAGE / SAUVEGARDE
Migration, sauvegarde
ou
archivage, Atempo Miri
a assure tous les
services
Serge Leblal , publié le 12 Juillet 2019
0Réaction
2. 2Scikit-learn, le framework
phare de la prédictivité
3. 3
...
LIRE LE DOSSIER
Luc d'Urso a racheté Atempo en 2017 pour compléter son offre de sauvegarde Wooxo. (Crédit
S.L.)
“Beaucoup d’entreprises sous-estiment la complexité liée à la migration des données”,
c’est par ces quelques mots que Luc d’Urso, CEO d’Atempo, résume les qualités de
Miria, sa solution de sauvegarde, d’archivage, de déplacement et de synchronisation des
données non structurées. Rappelons pour mémoire qu'Atempo a été racheté en 2017 Luc
d'Urso, également patron de Wooxo, un éditeur français de solutions de synchronisation
et de partage de fichiers d'entreprise, pour se développer sur le marché des grands
comptes. Disposant de plus d'une dizaine de bureaux dans le monde, Atempo revendique
plus de 4 500 clients manipulant de larges volumes de données, dans différents secteurs
d'activités comme notamment l'industrie, l'audiovisuel, la santé, les télécommunications,
le secteur public et l'éducation.
Miria permet de préserver des contenus numériques sur le long terme, d'optimiser ses
ressources de stockage et de gérer des métadonnées répondant aux besoins
de recherche/e-discovery et de conformité réglementaire. Proposé en
indirect (Tech Data, Cheops ou Axians) ou via des partenaires à valeur ajoutée
comme DDN Storage, Qumulo, Huawei ou encore Dell et Nutanix, Miria repose sur
un core engine capable de gérer l’explosion du volume des données non structurés dans
des secteurs clefs. La TV et les studios de production, par exemple, peuvent gérer 500 Po
en local et 50 Po dans le cloud. C’est donc un nouveau challenge pour les solutions de
sauvegarde qui doivent travailler dans un environnement mixte. Voilà pourquoi Miria est
la fois : fournisseur de stockage, mais également cloud agnostique grâce à une
architecture software defined. Des connecteurs ont été développés pour travailler avec les
principaux clouds du marché.
L'architecture Miria travaille en local et dans le cloud. (Crédit Atempo)
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
Qumulo étoffe sa
gamme NAS scale-out
avec plus de capacité
Serge Leblal , publié le 09 Juillet 2019
0Réaction
LIVRES BLANCS
La surveillance à distance fournit des informations en temps réel qui améliorent la maintenance
Si Qumulo met lui aussi en avant son désintérêt pour le matériel au profit
du logiciel, la société n'oublie pourtant pas de mettre à jour sa plateforme
matérielle pour gagner en capacité et services.
Au format 2U, la baie P-184T de Qumulo vient répondre notamment aux besoins de
performances des sociétés de post-production vidéo (Crédit Qumulo)
Fondée en 2012 à Seattle par des anciens d'Isilon (nous avons déjà détaillé les arcanes de
la plate-forme), Qumulo s’est tout de suite démarquée sur le marché des baies de
stockage avec une plateforme NAS reposant sur une architecture distribuée supportant les
modes fichiers et objets. Une extension vers le cloud est également de la partie pour
mettre en place une solution hybride. Après AWS, un accord avec GCP vient d’ailleurs
d’être noué pour proposer la plate-forme aux clients de Qumulo. « Nous ciblons des
partenaires pour répondre à différents usages comme le HPC et les médias notamment »,
nous a expliqué à Palo Alto Molly Presley, responsable marketing
de Qumulo. Avec Cloud Studio, Qumulo propose de stocker des fichiers sur le cloud,
mais également de lancer des traitements avec des effets spéciaux assurés par les
ressources GPU en ligne.
Si le système de fichiers Qumulo fonctionne sur du matériel standard – HPE est un des
fournisseurs proposé - la start-up annonce régulièrement des mises à jour hardware. C’est
le cas aujourd'hui avec la baie full-flash P-184T (2U) qui vient se placer au dessus des
modèles P-23T et P-92T. Reposant elle aussi sur des contrôleurs
Intel Xeon Gold 6126 (12 cœurs à 2,6 GHz), elle apporte une capacité de stockage brute
de 184 To avec 24 SSD NVMe (7,68 To) alors que la P-92T plafonne à 92 To brute (24
SSD NVMe de 3,84 To). Coté performances, une mise à jour logicielle
de Qumulo Core augmente (jusqu’à 40%) la vitesse d’écriture sur la série P.
Trois baies avec un peu plus de capacité de stockage ont été annoncées chez Qumulo. (Crédit S.L.)
La série C s’enrichit avec l’arrivée du modèle C168T (1U) d’une capacité de 168 To
brute (12 disques durs de 14 To secondés par 3,8 To de flash pour la partie cache). Cette
gamme dite hybride combine donc des disques durs et des SSD pour offrir de la capacité
de stockage (DD) sans négliger les performances (SSD) et, ce, à un tarif serré. Pour la
partie contrôleurs, Qumulo fait appel à des puces Intel Xeon-D D-1531 (6 cœurs à 2,2
GHz) comme pour le C72T. Enfin, Qumulo complète ses annonces avec
le K168T (1U) d’une capacité de 168 To (12 disques durs de 14 To avec 2,8 To de flash
pour la partie cache) destiné à l’archivage. Elle exploite elle aussi des contrôleurs
Intel Xeon-D D-1531 (6 cœurs à 2,2 GHz).
L'interface revue de Qumulo permet de suivre l'évolution de la consommation du stockage. (Crédit S.L.)
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
0Réaction
2. 2Scikit-learn, le framework
phare de la prédictivité
3. 3
...
LIRE LE DOSSIER
Concurrent de GlusterFS, WekaIO ou encore Minio, ObjectiveFS propose
d'exploiter un serveur de fichiers compatible S3 qui permet de créer
un object store sécurisé et persitant on-premise ou cloud.
Grâce Nordin, CEO d'ObjectiveFS, travaille déjà sur l'optimisation des performances de son
système pour certaines applications. (Crédit S.L.)
Installée au cœur de la silicon valley, ObjectiveFS a été fondée par un couple,
Grâce Nordin (CEO) et Thomas Nordin (CTO), avec l’ambition de proposer un système
de fichiers distribué reposant sur Posix et capable d'exploiter les ressources
du cloud public. L'idée est avant tout de répondre à une problématique devenue courante
dans les entreprises : comment exploiter dans le cloud des applications traditionnelles ou
des VM travaillant jusqu’à présent en mode bloc ou combiner des ressources bloc avec
des instances objet. Par exemple, la mise à l'échelle de serveurs Web pour gérer plus de
trafic, la mise en place d'une infrastructure d'hébergement Web redondante ou
l’implémentation d'un serveur de messagerie plus robuste sont quelques raisons de
partager des fichiers entre instances EC2. ObjectiveFS propose donc un système de
fichiers sécurisé et structuré en mode objet, où les logiciels et outils existants peuvent
fonctionner de manière transparente avec des ressources cloud (sur S3 ou GCS) ou des
serveurs internes. Précisons que la solution supporte uniquement la plateforme x86 avec
les systèmes Linux, OSX et Windows. Ce système de fichiers, qui s’exécute en local ou
sur des instances, est donc capable de partager des fichiers entre différentes ressources
sans faire appel à un cluster de stockage.
Système de fichiers Posix au-dessus de S3, ObjectiveFS chiffre l'ensemble des données durant leur
stockage mais également leur transport.
Uniquement compatible avec AWS S3 à l'origine, ObjectiveFS a ensuite intégré le
support de la plateforme GCS de Google et même des solutions objet on-premise via une
API compatible S3 (Minio, NetApp ou HGST). Et – un peu plus tard dans l’année selon
Grâce Nordin - le support d’Azure Blob devrait arriver avec un mode de
management multicloud pour les données. Le support d’Azure est une demande des
partenaires de la start-up. « Aujourd'hui, 40% de nos clients sont en Europe et une
centaine sont dans le Fortune 500 », a souligné Grâce Nordin. On peut citer Virgin
Media, Lamborghini, BAE System ou encore Merck. Pour la partie
tarification, ObjectiveFS facture au nombre d’instances - avec une souscription mensuelle
ou annuelle – et non pas au volume. La start-up serait aujourd’hui profitable selon
la CEO qui désire conserver le contrôle de son entreprise et écarte donc les solutions de
financement trop intrusives.
NEWSLETTER LMI
Recevez notre newsletter comme plus de 50000 abonnés
OK
Commentaire
SUIVRE TOUTE L'ACTUALITÉ
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
JE M'ABONNE
Data Dynamics, de la
migration au
management de données
Serge Leblal , publié le 24 Juin 2019
0Réaction
/ LIVRE-BLANC
La surveillance à distance fournit des informations en temps réel qui améliorent la
maintenance
TÉLÉCHARGER
Quatre approches sont aujourd’hui proposées par StorageX 8.1. La première, Analyse,
repose sur Elastisearch pour cataloguer et faciliter la recherche et l’analyse de toutes les
données non structurées conservées dans une entreprise. Move est destinée à conserver au
mieux les données en fonction des plateformes hétérogènes locales
ou cloud disponibles (Azure Blob pour l’instant). Manage permet d'appliquer les
politiques de gouvernance afin d’assurer l’optimisation du placement des données – avec
une organisation pour les environnements Cassandra - tout en offrant une sécurité
optimale. La dernière approche, Modernize, livre une série de recommandations pour
mieux exploiter ses ressources de stockage en corrélation avec les données
conservées. Signalons encore qu’une version 8.1.1, avec des fonctionnalités de sécurité
additionnelles, est attendue en décembre prochain. Et la prochaine déclinaison majeure, la
8.2, devrait passer aux microservices pour accroître la souplesse d’utilisation, avec
l’inévitable contribution de l’IA et des API pour mieux s’intégrer aux applications
métiers.
Tous les types de stockage sont supervisés par la solution de Data Dynamics. (Crédit Data Dynamics)
Ces différents outils travaillent bien sûr de concert pour accélérer l’adoption des
technologies, mais également des meilleures pratiques. Comme par exemple le recours à
l’automatisation. Comme nous l’a indiqué Piyush Mehta, CEO de Data Dynamics, «
l’automatisation est la clef pour réduire les coûts de gestion […] C’est un mouvement qui
a démarré aux Etats-Unis mais également en Europe et notamment en France. L’éditeur
compte déjà des clients en France dont deux grandes banques. Interrogé sur la
conformité RGPD, le dirigeant nous a étonnement répondu que cela ne concernait que
quelques clients qui désirent identifier les propriétaires et les accès aux fichiers.
«
La transformation des logiciels dans les entreprises va s’accompagner d’une hausse des
données générées et il sera nécessaire de mieux les gérer », estime le CEO de
Data Dynamics. « Le marché est aujourd’hui porteur ». Tout d’abord installé en Grande-
Bretagne pour adresser le marché européen, Data Dynamics a recruté une personne en
France pour commercialiser son produit et développer un réseau de partenaires à la
rentrée.
IXsystems fait passer ses NAS
Open source à l’échelle des
grands comptes
par
Les problématiques de stockage sont probablement devenues les plus capitales du SI,
comprendre les enjeux est essentiel : ce guide de définitions vous fournit une base
experte solide pour aller de l’avant !
Adresse e-mail professionnelle
L'adresse e-mail indiquée semble erronée.
« Cette nouvelle interface incarne surtout notre volonté de passer de produits de stockage
d’appoint, à une gamme [s'adressant] aux grandes entreprises. »Morgan
LittleWoodDirecteur produits iXsystems
« Pour nous, cette nouvelle interface incarne surtout notre volonté de passer
de produits de stockage d’appoint, généralement déployés chez les petites
entreprises, à une gamme qui s’adresse à présent aux grandes entreprises,
avec un vrai support au siège et la possibilité d’administrer des baies de
disques sur les sites distants », précise-t-il.
La même semaine, Suse annonçait lui aussi que la ligne de commande avait
vécu et que la prochaine version de sa distribution orientée stockage et dédiée
au SDS Ceph serait enfin dotée d’un environnement graphique.
L’autre différence entre les gammes X et M est que les premières disposent
d’un cache sur disque SSD, tandis que les secondes utilisent des barrettes de
mémoire persistante NVDIMMs.
L’utilisation de logiciels Open source permettrait à ces matériels d’afficher des tarifs
particulièrement bas.
Cela dit, les nœuds peuvent eux-mêmes être étendus jusqu’à 10 Po avec des
tiroirs de disque JBOD, qui portent ici la référence « ES » et qui existent en
version 12, 24 ou 60 disques. À l’heure actuelle, ces JBods ne sont proposés
qu’avec une liaison SAS. Il est question dans un avenir plus ou moins proche
de mettre des modèles accessibles en NVMe-over-fabric. Il faudra néanmoins
que les unités NVMe équipent déjà les matériels d’iXsystems, ce qui n’est pas
encore le cas.
À l’avenir, iXsystems devrait, d’une part, proposer des versions encore plus
compactes des FreeNAS, les modèles « Mini ». D’autre part, les TrueRacks
pourraient évoluer en véritables infrastructures hyperconvergées, avec la
possibilité d’exécuter des machines virtuelles Windows ou Linux au-dessus de
l’hyperviseur Bhyve.