Conseils IT
Conseils IT
Big Data et Analytique IoT
-
Les trois plus grands défis de la transformation digitale (et comment les résoudre)
Isaac Sacolick, auteur d’un best-seller sur le sujet, décrit ici les principaux défis auxquels les organisations vont être confrontées dans leur transformation numérique et la manière de les résoudre. Lire la suite
-
Quelles différences entre une CDP et une DMP dans une stratégie marketing ?
Les Customer Data Platforms et les Data Management Platforms sont deux outils de gestion de données marketing très complémentaires du CRM. Voici les points clés pour bien les distinguer et bien les utiliser dans une stratégie de vision à 360° du ... Lire la suite
-
L’essentiel sur ThoughtSpot, l’étoile montante de la BI en libre-service
ThoughtSpot est un outil de Business Intelligence qui veut démocratiser l’analytique jusqu’aux métiers. Il leur pousse automatiquement des tableaux de bord, et facilite les requêtes via un moteur de recherche en langage naturel. Sa BI s’inspire ... Lire la suite
-
Comment construire un modèle de Machine Learning en 7 étapes
Il faut de la patience, de la préparation et de la persévérance pour construire un modèle de machine learning viable, fiable et agile qui rationalise les opérations et renforce les métiers. Lire la suite
-
IA Frugale : comment entraîner des modèles avec peu de données ?
Entraîner des modèles de machine learning avec peu de données, est-ce possible ? Oui, mais les spécialistes considèrent que les techniques d’enrichissement sont suffisamment performantes pour généraliser les apprentissages de leurs modèles. Lire la suite
-
Les bons et les mauvais cas d’usage d’Apache Kafka
Apache Kafka a de nombreuses applications dans le domaine du Big Data, mais quels sont les cas d’usage qui conviennent le mieux à l’outil ? Des experts décrivent dans quelles situations Kafka excelle pour le traitement de données en entreprise. Lire la suite
-
Analytique en temps réel : les tendances et les cas d’usage à retenir
Alors que de plus en plus d’entreprises adoptent l’analytique en temps réel, de nouvelles infrastructures et pratiques voient le jour. Voici les pratiques les plus marquantes associées aux plateformes d’analyse de données en continu. Lire la suite
-
L’essentiel sur Oracle Data Science
Oracle a ajouté une gamme de nouveaux services à sa plate-forme cloud pour fournir aux Data Scientists et aux Data Analysts plus de fonctionnalités de gestion et d'analytiques avancées. Lire la suite
-
Devriez-vous héberger votre data lake dans le cloud ?
Sur site ou dans le cloud : où est le meilleur endroit pour déployer son lac de données ? Voici quelques éléments à considérer avant de se décider selon Andy Hayler. Lire la suite
-
IoT : les compétences essentielles pour mener à bien vos projets
Les cadres doivent comprendre les compétences nécessaires pour faire démarrer un projet IoT et savoir où trouver l'expertise nécessaire pour les mener à bien. Lire la suite
-
Qu’est-ce que le DataOps (Data Operations) ?
Selon Gartner, le DataOps doit réconcilier les opérateurs avec les consommateurs des données pour favoriser l’exploitation de l’analytique dans toute l’entreprise. Quelles sont les différences avec le DevOps ? Lire la suite
-
Data Science : comment améliorer votre storytelling ?
Comment créer des histoires percutantes et convaincantes à partir de données numériques froides et muettes ? Des experts partagent leurs conseils sur la façon d’améliorer vos compétences en matière de narration et mieux communiquer les résultats de ... Lire la suite
-
Gestion financière : l’analytique transforme les données en or
Les solutions financières modernes ne se limitent plus à analyser des chiffres de manière statique. Elles peuvent transmuter ces données en ventes, en optimisation de processus opérationnels, en stratégie produits. Et augmenter les marges. Lire la suite
-
Bien comprendre les services Data Lake et Data Warehouse d'AWS
Apprenez à distinguer les services data lake et data warehouse d’AWS et assimilez leur fonctionnement. Lire la suite
-
Intelligence Artificielle : cinq conseils pour bien choisir ses premiers cas d’usage
Sept experts partagent leurs expériences pour bien choisir ses projets d’exploration des algorithmes et bien démarrer dans l’IA. Lire la suite
-
Cloudera vs AWS EMR : quelle distribution Hadoop choisir pour vos projets Big Data
Les entreprises qui ont besoin d’une plateforme Big Data doivent généralement sonder eux-mêmes le marché pour choisir un fournisseur. La complémentarité des services AWS est indéniable, mais la solution de Cloudera est-elle un meilleur choix ? Lire la suite
-
Les principales distributions Hadoop sur le marché
Voici les principales distributions Hadoop sur le marché et un ensemble d'éléments pour choisir celle qui convient le mieux aux pratiques analytiques en entreprise. Lire la suite
-
Data Architect, Data Engineer, Data Scientist, Data Modeler : comment les combiner ?
Ces quatre métiers – complémentaires, mais différents – sont clefs pour une équipe Data performante. L’expert Michael Bowers explique comment constituer une telle équipe et donne ses conseils aux professionnels de la donnée pour augmenter leurs ... Lire la suite
-
Plongée dans SAP HANA
Véritable « plateforme » qui va du Data Warehouse au serveur applicatif, en passant par le NoSQL et l'intégration de données, la base in-memory de SAP a beaucoup de visages. Certains sont plus que séduisants, d'autres un peu moins. Lire la suite
-
Où en est SAP HANA ?
Hasso Plattner, cofondateur de SAP, explique les évolutions de HANA, la manière dont elles répondent aux nouvelles exigences des entreprises et le pourquoi de la restructuration en cours de cette division base de données. Lire la suite
-
Conseils en matière de stockage pour l'intelligence artificielle et le Machine Learning
Les supports de données destinés aux secteurs de l'intelligence artificielle et du Machine Learning nécessitent une planification particulière. Cet article vous rappelle les points à prendre en compte et ce que vous devez prévoir. Lire la suite
-
Intelligence Artificielle : changement de paradigme dans le domaine du stockage
Dans le stockage également, l'Intelligence Artificielle a le vent en poupe et peut apporter de nombreux avantages : optimisation des latences, modifications de politique aisées et augmentation des performances. Lire la suite
-
Machine Learning : l'indispensable préparation des données requiert encore (beaucoup) d'humain
Vous voulez automatiser vos processus grâce à l'intelligence artificielle ? D'accord. Mais ne négligez surtout pas le travail manuel qui reste encore nécessaire pour préparer les données avant de les injecter dans les algorithmes. Lire la suite
-
Big Data : ce qu'il faut prendre en compte dans les formats de données
Si JSON est aujourd’hui devenu le format de données de référence pour les développeurs, Parquet, ORC peuvent être de meilleures options pour l’analytique. Cet article vous en dit plus sur les différents formats de données Big Data. Lire la suite
-
CRM : trois bonnes raisons d'avoir un Data Scientist dans son équipe CX
Les équipes en charge l'expérience client (CX) n'ont habituellement pas de Data Scientist. Mais en ajouter un peut aider à extraire plus de valeur des données que ne le ferait un analyste CRM classique avec un logiciel BI clef en main. Lire la suite
-
Le Big Data pour consolider ses données de sécurité : oui, mais de manière ordonnée
Gartner recommande une sérieuse préparation afin d’aligner la collecte et le stockage des données sur les objectifs métiers et les besoins de la plateforme d’analyse ou du prestataire de service managé qui sera éventuellement chargé de la ... Lire la suite
-
Machine Learning : les différentes manières dont le « as a Service » démocratise l'IA
L'émergence d'outils d'Intelligence Artificielle « à la demande » permet à un plus grand nombre d'entreprises, au-delà des géants de la Tech et des multinationales, d'accéder aux avantages du Machine Learning et du Deep Learning. Lire la suite
-
Qu'est-ce que la virtualisation de données ?
Selon Forrester, la virtualisation de données (ou Data Virtualization) est la forme particulière d'intégration de données qui connaît la croissance la plus rapide. Mais pourquoi est-elle si « particulière » ? Lire la suite
-
Machine Learning : bien comprendre les trois niveaux d'offres de Google Cloud
APIs et services AutoML pour les développeurs, BigQuery ML pour les Data Analystes, boite à outils à base de Tensorflow pour les Data Scientists, Google segmente très clairement son offre pour toucher le plus d'utilisateurs possibles. Lire la suite
-
Machine Learning : comment choisir le bon framework ?
Ce ne sont pas les outils open source qui manquent pour le Machine Learning et le Deep Learning. A tel point que choisir les bons peut vite devenir une gageure. Pour faire un choix avisé, voici quelques conseils de spécialistes à bien garder à ... Lire la suite
-
Des données non structurées aux données structurées : c’est possible avec le Machine Learning
Avec la puissance de calcul facilement accessible et les progrès en matière de Machine Learning, il devient plus facile et moins coûteux de transformer les données non structurées en sources d'information comestible. Lire la suite
-
Intelligence Artificielle : quelle différence entre NLP et NLU ?
NLP (Natural Language Processing) et NLU (Natural Language Understanding) sont de plus en plus importants dans l'entreprise. Le premier se contente d'analyser les mots, mais le second vise à approfondir la compréhension. Lire la suite
-
S3 contre HDFS : que choisir pour son data lake
Un lac de données bâti sur S3 rationalise l'analyse des données, mais présente des limites pour ceux qui veulent aller au-delà de l'écosystème du groupe. Lire la suite
-
Gouvernance et data lake : quelles sont les difficultés rencontrées par les entreprises
La mise en place d’une gouvernance de données à un data lake reste compliquée. Cette capacité à déstructurer complique la mise en place de politiques et de gestion précises des données. Pourtant, la gouvernance reste indispensable. Cet article passe... Lire la suite
-
L'essentiel sur les trois versions d’Oracle Cloud at Customer
La gamme d’appliances Cloud@Customer permet aux entreprises de faire tourner le cloud d’Oracle (IaaS, PaaS, SaaS) dans leurs propres centres de données. Voici ce qui différencie les trois versions de cette offre managée qui est à la fois « sur site ... Lire la suite
-
Big Data et analytique : des conseils pour optimiser les traitements
Analyser des données brutes demeure une opération difficile et les entreprises ne sont souvent pas ou peu préparées à affronter la masse de données créée au quotidien. Voici quelques conseils pour mieux s’y retrouver. Lire la suite
-
Comment survivre au déluge de données non structurées ?
Cohesity répond aux lacunes des solutions NAS traditionnelles en proposant une nouvelle approche du stockage secondaire. Lire la suite
-
Que font les entreprises avec le Machine Learning ?
Détection de fraudes, moteurs de recommandations, arbre de décision, sécurité sont autant d’usage du Machine Learning en entreprise. On y apprend également la différence entre apprentissage supervisé et non supervisé. Lire la suite
-
Outils analytiques Big Data : dix fonctionnalités indispensables
Vous êtes à la recherche d'un outil d'analyse des Big Data ? Vous devrez vous assurer qu'il permet d'encapsuler et de partager les résultats des analyses, qu'il peut facilement s'intégrer à d'autres applications BI et qu'il supporte le versioning, ... Lire la suite
-
Entrepôt de données, Data Lake, Data Mart, ODS : que choisir ?
Il existe de nombreuses façons de stocker des données en volume, mais choisir la bonne technologie est une épreuve de force. Comment savoir si un entrepôt de données, un lac de données ou un data mart convient ? Cet article vous permet de les ... Lire la suite
-
Le stockage est-il toujours important ?
Les grandes tendances dans le monde du stockage semblent converger vers l’élimination du stockage en tant que silo IT. Lire la suite
-
Projets AI : vos concurrents sont timorés, profitez-en pour être ambitieux (McKinsey)
La prudence est souvent conseillée aux entreprises quand elles commencent à s’intéresser à l’Intelligence Artificielle en interne. Mc Kinsey invite au contraire à imaginer dès le départ des projets très disruptifs pour bénéficier de la frilosité des... Lire la suite
-
Quelles différences entre un Data Scientist et un Business Analyst
Le rôle des data scientists et des analystes métiers diffèrent quand on sait que les premiers doivent plonger en profondeur dans les données et trouver des solutions business inédites - mais les distinctions ne s'arrêtent pas là. Lire la suite
-
Qu'est-ce que le Data Wrangling ?
Le Wrangling est une variante, subtile, de la Data Preparation. Il tire son origine de l'imagerie du Grand Ouest américain et de ses cowboys. Le mot est principalement utilisé par Trifacta. Lire la suite
-
GPU, RAM et SSD : des turbos pour l’analytique
Les start-ups californiennes MapD, AeroSpike et GridGain ont développé une technologie de base de données ou de moteur SQL qui exploitent les caractéristiques de vélocité propre à la mémoire RAM, au SSD ou encore au GPU. Lire la suite
-
L'essentiel sur Proxem, pionner français de la reconnaissance sémantique et du Deep Learning
L'entreprise, fondée il y a 10 ans, est devenue experte en AI appliquée à l'analyse sémantique de « données textuelles ». Sa R&D - à la base de 30 publications scientifiques - lui permet aujourd'hui d'appliquer la discipline bien au-delà de ... Lire la suite
-
7 étapes pour créer son data lake
Peupler un cluster Hadoop de données qui ne sont ni organisées ni gérées correctement risque de nuire à vos projets analytiques. Voici 7 étapes clé qui vous permettrons de mieux utiliser les données de votre data lake. Lire la suite
-
HCM/SIRH : promesses et menaces de l’AI dans les Ressources Humaines
L'Intelligence Artificielle dans les outils de gestions des ressources humaines a de nombreux champs d'applications, souvent très novateurs. Mais comme l'AI s'applique ici à l'humain, plusieurs précautions s'imposent pour lutter contre la méfiance ... Lire la suite
-
Trois méthodes pour bien préparer ses fichiers mainframe à Hadoop
Les lacs de données Hadoop constituent un nouveau havre de paix pour les données patrimoniales qui ont encore une valeur analytique. Mais les méthodes de conversion à utiliser dans Hadoop diffèrent selon les besoins analytiques. Lire la suite
-
AWS Athena : comment améliorer la performance des requêtes… et réduire ses coûts
Amazon Athena permet d’interroger plus de formats de données que son rival Google BigQuery. Toutefois, il est préférable de privilégier certains formats pour tirer pleinement parti du service AWS Lire la suite
-
L’expérience utilisateur, une clé du déploiement du Deep Learning en production
Lorsqu’il s’agit de déployer des modèles de Deep Learning en production, les experts s’accordent sur un point : il est fondamental de ne pas perdre de vue des fondamentaux pour s’assurer que les résultats souhaités soient bien là, auprès de la bonne... Lire la suite
-
Machine Learning vs Deep Learning ? La même différence qu'entre un ULM et un Airbus A380
Le Deep Learning partage certaines caractéristiques avec l'apprentissage statistique traditionnel. Mais les utilisateurs expérimentés le considèrent comme une catégorie à part entière avec une conception de modèles prédictifs et des résultats bien ... Lire la suite
-
Smart Cities : les villes doivent consolider leur architecture de données
Pas question d’entamer une transition vers la Smart City si la ville ne dispose pas déjà de solides outils pour gérer, sécuriser et analyser les données. Jennifer Belissent, analyste chez Forrester, fait le point. Lire la suite
-
L’AI Washing brouille le marché de l’Intelligence Artificielle
L'Intelligence Artificielle est présentée comme une tendance d’avenir très porteuse. Poussant de nombreux acteurs du secteur à passer à la moulinette AI leurs produits et déroutant quelque peu les clients. « AI Washing » vous avez dit ? Lire la suite
-
Data Lake : attention aux risques d’indigestion de données
Les acteurs du Big Data poussent les entreprises à placer toutes leurs données dans un data lake. Mais dans de nombreux cas, cela n’est pas nécessaire. Risque d’indigestion de données programmé. Lire la suite
-
L’essentiel sur Cloudera CDH
La distribution Hadoop de Cloudera embarque plusieurs composants Open Source. Elle est déclinée en plusieurs éditions, chacune intégrant des outils d’administration et de déploiement différents. Lire la suite
-
L’essentiel sur IBM BigInsights
IBM BigInsights accole des scenarii d’usage liés à l’analytique et à la data science à une distribution Open Source d’Apache Hadoop. Lire la suite
-
L’essentiel sur Hortonworks Data Platform
La plateforme Hadoop d’Hortonworks se composent de projets essentiellement Open Source, extraits de la Fondation Apache. Elle propose un environnement Open Source pour la collecte, le traitement et l’analyse de données. Lire la suite
-
Power BI, Qlik Sense, Tableau : comparaison des trois leaders de la BI en self-service
Ces trois acteurs tirent le marché de la Business Intelligence en self-service. Cet article vous aide à les comparer. Lire la suite
-
L’essentiel sur Microsoft Azure HDInsight
Azure HDInsight est une implémentation d’Hadoop sur la plateforme Cloud de Microsoft. Le service donne accès à un ensemble de composants Open Source pour traiter et analyser des Big Data. Lire la suite
-
L’essentiel sur Amazon Elastic MapReduce
Amazon EMR propose de mettre en place un cluster Hadoop dans le Cloud et de s’appuyer sur la puissance et la scalabilité de l’infrastructure d’AWS. Lire la suite
-
L’essentiel sur MapR et sa déclinaison d'Hadoop
MapR a remplacé HDFS par son propre système de fichiers compatible NFS pour améliorer les capacités d’administration des données ainsi que leur fiabilité. MapR le propose dans une plateforme dont les usages s’étendent au-delà d’Hadoop. Lire la suite
-
Du Big Data à l’AI : de l’automatisation à l’autonomie du code
Lors des Oracle Digital Days, Isabelle Flory d’Intel a retracé l'évolution du traitement des données, qui aboutit à l’avènement du Machine Learning et de l’Intelligence Artificielle. Une mise en perspective qui éclaire l’intérêt de technologies qui ... Lire la suite
-
NoSQL : bien comprendre Amazon DynamoDB
La base de données NoSQL dans le Cloud d’AWS, DynamoDB, supporte à la fois les modèles clés-valeur et documents, et apporte la flexibilité que l’on attend pour le développement d’applications Web, de jeux, ou encore liées à l’Internet des objets. Lire la suite
-
AI vs BI : comment expliquer et amener l’Intelligence Artificielle aux métiers
Le discours des fournisseurs d’AI est simple, voire simpliste. Mais sur le terrain, la différence avec la BI n’est pas bien comprise et ses atouts (et ceux du Machine Learning) ne sont pas encore bien perçus. Quelques règles permettent néanmoins de ... Lire la suite
-
Intégration de données : quelle solution choisir
Cet article vous accompagne dans votre décision d’achat d’une solution d’intégration de données et vous aide à faire la différence entre les produits commerciaux et ceux qui s’adossent à un modèle Open Source Lire la suite
-
Plateforme d’intégration de données : aller au-delà de l’ETL
Les solutions d’intégration de données ont la capacité de simplifier les processus des entreprises, dans un contexte marqué par une hausse croissante du volume des données. Cet article explique comment s’y retrouver sur le marché. Lire la suite
-
Les évènements imprévus de 2016 jettent le doute sur l’analytique Big Data
Cette année a été riche de surprises dans le monde. La dernière en date étant l'élection de Donal Trump à la Maison Blanche. Pour KPMG, le prédictif en fait les frais. Voici quelques pistes et conseils aux équipes en charge de l’analyse des données ... Lire la suite
-
SAP HANA et Big Data : une stratégie liée à Hadoop et l’Open Source
Avec le moteur HANA Vora, il est devenu possible de connecter HANA et le monde des frameworks Open Source très en vogue dans le Big Data, à commencer par Hadoop et Spark. Lire la suite
-
Une bonne stratégie analytique peut très bien se passer de Data Scientist
Si les data-scientists peuvent apporter de la valeur à une équipe en charge d'une analyse Big Data, toutes les entreprises n'en ont pas besoin. Pour éviter d'avoir recours à ces spécialistes, certaines utilisent un savant mélange de technologie et ... Lire la suite
-
L’Impression 3D est aussi un projet de Big Data
L'impression en 3D sera un test pour les DSI et les services informatiques : celui de leur capacité à assurer la sécurité, à gérer les données, à travailler rapidement et à collaborer avec le reste de l'entreprise. Lire la suite
-
Audits de licences SAP : trois conseils pour éviter les mauvaises surprises
Pour éviter les pièges de ce qu’il appelle les « abus de l’audit de licences », l’USF travaille sur un livre blanc dont il dévoile en avant-première les premiers conseils face à des pratiques qu’il considère comme de plus en plus « agressives » et «... Lire la suite
-
Les concurrents de Splunk
Face au succès de Splunk, la concurrence s’organise. Si vous souhaitez réaliser des comparatifs ou des POCs, voici les principaux concurrents à retenir. Lire la suite
-
Splunk : atouts et limites
Le succès de Splunk s’explique par sa simplicité et sa rapidité de mise en œuvre. Mais l’outil a aussi quelques limites qu’il convient de connaître. Lire la suite
-
Les nouveaux usages de Splunk : de l’analytique prédictif au SIEM nouvelle génération
Historiquement, Splunk a été utilisé pour surveiller les infrastructures, accélérer les développements et offrir de la visibilité sur les applications production. Mais ses usages évoluent. Lire la suite
-
Splunk : une plateforme, plus qu’un logiciel
La grande force de Splunk est son ouverture. Splunk est en effet une plateforme ouverte sur laquelle chacun peut venir bâtir ses propres applications et extensions. Et générer ses propres tableaux de bord. Lire la suite
-
Splunk : le point sur l’architecture et le langage SPL
Cet article revient sur la mécanique qui se cache derrière Splunk, la plateforme analytique spécialisée dans les données « machines » et sur son langage propre, SPL. Lire la suite
-
Comprendre la galaxie Splunk
Derrière la plateforme analytique spécialisée dans les données « machines » Splunk se dissimulent plusieurs produits complémentaires - qui visent des besoins différent - et des solutions ciblées. En voici un tour d’horizon exhaustif. Lire la suite
-
4 critères pour comparer les distributions Hadoop
En passant à la loupe les spécificités des distributions Hadoop, vous pouvez mieux identifier l’offre de support qui convient le mieux à votre entreprise Lire la suite
-
Ce qu’il faut savoir pour évaluer des distributions Hadoop
Avant d’évaluer une distribution Hadoop spécifique, il convient d’examiner les fonctions proposées par le fournisseur et bien comprendre si celles-ci répondent au mieux aux besoins. Lire la suite
-
Quels cas d’usage pour un cluster Hadoop dans votre entreprise
Pour vous aider à comprendre le potentiel d’Hadoop dans votre entreprise, le consultant David Loshin passe en revue différents cas d’usage que peut supporter le framework. Lire la suite
-
Bien comprendre Hadoop pour gérer les Big Data
Hadoop est devenu aujourd’hui le moteur d’applications clés pour les entreprises. Mais pourquoi ce framework attire-t-il le monde professionnel ? Lire la suite
-
AWS, Google, Microsoft : se repérer dans les services Big Data
Les services Big Data attirent les entreprises vers le Cloud. AWS, Microsoft et Google bataillent pour bien se positionner aux yeux des entreprises, mais lequel parvient le mieux à tirer son épingle du jeu ? Lire la suite
-
Supply Chain : pourquoi les capteurs et l’IoT changent la donne
Une nouvelle génération de capteurs peu coûteux et d’appareils connectés peut aider à améliorer la chaine d’approvisionnement des industriels. A condition de les coupler aux bons outils d’analyses. Lire la suite
-
L’essentiel sur HPE Vertica Analytics Platform
La solution Vertica Analytics Platform de Hewlett Packard Enterprise est conçue pour être utilisée dans les entrepôts de données et autres applications complexes, faisant un usage intensif des requêtes. Lire la suite
-
IoT et Big Data : et si on réfléchissait un peu avant de se lancer ?
Se précipiter sur les nouvelles technologies, notamment l’IoT et le Big Data, est souvent une erreur. Or, la clé de la réussite consiste à trouver le bon rythme et évaluer les exigences. Surtout quand on parle infrastructure. Lire la suite
-
Le « Data as a Service », nouvel eldorado du marketing numérique
Les données tierces fournies sur abonnement par les éditeurs IT permettent d’enrichir une connaissance client, de dépasser la vision 360° et de trouver de nouveaux prospects. Tout en économisant le difficile traitement des données brutes. Mais elles... Lire la suite
-
Data Warehouses : comment évaluer les principales fonctionnalités des plateformes
Pour faciliter le choix entre les différents types de plateformes d'entrepôt de données, commencez par déterminer l'option de déploiement qui correspond le mieux à votre projet. Lire la suite
-
Déployer un entrepôt de données : quels avantages ?
Le Big Data occupe certes le haut de l’affiche, mais les entrepôts de données sont toujours aussi utilisées par les entreprises, quelle que soit leur taille. Notre expert Craig S. Mullin ouvre le capot d’une technologie qui est loin d’être à la ... Lire la suite
-
Spark et Hadoop : compagnons ou concurrents ?
Dans quel cadre Hadoop et Spark peuvent-ils s’interconnecter ? Les relations entre les deux frameworks suscitent l’interrogation des entreprises. Les spécialistes du secteur considèrent quant à eux Spark comme un compagnon d’Hadoop ou comme un ... Lire la suite
-
Big Data : 6 conseils pour innover avec ses données
Le DSI de First Utility, septième fournisseur d'énergie au Royaume-Uni, conseille les responsables informatiques au sujet de l'élaboration de projets fondés sur les données afin d'en tirer le maximum de bénéfices. Lire la suite
-
Big Data : un chaos qui peut rapporter gros
Il n’est pas nécessaire que les Big Data soient de bonne qualité pour donner de bonnes analyses. Cette capacité à pouvoir exploiter rapidement l’ensemble des données devient un élément critique des entreprises. Lire la suite
-
Vue d'ensemble d’Aster Discovery Platform, l’outil d’exploration de données de Teradata
La solution Teradata Aster Discovery Platform comprend la base de données Aster, Discovery Portfolio, un moteur de traitement des graphes, MapReduce et une version de R. Lire la suite
-
A la découverte d'Oracle Advanced Analytics
Oracle Advanced Analytics, avec d'autres outils d'analytique des données, permet aux utilisateurs métier d'explorer de grands volumes de données. Lire la suite
-
L’analytique freiné par le manque de compétences
Nouveau domaine, l’analytique est un outil de plus en plus recherché par les entreprises. Mais son adoption est freinée par un manque croissant de compétences. Lire la suite
-
L’essentiel sur MarkLogic Server
LeMagIT fait le point sur les principales bases de données du marché. Aujourd’hui le SGBD NoSQL, MarkLogic Lire la suite
-
L’essentiel sur SAP HANA
LeMagIT fait le point sur les principales bases de données du marché. Aujourd’hui, la base In-Memory de SAP, HANA. Lire la suite
-
L’essentiel sur MongoDB
LeMagIT fait le point sur les principales bases de données du marché. Aujourd’hui SGBD NoSQL open source orienté documents, MongoDB. Lire la suite
-
L'essentiel sur Neo4j
LeMagIT fait le point sur les principales bases de données du marché. Aujourd’hui la base de données orientée graphes, Neo4j. Lire la suite
-
L'essentiel sur InfiniteGraph
LeMagIT fait le point sur les principales bases de données du marché. Aujourd’hui la base de données distribuée orientée graphes, InifiniteGraph. Lire la suite