Ressources et informations Gestion des données - LeMagIT
  • 10 conseils Expert Cloud, stockage, sécurité et virt...

    Ce Guide Essentiel est un ensemble d’articles, vidéos et autres documents sélectionnés par nos rédacteurs pour vous donner une perspective complète...

  • Spécial : objets connectés et internet des objets

    Retour sur les objets connectés dans le monde professionnel et focus sur les technologies avec plusieurs éclairages originaux de spécialistes et d'...

  • Analytique

    L'analytique consiste à appliquer à un contenu numérique des méthodes d'informatique décisionnelle, BI (Business Intelligence), ainsi que d'analyti...

  • SQL (Structured Query Language)

    Le langage de requête structurée SQL (Structured Query Language) est un langage de programmation et d'interaction standard utilisé pour extraire de...

Gestion des données

Alerte Email

Inscrivez-vous pour recevoir régulièrement toute l’actualité IT.
  • JSON (JavaScript Object Notation)

    JSON (JavaScript Object Notation) est un format d'échange de données en texte lisible. Il est utilisé pour représenter des structures de données et des objets simples dans un code qui repose sur un navigateur Web. JSON est parfois également utilisée dans les environnements de programmation, côté serveur et côté poste de travail.

  • Comment créer une stratégie efficace d'archivage des données

    Les outils nécessaires pour une stratégie efficace d'archivage des données dépendent entièrement des exigences d'une entreprise en matière de conformité, de gouvernance des données et de gestion du stockage.

  • L’hôpital d'Amiens numérise l’administratif

    Depuis plus d’une année, la gestion administrative des patients est fluidifiée grâce à la dématérialisation de tous les documents dés l’admission. Bilan, moins de contentieux et une traçabilité améliorée.

  • Tout savoir sur Hadoop : La technologie, ses usages et ses limites (2ème Partie)

    Hadoop suscite l'intérêt d'un nombre croissant d'entreprises. Dans ce guide, LeMagIT fait le tour sur les freins de cette technologie avec le retour de certains acteurs.

  • Tout savoir sur Hadoop : Vulgarisation de la technologie et les stratégies de certains acteurs

    Hadoop suscite l'intérêt d'un nombre croissant d'entreprises. Dans ce guide, LeMagIT fait le tour des fonctionnalités d'Hadoop mais aussi de ces bénéfices et inconvénients.

  • Open Data : le Premier Ministre met la pression sur les ministères

    Le Premier Ministre Jean-Marc Ayrault a envoyé aux ministères une circulaire les incitant à ouvrir davantage leurs données. L'Illustration des difficultés du secteur public à se mettre à l’Open Data.

  • L’EIM au cœur de la stratégie des entreprises

    C’est parti ! le Big Data et les besoin analytiques aidant, la gestion de la donnée est en train de passer du monde technique à celui des stratèges de l’entreprise. SAP ne s’y est pas trompé qui a organisé une matinée dédiée fin novembre, consacrée à l’EIM et aux différents enjeux autour de la qualité de la donnée. L’occasion de revenir sur les enjeux cruciaux autour de l’exploitation des données mais également de montrer quelques produits concernant la modélisation – avec PowerAMC – ou encore le traitement des données et la gestion du cycle de vie des données applicatives avec SAP Information Steward et Data Services.

  • Yves Cointrelle , Homsys : « en matière d’EIM l’enjeu clé repose sur la confiance dans le système »

    A l’occasion de la matinée consacrée par SAP à l’EIM, qui s’est déroulée le 27 novembre à Paris, Yves Cointrelle, Directeur général d’Homsys, société de services spécialisée dans le data management, est revenu pour nous sur les enjeux entourant la qualité de la donnée. L’occasion également de faire le point sur la maturité des offres dans un contexte Big Data et sur le rôle critique de la méthodologie dans un projet décisionnel.

  • François Guerin, SAP : « la modélisation des datas doit dépasser la phase 1 du projet »

    En termes de données, quels sont aujourd'hui les enjeux au niveau de la modélisation, notamment dans un contexte de développement du concept de Big Data et de besoins accrus en gouvernance ? L’enjeu majeur, c’est la connaissance que nous avons des informations présentes dans les projets, la modélisation est la représentation de cette connaissance Dans la réalité pratique, la modélisation est très souvent perçue comme un travail initial prépondérant dans les projets mais aussi comme un effort ponctuel qui ne connait pas de suite.

  • SAP propose une offre EIM de bout en bout

    Didier Mamma, Directeur des activités Data et Technologies chez SAP France, est revenu avec nous à l’occasion de l’EIM Forum organisée par l’éditeur le 27 novembre dernier sur la stratégie du groupe en matière d’Enterprise Information Management.

  • Plus darticles sur : {0}
  • Eurostar remplace Alfresco par Box

    Le mobile et le cloud font bouger les lignes. Eurostar a remplacé sa plateforme de gestion de contenu Alfresco par une solution de stockage Cloud. La mobilité et le BYOD a joué en faveur de Box et envoyer la solution traditionnelle aux oubliettes.

  • Jahia veut entrer chez les marketers

    L’éditeur de CMS a levé le voile sur Marketing Factory, une plateforme pour marketers qui entend abaisser les barrières à l’entrée des outils de gestion et de personnalisation de campagnes.

  • Comment créer une stratégie efficace d'archivage des données

    Les outils nécessaires pour une stratégie efficace d'archivage des données dépendent entièrement des exigences d'une entreprise en matière de conformité, de gouvernance des données et de gestion du stockage.

  • CommVault s’attaque au partage de fichiers

    CommVault vient de lancer un produit de synchronisation et de partage de fichiers que les entreprises peuvent déployer pour offrir un service de type Dropbox.

  • OpenText place ses jalons dans la transformation numérique

    L’éditeur a ré-organisé ses activités en France, en créant deux directions commerciales distinctes pour les grands comptes et les PME, et en verticalisant son approche. Benoît Perriquet, vice-président Europe du Sud, parle également de l’intégration d’Actuate.

  • La dématérialisation, soluble dans la transformation numérique

    En dépit d’une manque de confiance envers le numérique pour l’archivage, les entreprises numérisent de plus en plus leurs processus documentaires. En premier lieu, ceux qui permettent de favoriser les échanges avec les clients.

  • Adobe Document Cloud : Adobe pousse le PDF dans le Cloud

    Il a plus de 20 ans, il était standardisé. Pourtant le PDF représente encore un chiffre d’affaires colossal pour Adobe. L’éditeur rénove en profondeur son offre documentaire qui bascule dans le Cloud, et surtout le mode locatif.

  • Documation MIS 2015 : « la data intelligence modifie l’approche de la GED historique »

    Laurent Eydieu, Directeur de Documation MIS, revient pour LeMagIT sur les évolutions sur le segment de la gestion de document et la valorisation de l’information à quelques semaines de l’ouverture du salon historique, les 18 et 19 mars à Paris.

  • Alfresco est devenu acteur du BPM…sans le savoir

    Le spécialiste de la gestion documentaire a fait de son moteur de workflow embarqué un produit autonome à son catalogue de produits. L’offre Activiti sera au cœur de sa croissance en 2015.

  • PaaS : où en est le marché ?

    Le choix d'un PaaS nécessite de bien diagnostiquer ses besoins. Et de bien identifier les acteurs du secteur. LeMagIT vous propose donc de faire le point sur un marché en pleine croissance.

  • Plus darticles sur : {0}
  • JSON (JavaScript Object Notation)

    JSON (JavaScript Object Notation) est un format d'échange de données en texte lisible. Il est utilisé pour représenter des structures de données et des objets simples dans un code qui repose sur un navigateur Web. JSON est parfois également utilisée dans les environnements de programmation, côté serveur et côté poste de travail.

  • Quatre questions à Antoine Pabst, Nurun

    Web Agency en pointe des développements web et médias online depuis la première vague Internet Nurun est désormais en plein développement autour des problématiques de mobilité et du Big Data. Antoine Pabst, qui dirige l’activité en Europe, revient pour nous sur les enjeux de plus en plus techniques pour les spécialistes du digital.

  • De l’agilité pour mieux exploiter l’information

    Une solution de gestion intelligente de l’information doit proposer les informations essentielles à la bonne personne et au bon moment. Dans un monde de plus en plus complexe, les solutions IBM de gestion évoluée de l’information apportent un atout décisif aux entreprises en optimisant l’exploitation des données .

  • Le nouveau data.gouv.fr est en ligne

    Etalab, l’organisation en charge de la politique gouvernementale en matière d’Open Data, a mis en ligne le nouvelle mouture du site data.gouv.fr, le portail de référence français des données publiques.

  • Open Data : le Premier Ministre met la pression sur les ministères

    Le Premier Ministre Jean-Marc Ayrault a envoyé aux ministères une circulaire les incitant à ouvrir davantage leurs données. L'Illustration des difficultés du secteur public à se mettre à l’Open Data.

  • Comment Hana regonfle les pneus Pirelli

    En équipant ses pneus de camions de capteurs communicants, Pirelli peut proposer des services innovants aux gestionnaires de flottes. Et disposer, en interne, d'une compréhension fine des performances de ses produits.

  • Christophe Leray, DSI du PMU : « Nous sommes constamment en train d’innover »

    Détenteur d’un monopole des paris hippiques jusqu’en 2010, le PMU s’est depuis lancé dans l’univers très concurrentiel des paris sportifs et du jeu de poker. Christophe Leray, directeur des opérations et des systèmes d’information du PMU, revient sur la formidable transformation du SI de la marque pour entrer avec succès dans la confrontation.

  • Pôle Emploi lance une plateforme d’agrégation d’offres d’emploi

    Depuis plusieurs semaines, Pôle Emploi travaille à la modernisation de son site d’offres d’emploi épaulé par la société Jobijoba, partenaire technique qui l’accompagne dans cette démarche. Grâce aux technologies développées par cette start-up française, Pôle Emploi vient de mettre en ligne une nouvelle plateforme plus efficace et plus transparente. L’objectif est d’agréger à partir du mois de juillet plus de 500 000 offres d’emploi.

  • L'ESC choisit OpenText pour la diffusion de ses contenus Web

    Association médicale non-lucrative, la Société européenne de Cardiologie (ESC) assure la coordination et l’information sur la prévention et le traitement des maladies cardio-vasculaires et organise également un congrès regroupant 55 sociétés nationales de cardiologie, 18 groupes de travail, 6 associations et 5 conseils scientifiques.

  • Christophe Lemaire, Eurostar : "la refonte de notre site web est l'un de nos plus grands projets"

    Le DSI d’Eurostar, Christophe Lemaire, a supervisé le mois dernier le lancement du nouveau site internet de la société, l’un de ses plus gros chantiers technologiques de la décennie et la pierre angulaire de la nouvelle architecture IT d'Eurostar

  • Plus darticles sur : {0}
  • ETL (et ELT)

    L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible. L’ELT est une variante d’ETL.

  • DashDB : IBM lance son Datawarehouse à la demande

    DashDB veut simplifier les entrepôts de données et l’analyse Big Data. Le service Cloud se positionne en concurrence direct d’AWS Redshift, Google BigQuery et Microsoft Azure SQL Data Warehouse.

  • Quel SGBD In-Memory répond le mieux aux besoins de votre entreprise ?

    Après avoir passé en revue les critères à prendre en compte, la rédaction revient sur les principales offres de SGBD In-Memory pour vous aider à déterminer laquelle convient le mieux à votre entreprise.

  • SGBD : le In-Memory convient-il à votre entreprise ?

    Voici un bilan des avantages et des inconvénients des bases de données In-Memory. Et les critères à prendre en compte lors d’un appel d'offres ou d’une évaluation avant de passer au In-Memory.

  • Manchester City choisit l’offre Cloud/HANA de SAP

    Comme ont pu le faire le Bayern de Munich ou l’équipe national de football allemande, le club de football britannique, Manchester City a opté pour les outils SAP pour gérer le club, gagner en visibilité sur les joueurs et optimiser les campagnes marketing.

  • Hadoop 2

    Apache Hadoop 2 est la deuxième version de l'infrastructure Hadoop destinée au traitement des données distribuées. Hadoop 2 ajoute la prise en charge des applications qui ne s'exécutent pas par lots, ainsi que de nouvelles fonctions visant à améliorer la disponibilité du système.

  • Hadoop

    Hadoop est une infrastructure de programmation gratuite qui repose sur Java et qui prend en charge le traitement de jeux de données volumineux au sein d'environnements informatiques distribués. Hadoop fait partie intégrante du projet Apache parrainé par l'Apache Software Foundation.

  • Amadeus veut ajouter plus de BI à l'industrie du voyage

    Capitalisant sur sa plateforme Hadoop en place, le spécialiste de l'IT dédié au voyage présente deux solutions de BI à destination des agences pour leur permettre d'analyser les données de leurs clients.

  • Comment Tetra Pak a déployé un modèle de BI en self-service

    Le spécialiste de l’emballage a dû revoir tous ses processus, définir de nouveaux rôles et renforcer sa gouvernance pour doter ses utilisateurs d’outils de BI en self-service. Tetra Pak a choisi les outils SAP.

  • Comment l’IT transforme les métiers de la banque, de l’assurance et de la finance

    Il n’y a pas un domaine de l’IT qui ne chamboule les métiers de la banque, de l’assurance et de la finance. Un secteur qui entame sa mue. Discrètement. Mais surement. Comme le montre ce Guide Essentiel.

  • Plus darticles sur : {0}
  • ETL (et ELT)

    L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible. L’ELT est une variante d’ETL.

  • DashDB : IBM lance son Datawarehouse à la demande

    DashDB veut simplifier les entrepôts de données et l’analyse Big Data. Le service Cloud se positionne en concurrence direct d’AWS Redshift, Google BigQuery et Microsoft Azure SQL Data Warehouse.

  • Comment Tetra Pak a déployé un modèle de BI en self-service

    Le spécialiste de l’emballage a dû revoir tous ses processus, définir de nouveaux rôles et renforcer sa gouvernance pour doter ses utilisateurs d’outils de BI en self-service. Tetra Pak a choisi les outils SAP.

  • Photobox consolide et analyse ses données avec AWS RedShift

    Le spécialiste du tirage et d’impression de photos a troqué son entrepôt de données et ses outils de BI Oracle pour un tandem AWS RedShift et QlikView. Coût et scalabilité ont motivé la société.

  • Microsoft renforce un peu plus Azure SQL au Big Data

    A l’occasion de sa conférence Build 2015, Microsoft a réalisé plusieurs annonces autour de ses outils Cloud Big Data dont plusieurs liées à Azure qui pourraient facilement être comparées à Amazon Redshift.

  • Teradata joue les fashionistas avec Desigual

    La marque de vêtement espagnole a choisi de centraliser les informations de ses 12 canaux de ventes dans un entrepôt de données Teradata. Les données y sont chargées en temps réel pour visualiser les stocks et mieux orchestrer le programme de fidélisation.

  • Teradata ajoute des zones étanches à son entrepôt de données

    Multi-tenant et Secure Zones permettent aux entreprises d’’unifier différents entrepôts de données sur une unique appliance et de segmenter les données au sein de zones protégées et étanches.

  • Entretien avec Stephen Brobst, CTO de Teradata

    A l’occasion de la conférence Teradata Universe 2015, qui s’est tenue cette semaine à Amsterdam, le CTO du groupe Stephen Brobst s’est entretenu avec la rédaction sur la stratégie de Teradata quant à la création d’un écosystème autour de ses technologies et de la position d’Hadoop par rapport à l’entrepôt de données.

  • Teradata, en chef d’orchestre, compose avec l’écosystème et Hadoop

    Le spécialiste de l’analytique et de l’entrepôt de données a montré qu’Hadoop était indispensable à un environnement de gestion des données et a vanté lors de Teradata Universe 2015 les mérites d’un écosystème diversifié.

  • Clusters Hadoop : avantages et limites pour l'analyse des Big Data

    Avec Brien Posey, découvrez les avantages substantiels des clusters Hadoop dans la prise en charge de grands volumes de données non structurées et leurs limites dans d’autres environnements.

  • Plus darticles sur : {0}
  • NoSQL (base de données « Not Only SQL »)

    Les bases de données NoSQL sont particulièrement adaptées aux grands volumes de données non uniformes affichant des formats de champ variables.

  • L'Institut Européen de Bio-informatique virtualise ses bases de données pour devenir plus agile

    L'EBI a choisi Delphix pour diminuer le temps nécessaire à provisionner des instances de bases de données pour ses développeurs et économiser sur le stockage de ses 50.000 TB de données.

  • JSON (JavaScript Object Notation)

    JSON (JavaScript Object Notation) est un format d'échange de données en texte lisible. Il est utilisé pour représenter des structures de données et des objets simples dans un code qui repose sur un navigateur Web. JSON est parfois également utilisée dans les environnements de programmation, côté serveur et côté poste de travail.

  • ETL (et ELT)

    L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible. L’ELT est une variante d’ETL.

  • Cluster

    Dans un système informatique, un agrégat, ou « cluster », est un groupe de ressources, comme des serveurs. Ce groupe agit comme un seul et même système. Il affiche ainsi une disponibilité élevée, voire, dans certains cas, des fonctions de traitement en parallèle et d'équilibrage de la charge.

  • DashDB : IBM lance son Datawarehouse à la demande

    DashDB veut simplifier les entrepôts de données et l’analyse Big Data. Le service Cloud se positionne en concurrence direct d’AWS Redshift, Google BigQuery et Microsoft Azure SQL Data Warehouse.

  • MongoDB : près de 600 To de données exposées

    Il y a toujours près de 30 000 bases de données MongoDB mal configurées laissant leurs données ouvertes à tous sur Internet.

  • Hadoop 2

    Apache Hadoop 2 est la deuxième version de l'infrastructure Hadoop destinée au traitement des données distribuées. Hadoop 2 ajoute la prise en charge des applications qui ne s'exécutent pas par lots, ainsi que de nouvelles fonctions visant à améliorer la disponibilité du système.

  • Hadoop

    Hadoop est une infrastructure de programmation gratuite qui repose sur Java et qui prend en charge le traitement de jeux de données volumineux au sein d'environnements informatiques distribués. Hadoop fait partie intégrante du projet Apache parrainé par l'Apache Software Foundation.

  • Amadeus veut ajouter plus de BI à l'industrie du voyage

    Capitalisant sur sa plateforme Hadoop en place, le spécialiste de l'IT dédié au voyage présente deux solutions de BI à destination des agences pour leur permettre d'analyser les données de leurs clients.

  • Plus darticles sur : {0}
  • Master Data Management (MDM)

    Le MDM (Master Data Management), est une méthode exhaustive permettant à une entreprise d'associer toutes ses données critiques à un seul et unique fichier, appelé « fichier maître », qui constitue un point de référence commun.

  • JSON (JavaScript Object Notation)

    JSON (JavaScript Object Notation) est un format d'échange de données en texte lisible. Il est utilisé pour représenter des structures de données et des objets simples dans un code qui repose sur un navigateur Web. JSON est parfois également utilisée dans les environnements de programmation, côté serveur et côté poste de travail.

  • ETL (et ELT)

    L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible. L’ELT est une variante d’ETL.

  • Le Big Data dans les sociétés de services financiers crée une demande de « Chief Data Officier »

    La finance, la banque et l’analyse statistique ont des exigences diverses et très variées que seul un « CDO » pourrait gérer correctement. Entretien avec un expert du sujet chez CapGemini.

  • MicroStrategy 10 : plus de In-Memory, d'Hadoop (et de DataViz)

    C’est lors d’un événement parisien pour ses clients que MicroStrategy a lancé en France la nouvelle version de sa plateforme BI : MicroStrategy 10, qui continue de creuser le sillon de la précédente édition.

  • Modélisation des données : tout savoir pour tirer le maximum de vos données

    L'auteur et formateur en modélisation de données Steve Hoberman décrit différentes techniques qui permettent de relever les défis posés par les processus de modélisation.

  • Teradata joue les fashionistas avec Desigual

    La marque de vêtement espagnole a choisi de centraliser les informations de ses 12 canaux de ventes dans un entrepôt de données Teradata. Les données y sont chargées en temps réel pour visualiser les stocks et mieux orchestrer le programme de fidélisation.

  • Informatica absorbé par deux fonds d’investissement

    Le fonds Elliot Management est finalement parvenu à persuader Informatica de devenir privé. Pour 5,3 Md$, le spécialiste de l’intégration de données est racheté par les fonds Canada Pension Plan Investment Board (CPPIB) et Permira.

  • MapR veut jouer des coudes sur le marché en France

    Implanté depuis 2 ans en France, MapR, l’un des trois pure-players Hadoop, a bien l’intention de faire valoir sa différence d’approche sur un marché hexagonal de plus en plus réceptif et mature à ce que peut apporter les technologies Hadoop. Décryptage avec Aurélien Goujet, directeur System Engineering Europe du sud de MapR.

  • 3 aspects clés d’une solution de sauvegarde redondante

    Pour améliorer la fiabilité des sauvegardes, intégrer une redondance où cela est possible est un moyen d’éliminer une défaillance potentiellement présente dans l’infrastructure. Trois aspects doivent retenir votre attention.

  • Plus darticles sur : {0}