Définitions IT - Big Data

Filtrer par lettre
Rechercher une définition
  • D

    Data lake (lac de données)

    Un lac de données (Data Lake) est un référentiel de stockage orienté objet qui consigne des données dans leur format natif tant qu'elles ne sont pas nécessaires.

  • Data science

    La data science (littéralement « science des données ») est une discipline qui étudie les informations : leur source, ce qu'elles représentent et les méthodes permettant de les transformer en ressources utiles pour la création de stratégies métier et IT.

  • Data Scientist

    Le terme Data Scientist est un titre professionnel qui désigne un employé ou un consultant en informatique décisionnelle (BI, Business Intelligence) qui excelle dans l’analyse des données, particulièrement des grandes quantités de données, et ce afin d’aider une entreprise à en tirer un avantage concurrentiel.

  • Data Visualization (ou DataViz)

    La visualisation de données décrit toute technologie qui représente visuellement des données pour faire ressortir des schémas, des tendances ou des corrélations qui risqueraient de passer inaperçus au sein de données purement textuelles.

  • Données non structurées

    Les données non structurées sont une désignation générique qui décrit toute donnée extérieure à un type de structure (telle qu'une base de données).

  • E

    Edge Analytics

    L'analytique "en périphérie" permet d'exécuter automatiquement des analyses statistiques là où les données sont créées (capteur, commutateur, ou autre) plutôt que d'attendre le transfert des données vers un Data Store centralisé.

  • ETL (et ELT)

    L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible. L’ELT est une variante d’ETL.

  • G

    Google Cloud Platform

    Google Cloud Platform (GCP) est la plateforme Cloud de Google pour les développeurs et les gestionnaires d’infrastructure qui regroupe son PaaS et son IaaS ainsi qu’un ensemble d’API et de services connexes comme les bases de données hébergés, des outils Big Data, de Machine Learning ou d’optimisation du réseau.

  • Gouvernance des données

    La gouvernance des données (GD, ou data governance – DG – en anglais) consiste en la gestion globale de la disponibilité, de l'exploitabilité, de l'intégrité et de la sécurité des données utilisées dans une entreprise.

  • Génération automatique de textes en langage naturel (GAT ou NLG)

    La génération automatique de textes (GAT ou NLG, pour Natural Language Generation) est un domaine de l'intelligence artificielle (IA) qui vise à produire du contenu ou un discours comparable à celui des humains à partir d’un ensemble de données.

  • H

    Cluster Hadoop

    Un cluster Hadoop est un type particulier de traitement informatique en grappe, conçu spécialement pour stocker et analyser de grandes quantités de données non structurées dans un environnement distribué.

  • Hadoop

    Hadoop est un framework open source qui repose sur Java. Hadoop prend en charge le traitement des données volumineuses (Big Data) au sein d'environnements informatiques distribués. Hadoop fait partie intégrante du projet Apache parrainé par l'Apache Software Foundation.

  • Hadoop 2

    Apache Hadoop 2 (Hadoop 2.0) est la deuxième version de du framework Hadoop écrit en Java destinée au traitement des données distribuées. Cette version 2 ajoute la prise en charge des tâches qui ne s'exécutent pas par lots, ainsi que de nouvelles fonctions visant à améliorer la disponibilité du système.

  • Hadoop Distributed File System (HDFS)

    HDFS est un système de fichiers distribué qui donne un accès haute-performance aux données réparties dans des clusters Hadoop. Comme d’autres technologies liées à Hadoop, HDFS est devenu un outil clé pour gérer des pools de Big Data et supporter les applications analytiques.

  • HBase

    Apache HBase est un Data Store orienté colonnes utilisant des paires clé/valeur. Il est conçu pour s'exécuter sur le système de fichiers HDFS (Hadoop Distributed File System). Hadoop est une infrastructure qui permet de gérer des ensembles de données volumineux dans un environnement informatique distribué.

- ANNONCES GOOGLE

Close