Définitions IT - Base de données

Rechercher une définition
  • A

    abstraction de données

    L'abstraction de données fait référence à la réduction d'un ensemble de données spécifique en une représentation simplifiée.

  • ACID

    L'acronyme ACID (Atomicité, Cohérence, Isolation et Durabilité) désigne les quatre attributs fondamentaux qu'un gestionnaire de transactions doit garantir.

  • AIOps (intelligence artificielle dédiée aux opérations informatiques)

    AIOps (intelligence artificielle dédiée aux opérations informatiques) est un terme générique qui fait référence à l'utilisation d'outils comme l'analytique des Big Data, l'apprentissage automatique et d'autres technologies d'intelligence artificielle (IA, AI) pour automatiser l'identification et la résolution de problèmes informatiques courants.

  • Algorithme de consensus

    Un algorithme de consensus est un processus qui permet de trouver un accord sur une valeur unique de données entre des processus ou des systèmes distribués.

  • Altcoin

    Les altcoins désignent toute monnaie numérique – ou crypto-monnaie - qui s’inspire de Bitcoin. Le terme signifie littéralement « alternative à Bitcoin ».

  • Amazon Aurora

    Amazon Aurora est un moteur de base de données relationnelle d'Amazon Web Services (AWS) compatible avec MySQL. Il permet d'utiliser le code, les applications et les pilotes des bases de données MySQL dans Aurora avec peu, voire aucune adaptation.

  • Apache Flink

    Apache Flink est une plateforme de traitement distribué des données qui fonctionne dans le cadre d'applications de Big Data, et implique essentiellement l'analyse de données stockées dans des clusters Hadoop. Grâce à des modes de traitement combinés sur disque et en mémoire (In-Memory), Apache Flink gère à la fois des tâches en flux et par lots. Le flux de données reste la mise en oeuvre par défaut, tandis que les traitements par lots constituent des versions dédiées à des cas spéciaux d'applications en flux.

  • arbre décisionnel

    Un arbre décisionnel ou arbre de décision est un graphique en forme d’arbre dont les ramifications illustrent les conséquences possibles d’une décision.

  • Automatisation de base de données

    L'automatisation de base de données (data base automation, en anglais) consiste à utiliser des processus sans assistance et des procédures à mise à jour automatique, pour exécuter l'administration d'une base de données.

  • B

    Base de données

    Une base de données est une collection de données organisées de façon à être facilement accessibles, administrées et mises à jour. Les bases de données peuvent être classées par le type de contenu qu’elles renferment : bibliographique, full text, images ou des nombres….

  • Base de données cloud (DBaaS et traditionnelle)

    Une base de données Cloud est un ensemble de contenus, structurés ou non structurés, qui réside sur une plateforme d'infrastructure de cloud computing privée, publique ou hybride.

  • Base de données distribuée

    Dans une base de données distribuée, des parties de la base sont stockées à différents emplacements physiques et le traitement est réparti entre plusieurs noeuds.

  • Base de données en colonnes

    Une base de données orientée colonnes (ou en colonnes) est un système de gestion de bases de données (SGBD) qui enregistre les données dans des colonnes, plutôt que dans des lignes.

  • Base de données multimodèle

    Une base de données multimodèle est une plate-forme de traitement de données qui prend en charge plusieurs modèles de données.

  • Base de données orientée graphes

    Une base de données orientée graphes (Graph Database) est un type de base de données NoSQL qui utilise la théorie des graphes pour stocker, mapper et interroger des relations.

  • Base de données relationnelle

    Une base de données relationnelle est une collection de données organisées sous la forme de tables définies de façon formelle, à partir desquelles les données sont accessibles et assemblées sans avoir à réorganiser les tables de la base de données.

  • Blockchain

    La blockchain est un registre distribué, permanent et qualifié d'infalsifiable, qui enregistre des données sans autorité centrale.

  • Gestion des Big Data

    La gestion des Big Data correspond à l’organisation, la gestion et la gouvernance d’un grand volume de données à la fois structurées et non structurées.

  • C

    Collecte de données

    Par collecte de données, on entend l'approche systématique qui consiste à réunir et à mesurer des informations en provenance de sources variées, afin d'obtenir une vue complète et précise d'un domaine d'intérêt. La collecte des données permet à une personne ou à une entreprise de répondre à des questions pertinentes, d'évaluer des résultats et de mieux anticiper les probabilités et les tendances à venir.

  • Colored Coin (jeton marqué)

    Une « colored coin » (en français, une pièce colorée) est un jeton de cryptomonnaie, comme un bitcoin, marqué au moyen de ses métadonnées. Ce marquage permet d'associer un jeton à un actif en dehors de la blockchain. Les « colored coin » sont aussi appelées « métacoins ».

  • corrélation

    La corrélation est une mesure statistique de la manière dont deux variables ou plus évoluent ensemble. Une corrélation positive indiquera des variables qui croissent ou décroissent en même temps ; une corrélation négative, à l'inverse, correspond à une valeur qui croit à mesure que la première décroit.

  • D

    DAM (Digital Asset Management)

    Un DAM (Digital Asset Management) est une solution technique destinée à stocker, classer et rendre accessibles facilement des actifs numériques multimédias (les Digital Assets), à l’origine dans un cadre marketing. Il concerne également les communicants (publicité) et les réseaux de distribution (PLV, catalogues, etc.).

  • Data lake (lac de données)

    Un lac de données (Data Lake) est un référentiel de stockage orienté objet qui consigne des données dans leur format natif tant qu'elles ne sont pas nécessaires.

  • Data Management Platform (DMP)

    Une DMP (pour Data Management Platform, ou en français « plateforme de gestion de données ») est un système centralisé de collecte de données, issues de sources variées, qui sert de référence pour des analyses le plus souvent dans le domaine du marketing.

  • Data Store

    Un Data Store (littéralement « dépôt de données ») est un référentiel servant au stockage permanent d'ensembles de données.

  • Données semi-structurées

    Les données semi-structurées sont des données qui n'ont pas été organisées en référentiel spécialisé, comme c’est le cas dans une base de données, mais qui comportent néanmoins des informations associées, des métadonnées par exemple, qui les rendent plus faciles à traiter que des données brutes.

  • données transactionnelles

    Dans le contexte de la gestion de données, les données transactionnelles sont les informations enregistrées à partir des transactions.

  • E

    Environnement de Développement Intégré (IDE)

    L’environnement de développement intégré (en français EDI et en anglais IDE pour "Integrated Development Environment") est un environnement de programmation complet qui se présente sous la forme d'une application. L'outil aide les développeurs à concevoir et à documenter leurs codes comme un traitement de texte aide à produire des documents écrits.

  • Ethereum

    Ethereum est une plateforme logicielle de blockchain, distribuée en open source. Ethereum est à l'origine une blockchain publique, qui motorise la crypto-monnaie Ether. Mais à la différence de la blockchain Bitcoin, elle peut aussi être déployée dans un cadre de blockchain de consortium.

  • F

    Full-text database (base de données textuelle)

    Une base de données textuelles, ou base de données en texte intégral, est une compilation de documents ou d'autres informations présentée sous la forme d'une base dans laquelle le texte complet de chaque document référencé peut être visualisé en ligne, imprimé ou téléchargé.

  • G

    Gestion des données ? Pourquoi est-elle fondamentale ?

    La gestion des données (ou data management) consiste à collecter, ingérer, stocker, organiser et garder à jour les données d’une entreprise.

  • gestion des décisions fondée sur les données (DDDM)

    La gestion des décisions fondée sur les données (DDDM, Data-Driven Decision Management) constitue une approche de la gouvernance métier qui valorise les décisions soutenues par des données vérifiables. Le succès des approches fondées sur des données repose sur la qualité des informations collectées et sur l'efficacité de leur analyse et de leur interprétation.

  • Google BigTable

    Google BigTable (que l’on appelle plus communément Big Table) est un datastore distribué et en colonnes développé par Google pour prendre en charge un volume important de données structurées, associées aux outils de recherche et aux services Web du groupe.

  • Google Cloud Platform

    Google Cloud Platform (GCP) est la plateforme cloud de Google pour les développeurs et les gestionnaires d’infrastructure qui regroupe son PaaS et son IaaS ainsi qu’un ensemble d’API et de services connexes comme les bases de données hébergés, des outils Big Data, de Machine Learning ou d’optimisation du réseau.

  • Gouvernance des données

    La gouvernance des données (GD, ou data governance – DG – en anglais) consiste en la gestion globale de la disponibilité, de l'exploitabilité, de l'intégrité et de la sécurité des données utilisées dans une entreprise.

  • H

    Hadoop Distributed File System (HDFS)

    HDFS est un système de fichiers distribué qui donne un accès haute-performance aux données réparties dans des clusters Hadoop. Comme d’autres technologies liées à Hadoop, HDFS est devenu un outil clé pour gérer des pools de Big Data et supporter les applications analytiques.

  • HANA

    SAP HANA est une plateforme In-Memory destinée au traitement en temps réel de grands volumes de données.

  • HBase

    Apache HBase est un Data Store orienté colonnes utilisant des paires clé/valeur. Il est conçu pour s'exécuter sur le système de fichiers HDFS (Hadoop Distributed File System). Hadoop est une infrastructure qui permet de gérer des ensembles de données volumineux dans un environnement informatique distribué.

  • Hyperledger

    Hyperledger est une blockchain privée (ou de consortium) open source soutenue par la Fondation Linux.

  • I

    In-memory data grid (grille de données In-Memory)

    Une grille de données en mémoire, ou grille de données In-Memory (IMDG, In-Memory Data Grid), est une structure de données qui réside intégralement en mémoire vive, ou RAM (Random Access Memory), et qui est répartie sur plusieurs serveurs.

  • In-Memory database (Base de données en mémoire)

    Une base de données « en mémoire » (in-memory), ou IMDB (In Memory DataBase), ou encore MMDB (Main Memory DB), est une base de données dont les informations sont stockées en mémoire pour accélérer les temps de réponse

  • Index columnstore

    Un « columnstore index » (littéralement « index de stockage en colonne ») est un type de structure de données servant à stocker, gérer et extraire les données enregistrées dans une base de données en colonne.

  • Ingestion de données

    L'ingestion de données regroupe les phases de recueil et d'importation des données pour utilisation immédiate ou stockage dans une base de données. Ingérer quelque chose consiste à l'introduire dans les voies digestives ou à l'absorber.

  • Iota

    IOTA est une technologie de registre distribué pour les appareils IoT qui facilitera les transactions de machine à machine (M2M) dans l'économie M2M. IOTA a été créé par la fondation à but non lucratif du même nom.

  • J

    Jeu de données

    Un jeu de données (Data Set) est une collection d'éléments connexes de données associées entre elles et accessibles individuellement ou de façon combinée, ou gérées comme une entité.

  • L

    LAMP

    La plateforme LAMP utilise Linux comme système d'exploitation, Apache comme serveur Web, MySQL comme système de gestion de base de données et PHP comme langage de script orienté objet (Perl ou Python sont parfois utilisés à la place PHP.)

  • loi normale

    La loi normale, ou distribution normale, définit une représentation de données selon laquelle la plupart des valeurs sont regroupées autour de la moyenne et les autres s'en écartent symétriquement des deux côtés.

  • M

    MariaDB

    MariaDB est un système de gestion de base de données relationnelle (SGBDR) open source qui constitue une solution de remplacement compatible avec la technologie très répandue des bases de données MySQL.

  • Modélisation de données

    La modélisation de données fait référence à la formalisation et à la documentation de processus et d'événements qui se produisent au cours de la conception et du développement des applications. Les techniques et les outils de modélisation de données recueillent les conceptions de systèmes complexes et les traduisent en représentations simplifiées des processus et des flux de données de façon à créer un modèle pour la construction et la réingénierie.

  • MySQL

    Le système de gestion de base de données relationnelle (SGBDR) open source Oracle MySQL s'appuie sur le langage de requête structuré SQL (Structured Query Language). Il est compatible avec presque toutes les plateformes notamment Linux, UNIX et Windows.

  • Mébioctet (Mio, miB)

    Un mébioctet (Mio, ou MiB en anglais) est une unité de mesure utilisée pour le stockage des données informatiques. Le préfixe mébi vient du système binaire de mesure des données, basé sur les puissances d'un nombre en base 2. Un mébioctet est égal à 220, soit 1 048 576 octets.

  • Métadonnées

    Les métadonnées sont des données qui en décrivent d'autres. Dans la plupart de ses usages informatiques, le préfixe méta signifie « définition ou description de référence ».

  • N

    NewSQL

    NewSQL est une catégorie de bases de données SQL qui s'attaque aux problèmes de performances et d'évolutivité que posent les bases de données relationnelles pour le traitement transactionnel (OLTP).

  • Normalisation

    Lors de la création d'une base de données, le processus de normalisation consiste à l'organiser en tables de telle sorte que les résultats de son utilisation soient toujours sans ambiguïté et sans erreur.

  • NoSQL (base de données « Not Only SQL »)

    Les bases de données NoSQL sont particulièrement adaptées aux grands volumes de données non uniformes affichant des formats de champ variables.

  • O

    OLTP

    Le traitement transactionnel en ligne, OLTP (OnLine Transaction Processing), qualifie une catégorie de logiciels qui prennent en charge les applications orientées transactions via Internet.

  • OLTP en mémoire

    L'OLTP en mémoire, ou In-Memory, est une technologie de calcul en mémoire développée par Microsoft, qui accélère les performances des applications de traitement transactionnel exécutées dans des bases de données SQL Server. Appelée Hekaton à l'origine, l'OLTP en mémoire est intégrée au moteur de base de données de SQL Server. Elle sert notamment à traiter des tables de données transactionnelles stockées dans la mémoire système au lieu de les récupérer à partir d'un stockage sur disque. Cette technologie s'articule autour de deux éléments principaux : des tables optimisées en mémoire et des procédures stockées compilées en mode natif.

  • Oracle Autonomous Database

    Oracle Autonomous Database est une technologie cloud destinée à automatiser une grande partie de la gestion de routine des bases de données Oracle.

  • P

    Gestion des données produit (PDM)

    La gestion des données techniques d’un produit (ou PDM pour Product Data Management) consiste à extraire et à gérer les informations électroniques relatives à un produit afin que ce dernier puisse être réutilisé dans des processus métier, tels que la conception, la production, la distribution et le marketing. En règle générale, elle implique l'utilisation d'un logiciel dédié et d'une base de données centralisée.

  • PostgreSQL

    PostgreSQL (prononcer « post-gress-Q-L ») est un système de gestion de base de données relationnelle (SGBDR) open source développé par une équipe internationale constituée de bénévoles. PostgreSQL n'est détenu par aucune entreprise ni autre entité privée, et son code source est accessible librement et gratuitement.

  • Q

    Qualité des données

    La qualité des données est une mesure de l’état des données fondée sur divers facteurs : précision, exhaustivité, homogénéité, fiabilité et actualité.

  • R

    Registres distribués (DLT)

    La technologie des registres distribués, ou DLT (Distributed Ledger Technology), est un système numérique qui enregistre des transactions d'actifs et leurs détails dans plusieurs emplacements à la fois. Contrairement aux bases de données traditionnelles, la DLT ne dispose pas d'un dépôt de données de référence.

  • Ripple

    Ripple est une altcoin et un protocole de paiement utilisant la technologie blockchain pour faciliter les transactions financières des banques.

  • S

    Microsoft SQL Server 2016

    SQL Server 2016 est une version du système de gestion de base de données relationnelle (SGBDR) de Microsoft qui est sortie en version d'évaluation en 2015, puis en disponibilité générale le 1er juin 2016. Il s'agit d'une base de données SQL conçue pour prendre en charge diverses applications de traitement des transactions, d'entreposage de données et d'analytique dans des environnements d'entreprise.

  • SAP HANA Enterprise Cloud

    SAP HANA Enterprise Cloud (HEC) est un service d'hébergement en Cloud privé fourni par SAP pour des solutions tournant sur SAP HANA.

  • SIG (système d'information géospatiale)

    Les systèmes SIG (systèmes d'information géospatiale ou geographic information system - GIS - en anglais) permettent d'appréhender les aspects géographiques d'un ensemble de données.

  • Smart contract

    Un smart contract (« contrat intelligent »), également appelé cryptocontrat, est un programme informatique qui contrôle directement le transfert de devises ou d'actifs numériques entre des parties sous certaines conditions.

  • Spark (Apache)

    Apache Spark est un cadre de traitement parallèle open source permettant d'exécuter des applications d'analyse de données à grande échelle sur des ordinateurs en grappe. Il peut gérer des charges de travail d'analyse et de traitement de données en batch et en temps réel.

  • SQL (Structured Query Language)

    Le langage de requête structurée SQL (Structured Query Language) est un langage de programmation et d'interaction standard utilisé pour extraire des informations d'une base de données et pour les y mettre à jour.

  • SQL-on-Hadoop

    SQL-on-Hadoop est une classe d'outils d'application analytique qui combine une interrogation classique de style SQL à des éléments d'infrastructure de données Hadoop.

  • Structure de données

    Une structure de données est un format spécial destiné à organiser, traiter, extraire et stocker des données.

  • Système de gestion de base de données

    Un système de gestion de base de données (SGBD), parfois appelé uniquement gestionnaire de base de données, est une solution qui permet à un ou plusieurs utilisateurs de créer et d’accéder à des données contenues dans une base de données.

  • Système de gestion de base de données distribuées (SGBDD)

    Un système de gestion de base de donnée distribuée est une application centrale qui administre une base de données distribuée comme si toutes les données étaient stockées sur le même ordinateur.

  • T

    Data Lineage (traçabilité des données)

    La traçabilité des données, ou lignage des données (data lineage en anglais), désigne l'historique des données notamment les chemins empruntés tout au long de leur existence dans une entreprise.

  • Tableau, table

    En programmation informatique, un tableau est une structure de données qui sert à organiser des informations, de la même manière que sur une feuille de papier.

  • Time series database (TSDB)

    Les TSDB (time series database), ou bases de données de séries chronologiques, sont des systèmes logiciels optimisés pour trier et organiser des informations mesurées de manière temporelle.

  • Traitement du langage naturel (TLN ou NLP)

    Le traitement du langage naturel (TLN, ou NLP en anglais) est la capacité pour un programme informatique de comprendre le langage humain tel qu'il est parlé. Il fait partie des technologies d'intelligence artificielle.

  • Traitement massivement parallèle (MPP)

    Le traitement massivement parallèle (MPP, Massively Parallel Processing) désigne l'exécution coordonnée d'un programme par plusieurs processeurs focalisés sur différentes parties du programme, chaque processeur étant doté d'un système d'exploitation et d'une mémoire qui lui sont propres

  • U

    U-SQL

    Langage de requête de Microsoft, U-SQL se caractérise par la combinaison d'une syntaxe déclarative de type SQL et de la capacité de programmation de C#.

  • V

    SAP HANA Vora

    SAP HANA Vora est un moteur de traitement in-memory conçu pour rendre le Big Data issu d'Hadoop plus accessible et exploitable. SAP a développé Vora à partir de SAP HANA afin de répondre à des scénarios spécifiques impliquant le Big Data.

  • Z

    Apache ZooKeeper

    ZooKeeper est une API open source qui permet la synchronisation de processus distribués sur de grands systèmes, afin que tous les clients émettant des demandes reçoivent des données homogènes.

Close