Définitions IT - Gestion des données

Rechercher une définition
  • I

    Ignorance artificielle

    Dans la détection d’anomalies comportementales sur le réseau (network behavior anomaly detection, NBAD), l'ignorance artificielle est la pratique stratégique qui consiste à ignorer les données bruitées dans les fichiers journaux.

  • In-memory data grid (grille de données In-Memory)

    Une grille de données en mémoire, ou grille de données In-Memory (IMDG, In-Memory Data Grid), est une structure de données qui réside intégralement en mémoire vive, ou RAM (Random Access Memory), et qui est répartie sur plusieurs serveurs.

  • In-Memory database (Base de données en mémoire)

    Une base de données « en mémoire » (in-memory), ou IMDB (In Memory DataBase), ou encore MMDB (Main Memory DB), est une base de données dont les informations sont stockées en mémoire pour accélérer les temps de réponse

  • Index columnstore

    Un « columnstore index » (littéralement « index de stockage en colonne ») est un type de structure de données servant à stocker, gérer et extraire les données enregistrées dans une base de données en colonne.

  • Industrie 4.0

    L’Industrie 4.0 est la transformation cyberphysique de la fabrication. Ce nom provient de l'initiative allemande Industrie 4.0, lancée par le gouvernement pour promouvoir la fabrication connectée et une convergence numérique entre l'industrie, les entreprises et les autres processus.

  • Informatique cognitive

    L'informatique cognitive, ou cognitique, ou encore Cognitive Computing, consiste en la simulation de processus de pensée humaine dans un modèle informatisé.

  • Ingestion de données

    L'ingestion de données regroupe les phases de recueil et d'importation des données pour utilisation immédiate ou stockage dans une base de données. Ingérer quelque chose consiste à l'introduire dans les voies digestives ou à l'absorber.

  • Intelligence artificielle (IA)

    Le terme intelligence artificielle ou IA (Artificial Intelligence en anglais) désigne une famille de technologies et de méthodes mathématiques (des algorithmes) qui vise à permettre à des machines de simuler ou de s’inspirer des processus cognitifs des êtres humains pour réaliser des tâches.

  • Intelligence artificielle des objets (AIoT)

    L'intelligence artificielle des objets ou IAoT (AIoT, Artificial Intelligence of Things) combine les technologies de l'intelligence artificielle (IA) et l'infrastructure de l'Internet des objets (IoT, Internet of Things).

  • Intelligence artificielle générative

    L’IA générative (Generative AI) est l’ensemble des outils d’intelligence artificielle qui génèrent des contenus – textes, multimédias, codes, plans, etc. – en fonction d’une demande (un prompt). Ses promesses sont très nombreuses. Ses travers à maîtriser aussi.

  • Intelligence augmentée

    L'intelligence augmentée (« augmented intelligence ») est une autre conceptualisation de l'intelligence artificielle qui repose sur le rôle d'assistance de l'IA, défendant le fait que la technologie cognitive est là pour amplifier l'intelligence humaine et non la remplacer.

  • Iota

    IOTA est une technologie de registre distribué pour les appareils IoT qui facilitera les transactions de machine à machine (M2M) dans l'économie M2M. IOTA a été créé par la fondation à but non lucratif du même nom.

  • IT (Technologies de l'information)

    Les technologies de l'information (ou IT pour Information Technology) désignent l'usage des ordinateurs, du stockage, des réseaux et des appareils, des infrastructures et des processus pour créer, traiter, stocker, sécuriser et échanger toutes sortes de données électroniques.

  • J

    Jeu de données

    Un jeu de données (Data Set) est une collection d'éléments connexes de données associées entre elles et accessibles individuellement ou de façon combinée, ou gérées comme une entité.

  • JSON (JavaScript Object Notation)

    JSON (JavaScript Object Notation) est un format d'échange de données en texte lisible. Il est utilisé pour représenter des structures de données et des objets simples dans un code qui repose sur un navigateur Web. JSON est parfois également utilisée dans les environnements de programmation, côté serveur et côté poste de travail.

  • Jumeau numérique (Digital Twin)

    Un jumeau numérique, ou digital twin en anglais, est la représentation virtuelle d'un produit, utilisée pour la conception, la simulation, la surveillance, l'optimisation ou l'entretien du produit. Il s'agit d'un concept essentiel dans l'Internet des objets appliqué à l'industrie.

  • K

    Apache Kafka

    Kafka est un système de messagerie de type publication/abonnement conçu pour remplacer les courtiers de message traditionnels.

  • Indicateur clé de performance (KPI)

    Un indicateur clé de performance, ou KPI (Key Performance Indicator), est un élément de mesure métier utilisé pour évaluer différents facteurs essentiels à la réussite d'une entreprise ou d'un projet.

  • L

    Architecture Lambda

    L'architecture Lambda est une approche hybride de la gestion du Big Data qui permet un traitement par lots et en quasi temps réel.

  • LAMP

    La plateforme LAMP utilise Linux comme système d'exploitation, Apache comme serveur Web, MySQL comme système de gestion de base de données et PHP comme langage de script orienté objet (Perl ou Python sont parfois utilisés à la place PHP.)

  • Log

    Dans un contexte informatique, un journal (log) désigne la documentation automatiquement générée et horodatée des événements concernant un système particulier. Pratiquement tous les systèmes et logiciels produisent des fichiers journaux.

  • loi normale

    La loi normale, ou distribution normale, définit une représentation de données selon laquelle la plupart des valeurs sont regroupées autour de la moyenne et les autres s'en écartent symétriquement des deux côtés.

  • M

    Loi de Murphy

    A l'origine, la loi de Murphy s'énonçait comme suit : « S'il y a plus d'une façon de faire quelque chose, et que l'une d'elles conduit à un désastre, alors il y aura quelqu'un pour le faire de cette façon. »

  • Machine Learning

    L’apprentissage statistique (en anglais, Machine Learning) – ou dit encore apprentissage automatique – est un type d’intelligence artificielle qui confère aux ordinateurs la capacité d’apprendre sans être explicitement programmés.

  • MapReduce

    MapReduce est un composant central du framework Hadoop. Il répartit les tâches sur plusieurs nœuds au sein du cluster (Map) puis il organise et agrège les résultats de chacun des nœuds pour apporter une réponse à une requête (Reduce)

  • MariaDB

    MariaDB est un système de gestion de base de données relationnelle (SGBDR) open source qui constitue une solution de remplacement compatible avec la technologie très répandue des bases de données MySQL.

  • Marketing multicanal

    Le marketing multicanal consiste à interagir avec les clients via différents canaux, à la fois directs et indirects, afin de leur vendre des produits et des services.

  • Master Data Management (MDM)

    Le MDM (Master Data Management), est une méthode exhaustive permettant à une entreprise d'associer toutes ses données critiques à un seul et unique fichier, appelé « fichier maître », qui constitue un point de référence commun.

  • Matrice de confusion

    La matrice de confusion, appelée également matrice d'erreur, est un tableau qui présente différentes prévisions et résultats de tests, en les comparant avec des valeurs réelles.

  • Modélisation de données

    La modélisation de données fait référence à la formalisation et à la documentation de processus et d'événements qui se produisent au cours de la conception et du développement des applications. Les techniques et les outils de modélisation de données recueillent les conceptions de systèmes complexes et les traduisent en représentations simplifiées des processus et des flux de données de façon à créer un modèle pour la construction et la réingénierie.

  • MySQL

    Le système de gestion de base de données relationnelle (SGBDR) open source Oracle MySQL s'appuie sur le langage de requête structuré SQL (Structured Query Language). Il est compatible avec presque toutes les plateformes notamment Linux, UNIX et Windows.

  • Mébioctet (Mio, miB)

    Un mébioctet (Mio, ou MiB en anglais) est une unité de mesure utilisée pour le stockage des données informatiques. Le préfixe mébi vient du système binaire de mesure des données, basé sur les puissances d'un nombre en base 2. Un mébioctet est égal à 220, soit 1 048 576 octets.

  • Métadonnées

    Les métadonnées sont des données qui en décrivent d'autres. Dans la plupart de ses usages informatiques, le préfixe méta signifie « définition ou description de référence ».

  • N

    NewSQL

    NewSQL est une catégorie de bases de données SQL qui s'attaque aux problèmes de performances et d'évolutivité que posent les bases de données relationnelles pour le traitement transactionnel (OLTP).

  • Normalisation

    Lors de la création d'une base de données, le processus de normalisation consiste à l'organiser en tables de telle sorte que les résultats de son utilisation soient toujours sans ambiguïté et sans erreur.

  • NoSQL (base de données « Not Only SQL »)

    Les bases de données NoSQL sont particulièrement adaptées aux grands volumes de données non uniformes affichant des formats de champ variables.

  • O

    Cube OLAP

    Un cube OLAP est une base de données à plusieurs dimensions, optimisée pour les entrepôts de données et les traitements analytiques

  • OLAP

    Les systèmes OLAP sont des processus analytiques qui permettent d’extraire et de visualiser de manière sélective des jeux de données et de leur appliquer assez facilement différents points de vue.

  • OLTP

    Le traitement transactionnel en ligne, OLTP (OnLine Transaction Processing), qualifie une catégorie de logiciels qui prennent en charge les applications orientées transactions via Internet.

  • OLTP en mémoire

    L'OLTP en mémoire, ou In-Memory, est une technologie de calcul en mémoire développée par Microsoft, qui accélère les performances des applications de traitement transactionnel exécutées dans des bases de données SQL Server. Appelée Hekaton à l'origine, l'OLTP en mémoire est intégrée au moteur de base de données de SQL Server. Elle sert notamment à traiter des tables de données transactionnelles stockées dans la mémoire système au lieu de les récupérer à partir d'un stockage sur disque. Cette technologie s'articule autour de deux éléments principaux : des tables optimisées en mémoire et des procédures stockées compilées en mode natif.

  • Oracle Autonomous Database

    Oracle Autonomous Database est une technologie cloud destinée à automatiser une grande partie de la gestion de routine des bases de données Oracle.

  • P

    Apache Pig

    Apache Pig est une technologie open source qui fournit un mécanisme de haut niveau pour la programmation parallèle de tâches MapReduce à exécuter sur des clusters Hadoop.

  • Gestion des données produit (PDM)

    La gestion des données techniques d’un produit (ou PDM pour Product Data Management) consiste à extraire et à gérer les informations électroniques relatives à un produit afin que ce dernier puisse être réutilisé dans des processus métier, tels que la conception, la production, la distribution et le marketing. En règle générale, elle implique l'utilisation d'un logiciel dédié et d'une base de données centralisée.

  • Plateforme de découverte de données

    Une plateforme de découverte de données (data discovery platform, en anglais) est un ensemble complet d'outils qui sert à détecter des modèles, et des valeurs aberrantes en dehors des modèles, au niveau des données.

  • PostgreSQL

    PostgreSQL (prononcer « post-gress-Q-L ») est un système de gestion de base de données relationnelle (SGBDR) open source développé par une équipe internationale constituée de bénévoles. PostgreSQL n'est détenu par aucune entreprise ni autre entité privée, et son code source est accessible librement et gratuitement.

  • Préparation des données

    La préparation des données (ou data preparation, en anglais) consiste à rassembler, combiner, structurer et organiser les données afin de pouvoir les analyser dans le cadre de programmes d'informatique décisionnelle (BI, Business Intelligence) et d'analytique métier (BA, Business Analytics).

  • Pétaoctet (Po)

    Un pétaoctet (Po) est une unité de mesure de la mémoire ou de la capacité de stockage de données qui équivaut à 2 octets à la puissance 50. Il y a 1024 téraoctets (To) dans un pétaoctet et environ 1024 Po dans un exaoctet (Eo).

  • Q

    Qualité des données

    La qualité des données est une mesure de l’état des données fondée sur divers facteurs : précision, exhaustivité, homogénéité, fiabilité et actualité.

  • Quant

    Un analyste quantitatif (surnommé « Quant ») est un professionnel de la finance chargé de faire de prévisions en s’appuyant sur des mathématiques avancées et sur l'informatique.

  • R

    R (langage)

    R est un langage de script open source destiné à l'analytique prédictif et à la visualisation des données.

  • Recherche cognitive

    La recherche cognitive (ou « cognitive search » en anglais) est une nouvelle génération de moteurs de recherche, qui s’appuie sur l’intelligence artificielle pour mieux comprendre les requêtes des utilisateurs et mieux cibler les informations pertinentes dans des jeux de données multiples et éparses.

  • Registres distribués (DLT)

    La technologie des registres distribués, ou DLT (Distributed Ledger Technology), est un système numérique qui enregistre des transactions d'actifs et leurs détails dans plusieurs emplacements à la fois. Contrairement aux bases de données traditionnelles, la DLT ne dispose pas d'un dépôt de données de référence.

  • Ripple

    Ripple est une altcoin et un protocole de paiement utilisant la technologie blockchain pour faciliter les transactions financières des banques.

  • RPA ou automatisation robotisée des processus

    L'automatisation robotisée des processus (Robotic Process Automation, RPA) consiste à utiliser des logiciels dotés de fonctionnalités d'intelligence artificielle (IA) et d'apprentissage automatique pour traiter des tâches volumineuses et répétitives qui, par le passé, étaient réalisées par des humains.

  • Règlement général sur la protection des données (RGPD)

    Le Règlement général sur la protection des données (RGPD ou GDPR en anglais) est un texte législatif qui vient moderniser et homogénéiser la législation sur la protection des données des pays de l'Union européenne.

  • Régression logistique

    La régression logistique est une méthode d'analyse statistique qui consiste à prédire une valeur de données d'après les observations réelles d'un jeu de données.

  • Réseau antagoniste génératif (GAN)

    Dans le domaine de l'intelligence artificielle, les réseaux antagonistes génératifs (ou GAN, generative adversarial networks) appartiennent à une catégorie de technique d'apprentissage automatique dans laquelle deux réseaux sont placés en compétition dans un scénario de jeu à somme nulle.

  • Réseau basé sur l'intention (IBN)

    Un réseau basé sur l'intention (IBN, Intent-Based Networking) décrit une forme d'administration du réseau qui combine l'intelligence artificielle (IA), l'orchestration réseau et l'apprentissage automatique pour automatiser des tâches d'administration dans l'ensemble d'un réseau.

  • Réseau de neurones artificiels (RNA)

    Dans le domaine des technologies de l'information, un réseau de neurones est un système logiciel et / ou matériel qui imite le fonctionnement des neurones biologiques.

  • Réseau neuronal convolutif

    On appelle réseau neuronal convolutif, ou réseau de neurones à convolution, (CNN pour Convolutional Neural Network) un type de réseau de neurones artificiels utilisé dans la reconnaissance et le traitement des images, et spécialement conçu pour l'analyse des pixels.

  • Réseaux de neurones récurrents

    Un réseau de neurones récurrent (RNN, recurrent neural network) est un type de réseau de neurones artificiels principalement utilisé dans la reconnaissance vocale et le traitement automatique du langage naturel (TAL, NLP, TNL).

  • Réseaux déconvolutifs (réseaux neuronaux déconvolutifs)

    Les réseaux déconvolutifs (en anglais, deconvolutional networks) sont des réseaux neuronaux convolutifs (CNN, Convolutional Neural Network) qui fonctionnent de façon inversée.

  • S

    Apache Storm

    Storm est un système informatique distribué qui fonctionne en temps réel, de type FOSS (Free Open Source System), développé par l'Apache Software Foundation.

  • Microsoft SQL Server 2016

    SQL Server 2016 est une version du système de gestion de base de données relationnelle (SGBDR) de Microsoft qui est sortie en version d'évaluation en 2015, puis en disponibilité générale le 1er juin 2016. Il s'agit d'une base de données SQL conçue pour prendre en charge diverses applications de traitement des transactions, d'entreposage de données et d'analytique dans des environnements d'entreprise.

  • Salesforce Marketing Cloud

    Salesforce Marketing Cloud est une plateforme CRM en mode SaaS qui permet aux acteurs du marketing de créer et gérer les relations avec les clients et les campagnes marketing.

  • SAP Cloud for Analytics

    SAP Cloud for Analytics est la plate-forme d'informatique décisionnelle (BI) de SAP en mode SaaS. Conçu spécialement pour le Cloud, il rassemble en un seul produit l'ensemble des fonctionnalités analytiques et les met entre les mains de tous les utilisateurs.

  • SAP HANA Enterprise Cloud

    SAP HANA Enterprise Cloud (HEC) est un service d'hébergement en Cloud privé fourni par SAP pour des solutions tournant sur SAP HANA.

  • SAP Predictive Analytics

    SAP Predictive Analytics est un logiciel d'informatique décisionnelle de SAP qui permet aux entreprises d'analyser d'importants jeux de données et d'anticiper les résultats et les comportements à venir.

  • SIG (système d'information géospatiale)

    Les systèmes SIG (systèmes d'information géospatiale ou geographic information system - GIS - en anglais) permettent d'appréhender les aspects géographiques d'un ensemble de données.

  • Silo d'informations

    Un silo d'informations est une division ou un groupe au sein d'une entreprise qui ne communique pas librement ou efficacement avec d'autres groupes. Lorsque la culture d'entreprise n'incite pas les employés à partager leurs connaissances et leurs travaux de manière collaborative, des silos d'informations finissent par se former. L'entreprise manque alors d'agilité face aux fluctuations du marché.

  • Silo de données

    Un silo de données est un référentiel de données fixes maintenu sous le contrôle d'un service déterminé de l'entreprise, et qui se trouve isolé du reste de cette dernière, à la manière d'un silo agricole qui isole le grain des éléments extérieurs. On parle également de « cloisonnement des données ».

  • Smart City

    L'expression « ville intelligente », traduction de l'anglais « Smart City », désigne une ville qui utilise pleinement les systèmes IT pour accroître son efficacité opérationnelle, diffuser des informations à ses citoyens et à ses visiteurs et à améliorer la qualité des services publics.

  • Smart contract

    Un smart contract (« contrat intelligent »), également appelé cryptocontrat, est un programme informatique qui contrôle directement le transfert de devises ou d'actifs numériques entre des parties sous certaines conditions.

  • Spark (Apache)

    Apache Spark est un cadre de traitement parallèle open source permettant d'exécuter des applications d'analyse de données à grande échelle sur des ordinateurs en grappe. Il peut gérer des charges de travail d'analyse et de traitement de données en batch et en temps réel.

  • SQL (Structured Query Language)

    Le langage de requête structurée SQL (Structured Query Language) est un langage de programmation et d'interaction standard utilisé pour extraire des informations d'une base de données et pour les y mettre à jour.

  • SQL-on-Hadoop

    SQL-on-Hadoop est une classe d'outils d'application analytique qui combine une interrogation classique de style SQL à des éléments d'infrastructure de données Hadoop.

  • Stockage Objet

    Le stockage objet, dit également stockage orienté objet, est un terme générique décrivant une approche du traitement et de la manipulation d'entités de stockage indépendantes appelées « objets ». Les objets de stockage conservent des informations concernant à la fois le contexte et le contenu des données.

  • Structure de données

    Une structure de données est un format spécial destiné à organiser, traiter, extraire et stocker des données.

  • Système de gestion de base de données

    Un système de gestion de base de données (SGBD), parfois appelé uniquement gestionnaire de base de données, est une solution qui permet à un ou plusieurs utilisateurs de créer et d’accéder à des données contenues dans une base de données.

  • Système de gestion de base de données distribuées (SGBDD)

    Un système de gestion de base de donnée distribuée est une application centrale qui administre une base de données distribuée comme si toutes les données étaient stockées sur le même ordinateur.

  • T

    Data Lineage (traçabilité des données)

    La traçabilité des données, ou lignage des données (data lineage en anglais), désigne l'historique des données notamment les chemins empruntés tout au long de leur existence dans une entreprise.

  • Tableau, table

    En programmation informatique, un tableau est une structure de données qui sert à organiser des informations, de la même manière que sur une feuille de papier.

  • TensorFlow

    Développé par les chercheurs de Google, TensorFlow est un outil open source d'apprentissage automatique (machine learning), d'apprentissage profond et d'analyses statistiques et prédictives.

  • Test de Turing

    Dans le domaine de l'intelligence artificielle (IA), le test de Turing est une méthode permettant de déterminer si un ordinateur est capable de penser comme un humain.

  • Thunder (Salesforce Thunder)

    Thunder est le moteur de règles et le pipeline de traitement du Big Data de Salesforce.com. Il est conçu pour capturer et filtrer les événements et y répondre en temps réel. La plateforme est optimisée pour les scénarios de transmission de données en continu, par exemple dans des environnements de machine à machine (M2M) et de l'Internet des objets (IoT).

  • Time series database (TSDB)

    Les TSDB (time series database), ou bases de données de séries chronologiques, sont des systèmes logiciels optimisés pour trier et organiser des informations mesurées de manière temporelle.

  • Traitement du langage naturel (TLN ou NLP)

    Le traitement du langage naturel (TLN, ou NLP en anglais) est la capacité pour un programme informatique de comprendre le langage humain tel qu'il est parlé. Il fait partie des technologies d'intelligence artificielle.

  • Traitement massivement parallèle (MPP)

    Le traitement massivement parallèle (MPP, Massively Parallel Processing) désigne l'exécution coordonnée d'un programme par plusieurs processeurs focalisés sur différentes parties du programme, chaque processeur étant doté d'un système d'exploitation et d'une mémoire qui lui sont propres

  • Transformation digitale

    La transformation digitale – ou transformation numérique – est l’incorporation de technologies dans les produits, les processus et les stratégies d’une organisation afin de rester compétitive dans un monde plus en plus numérique.

  • U

    U-SQL

    Langage de requête de Microsoft, U-SQL se caractérise par la combinaison d'une syntaxe déclarative de type SQL et de la capacité de programmation de C#.

  • V

    SAP HANA Vora

    SAP HANA Vora est un moteur de traitement in-memory conçu pour rendre le Big Data issu d'Hadoop plus accessible et exploitable. SAP a développé Vora à partir de SAP HANA afin de répondre à des scénarios spécifiques impliquant le Big Data.

  • Vision par ordinateur (machine vision, computer vision)

    La vision par ordinateur (ou en anglais : machine vision, computer vision), désigne la capacité d'un ordinateur à percevoir des informations visuelles à l'aide de caméras vidéo, de la conversion analogique-numérique (ADC, Analog-to-Digital Conversion) et du traitement des signaux numériques (DSP, Digital Signal Processing).

  • Vision à 360° du client

    Objectif souvent considéré inaccessible, la vue à 360° du client traduit l'idée que l'entreprise peut acquérir une connaissance complète et unifiée de chacun de ses clients en agrégeant les données issues de divers points d'interaction (achat ou service/assistance).

  • W

    Watson (IBM)

    Watson est un supercalculateur développé par IBM, qui combine intelligence artificielle (IA) et solutions analytiques évoluées pour répondre de façon optimale à des questions formulées en langage naturel. Il doit son nom au fondateur d'IBM, Thomas J. Watson.

  • Wave (Analytics Cloud)

    La solution Salesforce Wave Analytics, également nommée Analytics Cloud, est une plateforme BI (Intelligence décisionnelle) de Salesforce.com qui est optimisée pour l'accès mobile et la visualisation des données.

  • Web 3.0

    Le Web 3.0 est la troisième génération des services Internet pour les sites Web et les applications.

  • Y

    YARN (Yet Another Resource Negotiator)

    Apache Hadoop YARN (Yet Another Resource Negotiator) est une technologie de gestion de clusters. Elle rend l'environnement Hadoop mieux adapté aux applications opérationnelles qui ne peuvent pas attendre la fin des traitements par lots.

  • Z

    Apache ZooKeeper

    ZooKeeper est une API open source qui permet la synchronisation de processus distribués sur de grands systèmes, afin que tous les clients émettant des demandes reçoivent des données homogènes.

Close