Définitions IT - BI, Analytique, Dataviz, Décisionnel

  • A

    ad hoc

    Ad hoc est une locution adjectivale utilisée pour décrire une chose créée sur-le-champ et généralement destinée à un usage unique.

  • AIOps (intelligence artificielle dédiée aux opérations informatiques)

    AIOps (intelligence artificielle dédiée aux opérations informatiques) est un terme générique qui fait référence à l'utilisation d'outils comme l'analytique des Big Data, l'apprentissage automatique et d'autres technologies d'intelligence artificielle (IA, AI) pour automatiser l'identification et la résolution de problèmes informatiques courants.

  • Algorithme

    Un algorithme est une procédure ou une formule qui permet de résoudre un problème.

  • Algorithme évolutionniste ou évolutionnaire

    Un algorithme évolutionniste ou évolutionnaire (AE) met en œuvre des mécanismes inspirés de la nature pour résoudre des problèmes comme le feraient des organismes vivants. Il appartient aussi bien à l’informatique bio-inspirée qu'à l'informatique évolutionniste.

  • Ambiguïté lexicale

    L’ambiguïté lexicale est la possibilité d’interpréter de plusieurs manières une phrase parlée ou écrite, ce qui en complique la compréhension, voire la rend impossible en l’absence d’informations complémentaires.

  • Ambiguïté structurelle

    L'ambiguïté structurelle ou syntaxique fait référence aux différentes interprétations possibles d'un énoncé écrit ou verbal à cause de la manière dont les mots ou les phrases sont agencés.

  • Analyse ad hoc

    L'analyse ad hoc est un processus d'informatique décisionnelle (BI) conçu pour répondre à une question métier unique et précise.

  • Analyse statistique

    L'analyse statistique est une composante de l'analyse des données. Dans le contexte de l'informatique décisionnelle (BI, Business Intelligence), l'analyse statistique implique la collecte et l'examen de tous les échantillons de données tirés d'un jeu de données.

  • Analytique

    L'analytique consiste à appliquer à un contenu numérique des méthodes d'informatique décisionnelle, BI (Business Intelligence), ainsi que d'analytique métier, BA (Business Analytics). Les entreprises recourent à un logiciel d'analytique pour bénéficier d'une visibilité sur la quantité, la nature et le mode d'utilisation d'un contenu créé.

  • Analytique avancée

    L’analytique avancée utilise des algorithmes évolués de Machine Learning pour dépasser la simple analyse statique et descriptive des données et faire des prévisions en exploitant les probabilités.

  • Analytique Big Data

    L'analytique du Big Data est le processus qui consiste à examiner des ensembles de données volumineux contenant des types de données hétérogènes pour découvrir des schémas cachés, des corrélations inconnues, les tendances du marché, les préférences des utilisateurs et d'autres informations exploitables.

  • Analytique descriptive

    L'analytique descriptive est une étape préliminaire du traitement des données qui consiste à synthétiser des données historiques pour en tirer des informations utiles voire les préparer en vue d'une analyse complémentaire.

  • Analytique prescriptive

    L'analytique prescriptive est un type d'analytique focalisé sur la recherche de la meilleure approche pratique d'une situation. Elle fait partie d'un ensemble qui compte également l'analytique descriptive et l'analytique prédictive.

  • Analytique prédictive

    L'analytique prédictive est la branche de l’analytique qui s'intéresse à la prédiction de probabilités et de tendances futures.

  • Apdex (Application Performance Index)

    L'Application Performance Index, également appelé Apdex, est une norme ouverte visant à simplifier le suivi des performances des applications.

  • Apprentissage non supervisé

    L'apprentissage non supervisé consiste à apprendre à un algorithme d'intelligence artificielle (IA) des informations qui ne sont ni classées, ni étiquetées, et à permettre à cet algorithme de réagir à ces informations sans supervision.

  • Apprentissage par renforcement

    L'apprentissage par renforcement (reinforcement learning, en anglais) est une méthode qui consiste à récompenser les comportements souhaités et/ou à sanctionner les comportements non désirés.

  • Apprentissage par transfert

    L'apprentissage par transfert (transfer learning, en anglais) consiste à appliquer des connaissances obtenues en effectuant une tâche afin de résoudre un problème différent, mais qui présente des similitudes.

  • Apprentissage supervisé

    L'apprentissage supervisé, dans le contexte de l'intelligence artificielle (IA) et de l'apprentissage automatique, est un système qui fournit à la fois les données en entrée et les données attendues en sortie.

  • arbre décisionnel

    Un arbre décisionnel ou arbre de décision est un graphique en forme d’arbre dont les ramifications illustrent les conséquences possibles d’une décision.

  • B

    Base de données en colonnes

    Une base de données orientée colonnes (ou en colonnes) est un système de gestion de bases de données (SGBD) qui enregistre les données dans des colonnes, plutôt que dans des lignes.

  • BI (informatique décisionnelle)

    L'informatique décisionnelle (BI) est un processus d'analyse des données qui vise à doper les performances métier en aidant à prendre des décisions plus avisées.

  • BI en libre-service

    L'informatique décisionnelle en libre-service (ou également BI en Self-Service) est une approche de l'analytique qui permet aux professionnels d'accéder aux données de l'entreprise et de les exploiter même sans aucune expérience de l'analyse statistique, de l'informatique décisionnelle ou du data mining.

  • Biomimétisme ou l'art du vivant

    Le biomimétisme consiste à créer des processus, des substances, des appareils ou des systèmes qui imitent la nature.

  • C

    CDO (Chief Data Officer)

    Un responsable des données, ou CDO (pour Chief Data Officer), est un cadre exécutif de l'entreprise, chargé de la gestion et de l'exploration des données.

  • Citizen Data Scientist

    Le « Citizen Data Scientist » est un anglicisme qui désigne une personne qui utilise ou qui fait de la « data science » sans avoir les compétences en analytique, en Machine Learning et en algorithmes des véritables experts (les Data Scientists). Il s’agit le plus souvent d’opérationnels et de métiers qui font de l’analytique avancée et du prédictif grâce à des solutions automatisées.

  • Commerce conversationnel (commerce axé sur la voix)

    Le commerce conversationnel (« conversational commerce », en anglais, ou commerce axé sur la voix) est le processus qui consiste à interagir avec une marque ou acheter un produit ou un service via des canaux non traditionnels, tels que des assistants vocaux, des SMS et le chat en ligne et sur les réseaux sociaux.

  • Compréhension du langage naturel (CLN ou NLU)

    La compréhension du langage naturel (CLN, ou NLU en anglais) est une branche de l'intelligence artificielle (IA) qui utilise un programme informatique pour comprendre une entrée sous la forme de phrases au format texte ou discours.

  • Corporate Performance Management (CPM)

    Le « Corporate Performance Management » (gestion de la performance de l'entreprise) englobe les processus, méthodologies et évaluations qu'utilise une entreprise pour décliner ses objectifs stratégiques au niveau opérationnel, et piloter ainsi sa réussite au niveau des métiers.

  • corrélation

    La corrélation est une mesure statistique de la manière dont deux variables ou plus évoluent ensemble. Une corrélation positive indiquera des variables qui croissent ou décroissent en même temps ; une corrélation négative, à l'inverse, correspond à une valeur qui croit à mesure que la première décroit.

  • D

    Data Catalog

    Un catalogue de données (Data Catalog) est un outil de gestion des métadonnées. Son rôle est d'aider les organisations à organiser, retrouver et gérer toutes leurs sources de données, aussi bien internes qu'externes.

  • Data Exploration

    Première étape de l'analyse des données, l'exploration des données (Data Exploration) consiste à synthétiser les principales caractéristiques d'un ensemble de données. Si on utilise couramment des outils analytiques graphiques, le recours à des logiciels statistiques plus évolués comme R est également possible.

  • Data lake (lac de données)

    Un lac de données (Data Lake) est un référentiel de stockage orienté objet qui consigne des données dans leur format natif tant qu'elles ne sont pas nécessaires.

  • Data Management Platform (DMP)

    Une DMP (pour Data Management Platform, ou en français « plateforme de gestion de données ») est un système centralisé de collecte de données, issues de sources variées, qui sert de référence pour des analyses le plus souvent dans le domaine du marketing.

  • Data Mining

    Le Data Mining, consiste à rechercher des relations qui n'ont pas encore été identifiées. Par exemple, s'ils sont suffisamment analysés et associés à d'autres données commerciales, les ventes d'une marque de raquettes de tennis peuvent révéler une tendance saisonnière.

  • Data science

    La data science (littéralement « science des données ») est une discipline qui étudie les informations : leur source, ce qu'elles représentent et les méthodes permettant de les transformer en ressources utiles pour la création de stratégies métier et IT.

  • data science as a service (DSaaS)

    Dans la délégation d'expertise en science des données (DSaaS, Data Science as a Service), les data scientists d'un prestataire externe récoltent, à l'aide d'applications d'analytique avancé, des informations exploitables par l'entreprise cliente. Le prestataire DSaaS collecte les données de ses clients, les prépare à des fins d'analyse, exécute des algorithmes d'analyse sur les données affinées, puis envoie aux clients les résultats de ces traitements.

  • Data Scientist

    Le terme Data Scientist est un titre professionnel qui désigne un employé ou un consultant en informatique décisionnelle (BI, Business Intelligence) qui excelle dans l’analyse des données, particulièrement des grandes quantités de données, et ce afin d’aider une entreprise à en tirer un avantage concurrentiel.

  • Data Storytelling

    La mise en récit (storytelling) des données (datas) est le processus qui consiste à traduire les analyses de données en langage courant dans le but d'orienter une décision ou une action.

  • Data Visualization (ou DataViz)

    La visualisation de données décrit toute technologie qui représente visuellement des données pour faire ressortir des schémas, des tendances ou des corrélations qui risqueraient de passer inaperçus au sein de données purement textuelles.

  • Datamart

    Un Datamart est un référentiel qui contient des données collectées auprès de différentes sources, notamment opérationnelles.

  • Deep learning (apprentissage par réseau neuronal profond)

    L'apprentissage profond, ou « deep learning », est un aspect de l'intelligence artificielle (IA) qui imite la méthode d'apprentissage qu'utilisent les êtres humains pour acquérir certains types de connaissances. Sous sa forme la plus simple, le deep learning peut être considéré comme un moyen d'automatiser l'analytique prédictive.

  • DeepMind

    DeepMind est une division d'Alphabet, Inc. chargée de développer la technologie de l'intelligence générale artificielle (AGI, Artificial General Intelligence), également appelée intelligence artificielle « forte ». Le nom complet de cette technologie est Google DeepMind.

  • Données semi-structurées

    Les données semi-structurées sont des données qui n'ont pas été organisées en référentiel spécialisé, comme c’est le cas dans une base de données, mais qui comportent néanmoins des informations associées, des métadonnées par exemple, qui les rendent plus faciles à traiter que des données brutes.

  • Gestion des données en tant que service (DMaaS)

    La gestion des données en tant que service (Data Management-as-a-Service, DMaaS) est un type de service dans le cloud qui fournit aux entreprises un stockage centralisé pour des sources de données disparates.

  • E

    Edge Analytics

    L'analytique "en périphérie" permet d'exécuter automatiquement des analyses statistiques là où les données sont créées (capteur, commutateur, ou autre) plutôt que d'attendre le transfert des données vers un Data Store centralisé.

  • Enterprise Performance Management (EPM)

    L'EPM se focalise sur le suivi et la gestion de la performance d'une organisation, en s'appuyant sur des indicateurs clés de performance (KPI) comme les revenus, les retours sur investissement (ROI), les frais généraux et les coûts opérationnels.

  • ETL (et ELT)

    L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible. L’ELT est une variante d’ETL.

  • Extraction d'information (EI)

    L'extraction d'information (EI) est la recherche automatisée d'informations sur un sujet précis dans le corps d'un texte ou un corpus documentaire.

  • G

    Gestion des données ? Pourquoi est-elle fondamentale ?

    La gestion des données (ou data management) consiste à collecter, ingérer, stocker, organiser et garder à jour les données d’une entreprise.

  • gestion des décisions fondée sur les données (DDDM)

    La gestion des décisions fondée sur les données (DDDM, Data-Driven Decision Management) constitue une approche de la gouvernance métier qui valorise les décisions soutenues par des données vérifiables. Le succès des approches fondées sur des données repose sur la qualité des informations collectées et sur l'efficacité de leur analyse et de leur interprétation.

  • Google Cloud Platform

    Google Cloud Platform (GCP) est la plateforme cloud de Google pour les développeurs et les gestionnaires d’infrastructure qui regroupe son PaaS et son IaaS ainsi qu’un ensemble d’API et de services connexes comme les bases de données hébergés, des outils Big Data, de Machine Learning ou d’optimisation du réseau.

  • GRC

    Les solutions de gestion de la gouvernance, des risques et de la conformité (GRC) permettent aux sociétés cotées en bourse d'intégrer et de gérer les opérations informatiques soumises à réglementation. Les logiciels de ce type réunissent dans une seule solution intégrée des applications capables d'assurer les principales fonctions de GRC.

  • Génération automatique de textes en langage naturel (GAT ou NLG)

    La génération automatique de textes (GAT ou NLG, pour Natural Language Generation) est un domaine de l'intelligence artificielle (IA) qui vise à produire du contenu ou un discours comparable à celui des humains à partir d’un ensemble de données.

  • H

    Hadoop

    Hadoop est un framework open source qui repose sur Java. Hadoop prend en charge le traitement des données volumineuses (Big Data) au sein d'environnements informatiques distribués. Hadoop fait partie intégrante du projet Apache parrainé par l'Apache Software Foundation.

  • Hadoop 2

    Apache Hadoop 2 (Hadoop 2.0) est la deuxième version de du framework Hadoop écrit en Java destinée au traitement des données distribuées. Cette version 2 ajoute la prise en charge des tâches qui ne s'exécutent pas par lots, ainsi que de nouvelles fonctions visant à améliorer la disponibilité du système.

  • I

    IA explicable (XAI)

    L'IA explicable ou XAI (eXplainable Artificial Intelligence) est une forme d'intelligence artificielle prévue pour décrire son objet, sa logique et sa prise de décision de manière intelligible à une personne lambda.

  • Ignorance artificielle

    Dans la détection d’anomalies comportementales sur le réseau (network behavior anomaly detection, NBAD), l'ignorance artificielle est la pratique stratégique qui consiste à ignorer les données bruitées dans les fichiers journaux.

  • In-Memory database (Base de données en mémoire)

    Une base de données « en mémoire » (in-memory), ou IMDB (In Memory DataBase), ou encore MMDB (Main Memory DB), est une base de données dont les informations sont stockées en mémoire pour accélérer les temps de réponse

  • Informatique cognitive

    L'informatique cognitive, ou cognitique, ou encore Cognitive Computing, consiste en la simulation de processus de pensée humaine dans un modèle informatisé.

  • Intelligence artificielle (IA)

    Le terme intelligence artificielle ou IA (Artificial Intelligence en anglais) désigne une famille de technologies et de méthodes mathématiques (des algorithmes) qui vise à permettre à des machines de simuler ou de s’inspirer des processus cognitifs des êtres humains pour réaliser des tâches.

  • Intelligence artificielle des objets (AIoT)

    L'intelligence artificielle des objets ou IAoT (AIoT, Artificial Intelligence of Things) combine les technologies de l'intelligence artificielle (IA) et l'infrastructure de l'Internet des objets (IoT, Internet of Things).

  • Intelligence augmentée

    L'intelligence augmentée (« augmented intelligence ») est une autre conceptualisation de l'intelligence artificielle qui repose sur le rôle d'assistance de l'IA, défendant le fait que la technologie cognitive est là pour amplifier l'intelligence humaine et non la remplacer.

  • K

    Indicateur clé de performance (KPI)

    Un indicateur clé de performance, ou KPI (Key Performance Indicator), est un élément de mesure métier utilisé pour évaluer différents facteurs essentiels à la réussite d'une entreprise ou d'un projet.

  • L

    loi normale

    La loi normale, ou distribution normale, définit une représentation de données selon laquelle la plupart des valeurs sont regroupées autour de la moyenne et les autres s'en écartent symétriquement des deux côtés.

  • M

    Loi de Murphy

    A l'origine, la loi de Murphy s'énonçait comme suit : « S'il y a plus d'une façon de faire quelque chose, et que l'une d'elles conduit à un désastre, alors il y aura quelqu'un pour le faire de cette façon. »

  • Machine Learning

    L’apprentissage statistique (en anglais, Machine Learning) – ou dit encore apprentissage automatique – est un type d’intelligence artificielle qui confère aux ordinateurs la capacité d’apprendre sans être explicitement programmés.

  • Marketing multicanal

    Le marketing multicanal consiste à interagir avec les clients via différents canaux, à la fois directs et indirects, afin de leur vendre des produits et des services.

  • Matrice de confusion

    La matrice de confusion, appelée également matrice d'erreur, est un tableau qui présente différentes prévisions et résultats de tests, en les comparant avec des valeurs réelles.

  • Métadonnées

    Les métadonnées sont des données qui en décrivent d'autres. Dans la plupart de ses usages informatiques, le préfixe méta signifie « définition ou description de référence ».

  • O

    Cube OLAP

    Un cube OLAP est une base de données à plusieurs dimensions, optimisée pour les entrepôts de données et les traitements analytiques

  • OLAP

    Les systèmes OLAP sont des processus analytiques qui permettent d’extraire et de visualiser de manière sélective des jeux de données et de leur appliquer assez facilement différents points de vue.

  • Oracle Autonomous Database

    Oracle Autonomous Database est une technologie cloud destinée à automatiser une grande partie de la gestion de routine des bases de données Oracle.

  • P

    Apache Pig

    Apache Pig est une technologie open source qui fournit un mécanisme de haut niveau pour la programmation parallèle de tâches MapReduce à exécuter sur des clusters Hadoop.

  • Gestion des données produit (PDM)

    La gestion des données techniques d’un produit (ou PDM pour Product Data Management) consiste à extraire et à gérer les informations électroniques relatives à un produit afin que ce dernier puisse être réutilisé dans des processus métier, tels que la conception, la production, la distribution et le marketing. En règle générale, elle implique l'utilisation d'un logiciel dédié et d'une base de données centralisée.

  • Plateforme de découverte de données

    Une plateforme de découverte de données (data discovery platform, en anglais) est un ensemble complet d'outils qui sert à détecter des modèles, et des valeurs aberrantes en dehors des modèles, au niveau des données.

  • Préparation des données

    La préparation des données (ou data preparation, en anglais) consiste à rassembler, combiner, structurer et organiser les données afin de pouvoir les analyser dans le cadre de programmes d'informatique décisionnelle (BI, Business Intelligence) et d'analytique métier (BA, Business Analytics).

  • Q

    Qualité des données

    La qualité des données est une mesure de l’état des données fondée sur divers facteurs : précision, exhaustivité, homogénéité, fiabilité et actualité.

  • Quant

    Un analyste quantitatif (surnommé « Quant ») est un professionnel de la finance chargé de faire de prévisions en s’appuyant sur des mathématiques avancées et sur l'informatique.

  • R

    R (langage)

    R est un langage de script open source destiné à l'analytique prédictif et à la visualisation des données.

  • Régression logistique

    La régression logistique est une méthode d'analyse statistique qui consiste à prédire une valeur de données d'après les observations réelles d'un jeu de données.

  • Réseau antagoniste génératif (GAN)

    Dans le domaine de l'intelligence artificielle, les réseaux antagonistes génératifs (ou GAN, generative adversarial networks) appartiennent à une catégorie de technique d'apprentissage automatique dans laquelle deux réseaux sont placés en compétition dans un scénario de jeu à somme nulle.

  • Réseau basé sur l'intention (IBN)

    Un réseau basé sur l'intention (IBN, Intent-Based Networking) décrit une forme d'administration du réseau qui combine l'intelligence artificielle (IA), l'orchestration réseau et l'apprentissage automatique pour automatiser des tâches d'administration dans l'ensemble d'un réseau.

  • Réseau de neurones artificiels (RNA)

    Dans le domaine des technologies de l'information, un réseau de neurones est un système logiciel et / ou matériel qui imite le fonctionnement des neurones biologiques.

  • Réseau neuronal convolutif

    On appelle réseau neuronal convolutif, ou réseau de neurones à convolution, (CNN pour Convolutional Neural Network) un type de réseau de neurones artificiels utilisé dans la reconnaissance et le traitement des images, et spécialement conçu pour l'analyse des pixels.

  • Réseaux de neurones récurrents

    Un réseau de neurones récurrent (RNN, recurrent neural network) est un type de réseau de neurones artificiels principalement utilisé dans la reconnaissance vocale et le traitement automatique du langage naturel (TAL, NLP, TNL).

  • Réseaux déconvolutifs (réseaux neuronaux déconvolutifs)

    Les réseaux déconvolutifs (en anglais, deconvolutional networks) sont des réseaux neuronaux convolutifs (CNN, Convolutional Neural Network) qui fonctionnent de façon inversée.

  • S

    Salesforce Marketing Cloud

    Salesforce Marketing Cloud est une plateforme CRM en mode SaaS qui permet aux acteurs du marketing de créer et gérer les relations avec les clients et les campagnes marketing.

  • SAP Cloud for Analytics

    SAP Cloud for Analytics est la plate-forme d'informatique décisionnelle (BI) de SAP en mode SaaS. Conçu spécialement pour le Cloud, il rassemble en un seul produit l'ensemble des fonctionnalités analytiques et les met entre les mains de tous les utilisateurs.

  • SAP HANA Enterprise Cloud

    SAP HANA Enterprise Cloud (HEC) est un service d'hébergement en Cloud privé fourni par SAP pour des solutions tournant sur SAP HANA.

  • SAP Predictive Analytics

    SAP Predictive Analytics est un logiciel d'informatique décisionnelle de SAP qui permet aux entreprises d'analyser d'importants jeux de données et d'anticiper les résultats et les comportements à venir.

  • Smart City

    L'expression « ville intelligente », traduction de l'anglais « Smart City », désigne une ville qui utilise pleinement les systèmes IT pour accroître son efficacité opérationnelle, diffuser des informations à ses citoyens et à ses visiteurs et à améliorer la qualité des services publics.

  • Spark (Apache)

    Apache Spark est un cadre de traitement parallèle open source permettant d'exécuter des applications d'analyse de données à grande échelle sur des ordinateurs en grappe. Il peut gérer des charges de travail d'analyse et de traitement de données en batch et en temps réel.

  • SQL-on-Hadoop

    SQL-on-Hadoop est une classe d'outils d'application analytique qui combine une interrogation classique de style SQL à des éléments d'infrastructure de données Hadoop.

  • T

    TensorFlow

    Développé par les chercheurs de Google, TensorFlow est un outil open source d'apprentissage automatique (machine learning), d'apprentissage profond et d'analyses statistiques et prédictives.

  • Test de Turing

    Dans le domaine de l'intelligence artificielle (IA), le test de Turing est une méthode permettant de déterminer si un ordinateur est capable de penser comme un humain.

  • Thunder (Salesforce Thunder)

    Thunder est le moteur de règles et le pipeline de traitement du Big Data de Salesforce.com. Il est conçu pour capturer et filtrer les événements et y répondre en temps réel. La plateforme est optimisée pour les scénarios de transmission de données en continu, par exemple dans des environnements de machine à machine (M2M) et de l'Internet des objets (IoT).

  • Traitement du langage naturel (TLN ou NLP)

    Le traitement du langage naturel (TLN, ou NLP en anglais) est la capacité pour un programme informatique de comprendre le langage humain tel qu'il est parlé. Il fait partie des technologies d'intelligence artificielle.

  • Traitement massivement parallèle (MPP)

    Le traitement massivement parallèle (MPP, Massively Parallel Processing) désigne l'exécution coordonnée d'un programme par plusieurs processeurs focalisés sur différentes parties du programme, chaque processeur étant doté d'un système d'exploitation et d'une mémoire qui lui sont propres

  • U

    U-SQL

    Langage de requête de Microsoft, U-SQL se caractérise par la combinaison d'une syntaxe déclarative de type SQL et de la capacité de programmation de C#.

Close