Définitions IT

Filtrer par lettre
Rechercher une définition
  • D

    DaaS (Data as a Service, données à la demande)

    Les données à la demande (DaaS, Data as a Service) désignent un modèle de fourniture et de distribution des informations dans lequel les fichiers de données (texte, images, sons et vidéos) sont mis à la disposition des clients via un réseau, généralement Internet.

  • DaaS (Desktop as a Service)

    DaaS (Desktop as a Service) est un service Cloud dans lequel l'administration d'une infrastructure de bureau virtuel (VDI, Virtual Desktop Infrastructure) est hébergée par un fournisseur de services Cloud.

  • Data Catalog

    Un catalogue de données (Data Catalog) est un outil de gestion des métadonnées. Son rôle est d'aider les organisations à organiser, retrouver et gérer toutes leurs sources de données, aussi bien internes qu'externes.

  • Data Exploration

    Première étape de l'analyse des données, l'exploration des données (Data Exploration) consiste à synthétiser les principales caractéristiques d'un ensemble de données. Si on utilise couramment des outils analytiques graphiques, le recours à des logiciels statistiques plus évolués comme R est également possible.

  • Data lake (lac de données)

    Un lac de données (Data Lake) est un référentiel de stockage orienté objet qui consigne des données dans leur format natif tant qu'elles ne sont pas nécessaires.

  • Data Mining

    Le Data Mining, consiste à rechercher des relations qui n'ont pas encore été identifiées. Par exemple, s'ils sont suffisamment analysés et associés à d'autres données commerciales, les ventes d'une marque de raquettes de tennis peuvent révéler une tendance saisonnière.

  • Data science

    La data science (littéralement « science des données ») est une discipline qui étudie les informations : leur source, ce qu'elles représentent et les méthodes permettant de les transformer en ressources utiles pour la création de stratégies métier et IT.

  • Data Scientist

    Le terme Data Scientist est un titre professionnel qui désigne un employé ou un consultant en informatique décisionnelle (BI, Business Intelligence) qui excelle dans l’analyse des données, particulièrement des grandes quantités de données, et ce afin d’aider une entreprise à en tirer un avantage concurrentiel.

  • Data Storytelling

    La mise en récit (storytelling) des données (datas) est le processus qui consiste à traduire les analyses de données en langage courant dans le but d'orienter une décision ou une action.

  • Data Visualization (ou DataViz)

    La visualisation de données décrit toute technologie qui représente visuellement des données pour faire ressortir des schémas, des tendances ou des corrélations qui risqueraient de passer inaperçus au sein de données purement textuelles.

  • Data warehouse (entrepôt de données)

    Un entrepôt de données est un référentiel central qui accueille tout ou (grande) partie des données que les différents systèmes métier d'une entreprise collectent.

  • Datacenter

    Un datacenter (ou centre de données) – parfois écrit data center - est un référentiel centralisé, physique ou virtuel, destiné au stockage, à la gestion et à la diffusion de données et d'informations axées sur un domaine de connaissance particulier ou concernant une activité particulière.

  • Datacenter bridging (DCB)

    Le datacenter bridging (DCB, ou « pontage » de datacenter) est un ensemble de normes développées par un sous-groupe du groupe de travail Institute of Electrical and Electronics Engineers (IEEE) 802.1, pour créer une infrastructure réseau de datacenter convergé qui utilise Ethernet comme « matrice » (fabric) unifiée.

  • Datamart

    Un Datamart est un référentiel qui contient des données collectées auprès de différentes sources, notamment opérationnelles.

  • Deep Packet Inspection

    L'inspection de paquets en profondeur (ou DPI) est une méthode qui consiste à filtrer les paquets au niveau de la couche application du modèle OSI. La méthode DPI permet de détecter, d'identifier, de classer et de réacheminer ou de bloquer les paquets contenant des charges utiles (payload) que les mécanismes conventionnels de filtrage ne sont pas en mesure de détecter puisqu'ils examinent uniquement les en-têtes.

- ANNONCES GOOGLE

Close