Définitions IT

Filtrer par lettre
Rechercher une définition
  • G

    Google Container Engine

    Google Container Engine (GKE) est un système de gestion et d'orchestration pour les conteneurs Docker exécutés dans les services de Cloud public de Google. Google Container Engine est fondé sur Kubernetes, le système de gestion de conteneurs open source de Google.

  • Gouvernance de l’information

    La gouvernance de l’information correspond à une approche globale qui permet de gérer le patrimoine informationnel d’une entreprise en mettant en place des processus, des rôles, des outils de contrôle et des indicateurs afin de traiter l’information comme un actif clé de l’entreprise.

  • Grand livre (GL, General Ledger)

    Un grand livre (GL, General Ledger) consiste en une série de comptes numérotés qu'une entreprise utilise pour le suivi de ses transactions et la préparation de ses états financiers.

  • GRC

    Les solutions de gestion de la gouvernance, des risques et de la conformité (GRC) permettent aux sociétés cotées en bourse d'intégrer et de gérer les opérations informatiques soumises à réglementation. Les logiciels de ce type réunissent dans une seule solution intégrée des applications capables d'assurer les principales fonctions de GRC.

  • Génération automatique de textes en langage naturel (GAT ou NLG)

    La génération automatique de textes (GAT ou NLG, pour Natural Language Generation) est un domaine de l'intelligence artificielle (IA) qui vise à produire du contenu ou un discours comparable à celui des humains à partir d’un ensemble de données.

  • Microsoft Exchange Global Address List (GAL)

    La liste d’adresses globale de Microsoft Exchange est une liste de tous les utilisateurs et de leurs adresses e-mail respectives au sein du serveur Exchange d’une organisation utilisant Outlook pour son courrier électronique.

  • H

    Cluster Hadoop

    Un cluster Hadoop est un type particulier de traitement informatique en grappe, conçu spécialement pour stocker et analyser de grandes quantités de données non structurées dans un environnement distribué.

  • Hachage

    Le hachage est la transformation d'une chaîne de caractères en valeur ou en clé de longueur fixe, généralement plus courte, représentant la chaîne d'origine. Le hachage est notamment employé pour indexer et récupérer les éléments d'une base de données.

  • Hadoop

    Hadoop est un framework open source qui repose sur Java. Hadoop prend en charge le traitement des données volumineuses (Big Data) au sein d'environnements informatiques distribués. Hadoop fait partie intégrante du projet Apache parrainé par l'Apache Software Foundation.

  • Hadoop 2

    Apache Hadoop 2 (Hadoop 2.0) est la deuxième version de du framework Hadoop écrit en Java destinée au traitement des données distribuées. Cette version 2 ajoute la prise en charge des tâches qui ne s'exécutent pas par lots, ainsi que de nouvelles fonctions visant à améliorer la disponibilité du système.

  • Hadoop Distributed File System (HDFS)

    HDFS est un système de fichiers distribué qui donne un accès haute-performance aux données réparties dans des clusters Hadoop. Comme d’autres technologies liées à Hadoop, HDFS est devenu un outil clé pour gérer des pools de Big Data et supporter les applications analytiques.

  • HANA

    SAP HANA est une plateforme In-Memory destinée au traitement en temps réel de grands volumes de données.

  • Hangouts (Google)

    Google Hangouts est un service de communications unifiées (chat par texte, voix, et vidéo - gestion de présence), aussi bien en face à face qu'en échange à plusieurs au sein d'un groupe.

  • Hardware

    Dans le domaine de l’IT, le matériel (hardware) désigne la partie physique des appareils, des dispositifs de télécommunication, de stockage, et des périphériques en général. Ce terme permet de distinguer le « boîtier », les circuits électroniques et les composants d'un ordinateur du programme installé pour lui permettre d'exécuter des tâches. Le programme, lui, est appelé logiciel (ou software).

  • HBase

    Apache HBase est un Data Store orienté colonnes utilisant des paires clé/valeur. Il est conçu pour s'exécuter sur le système de fichiers HDFS (Hadoop Distributed File System). Hadoop est une infrastructure qui permet de gérer des ensembles de données volumineux dans un environnement informatique distribué.

- ANNONCES GOOGLE

Close