Définitions IT - null

  • D

    DaaS (Desktop as a Service)

    DaaS (Desktop as a Service) est un service Cloud dans lequel l'administration d'une infrastructure de bureau virtuel (VDI, Virtual Desktop Infrastructure) est hébergée par un fournisseur de services Cloud.

  • DAM (Digital Asset Management)

    Un DAM (Digital Asset Management) est une solution technique destinée à stocker, classer et rendre accessibles facilement des actifs numériques multimédias (les Digital Assets), à l’origine dans un cadre marketing. Il concerne également les communicants (publicité) et les réseaux de distribution (PLV, catalogues, etc.).

  • Data Catalog

    Un catalogue de données (Data Catalog) est un outil de gestion des métadonnées. Son rôle est d'aider les organisations à organiser, retrouver et gérer toutes leurs sources de données, aussi bien internes qu'externes.

  • Data Exploration

    Première étape de l'analyse des données, l'exploration des données (Data Exploration) consiste à synthétiser les principales caractéristiques d'un ensemble de données. Si on utilise couramment des outils analytiques graphiques, le recours à des logiciels statistiques plus évolués comme R est également possible.

  • Data lake (lac de données)

    Un lac de données (Data Lake) est un référentiel de stockage orienté objet qui consigne des données dans leur format natif tant qu'elles ne sont pas nécessaires.

  • Data Management Platform (DMP)

    Une DMP (pour Data Management Platform, ou en français « plateforme de gestion de données ») est un système centralisé de collecte de données, issues de sources variées, qui sert de référence pour des analyses le plus souvent dans le domaine du marketing.

  • Data Mining

    Le Data Mining, consiste à rechercher des relations qui n'ont pas encore été identifiées. Par exemple, s'ils sont suffisamment analysés et associés à d'autres données commerciales, les ventes d'une marque de raquettes de tennis peuvent révéler une tendance saisonnière.

  • Data science

    La data science (littéralement « science des données ») est une discipline qui étudie les informations : leur source, ce qu'elles représentent et les méthodes permettant de les transformer en ressources utiles pour la création de stratégies métier et IT.

  • data science as a service (DSaaS)

    Dans la délégation d'expertise en science des données (DSaaS, Data Science as a Service), les data scientists d'un prestataire externe récoltent, à l'aide d'applications d'analytique avancé, des informations exploitables par l'entreprise cliente. Le prestataire DSaaS collecte les données de ses clients, les prépare à des fins d'analyse, exécute des algorithmes d'analyse sur les données affinées, puis envoie aux clients les résultats de ces traitements.

  • Data Scientist

    Le terme Data Scientist est un titre professionnel qui désigne un employé ou un consultant en informatique décisionnelle (BI, Business Intelligence) qui excelle dans l’analyse des données, particulièrement des grandes quantités de données, et ce afin d’aider une entreprise à en tirer un avantage concurrentiel.

  • Data stewardship

    Le « data stewardship » (que l’on pourrait traduire par l’intendance des données) consiste à gérer et à superviser les données d’une organisation, de façon à fournir aux utilisateurs professionnels des données de haute qualité facilement et uniformément accessibles.

  • Data Store

    Un Data Store (littéralement « dépôt de données ») est un référentiel servant au stockage permanent d'ensembles de données.

  • Data Storytelling

    La mise en récit (storytelling) des données (datas) est le processus qui consiste à traduire les analyses de données en langage courant dans le but d'orienter une décision ou une action.

  • Data Visualization (ou DataViz)

    La visualisation de données décrit toute technologie qui représente visuellement des données pour faire ressortir des schémas, des tendances ou des corrélations qui risqueraient de passer inaperçus au sein de données purement textuelles.

  • Data warehouse (entrepôt de données)

    Un entrepôt de données est un référentiel central qui accueille tout ou (grande) partie des données que les différents systèmes métier d'une entreprise collectent.

  • Datacenter

    Un datacenter (ou centre de données) – parfois écrit data center - est un référentiel centralisé, physique ou virtuel, destiné au stockage, à la gestion et à la diffusion de données et d'informations axées sur un domaine de connaissance particulier ou concernant une activité particulière.

  • Datacenter bridging (DCB)

    Le datacenter bridging (DCB, ou « pontage » de datacenter) est un ensemble de normes développées par un sous-groupe du groupe de travail Institute of Electrical and Electronics Engineers (IEEE) 802.1, pour créer une infrastructure réseau de datacenter convergé qui utilise Ethernet comme « matrice » (fabric) unifiée.

  • Datacenter convergé

    Egalement appelé datacenter homogène, un datacenter convergé est un datacenter au sein duquel les composants matériels et logiciels ont été achetés chez le même fournisseur.

  • Datamart

    Un Datamart est un référentiel qui contient des données collectées auprès de différentes sources, notamment opérationnelles.

  • Deep learning (apprentissage par réseau neuronal profond)

    L'apprentissage profond, ou « deep learning », est un aspect de l'intelligence artificielle (IA) qui imite la méthode d'apprentissage qu'utilisent les êtres humains pour acquérir certains types de connaissances. Sous sa forme la plus simple, le deep learning peut être considéré comme un moyen d'automatiser l'analytique prédictive.

  • Deep Packet Inspection

    L'inspection de paquets en profondeur (ou DPI) est une méthode qui consiste à filtrer les paquets au niveau de la couche application du modèle OSI. La méthode DPI permet de détecter, d'identifier, de classer et de réacheminer ou de bloquer les paquets contenant des charges utiles (payload) que les mécanismes conventionnels de filtrage ne sont pas en mesure de détecter puisqu'ils examinent uniquement les en-têtes.

  • DeepMind

    DeepMind est une division d'Alphabet, Inc. chargée de développer la technologie de l'intelligence générale artificielle (AGI, Artificial General Intelligence), également appelée intelligence artificielle « forte ». Le nom complet de cette technologie est Google DeepMind.

  • design thinking

    Le design thinking, ou pensée design, est une approche itérative de la résolution de problèmes. Elle réunit délibérément des personnes présentant des connaissances, des compétences, une expérience et des points de vue différents et les fait collaborer dans le but de créer une solution pratique à un problème concret.

  • DevOps

    Le terme DevOps correspond à la fusion des tâches qu'effectuent les équipes chargées du développement des applications (Dev) et de l'exploitation des systèmes (Ops, pour opérations) pour fluidifier et rationaliser la création et la mise à disposition d'applications d'entreprise.

  • DHCP

    DHCP (Dynamic Host Configuration Protocol) est un protocole de communication. Les administrateurs réseau l'utilisent pour gérer et automatiser de manière centralisée la configuration réseau des appareils rattachés à un réseau IP (Internet Protocol).

  • Direct Memory Access (DMA)

    L'accès direct à la mémoire (DMA, Direct Memory Access) est une fonctionnalité de certaines architectures de bus informatiques qui permet l'envoi direct de données d'un périphérique connecté (par exemple un lecteur de disque) vers la mémoire de la carte mère de l'ordinateur. Le microprocesseur n'intervenant pas dans le transfert des données, le fonctionnement global de l'ordinateur est accéléré.

  • Direct-Attached Storage (DAS)

    Le terme DAS ou direct-attached storage (stockage en attachement direct) décrit un stockage attaché directement à un ordinateur et qui n’est pas accessible à d’autres ordinateurs.

  • Directeur de la sécurité des systèmes informatiques (DSSI)

    Le directeur de la sécurité des systèmes informatiques (DSSI) – appelé aussi RSSI (R pour Responsable) – est un cadre supérieur chargé de mettre les mesures de sécurité en conformité avec les programmes et les objectifs métier de l'entreprise, en veillant à protéger de manière adéquate les ressources et technologies de l'information.

  • Directive de l'UE sur la protection des données (directive 95/46/CE)

    La directive européenne sur la protection des données personnelles (également connu sous le nom de directive 95/46/CE) est une réglementation adoptée par l'Union européenne (UE) pour protéger le droit à la vie privée et toutes les données à caractère personnel collectées pour ou sur ses ressortissants, notamment en matière de traitement, d'utilisation ou d'échange de ces données.

  • Disaster Recovery ou PRA

    Relevant de la planification de la sécurité, la reprise après désastre (ou Disaster Recovery) vise à protéger une entreprise des conséquences d’événements très graves (cyberattaques, pannes matérielles ou catastrophes naturelles).

  • Disk mirroring (RAID 1) ou mise en miroir

    La mise en miroir disque, ou disk mirroring, également connue sous le nom de RAID 1, consiste à répliquer les données entre au moins deux disques. La mise en miroir constitue une solution idéale pour les applications exigeant des performances et une disponibilité élevées, telles que les applications transactionnelles, les messageries et les systèmes d'exploitation.

  • Disque dur

    Un disque dur est un composant qui stocke un grand volume de données sur un ou des supports magnétiques et y donne rapidement accès. Les ordinateurs sont équipés d'un disque dur capable d'accueillir plusieurs milliards d'octets (gigaoctets) de stockage.

  • DNS (Domain Name System)

    Le système DNS (Domain Name System) permet la localisation des noms de domaine Internet et leur conversion en adresses IP (Internet Protocol).

  • Docker

    Docker est un programme open source qui permet l'intégration d'une application Linux et de ses dépendances sous la forme d'un conteneur.

  • Données non structurées

    Les données non structurées sont une désignation générique qui décrit toute donnée extérieure à un type de structure (telle qu'une base de données).

  • Données semi-structurées

    Les données semi-structurées sont des données qui n'ont pas été organisées en référentiel spécialisé, comme c’est le cas dans une base de données, mais qui comportent néanmoins des informations associées, des métadonnées par exemple, qui les rendent plus faciles à traiter que des données brutes.

  • données transactionnelles

    Dans le contexte de la gestion de données, les données transactionnelles sont les informations enregistrées à partir des transactions.

  • DRaaS (Reprise après désastre en tant que service)

    La reprise après désastre en tant que service (disaster recovery as a service, DRaaS) consiste à répliquer des serveurs physiques ou virtuels et à les faire héberger par un tiers afin de permettre un basculement en cas de catastrophe d'origine humaine ou naturelle.

  • DRAM (Dynamic Random Access Memory)

    La mémoire vive dynamique, ou mémoire à accès aléatoire dynamique (DRAM, Dynamic Random Access Memory), est un type de mémoire généralement utilisé pour les données ou le code de programme dont le processeur d'un ordinateur a besoin pour fonctionner.

  • DSI

    Le Directeur des Systèmes Informatique et/ou d'Information - en anglais le CIO - correspond à l'intitulé du poste exécutif attribué à la personne chargée de la stratégie IT et des systèmes informatiques nécessaires au soutien des objectifs de l'entreprise.

  • DWaaS (Entrepôt de données Cloud)

    L'entrepôt de données à la demande, en mode Cloud (ou DWaaS pour Data Warehousing as a Service) est un modèle d’externalisation dans lequel un prestataire de services configure et gère les ressources matérielles et logicielles requises par à un entrepôt de données (en anglais, le Data Warehouse), tandis que le client fournit les données et paie pour le service d'infogérance.

  • Déduplication

    La déduplication des données, aussi appelée « compression intelligente » ou « stockage d'instance unique », réduit les besoins de stockage en supprimant les données redondantes.

  • Déduplication au fil de l'eau (Inline Deduplication)

    La déduplication au fil de l'eau, ou en ligne, consiste à supprimer les doublons des données "à la volée", avant ou pendant leur écriture sur un périphérique de sauvegarde.

  • Déduplication à la cible (Target Deduplication)

    La déduplication à la cible consiste à supprimer les doublons d'une sauvegarde pendant son passage dans une appliance placée entre la source et la cible d'une sauvegarde.

  • Déni de service distribué

    Dans une attaque par déni de service distribué (DDoS ou Distributed Denial-of-Service), une armée de systèmes compromis s'attaque à un même système cible. L'afflux de messages entrants dans le système cible le force à s'arrêter (un déni de service).

  • Déploiement blue/green ou bleu/vert

    Le déploiement blue/green (bleu/vert en français) est une stratégie de gestion du changement pour la publication de code informatique. Ce type de déploiement, également appelé déploiement A/B, nécessite deux environnements matériels identiques configurés exactement de la même façon. Pendant qu'un environnement est actif et sert les utilisateurs finaux, l'autre est inactif.

  • Déploiement continu (continuous deployment, CD)

    Le déploiement continu est une stratégie de développement logiciel où toute validation de code qui réussit le cycle de test automatisé est automatiquement transférée dans l'environnement de production, propulsant ainsi les modifications vers les utilisateurs du logiciel.

  • Déploiement par étapes

    Le déploiement par étapes (en anglais phased rollout) consiste à faire migrer graduellement les éléments matériels ou logiciels lors de l'implémentation et de la mise en œuvre progressive d'un nouveau système.

  • Désagrégation des architectures serveurs

    La désagrégation des architectures serveurs (« disaggregated server ») désigne des serveurs dont les composants et les ressources sont divisés en sous-systèmes.

  • Développement logiciel

    Le terme développement logiciel représente tous les processus impliqués collectivement dans la création de programmes et incarnant chacun une des phases du cycle de développement des systèmes (SDLC).

  • Gestion des données en tant que service (DMaaS)

    La gestion des données en tant que service (Data Management-as-a-Service, DMaaS) est un type de service dans le cloud qui fournit aux entreprises un stockage centralisé pour des sources de données disparates.

  • Heroku

    Heroku est un PaaS (Platform as a Service) destinée au développement dans le Cloud. Heroku prend en charge les langages Ruby on Rails, Java, JavaScript, Node.js, Python, Scala et Clojure.

  • Main-d'œuvre numérique (Digital Labor)

    Le terme Digital Labor désigne à la fois une « main-d'œuvre numérique » - un système évolué d'automatisation des processus (RPA) capable de réaliser un travail dans sa globalité, là où un bot classique se limite à une tâche ou à un ensemble de tâches - et le travail effectué de cette manière (travail numérique).

  • MDD, développement piloté par les modèles

    Le développement piloté par les modèles (MDD, model-driven development) est une pratique qui permet d'écrire et de mettre en œuvre des applications, rapidement, efficacement et à moindre coût.

  • Microsoft Dynamics 365

    Microsoft Dynamics 365 est un nouveau service qui intègre le système Dynamics CRM de Microsoft à des données transactionnelles ERP et des données Office 365, pour permettre aux commerciaux de mieux exploiter les données de leurs dossiers clients, grâce à une meilleure connaissance des transactions, des comportements et des préférences des clients.

  • Microsoft Dynamics CRM

    Dynamics CRM est une solution de gestion de la relation client (CRM) qui se décline en version Cloud (sous le nom de Microsoft Dynamics CRM Online), en version sur site et sous forme de Cloud hybride.

  • Qu'est-ce qu'une attaque par déni de service ?

    Une attaque par déni de service (DoS) est une menace pour la sécurité qui se produit lorsqu'un pirate empêche les utilisateurs légitimes d'accéder à des systèmes informatiques, des réseaux, des services ou d'autres ressources informatiques. Les pirates inondent généralement les serveurs web, les systèmes ou les réseaux d'un trafic qui submerge les ressources de la victime, rendant l'accès difficile, voire impossible, pour toute autre personne.

  • Qu'est-ce que Dall-E et comment fonctionne-t-il ?

    Dall-E est une technologie d'intelligence artificielle (IA) générative qui permet aux utilisateurs de créer des images en soumettant des invites textuelles. En coulisses, Dall-E utilise des technologies avancées de conversion de texte en graphique pour transformer des mots simples en images. Dall-E est un réseau neuronal entraîné qui peut générer des images entièrement nouvelles dans une variété de styles en fonction de l'invite de l'utilisateur.

  • Qu'est-ce que l'algorithme de génération de domaine (DGA) ?

    Un algorithme de génération de domaines (DGA) est un programme qui génère une longue liste de noms de domaine. Les DGA fournissent aux logiciels malveillants de nouveaux domaines afin de contourner les mesures de sécurité.

  • Qu'est-ce que l'apprentissage profond (Deep Learning) et comment fonctionne-t-il ?

    L'apprentissage profond est un type d'apprentissage automatique (ML) et d'intelligence artificielle (IA) qui forme les ordinateurs à apprendre à partir d'ensembles de données volumineux d'une manière qui simule les processus cognitifs humains.

  • Qu'est-ce que l'échantillonnage de données ?

    L'échantillonnage de données est une technique d'analyse statistique utilisée pour sélectionner, manipuler et analyser un sous-ensemble représentatif de points de données afin d'identifier des modèles et des tendances dans l'ensemble de données plus large examiné. Il permet aux scientifiques des données, aux modélisateurs prédictifs et autres analystes de données de travailler avec un sous-ensemble de données plus petit et plus facile à gérer, plutôt que d'essayer d'analyser l'ensemble des données. Grâce à un échantillon représentatif, ils peuvent créer et exécuter des modèles analytiques plus rapidement, tout en produisant des résultats précis.

  • Qu'est-ce que l'étiquetage des données ?

    L'étiquetage des données est le processus qui consiste à identifier et à marquer des échantillons de données couramment utilisés dans le cadre de la formation des modèles d'apprentissage automatique (ML). Ce processus peut être manuel, mais il est généralement effectué ou assisté par un logiciel. L'étiquetage des données aide les modèles d'apprentissage automatique à faire des prédictions précises. Il est également utile dans des processus tels que la vision par ordinateur, le traitement du langage naturel (NLP) et la reconnaissance vocale.

  • Qu'est-ce que la science des données (Data Science) ? Le guide ultime

    La science des données (data science) est le domaine qui consiste à appliquer des techniques d'analyse avancées et des principes scientifiques afin d'extraire des informations précieuses à partir de données pour la prise de décisions commerciales, la planification stratégique et d'autres utilisations. Elle revêt une importance croissante pour les entreprises : les informations générées par la science des données aident les organisations à accroître leur efficacité opérationnelle, à identifier de nouvelles opportunités commerciales et à améliorer leurs programmes de marketing et de vente, entre autres avantages. En fin de compte, elles peuvent leur procurer des avantages concurrentiels par rapport à leurs rivaux.

  • Qu'est-ce que le data mining ?

    Le data mining consiste à trier de grands ensembles de données afin d'identifier des modèles et des relations pouvant aider à résoudre des problèmes commerciaux grâce à l'analyse des données. Les techniques et les outils de data mining aident les entreprises à prévoir les tendances futures et à prendre des décisions commerciales plus éclairées.

  • Qu'est-ce que le fractionnement des données ?

    Le fractionnement des données consiste à diviser les données en deux ou plusieurs sous-ensembles. Généralement, dans le cas d'un fractionnement en deux parties, une partie est utilisée pour évaluer ou tester les données et l'autre pour entraîner le modèle.

  • Que sont les données synthétiques ? Exemples, cas d'utilisation et avantages

    Les données synthétiques sont des informations fabriquées artificiellement plutôt que générées par des événements du monde réel. Elles sont créées de manière algorithmique et sont utilisées comme substitut aux ensembles de données de test de la production ou des données opérationnelles pour valider les modèles mathématiques et former les modèles d'apprentissage automatique (ML) et d'apprentissage profond (deep learning).

  • E

    Amazon ElasticSearch Service (Amazon ES)

    Amazon Elasticsearch Service (Amazon ES) est un produit d'AWS (Amazon Web Services) qui permet aux développeurs de lancer et d'exploiter ElastiSearch -- un moteur open source de recherche et d'analyse basé sur Java -- dans le Cloud AWS.

  • Attaque Evil Maid

    Une attaque de type Evil Maid (ou serveur malveillant) est un exploit de sécurité qui cible un terminal informatique ayant été physiquement éteint et laissé sans attention. Une telle attaque est caractérisée par la capacité de l’attaquant à accéder physiquement à sa cible à plusieurs reprises, à l’insu de son propriétaire.

  • Déploiement progressif

    Par déploiement progressif (en anglais : rolling deployment), on entend une diffusion échelonnée des logiciels sur plusieurs phases, qui fait généralement intervenir un ou plusieurs serveurs exécutant une ou plusieurs fonctions au sein d'un cluster de serveurs.

  • E-signature

    Une e-signature (signature électronique) est une version numérique d'une signature manuscrite classique.

  • EAM (Gestion des actifs d'entreprise)

    La gestion des actifs d'entreprise (EAM, Enterprise Asset Management) consiste à suivre le cycle de vie des biens matériels pour en optimiser l'utilisation, économiser de l'argent, améliorer la qualité et l'efficacité, et enfin préserver la santé, la sécurité et l'environnement.

  • ECM (Gestion de contenu d'entreprise )

    La gestion de contenu d'entreprise (ECM, Enterprise Content Management) regroupe les processus, stratégies et outils spécifiques qui permettent à une entreprise d'obtenir, d'organiser et de stocker des informations essentielles pour les diffuser auprès de ses employés, partenaires et clients.

  • Edge Analytics

    L'analytique "en périphérie" permet d'exécuter automatiquement des analyses statistiques là où les données sont créées (capteur, commutateur, ou autre) plutôt que d'attendre le transfert des données vers un Data Store centralisé.

  • Edge computing

    L'« Edge computing », est une architecture informatique (IT) dans laquelle les données d'un client sont traitées en périphérie du réseau, aussi près que possible de la source. La transition vers l'Edge computing est motivée par l'essor du mobile, la baisse du coût des composants informatiques et l'augmentation du nombre d'appareils en réseau au sein de l'Internet des objets (IoT, Internet of Things).

  • EDR (Endpoint Detection and Response)

    La détection et la réponse sur les endpoints – EDR, ou hôtes, en français – consistent à collecter et analyser des informations relatives aux menaces de sécurité touchant postes de travail et serveurs d’un système d’information, dans le but de détecter les violations de sécurité dès qu’elles surviennent et de faciliter une réponse rapide.

  • Effacement à distance

    L’effacement à distance est une fonction de sécurité qui permet à un administrateur réseau ou à un propriétaire de terminal de lui adresser une commande déclenchant l’effacement de son contenu.

  • Effet Ringelmann

    L'effet Ringelmann est la tendance des membres d'un groupe à devenir de moins en moins productifs à mesure que leur nombre augmente.

  • EFSS

    Avec le système de partage et de synchronisation de fichiers FSS ou EFSS (Enterprise File Sync-and-Share), les utilisateurs enregistrent leurs fichiers dans le cloud ou sur des supports de stockage sur site, et y accèdent ensuite depuis d'autres postes de travail et équipements informatiques mobiles.

  • ElasticSearch

    ElasticSearch est un moteur de recherche RESTful open source reposant sur Apache Lucene et publié sous licence Apache. Il est basé sur le langage Java et permet de rechercher et d'indexer des documents dans divers formats.

  • EMM (Enterprise mobility management)

    La gestion de la mobilité d’entreprise (ou EMM pour Enterprise mobility management) est une approche globale pour sécuriser et permettre un usage des téléphones et des tablettes compatible avec les exigences du monde professionnel.

  • empreinte de terminal

    L'empreinte de terminal est une caractéristique des logiciels de contrôle d'accès aux réseaux d'entreprise (NAC, Network Access Control) qui permet la découverte, la classification et la surveillance des équipements connectés, y compris les terminaux spécialisés du réseau tels que les lecteurs de cartes à puce, les systèmes de ventilation et climatisation, les équipements médicaux et les serrures IP. Ce type de terminal est parfois appelé terminal passif, ou non intelligent.

  • en-tête

    En informatique, un en-tête désigne généralement un élément placé devant un autre et répété en tant qu'élément standard ailleurs sur d'autres unités. Un en-tête peut comprendre plusieurs champs, chacun ayant une valeur propre. Voici quatre cas d'utilisation fréquents :

  • Engagement client

    L'engagement client, c'est le moyen que choisit une entreprise pour établir une relation avec sa clientèle. Dans la mesure où les méthodes marketing traditionnelles perdent de leur efficacité, l'engagement client devient l'unité dont se servent les entreprises pour mesurer leur efficacité.

  • Engagement employés (implication des employés)

    L'implication des employés ou l'engagement employés (en anglais, « employee engagement ») désigne le lien émotionnel ressenti par un employé et qui l'incite à fournir un effort discrétionnaire dans son travail.

  • Enterprise Performance Management (EPM)

    L'EPM se focalise sur le suivi et la gestion de la performance d'une organisation, en s'appuyant sur des indicateurs clés de performance (KPI) comme les revenus, les retours sur investissement (ROI), les frais généraux et les coûts opérationnels.

  • Entier (Integer)

    Un entier est un nombre sans partie décimale ou avec une partie décimale nulle (pas une fraction), qui peut être positif, négatif ou égal à zéro.

  • Entrées/Sorties (E/S ou I/O)

    Le terme « entrées/sorties » décrit toute opération, tout programme ou tout appareil permettant de transférer des données vers ou depuis un ordinateur.

  • Environnement de Développement Intégré (IDE)

    L’environnement de développement intégré (en français EDI et en anglais IDE pour "Integrated Development Environment") est un environnement de programmation complet qui se présente sous la forme d'une application. L'outil aide les développeurs à concevoir et à documenter leurs codes comme un traitement de texte aide à produire des documents écrits.

  • Environnement de travail numérique (digital workplace)

    Le concept d'environnement de travail numérique (digital workplace, en anglais) illustre à quel point la technologie arrive de plus en plus à créer l'équivalent virtuel de l'environnement de travail physique et comment cette tendance permet aux entreprises de repenser les processus classiques et d'augmenter l'efficacité.

  • Erasure Coding

    L’Erasure Coding est une méthode de protection des données qui divise les données en fragments ; développés et chiffrés. Ceux-ci contiennent des éléments de données redondants et sont stockés sur différents sites ou supports de stockage. L'objectif est de pouvoir reconstruire les données qui ont été altérées lors du processus de stockage sur disque à partir des informations stockées dans d'autres emplacements de la baie.

  • ERP (PGI)

    Un ERP (Enterprise Resource Planning) est une solution qui gère la planification des ressources et l’ensemble des opérations permettant à une entreprise de maîtriser les aspects importants de son activité.

  • ERP cloud

    L’ERP cloud – ou ERP en mode cloud – est un progiciel de gestion intégrée (Enterprise Resource Planning) qui tourne sur la plateforme cloud de son éditeur ou d’un prestataire tiers (AWS, Azure, etc.) plutôt que dans le datacenter de l’entreprise cliente.

  • ERP Financier

    Un ERP financier (ou ERP Finance ou Core Finance) est un module de gestion financière qui prend en charge les tâches comptables d’une entreprise.

  • ESB

    Un bus de services d'entreprise (ESB, Enterprise Service Bus) est un outil middleware qui sert à répartir le travail entre les composants connectés d'une application.

  • ESXi (VMware)

    VMware ESXi est un hyperviseur de type 1 indépendant des systèmes d'exploitation. Il repose lui-même sur le système d'exploitation VMkernel qui assure l'interface avec les agents dont il soutient l'exécution. ESXi est l'hyperviseur exclusif des licences VMware vSphere.

  • Ethereum

    Ethereum est une plateforme logicielle de blockchain, distribuée en open source. Ethereum est à l'origine une blockchain publique, qui motorise la crypto-monnaie Ether. Mais à la différence de la blockchain Bitcoin, elle peut aussi être déployée dans un cadre de blockchain de consortium.

  • Ethernet

    Ethernet est aujourd’hui le protocole de réseau local (LAN) le plus utilisé au monde. Cette technologie de réseau local à base de commutation de paquets, imaginée par Xerox a été Normalisée par l’IEEE sous le numéro IEEE 802.3 en 1973.

  • ETL (et ELT)

    L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible. L’ELT est une variante d’ETL.

  • Expérience client (CX)

    L'expérience client (CX) est la somme totale des perceptions et des sentiments des clients résultant des interactions avec les produits et les services d'une marque. L'expérience client s'étend sur toute la durée de la relation des clients avec une marque, depuis la période précédant l'achat jusqu'au renouvellement ou à la répétition de l'achat, en passant par l'utilisation active.

  • Expérience employé

    L'expérience employé fait référence aux observations et aux impressions d'un salarié sur son emploi dans une entreprise donnée. Elle est souvent influencée par l'espace physique dans l'entreprise, l'équilibre entre vie professionnelle et vie privée, et les outils qui améliorent la productivité.