Hardware IA (GPU, FPGA, etc.)
-
Actualités
19 mars 2025
GTC2025 : Nvidia améliore déjà ses GPU Blackwell
Alors que les modèles B100 et B200 sortent à peine d’usine, le fabricant dévoile déjà un GPU B300 50 % plus rapide. Un système d’orchestration Dynamo, qui optimise leur fonctionnement, et des versions pour stations de travail sont aussi dévoilés. Lire la suite
-
Actualités
14 mars 2025
IA embarquée : Qualcomm rachète Edge Impulse
Qualcomm met la main sur Edge Impulse, l’éditeur californien d’une plateforme d’entraînement et de déploiement de modèles d’IA sur des équipements IoT. Un moyen d’étoffer son portfolio grandissant et de rendre tangible « l’Edge GenAI ». Lire la suite
- Prédire l’avenir de la sécurité des mots de passe –Webcast
- Pour Assurer La Cyberrésilience, Luttez Contre L'ia Avec L'ia –Infographie
- NetApp ASA –Analyse
-
Dans ce numéro:
- Magazine Information Sécurité 30 : Là où commencent les cyberattaques
- Chakib Gzenayi : « L’EASM est important, mais le renseignement est plus important que tout »
- Michelin face à la problématique de gestion de la surface d’attaque exposée
-
Actualités
13 mars 2025
Command A : Cohere réduit lui aussi l’empreinte GPU de ses LLM
Le Canadien Cohere a présenté Command A, un modèle de 111 milliards de paramètres. Ce LLM conçu pour s’exécuter sur site tient sur deux GPU Nvidia H100 ou A100 et doit répondre aux besoins des entreprises. Lire la suite
-
Actualités
12 mars 2025
Gemma 3 : Google lance des modèles frugaux dédiés aux développeurs
Les modèles Gemma 3 sont multilingues, multimodaux, traitent plus de données tout en ne réclamant qu’un seul GPU pour s’exécuter. Ce faisant, les équipes de Google DeepMind ciblent les développeurs. Lire la suite
-
Actualités
12 mars 2025
À la rencontre d’Alps, le second plus puissant supercalculateur d’Europe
Dans cette interview, Thomas Schulthess, directeur du CSCS et professeur de physique informatique à l’ETH, explique le développement de l’un des supercalculateurs les plus rapides au monde, l’Alps, déployé sur le sol suisse. Lire la suite
-
Actualités
06 mars 2025
IA : CoreWeave s’apprête à acquérir Weights & Biases
Dans la foulée de l’annonce de son dépôt de dossier d’introduction en bourse, le spécialiste des infrastructures GPU a annoncé sa volonté d’acquérir Weights & Biases, l’éditeur d’une plateforme de mise en production des modèles d’IA. Lire la suite
-
Actualités
28 févr. 2025
GPT-4.5 : un mastodonte sans avenir chez OpenAI
OpenAI a développé un LLM si gros qu’il a épuisé son lot de puces graphiques pour l’exécuter à large échelle alors que celui-ci ne représente pas un saut générationnel. La licorne pense toutefois que le travail effectué lui permettra de développer des modèles de raisonnement plus performants. Lire la suite
-
Projet IT
27 févr. 2025
Thales : voyage dans une galaxie d’IA de confiance
Au travers de son programme CortAIx, Thales a industrialisé l’intégration de l’intelligence artificielle dans les systèmes critiques, militaires ou civils. La centaine d’applications IA développées concernent notamment la sécurité des mers, la lutte anti-drone ou encore le contrôle aérien. Mais pas que. Plongée dans cette galaxie d’IA aux contraintes très strictes. Lire la suite
par- Christophe Auffray, LeMagIT
- Stéphane Larcher, LeMagIT
-
Actualités
26 févr. 2025
IA : les grands modèles consomment jusqu’à 61 000 fois plus d’énergie que les petits
L’AI Energy Score met en évidence l’énorme disparité entre les modèles de deep learning et les grands modèles de langage en matière d’énergie consommée à l’inférence. Un écart global de facteur 61 000 entre les 166 modèles testés, justifié par leur taille, mais aussi leurs différents usages. Lire la suite
-
Actualités
25 févr. 2025
Claude 3.7 Sonnet : Anthropic mise sur un modèle de raisonnement « hybride »
Avec Claude 3.7 Sonnet, Anthropic veut se différencier en proposant un LLM à la fois capable de répondre à des questions et de produire des « raisonnements ». Le fournisseur entend le proposer plus particulièrement aux développeurs. Lire la suite
-
Actualités
19 févr. 2025
Puces IA : les hébergeurs commencent à déployer les GPU d’AMD
Face à la pénurie probable de GPU Nvidia, les opérateurs de clouds privés commencent à proposer des infrastructures d’IA équipées de MI325X, la solution alternative d’AMD. Aux USA, Vultr ouvre la danse. Lire la suite
-
Actualités
18 févr. 2025
Puces IA : dix fournisseurs proposent une alternative à Nvidia
La demande actuelle pour des GPU menace de dépasser les capacités de production de Nvidia. Selon leurs besoins, les entreprises peuvent se tourner vers dix autres fournisseurs. Lire la suite
par- Yann Serra, LeMagIT
- Devin Partida, ReHack.com
-
Actualités
17 févr. 2025
Datacenters IA en France : promesses contre promesses
Pour favoriser l’implémentation de nouveaux datacenters IA en France, le gouvernement s’est engagé sur plusieurs fronts : prix et accès préférentiel à l’électricité, identification de sites, et ajustements législatifs. S’il ne promet pas l’impossible, toutes les conditions nécessaires à la réussite de ce plan ne sont pas réunies. Lire la suite
-
Actualités
17 févr. 2025
Puces pour l’IA : la production menace de ne pas suivre la demande
Les États occidentaux ont décidé d’investir des milliards pour déployer sur leurs territoires d’immenses quantités de GPU, tandis que les géants d’Internet réservent en avance la majorité de la production de Nvidia. Pendant ce temps, les usines ne fabriquent pas plus. Lire la suite
-
Actualités
13 févr. 2025
À Amsterdam, Cisco veut redevenir un leader de l’infrastructure
L’équipementier réseau arrive avec des architectures tout-en-un pour l’IA. Outre des switches Ethernet intégrant des accélérateurs de fonctions, il se relance surtout dans les serveurs, avec des configurations simples pour utiliser l’IA en entreprise. Lire la suite
-
Actualités
12 févr. 2025
Compétition et IA : les hyperscalers ont-ils pipé les dés ?
En nouant des partenariats avec les startups, les hyperscalers américains auraient déjà pris les rênes du marché de l’IA, s’alarment les ONG AI Now et Open Market Institute. Les autorités de la concurrence sont plus mesurées, mais vigilantes. Lire la suite
-
Actualités
12 févr. 2025
Sommet sur l’IA : la France et l’Union européenne répliquent (à) « Stargate »
Après que la France a annoncé 109 milliards d’euros d’investissements futurs dans des infrastructures d’IA sur son territoire, c’est au tour de la Commission européenne de « mobiliser » jusqu’à 200 milliards d’euros. Des investissements majoritairement étrangers, qui impliquent une application « favorable à l’innovation » des réglementations. Lire la suite
-
Actualités
10 févr. 2025
Sommet sur l’IA : les étoiles s’alignent pour Mistral AI
Bien conscient du souffle que représente le sommet international pour l’action sur l’IA, Mistral AI déploie la grand-voile et multiplie les annonces. La jeune pousse dirigée par Arthur Mensch bénéficie désormais du soutien gouvernemental et des grands comptes tout en rivalisant avec OpenAI aux yeux du grand public. Lire la suite
-
Actualités
10 févr. 2025
MLPerf : des tests pour mesurer objectivement les offres d’IA
Développés par l’organisation à but non lucratif MLCommons, ces benchmarks évaluent les performances des infrastructures vendues pour entraîner ou inférer des IA. Lire la suite
-
Actualités
06 févr. 2025
Infrastructure IA : Nvidia adapte son réseau rapide Spectrum-X au stockage
Les switches et les cartes réseau de Nvidia disposent d’un mode d’accélération propriétaire qui ne fonctionnait jusque-là qu’entre des serveurs de calcul. Désormais, ce mode Spectrum-X est utilisable avec les baies de stockage. DDN, Vast et Weka l’ont validé. Lire la suite
-
Actualités
05 févr. 2025
Cerebras promeut sa puce IA via un chatbot DeepSeek R1 plus rapide
En quête de visibilité pour son processeur géant WSE-3, le concepteur de semiconducteurs américain propose lui aussi en ligne un chatbot gratuit pour utiliser le LLM chinois, mais avec des réponses plus rapides qu’ailleurs. Lire la suite
-
Conseil
04 févr. 2025
Tout comprendre à DeepSeek : les faits derrière le « buzz »
Le lancement des modèles de DeepSeek R1 et V3 ainsi que la réaction des investisseurs ont fait beaucoup de bruits ces deux dernières semaines. Ce bruit génère des questions que LeMagIT a rassemblées ici en tentant d’y répondre le mieux possible. Lire la suite
-
Actualités
03 févr. 2025
« Guerre » des LLM : OpenAI riposte avec o3-mini et deep research
OpenAI a lancé o3-mini, un modèle de raisonnement « low-cost », ainsi que deep research, un agent consacré aux recherches Web les plus complexes. Des LLM qui justifieraient des investissements massifs en puissance de calcul, selon le directeur scientifique de la startup. Lire la suite
-
Actualités
30 janv. 2025
Small 3 : Mistral AI a son équivalent de GPT-4o mini en local
Relativement petit, rapide, « open weight » et aussi performant que GPT-4o mini. Voilà les arguments principaux de Mistral AI pour vanter les mérites de Mistral Small 3. Lire la suite
-
Conseil
30 janv. 2025
Pourquoi faire tourner une IA sur site ?
La croissance rapide de l’intelligence artificielle est en grande partie due aux outils cloud. Mais il existe de très bonnes raisons d’héberger les workloads d’IA sur site. Lire la suite
-
Actualités
29 janv. 2025
Les LLM DeepSeek-R1 et V3 sont « frugaux » à l’entraînement, pas à l’usage
DeepSeek a pu réaliser des économies lors de l’entraînement, mais à l’usage ses modèles R1 et V3 ne sont pas « frugaux », prévient le CEO d’Ekimetrics. Un phénomène qui s’explique par l’architecture choisie par la startup. Lire la suite
-
Actualités
29 janv. 2025
DeepSeek R1 : ces flous qui jettent le doute sur sa conception
Si la startup chinoise a marqué les esprits avec des modèles moins chers à concevoir, il est intéressant de détailler son approche pour y arriver. DeepSeek se montre particulièrement ouverte sur la méthode, mais elle se garde bien de détailler la provenance des données et les traitements opérés. Lire la suite
-
Actualités
24 janv. 2025
Aleph Alpha veut libérer les LLM de leur tokenizer
Aleph Alpha, l’autre pépite européenne de l’IA avec Mistral AI, a présenté lors du forum économique de Davos, une architecture de LLM sans tokenizer. Elle espère ainsi réduire la quantité de ressources de calcul nécessaire à l’entraînement et à l’inférence des modèles. Lire la suite
-
Actualités
15 janv. 2025
IA open source : OpenLLM-France touche du doigt le Graal
Le consortium OpenLLM France dit avoir réussi à entraîner une collection de LLM respectueuse de la définition de l’IA open source par l’Open Source Initiative, tout en tentant de dépasser ce cadre. Un défi de taille quand il faut réunir des milliers de milliards de mots (tokens). Lire la suite
-
Actualités
14 janv. 2025
Restriction de l’IA dans le monde : Washington s’explique dans une fiche
En à peine quelques heures, les USA ont déjà promulgué un nouveau cadre juridique qui impose des quotas de GPU et de LLM au reste du monde. À une semaine du changement de présidence. Les industriels des semiconducteurs demandent le retrait du texte. Lire la suite
-
Actualités
13 janv. 2025
PC IA : un succès limité en raison de coûts élevés
Les ventes de PC IA sont à la traîne, malgré une hausse des livraisons globales de PC. L’absence de cas d’utilisation convaincants et les prix élevés freinent les renouvellements. Lire la suite
-
Actualités
10 janv. 2025
Phi-4 : le petit LLM de Microsoft est un dévoreur de données synthétiques
Avec Phi-4, Microsoft fait à nouveau la preuve de l’efficacité des techniques de distillation de connaissances. Son LLM de 14 milliards de paramètres surpasse ou égale ses concurrents, dont Qwen 2.5 72B. Reste à savoir si cette approche de l’entraînement des LLM s’appuyant amplement sur des données synthétiques est durable. Lire la suite
-
Actualités
09 janv. 2025
Intel développe les puces Core Ultra AI dans un contexte de concurrence sur le marché
Les PC équipés des nouvelles puces Core Ultra AI d’Intel destinées au grand public seront commercialisés à partir de février. Les précédentes versions des puces Core Ultra étaient destinées aux PC professionnels. Lire la suite
-
Actualités
08 janv. 2025
Avec Digits, Nvidia met ses supercalculateurs sur le bureau
Le constructeur présente une machine de bureau contenant une version miniature de l’architecture Grace-Blackwell qui équipera cette année les serveurs d’IA. Elle exécute localement des IA et se présente comme une station pour développeurs. Lire la suite
-
Actualités
07 janv. 2025
NIM : Nvidia adapte ses microservices à l’IA agentique
Le spécialiste des GPU a présenté lors du Consumer Electronics Show 2025 des partenariats et des modèles LLM pour couvrir les cas d’usage liés à l’IA agentique. Il fait surtout un effort pour compresser ses LLM afin de les déployer sur des puces plus abordables. Lire la suite
-
Actualités
24 déc. 2024
ModernBERT : Answer.ai et LightOn acollent un turbo à BERT
En confiant les attributs de l’architecture des LLM à BERT, Answer.ai et LightOn espèrent prouver que ModernBERT a toute sa place dans les systèmes RAG aux côtés des LLM les plus en vogue. Lire la suite
-
Guide
19 déc. 2024
Le guide des annonces d’AWS re:Invent 2024
Ce guide essentiel met en lumière les principales annonces faites par l’hyperscaler AWS lors de son récent événement annuel. Lire la suite
-
E-Zine
17 déc. 2024
Storage 39 - IA : pourquoi il va falloir réinvestir dans le stockage
Ce no de Storage explore les défis et innovations liés à l’impact de l’IA sur le stockage. Découvrez comment fabricants et solutions s’adaptent pour répondre aux exigences croissantes en termes de capacité, performances, et fiabilité (NetApp, Pure Storage, Dell, Canonical, Huawei). Une lecture pour mieux comprendre les enjeux techniques de demain. Lire la suite
-
Actualités
13 déc. 2024
Les modèles Gemini 2.0 propulseront les agents IA sur Google Cloud
Si Google accuse un certain retard face à Anthropic et OpenAI, il est bien déterminé à reprendre la main avec ses modèles d’IA multimodaux, à commencer par ceux de sa collection Gemini 2.0. Ceux-là devront propulser les « fameux » agents dont tout le secteur vante les mérites, sans que l’on en voie encore véritablement la couleur. Lire la suite
-
Actualités
06 déc. 2024
AWS réduit sa dépendance à Nvidia avec les instances Trainium
Avec un prix horaire un peu inférieur aux instances à base de GPU Nvidia H200 et une puissance de calcul plus variable, les instances basées sur les derniers Trainium veulent séduire les entreprises qui ont besoin d’entraîner des modèles d’IA. Lire la suite
-
Actualités
27 nov. 2024
Alibaba Cloud, un poids lourd des LLM « open weight »
Derrière Qwen, des collections de grands modèles de langage qui monopolisent le haut des classements des LLM « open weight », se cache Alibaba Cloud. Le fournisseur de cloud chinois entend bien faire jeu égal avec OpenAI, Anthropic, Mistral AI, mais aussi Google et Microsoft. Lire la suite
-
Actualités
27 nov. 2024
GenAI : la production d’énergie ne suivra pas la demande (Gartner)
La montée en puissance de l’IA générative pourrait entraîner des pénuries d’énergie et une hausse des coûts, avertit le cabinet d’analystes. Et à la clef, un objectif « net zero » de plus en plus remis en cause. Lire la suite
par- Caroline Donnelly, Journaliste
- Philippe Ducellier, Rédacteur en chef adjoint
-
Actualités
22 nov. 2024
Amazon double son investissement dans Anthropic
Le géant de l’e-commerce et du cloud compte sur les papas des modèles Claude 3.5 pour faire venir à lui davantage de clients, tandis qu’il devrait soulager la facture de calcul de son protégé, contre des efforts de R&D dans ses puces dédiées à l’IA. Lire la suite
-
Actualités
21 nov. 2024
Nvidia affiche un CA trimestriel record de 35 milliards de dollars
Les très bonnes ventes de Nvidia ce trimestre correspondent à la fourniture, enfin en quantité suffisante, de GPU H100. Le cours en bourse se crispe néanmoins avec l’annonce de retards de livraison sur les générations suivantes. Lire la suite
-
Actualités
18 nov. 2024
Atos lance une plateforme « souveraine » pour faire de l’IA sur site
Sovereign AI s’appuie sur une infrastructure Dell. L’offre « de bout en bout » doit permettre de déployer des IA sur site, en gardant le contrôle sur les données et sur les modèles. Le secteur public, la finance, la santé et l’énergie sont particulièrement ciblés. Lire la suite
-
Actualités
14 nov. 2024
Red Hat acquiert Neural Magic pour mieux appréhender le LLMOps
Red Hat s’apprête à acquérir Neural Magic, un des contributeurs majeurs d’un utilitaire LLMOps clé utilisé par OpenShift AI et par l’ensemble des acteurs du marché de l’IA : vLLM. Lire la suite
par- Beth Pariseau, TechTarget
- Esther Shittu, News Writer
-
Conseil
08 nov. 2024
Comment exécuter des LLM sur site : matériels, outils et bonnes pratiques
Les déploiements locaux de grands modèles de langage offrent des avantages, notamment en matière de confidentialité, de rapidité et de personnalisation, mais les entreprises ont besoin des outils et de l’infrastructure adéquats pour réussir. Lire la suite
par- Marius Sandbu, Sopra Steria
- Gaétan Raoul, LeMagIT
- Yann Serra, LeMagIT
-
Actualités
31 oct. 2024
IA : après son succès communautaire, Hugging Face vise les entreprises
Hugging Face entend convaincre les entités « data/IA » des entreprises attachées aux modèles ouverts d’adopter son Hub. La jeune pousse ne manque pas d’arguments. Lire la suite
-
Actualités
30 oct. 2024
UiPath se met à « l’automatisation agentique », même sur site
Soutenu dans sa démarche par des fournisseurs de LLM comme Anthropic et Inflection AI, UiPath entend combiner RPA, DPA, deep learning et IA générative dans une approche qu’il nomme « l’automatisation agentique ». Cerise sur le gâteau, il promet une solution pour que ses clients les plus régulés puissent en profiter sur site. Lire la suite
-
Guide
25 oct. 2024
Dossier puces pour l’IA : les alternatives à Nvidia
Dépenser des millions d’euros en équipements Nvidia pour exécuter des traitements d’IA n’est pas une fatalité. Ce dossier fait le point sur les GPU, processeurs et mémoires qui méritent tout autant l’attention des entreprises. Lire la suite
-
Actualités
23 oct. 2024
Super serveurs : Dell annonce deux configurations très haut de gamme
Le PowerEdge M7725, destiné au supercalcul, permet de constituer un cluster de 27 000 cœurs AMD Epyc 9005, tandis que le PowerEdge XE9712 permet de cumuler 72 GPU Blackwell et 36 processeurs ARM Grace de Nvidia. Dans une seule baie de 70 kW. Lire la suite
-
Actualités
22 oct. 2024
LLM : avec Granite 3.0, IBM recherche l’efficience pour les entreprises
Alors que les fournisseurs de LLM se détournent des licences open source, IBM maintient son approche et entend répondre aux besoins des entreprises avec de petits modèles plus spécialisés, plus efficients. Reste qu’il doit convaincre les développeurs. Lire la suite
par- Esther Shittu, News Writer
- Gaétan Raoul, LeMagIT
-
Actualités
17 oct. 2024
Lenovo : « nos super-serveurs sont conçus pour durer plus longtemps »
Dans cette entrevue, le constructeur explique pourquoi son nouveau système de refroidissement Neptune 6 sera le seul à ne pas tomber en panne et pourquoi les serveurs x86 ne devraient plus embarquer de GPU. Lire la suite
-
Actualités
15 oct. 2024
Puces pour l’IA : AMD officialise son GPU MI325X
Le nouveau GPU d’AMD est censé rivaliser avec le H200 de Nvidia. Ses caractéristiques supérieures sur le papier lui permettent d’atteindre des performances somme toute similaires. Reste à connaître son prix. Lire la suite
-
Projet IT
14 oct. 2024
GRDF exploite la GenAI pour réduire les interventions infructueuses
Dans le cadre de sa stratégie consacrée à l’IA générative, GRDF a mis en place une usine à POC. Les cas d’usage les plus avancés promettent d’améliorer l’extraction d’entités nommées, une tâche qui incombait jusqu’alors aux modèles NLP. Lire la suite
-
Actualités
13 oct. 2024
Dell étend son AI Factory avec de nouveaux serveurs AMD
Dell complète son offre d’infrastructures pour l’IA avec des serveurs basés sur le dernier processeur Epyc 9005 et les conjugue avec des services pour accompagner les entreprises. Lire la suite
par- Adam Armstrong, News Writer
- Yann Serra, LeMagIT
-
Guide
07 oct. 2024
Les premiers effets de l’AI Act : guide pratique pour s’adapter
Ce guide essentiel retrace la survenue de l’AI Act, en détaille les premières mesures et évoque ses premières conséquences, tout en recensant les conseils de base à sa mise en place. Lire la suite
-
Actualités
27 sept. 2024
Llama 3.2 : Meta prive l’Union européenne de ses modèles multimodaux
En bloquant l’accès à ses modèles multimodaux en Union européenne, Meta ébrèche son image de défenseur de l’innovation ouverte au nom d’une « absence de règles cohérentes » concernant l’usage des « données européennes » pour entraîner des modèles d’IA. Lire la suite
-
Actualités
22 sept. 2024
Open Source Summit : Intel détaille son kit OPEA pour renverser Nvidia
Le kit de développement Open source est conçu pour mimer les possibilités de Nvidia AI Enterprise, afin que les entreprises puissent créer des applications d’IA générative sans devoir acheter de GPU Nvidia. Lire la suite
-
Actualités
20 sept. 2024
IA : les analystes prédisent l’éclatement de la bulle des mémoires HBM
Alors que les rapports prédisent tous que ce composant, ingrédient essentiel dans l’entraînement des IA, rendra plus riches que jamais les fabricants de mémoire en 2025, ils alertent aussi sur son succès éphémère. Lire la suite
par- Yann Serra, LeMagIT
- Adam Armstrong, News Writer
-
Actualités
19 sept. 2024
IA générative : Salesforce Ventures continue à investir malgré les défis
Salesforce Ventures prévoit d’investir un demi-milliard de dollars dans des startups d’intelligence artificielle, de préférence celles proposant de petits modèles de langage spécifiques à un domaine. L’écosystème se veut confiant quant à l’avenir de l’IA générative, mais doit relever deux défis de taille : réduire les hallucinations et les émissions carbone. Lire la suite
-
Actualités
16 sept. 2024
Infrastructures : Lenovo sort la boîte à outils pour l’IA faite maison
Lenovo ajoute à ses infrastructures commercialisées à l’usage des configurations à base de GPU Nvidia et le système de refroidissement à eau Neptune. Des outils de monitoring permettent d’en limiter les coûts. Lire la suite
-
Actualités
13 sept. 2024
OCI Supercluster : Oracle veut mettre sur pied un HPC de 2,4 ZettaFLOPS
Lors de CloudWorld 2024, Oracle a annoncé l’extension de son partenariat avec Nvidia afin de développer davantage de « superclusters ». Ces HPC dédiés à l’IA embarquent des dizaines voire une centaine de milliers de GPU réclamant aux équipes d’Oracle de revoir en profondeur les infrastructures réseaux, énergétiques et de refroidissement des data centers. Lire la suite
-
Actualités
03 sept. 2024
Cerebras Systems présente la 3e version de sa puce géante
La startup californienne vient de détailler son processeur WSE-3 aussi gros qu’un wafer lors de la conférence Hot Chips 2024. Sa supériorité par rapport à un Nvidia H100 dans les calculs d’IA n’est pas évidente. Lire la suite
-
Actualités
02 sept. 2024
NIM Agent Blueprints : les plans de Nvidia pour accélérer le déploiement de la GenAI
Après avoir présenté ses microservices NIM, Nvidia propose désormais de les mettre en musique en constituant des agents consacrés au service client, à la recherche médicamenteuse ou à la production de résumés de documents. Une brique de plus pour étayer son segment logiciel. Lire la suite
par- Esther Shittu, News Writer
- Gaétan Raoul, LeMagIT
-
Actualités
29 août 2024
Hot Chips 2024 : de l’accélération pour l’IA, le réseau et les applications
Après les fabricants historiques de processeurs, c’est au tour de l’hyperscaler Azure, du fabricant de contrôleurs Broadcom et d’un laboratoire de recherche universitaire chinois de présenter cette semaine les puces qui accéléreront demain les datacenters. Lire la suite
-
Actualités
28 août 2024
Hot Chips 2024 : IBM présente en avant-première le mainframe z17
La prochaine génération de mainframes IBM disposera d’un processeur Telum II 20 % plus rapide, 70 % plus économe sur les transactions et d’une multitude d’accélérateurs Spyre pour l’IA. Lire la suite
-
Actualités
27 août 2024
Hot Chips 2024 : Intel dévoile des puces axées sur le haut débit
À l’occasion du salon qui se tient cette semaine à l’université de Stanford, Intel a présenté un Xeon 6-D conçu pour router très rapidement les données de l’IA et un chip OCI capable de les transférer à pleine vitesse jusqu’à l’autre bout d’un datacenter. Lire la suite
-
Actualités
20 août 2024
Infrastructures d’IA : AMD rachète ZT Systems
L’acquisition de ce fabricant de machines de pointe doit permettre à AMD d’avoir le savoir-faire nécessaire pour encourager les hyperscalers à utiliser ses accélérateurs plutôt que ceux de Nvidia. Lire la suite
-
Actualités
07 août 2024
Moins de 10 % des entreprises auraient pleinement intégré l’Intelligence artificielle
D’après une étude du MIT, commanditée par Infosys, l’IA n’est pas encore pleinement adoptée par les grands groupes. Ces derniers réfléchissent à la meilleure infrastructure pour développer leurs projets. Plusieurs freins limiteraient encore cette préparation. Lire la suite
-
Actualités
06 août 2024
IA : Groq lève 640 millions de dollars pour muscler son cloud dédié à l’inférence
La société américaine continuera de concevoir des puces consacrées à l’IA et de mettre à jour sa suite logicielle, deux domaines dans lesquels Nvidia règne en maître. Cependant, elle mise avant tout sur une plateforme concurrente de Vertex AI, Amazon Bedrock ou Azure AI. Lire la suite
par- Gaétan Raoul, LeMagIT
- Esther Shittu, News Writer
-
Actualités
02 août 2024
Processeurs : Intel et AMD livrent leurs résultats et leurs stratégies
AMD bat tous les records de vente quand Intel, qui engrange tout de même deux fois plus de chiffre d’affaires, reconnaît des résultats décevants. En coulisses, Intel investit lourdement dans son avenir et AMD tente de capitaliser sur l’existant. Lire la suite
-
Actualités
01 août 2024
Nvidia veut mettre l’IA générative au service de la conception 3D
Le spécialiste des cartes graphiques a présenté des modèles d’IA générative disponibles sous forme de microservices. Ils doivent favoriser l’adoption du framework OpenUSD et simplifier la conception d’environnements 3D, dont les métavers. Lire la suite
par- Esther Shittu, News Writer
- Gaétan Raoul, LeMagIT
-
Actualités
24 juil. 2024
IA générative : Llama 3.1 405B, le champion de Meta pour détrôner OpenAI
Meta a terminé l’entraînement de son grand modèle de langage doté de 405 milliards de paramètres. Outre le fait qu’il égale (ou presque) Anthropic et OpenAI avec un LLM « open weight », le géant des réseaux sociaux se rapproche des équipementiers et fournisseurs cloud, pour mieux cibler les entreprises. Lire la suite
-
Actualités
22 juil. 2024
Mistral AI s’associe à Nvidia pour entraîner Mistral NeMo 12B
Mistral AI et Nvidia ont développé conjointement Mistral NeMo 12B, un « remplaçant immédiat » à Mistral 7B conçu pour s’exécuter sur le système d’inférence conteneurisé Nvidia NIM. Lire la suite
-
Actualités
17 juil. 2024
IA générative sur site : LightOn et HPE proposent une offre commune
Ce 17 juillet, HPE a annoncé un partenariat avec la startup française LightOn spécialisée dans l’IA générative. L’objectif, héberger sa plateforme Paradigm (permettant entre autres d’obtenir un RAG sur étagère) sur les serveurs GPU de l’équipementier américain déployés sur site. Lire la suite
-
Actualités
15 juil. 2024
IA générative : Fujitsu tient son ChatGPT sur site
L’équipementier japonais développe depuis le début de l’année Private GPT, une solution tout-en-un permettant à ses clients de reproduire l’expérience ChatGPT et d’accéder à un RAG clé en main sur site à moindre coût. Pour l’heure, il compte les POCs. Lire la suite
-
Actualités
12 juil. 2024
En rachetant Silo AI, AMD poursuit sa course à l’armement face à Nvidia
Le 10 juillet, AMD a annoncé sa volonté d’acquérir le laboratoire d’IA finlandais Silo AI. Un moyen de rattraper son retard technique face à Nvidia. Lire la suite
-
Actualités
11 juil. 2024
Samsung étoffe sa stratégie autour de Galaxy AI
Outre l’arrivée de Galaxy AI dans de nouveaux produits, Samsung poursuit le déploiement de ses fonctionnalités d’IA générative en maintenant une approche de déploiement hybride entre les smartphones et le cloud. Lire la suite
-
Actualités
08 juil. 2024
HPE met à jour ses infrastructures d’IA pour l’entreprise
Après avoir dévoilé en 2023 des machines pour centres de supercalcul, HPE a présenté lors de son salon Discover des machines Proliant équipées de H200, des bundles pour l’inférence et des outils d’administration. Lire la suite
par- Scott Sinclair, Practice Director
- Yann Serra, LeMagIT
-
Actualités
02 juil. 2024
Mémoires pour puces IA : SK Hynix investit 57 milliards de dollars
Le fondeur sud-coréen répond à la demande croissante de mémoires pour puces IA avec un investissement massif jusqu’en 2028, alors que les fabricants de puces mémoire intensifient leur production. Lire la suite
-
Actualités
20 juin 2024
Pure Storage : « nous adaptons nos offres à l’IA pour le prestige »
Le fabricant de baies de stockage dévoile un nouveau programme commercial adapté aux fournisseurs de GPU en cloud et des fonctions qui rendent ses baies plus commodes pour les travaux d’inférence. Lire la suite
-
Actualités
17 juin 2024
Oracle devient le deuxième cloud privilégié d’OpenAI
Oracle et OpenAl se sont associés pour étendre Azure Al à OCI. Le but est de fournir des « capacités supplémentaires » à l’éditeur de ChatGPT. Azure reste son partenaire cloud privilégié, et même exclusif pour l’entraînement des modèles. Lire la suite
-
Actualités
10 juin 2024
Cisco Live : un cluster de calcul IA, des sondes locales et Splunk
L’équipementier dévoile une infrastructure convergée Nexus HyperFabric, l’intégration du réseau local au monitoring de ThousandEyes, ainsi que des connexions entre FSO et Splunk. Lire la suite
-
Actualités
07 juin 2024
GPT-in-a-Box : Nutanix promet du « One click GenAI »
Après des partenariats noués avec Hugging Face et Nvidia, et sa solution GPT-in-a-Box 2.0, Nutanix entend simplifier le passage en production des charges de travail GenAI en entreprise. Lire la suite
-
Actualités
05 juin 2024
PC infusé à l’IA : comment AMD, Intel et Nvidia se font la course
Les principaux fondeurs ont profité du Computex 2024 pour lancer leurs stratégies agressives en matière de puces dédiées à l’intelligence artificielle et s’imposer sur le marché florissant des PC infusés à l’IA. Lire la suite
-
Opinion
28 mai 2024
Forrester : se préparer à l’ère du PC IA
Les fabricants de PC s’invitent à la fête de l’intelligence artificielle. Il existe désormais un certain nombre d’appareils qui intègrent du matériel d’accélération de l’IA. Lire la suite
par- Andrew Hewitt - Analyste, Forrester
-
Projet IT
28 mai 2024
Derrière Mad Max Furiosa, une infrastructure au service de l’IA
Le studio australien KMM a remplacé ses stations de travail, son réseau et sa baie de stockage par des équipements dernier cri, dans le but d’utiliser l’IA générative pour accélérer la production de son film. Lire la suite
-
Actualités
23 mai 2024
Copilot+ PC : Microsoft lance une gamme de PC infusés à l’Intelligence artificielle
Microsoft annonce une nouvelle catégorie de laptops qui feront tourner une IA en local. Pour les experts, le succès auprès des entreprises dépendra des prix et de la manière dont ces PCs exécuteront les logiciels les plus populaires. Lire la suite
-
Actualités
22 mai 2024
Dell World 2024 : Dell dévoile sa stratégie AI Factory
Dans le but de simplifier les déploiements d’IA sur site, Dell dévoile des PC Copilot+, un serveur XE9680L refroidi à l’eau, un switch réseau avec des ports 800 Gbit/s et une baie NAS totalisant 368 Po de capacité. Tout est intégré avec des logiciels. Lire la suite
-
Actualités
06 mai 2024
Les (très) bons résultats d’AWS bientôt boostés par l’IA générative
AWS a connu un net rebond au premier trimestre 2024. L’IA générative devrait lui permettre de continuer sur cette tendance, alors que la filiale IT d’Amazon reste le moteur de la croissance et la « cash machine » du groupe. Lire la suite
par- Philippe Ducellier, Rédacteur en chef adjoint
- Caroline Donnelly, Journaliste
-
Guide
03 mai 2024
Next’24 : les annonces clés et la stratégie IA de Google Cloud
Ce guide revient en détail sur les annonces phares de Google Cloud lors de son événement Next’24 qui permettent de tracer sa stratégie IA. Lire la suite
-
Actualités
29 avr. 2024
Google muscle ses ambitions dans l’IA
La présentation des résultats financiers du premier trimestre 2024 d’Alphabet a montré que la maison mère de Google se restructurait et investissait massivement dans l’IA. Une priorité confirmée par son PDG, Sundar Pichai. Lire la suite
par- Philippe Ducellier, Rédacteur en chef adjoint
- Cliff Saran, TechTarget - ComputerWeekly
-
Actualités
19 avr. 2024
Llama 3 : Meta, ou la folie des ordres de grandeur
Un jour après la disponibilité officielle de Mixtral 8x22B, Meta a annoncé LLama 3, sa troisième collection de modèles « open weight », sous licence propriétaire permissive. Le géant des réseaux sociaux rattrape ses concurrents, au prix d’investissements techniques et humains conséquents… et d’une plus grosse empreinte carbone. Lire la suite
-
Actualités
11 avr. 2024
Intel dévoile Gaudi3, sa réponse aux GPU de Nvidia
Le nouveau GPU d’Intel serait plus rapide et plus économique que l’actuelle puce H100 du leader du marché. Gaudi3 aura aussi le mérite d’être disponible en quantité dès cet été. Lire la suite
-
Guide
11 avr. 2024
GTC 2024 : le guide du nouveau leadership de Nvidia
Porté par l’actuelle déferlante de projets en IA, Nvidia devient la locomotive des ventes informatiques. Lors de sa dernière conférence, le constructeur a dessiné les prochaines évolutions de l’IT. Ce guide fait le point. Lire la suite
-
Actualités
09 avr. 2024
Stockage : NetApp et Pure Storage misent sur l’IA simple et peu chère
Les deux fabricants ont annoncé des connecteurs qui permettent de nourrir les IA génératives vendues par Nvidia avec les données stockées sur leurs NAS. Une technique connue sous le nom de RAG. Lire la suite
-
Actualités
05 avr. 2024
Serveurs : Schneider Electric industrialisera le refroidissement liquide
Faire circuler du liquide dans les serveurs est la seule solution pour refroidir les calculs intensifs de l’IA. L’équipementier proposera une solution qui permettra d’en finir avec les installations bricolées au cas par cas. Lire la suite
-
Actualités
04 avr. 2024
Accélérateurs : une fondation se mobilise contre Nvidia
Intel, ARM, Qualcom, Fujitsu se réunissent dans la fondation UXL, affiliée à la fondation Linux, pour militer contre les outils de développement de type CUDA qui produisent du code seulement pour les GPUS Nvidia. Lire la suite
par- Esther Shittu, News Writer
- Yann Serra, LeMagIT
-
Actualités
28 mars 2024
Stockage : DDN accélère sa solution de référence pour Nvidia
Le fabricant lance une version « Turbo » de sa baie EXAscaler AI400X2 que Nvidia recommande à tous les clients de ses calculateurs d’utiliser. La baie met surtout en valeur les derniers contrôleurs réseau de Nvidia. Lire la suite
-
Actualités
27 mars 2024
Stockage : IBM met toutes les données de l’entreprise dans l’IA
En démonstration lors de la conférence GTC 2024 de Nvidia, les nouvelles baies Storage Scale System 6000 mettent du très haut débit entre les données qu’une entreprise stocke ailleurs et les serveurs de calculs DGX. Lire la suite
-
Actualités
25 mars 2024
Jensen Huang : « Nvidia redynamise le marché des datacenters »
Le patron de Nvidia prédit une relance des investissements dans les datacenters au profit de nouveaux serveurs accélérés pour l’IA. Étant de loin le leader dans ce domaine, Nvidia se voit même devenir le No 1 de l’informatique. Lire la suite