lily - stock.adobe.com
Cowork : Anthropic teste Claude Code au-delà de la programmation
Cowork reprend les grandes lignes de Claude Code et les adapte à la majorité des tâches impliquant l’usage d’un ordinateur. À l’instar de Computer Use, l’outil est une expérience grandeur nature. Anthropic assume cette approche risquée et entend les multiplier pour nourrir sa galerie de produits.
Cette semaine, Anthropic a annoncé la préversion de recherche de Cowork. Elle est accessible pour les abonnés Claude Max (100 ou 200 dollars par mois par usager) dotés de l’app macOS. Cowork peut être présenté comme la réunion de Claude Desktop et Claude Code. Constatant que les développeurs n’utilisent pas uniquement l’assistant de programmation pour son usage premier et que les non-développeurs se mettent à Claude Code, la société en a repris les fondations techniques pour en faire un agent/assistant tout court.
Claude Code, mais pour les non-développeurs
Comme avec Claude Code, il s’agit de donner accès à un dossier. Le LLM peut ensuite « lire, modifier et créer des fichiers dans ce dossier ». L’une des capacités les plus simples consiste à ranger l’intérieur d’un dossier, par exemple un écran d’accueil. Mais Cowork peut également rassembler des informations réparties dans plusieurs documents pour établir un rapport, extraire des valeurs de photos de tickets de caisse pour les intégrer dans une feuille de calcul. Pour aller plus loin, Cowork peut être connecté à Claude dans Chrome afin de rechercher des données sur le Web. Préparation de présentation PowerPoint, création d’un fichier Excel… c’est Claude Code « pour le reste de vos tâches », résume Anthropic.
Techniquement, l’outil reprend les fondations de l’assistant de programmation, c’est-à-dire le SDK Claude Agent. Cowork s’exécute en local à l’aide de Claude Desktop pour donner accès aux fichiers requis au LLM distant (dans la démonstration disponible, la startup exploite Claude Opus 4.5, mais il est possible d’en changer). Celui-ci analyse la requête et il crée un plan de résolution, subdivise les tâches et les confient à des sous-agents, les exécute depuis une machine virtuelle intégrée (au besoin en parallèle) afin de fournir le résultat de son travail. Cela fonctionne également pour les tâches de longue durée. Les utilisateurs peuvent empiler les requêtes en attente.
Chaque étape est référencée, le modèle affiche une partie de son raisonnement et il est possible d’intervenir manuellement pour corriger une tâche qui n’irait pas dans la bonne direction.
Cowork, un agent « potentiellement destructeur »
En principe, Cowork ne doit pas sortir de son pré carré. Il n’a accès qu’aux dossiers qui lui ont été explicitement confiés et doit demander l’autorisation pour des modifications importantes.
Néanmoins, Anthropic ne fait qu’étendre les principes du Vibe Coding aux tâches de bureautique. « Claude peut entreprendre des actions potentiellement destructrices (telles que la suppression de fichiers locaux) si on lui en donne l’ordre », prévient Anthropic dans un billet de blog. « Comme il y a toujours un risque que Claude interprète mal vos instructions, vous devez lui fournir des indications très claires sur ce genre de choses ».
Dans sa documentation, la société recommande de faire travailler Cowork sur des copies de fichiers dans un dossier dédié. Et de préciser que son usage est plus gourmand en ressources que la simple génération de texte.
En outre, comme tous les grands modèles de langage du marché, ceux des familles Claude sont sensibles aux injections de prompts, surtout quand il recherche des informations sur le Web.
L’entreprise insiste sur les mesures prises lors de la phase d’apprentissage par renforcement de ses modèles pour reconnaître et refuser les instructions malicieuses. À l’inférence, des classifieurs scannent les contenus non vérifiés en entrée et labellisent les potentielles injections. Toutefois, le « risque n’est toujours pas nul ».
« Nous avons mis au point des défenses sophistiquées contre les injections de prompts, mais la sécurité des agents – c’est-à-dire la tâche de sécuriser les actions de Claude dans le monde réel – est encore un domaine de développement actif dans l’industrie », rappelle Anthropic.
L’utilisateur est responsable des contenus générés par Claude
Dans tous les cas, le fournisseur ne recommande pas le traitement de données sensibles, dont les données financières. Il est possible de limiter l’accès à des sites de confiance. Attention également aux serveurs MCP potentiellement connectés à Cowork.
Si quelque chose se passe mal, il est temps d’arrêter la tâche, suggère-t-il.
D’autant que selon son équipe légale, « l’utilisateur demeure responsable de toutes les actions prises par Claude en son nom ».
« Ceci inclut tout contenu publié ou message envoyé, les achats ou les transactions financières, les données consultées ou modifiées, le respect des conditions des sites Web tiers, y compris les restrictions d’accès automatisé », peut-on lire dans la documentation.
Ce n’est pas vraiment une surprise. Toutefois, le fournisseur anticipe que de nouveaux usagers, peu habitués au comportement des outils agentiques s’en servent. C’est d’ailleurs un des objectifs de cette préversion de recherche. Il s’agit d’améliorer les fonctionnalités existantes. Anthropic prévoit déjà d’y ajouter la synchronisation entre appareils, d’intégrer Cowork à Windows et d’en renforcer la sécurité. Cowork sera proposé dans d’autres forfaits de Claude. Une liste d’attente est disponible.
Selon Boris Cherny, responsable du développement de Claude Code, Cowork a été développé en une semaine et demie… majoritairement par Claude Code lui-même.
La stratégie de l’éprouvette
Cette manière de travailler à partir d’un prototype largement disponible, Anthropic l’érige en stratégie de développement. Le 13 janvier, l’entreprise a également dévoilé l’expansion d’une équipe intitulée Labs, responsable de tester les capacités des modèles Claude et ses outils afin de bâtir des « expériences », puis des produits.
« Mike Krieger – qui a cofondé Instagram et a passé les deux dernières années en tant que Chief Product Officer d’Anthropic – rejoint Labs pour construire aux côtés de Ben Mann [cofondateur d’Anthropic, N.D.L.R] », indique la société dans un communiqué de presse. « Ami Vora – qui a intégré Anthropic à la fin de l’année 2025 – dirigera l’organisation Produit, en étroite collaboration avec Rahul Patil, notre CTO, pour développer les expériences de Claude […] ».
« Nous disposons désormais de la structure adéquate pour soutenir les mouvements les plus critiques pour notre organisation de produits », ajoute Daniela Amodei, présidente d’Anthropic. Il s’agit de « découvrir des produits expérimentaux à la frontière des capacités de Claude, et les développer de manière responsable pour répondre aux besoins de nos entreprises clientes et de notre base d’utilisateurs en pleine croissance ».
Ce n’est pas la première fois qu’Anthropic teste une solution en avoir validé l’innocuité. Il faut se rappeler « Computer Use », un outil servant à laisser les commandes d’un ordinateur à Claude 3.5.
