Apple Inc.

Pourquoi Apple Intelligence a besoin d’ouverture

Pour leurs premiers pas, les fonctions d’IA générative de macOS, iOS et iPadOS souffrent d’un éventail de cas d’usage limité. Sans compter l’extension exclusive à ChatGPT et l’absence d’accès à ces fonctions pour les développeurs.

Disponible depuis plusieurs mois dans d’autres pays, Apple Intelligence fait tout juste ses premiers pas en Europe et en France depuis iOS/iPadOS 18.4 et macOS 15.4. Mais la révolution n’est pas encore au rendez-vous.

Au programme, principalement, des résumés un peu partout, dans les notifications et les courriels, des propositions de réponses toutes faites aux messages, des assistants d’aide à la rédaction, une gomme magique et une recherche plus fouillée dans les photos, des capacités ludiques de génération d’image, ou encore un début de recherche visuelle sur les iPhone les plus récents. Un peu d’utile pour beaucoup d’accessoire. De quoi renvoyer aux interrogations de Gabe Knuth sur les véritables cas d’usage de l’IA générative locale sur le terminal et une éventuelle killer app.

Mais peut-être cette dernière n’a aucune raison de venir de l’éditeur du système d’exploitation et du constructeur du matériel : peut-être serait-il judicieux de laisser cela aux développeurs tiers en faisant confiance à leur créativité ?

Pour cela, encore faudrait-il qu’ils puissent profiter des capacités dédiées du système d’exploitation et du matériel sous-jacent. Las, pour le moment, Apple ne leur donne pas accès à grand-chose. 

Depuis novembre dernier, les développeurs peuvent donner accès à Siri et à Apple Intelligence le contenu affiché à l’écran pour alimenter les App Intents : de quoi permettre au système de suggérer à l’utilisateur des contenus et actions accessibles au sein d’une application.

Depuis janvier, les développeurs peuvent intégrer les outils d’aide à la rédaction à leurs applications. Et depuis février, ils peuvent profiter des capacités de génération d’images ou de réponse semi-automatique, ainsi que celles de résumé de message de hiérarchisation des notifications. 

Ce qu’a fait là Apple, c’est en somme de permettre d’embarquer leurs applications dans les cas d’utilisation qu’il a identifiés. Et pas d’ouvrir ses capacités d’IA générative aux cas d’utilisation qu’eux-mêmes seraient susceptibles d’imaginer. De quoi brider leur créativité ou les contraindre à solliciter des capacités de GenAI tierces, en local ou en mode cloud.

Apple Intelligence peut d’ailleurs lui-même recourir au cloud, en l’occurrence à ChatGPT d’OpenAI. Mais en ce qui les concerne, de manière moins avancée et riche que l’application maison d’OpenAI. 

Surtout (et c’est un autre bémol), Apple ne permet pas à l’utilisateur final de choisir, dans les réglages système, un autre fournisseur, comme Mistral, Anthropic ou même OVH pour ne mentionner qu’eux. Et cela quand bien même tous ces fournisseurs proposent des API compatibles avec celles… d’OpenAI. 

On pourrait souhaiter qu’Apple propose un réglage plus ouvert à ses utilisateurs finaux. Ou qu’il offre aux éditeurs de services et d’applications d’IA générative des interfaces, pour que, une fois leur application installée, l’utilisateur puisse choisir laquelle sera sollicitée et aller au-delà des seules capacités des modèles locaux embarqués sur le terminal. Imaginons une seconde que l’application HuggingChat dispose de telles capacités d’intégration…

Et si, cerise sur le gâteau, Apple proposait cela pour des applications spécialisées dans l’exécution de modèles locaux choisis par l’utilisateur comme LM Studio, par exemple ?

Rêvons un peu, cela ne coûte rien, surtout à l’approche de la WWDC 2025. Mais Apple Intelligence gagnerait vraisemblablement à plus d’ouverture. Un peu comme avec ARKit.

Pour approfondir sur PC, Mac, terminaux et périphériques