AWS veut simplifier le Deep Learning pour les entreprises

AWS distille ses technologies de Deep learning associé à sa plateforme de eCommerce Amazon pour les façonner sous la forme de services pour les entreprises.

Petit à petit, AWS se bâtit un portefeuille d’outils dédiés à l’Intelligence artificielle. Et cette édition 2016 de la conférence Re:Invent qui se tient actuellement à Las Vegas a justement permis d’assoir AWS sur ce terrain. Si IBM, Google, Salesforce ou encore Microsoft se sont positionnés sur ce créneau, AWS n’avait pas d’offres très étendues pour venir rivaliser véritablement.

Chez la firme de Seattle, l’approche se veut volontairement axée sur la simplification des usages, comme il est de coutume. C’est bien un des messages que la société a tenté de faire passer lors de l’annonce de trois services : un service de TTS (text-to-speech) nommé Polly, un autre de reconnaissance d’image (Rekognition) et enfin (surtout), un service de création intuitive de bots (Lex). Tous ont deux points communs : primo,  ils s’adossent à des outils précédemment utilisés (et donc éprouvés) par AWS dans d’autres services, à savoir l’assistant virtuel et vocal Alexa (qui contrôle le boîtier Amazon Echo) et Amazon Prime Photos, un service de stockage de photos. Et deuxio,  ces services s’adossent précisément à des algorithmes de Deep Learning, qui ont donc pu être « éduqués » - et industrialiser sous la forme de services pour les entreprises.

Pour mémoire, le Deep Learning est un sous-ensemble du Machine Learning (lui-même un sous-ensemble de l’intelligence artificielle) qui s’appuie sur le principe de l’apprentissage automatique de connaissances à partir d’ingestion de grandes quantités de données. Celles-ci sont ainsi digérées par de puissants algorithmes, qui déterminent des schémas et des modèles types pour différents cas d’usage, comme le décrit Werner Vogels, le CTO d’AWS dans un billet de blog.

Seulement voilà : pour que le Deep Learning donne de bons résultats, les entreprises doivent préparer les données à injecter, travailler à mettre au point les algorithmes et enfin  les alimenter pour accélérer les capacités d’apprentissage. Ce qu’ AWS considère comme étant très chronophage et au final l’apanage de « peu de développeurs ».

Par exemple, la mise en place d’outils Watson d’IBM dans les entreprises est sujette à de longues phases d’apprentissage indispensables qui allonge la durée d’implémentation des projets.

Reconnaissance du langage et vocale

Dans Rekognition,  par exemple, l’utilisateur exploite les modèles résultants de l’analyse et du traitement de milliards de photos du service Amazon Prime Photos. Le service détecte et identifie ce que représente l’image, tant au premier qu’au deuxième plan, et lui applique une étiquette, avec un niveau de confiance des résultats, comme l’indique un autre billet de blog. Cela peut s’appliquer logiquement à des scénarii de reconnaissance faciale à des fins d’identification par exemple. On peut aussi imaginer des analyses contextuelles réalisées à partir d’images collectées sur les réseaux sociaux pouvant être utilisées dans des campagnes marketing.  

Dans Polly, le service de TTS exploite le Deep Learning pour reconnaître les intonations à partir d’un texte, ou interpréter les homographes ou les acronymes. Parmi les cas d’usage, AWS cible surtout les applications ayant la nécessité de fournir des interfaces vocales (47 voix dans 24 langages).

Enfin, avec Lex, AWS ouvre un peu plus le moteur d’Alexa. Ce service expose les mécaniques de reconnaissance automatique du langage et de langage naturel pour développer des interfaces textuelles et vocales intégrées au cœur de chatbots. Ces derniers sont en fait des agents virtuels conversationnels qui peuvent être intégrés à des sites Web, des messageries instantanées ou encore à des applications mobiles. Lex permet donc de créer son propre chatbot directement depuis la console AWS.

Selon Jeff Barr, évangéliste en chef chez AWS, avec Lex, la création suit un processus court qui consiste à élaborer des phrases types qui permettent de guider la conversation, de créer une interaction avec l’interlocuteur quand celui-ci doit fournir des informations et utiliser ces données pour finaliser la tâche. L’une des clés est justement de pouvoir associer des flux Lambda au dispositif pour relier ces commandes du bot au back-end de l’entreprise (un système de gestion des commandes  ou de réservations par exemple). Si Lex permet aujourd’hui de relier son bot Lex à Facebook Messenger, AWS explique travailler à des connecteurs vers Salesforce, Microsoft Dynamics, Marketo, Zendesk, QuickBooks et HubSpot.

Avec Lex, AWS rejoint des acteurs comme IBM ou encore Microsoft qui se sont récemment positionnés sur le créneau du développement rapide et pré-mâché d’agents conversationnels. IBM compte distiller certaines des lourdes briques de Watson dans Watson Virtual Agent ; Microsoft propose de son côté Azure Bot Service et travaille à l’élaboration d’un framework dédié Bot Framework – que nous avons pu voir lors de la dernière édition des TechDays.

D’ailleurs pour AWS, le Deep Learning est devenu un élément prioritaire. A tel point le groupe s’est engagé à contribuer du code au projet Open Source MXNet. Ce projet devient par la même occasion  le framework « préféré » d’AWS en matière de Deep Learning.

 

Pour approfondir sur Applications et services

Close