ThoughtSpot prône une BI qui se consomme comme Google

La société s’appuie sur une interface en langage naturelle et sur un moteur In-Memory pour accélérer l’analyse des données et la création de tableaux de bord.

Rien de moins que le « premier moteur de recherche relationnel ». C’est ainsi que se présente la société californienne ThoughtSpot. Cette start-up, fondée en 2012 et financé à hauteur de 100 millions de dollars par plusieurs investisseurs américains, a décidé d’ouvrir l’analytique et la BI à tous en mimant ce que tous les utilisateurs connaissent : le moteur de recherche Google et son mode de requête ultra-simple reposant sur le langage naturel. Clairement, ThoughtSpot entend cibler les acteurs qui entendent démocratiser la BI dans les entreprises et la création de tableaux de bord. Car pour Scott Holden, le directeur marketing de la société,  « les technologies analytiques sont aujourd’hui compliquées et très segmentées ». Un argument déjà repris par d’autres, d’ailleurs, comme Tableau, Qlik ou encore Microsoft avec PowerBI. Il confirme cibler les utilisateurs de Tableau et Microsoft.

Pour cela, si l’interface utilisateur est certes essentielle lorsqu’on parle de démocratisation auprès de départements métier, ThoughtSpot entend aussi  faire la différence avec son moteur. Son principe : conjuguer traitement en mémoire, génération de tables à la volée et langage naturel pour proposer une technologie « plus abordable ». Cela « s’inscrit dans la nouvelle BI qui demande de la rapidité d’exécution », commente  Scott Holden.

In-Memory et langage naturel

Techniquement, ThoughtSpot propose un nombre de connecteurs qui permet de se connecter aux sources de données hétérogènes, qu’elles soient stockées dans des systèmes internes et métiers, ou dans le Cloud, dans Salesforce par exemple. Ces données sont ensuite chargées et répliquées dans une base In-Memory, dans des tables qui sont interconnectées comme dans le modèle relationnel – d’où cette idée de moteur de recherche relationnel. Les données sont chargées dans les colonnes mais surtout, les tables sont calculées à la volée. Ce qui réduit considérablement les temps de calculs et d’exécution - et donc d’affichage de résultats auprès de l’utilisateur.

Par exemple, ce traitement en mémoire permet de proposer un système d’auto-complétion de requêtes et de charts associés, et ce, sans que les dashboards aient été pré-définis. Les tableaux de bord sont générés encore une fois à la volée. Cette méthode d’exploration visuelle des données est épaulée par un ranking (Data rank) maison qui s’adosse à des algorithmes de Machine Learning. « Cela permet d’aller à la question d’après en quelques secondes », en somme, explique le responsable de la société, rappelant que les requêtes précédentes sont également conservées en mémoire. Ces possibilités de « Smart Data Discovery » seront développées plus en avant dans le courant de l’année, promet-il.

La société a bâti son modèle sur la commercialisation d’une appliance à base de serveurs de commodité (4 nœuds, 4 Go de données sur chaque), commercialisée près de 70 000$. ToughtSpot a étendu ses capacités de déploiement dans le Cloud sur AWS et Azure pour la partie publique, et VMware pour la partie privée notamment.

Mais la société a aussi ajouté une nouvelle ligne : celle de pouvoir embarquer sa technologie dans les applications métiers ou encore via des portails B2B. La société a présenté son offre Embedded Analytics début mars 2017.

Réplication des données et modèle de tarification : les points noirs vus par Gartner

Ce dispositif a permis à ThoughtSpot, qui n’a véritablement débuté la commercialisation de son offre en 2014, à entrer dans le Magic Quadrant de Gartner en 2017, dans la catégorie des acteurs de niche. Microsoft, Tableau et Qlik en sont les leaders.

Si la facilité d’usage via ce mécanisme de recherche, le support ainsi que la vision de découverte intelligente des données sont bien perçus par le cabinet d’analystes, ThoughtSpot doit faire face à quelques points noirs. Gartner liste par exemple la nécessité d’avoir à répliquer les données vers sa base en mémoire alors que la concurrence opère à la source (ce qui limite aussi la quantité de données passée en revue par le système), et un modèle de commercialisation sans offre gratuite – à l’inverse de la concurrence – au profit d’une offre d’essai limitée dans le temps.

« Si le prix de départ pour un déploiement payant a récemment été abaissé, cela constitue une barrière à l’entrée, note Gartner. Si cela va dans la bonne direction, cela diffère des offres d’essai mises en place par la concurrence qui sont gratuites pour un unique utilisateur ou pour une période limitée, mais ont des options à bas coûts pour un petit groupe d’utilisateurs, pour une première étape vers des déploiements plus importants », commente le cabinet d’analystes. Et d’ajouter : « Si le prix et l’offre  sont une barrière à l’adoption, les clients ne se plaignent pas du coût et ne considèrent pas cela comme un frein à des déploiements plus vastes. »

Pour approfondir sur Outils décisionnels et analytiques

Close