L'IA en phase de décollage dans les grandes entreprises

Le Cigref a organisé un colloque sur « la gouvernance de l'intelligence artificielle dans les entreprises » afin de sensibiliser ces dernières aux enjeux et aux opportunités de cette technologie. Les enjeux sont certes économiques, mais aussi juridiques et éthiques. Le Cercle IA du Cigref a présenté les grands axes de ses travaux, restitués dans un Livre Blanc.

Le colloque sur l'Intelligence artificielle organisé la semaine dernière par le Cigref pour faire le point sur l'utilisation de cette technologie dans les grandes entreprises a fait carton plein. L'événement a rassemblé quelque 180 participants, effectif inattendu a priori pour cet intitulé. Preuve de l'actualité du sujet, le colloque s'est tenu au moment même où cinq des principaux acteurs mondiaux du numérique et de l'Internet (Google, Amazon, Facebook, IBM et Microsoft) créaient une association à but non lucratif autour du sujet afin de mieux faire connaître l'IA et d'en définir les bonnes pratiques.

« On parle d'intelligence artificielle depuis 60 ans », rappelle Tony Pinville, CEO de la start-up Heuritech, spécialisée dans le deep learning. « Les réseaux de neurones se développent maintenant, car on dispose de volumes de données suffisants pour les alimenter et de la puissance de calcul nécessaire pour les traiter ». Effectivement, les technologies sont désormais disponibles et les grandes entreprises n'hésitent plus à les utiliser.

Définir le cadre juridique de l'IA

Pour Françoise Mercadal-Delasalles, directrice des Ressources et de l'Innovation à Société Générale, « L'IA est déjà présente dans la banque où on l'utilise pour le scoring, par exemple. Par sa capacité à traiter plus d'informations plus rapidement et avec moins d'erreurs que nous, elle va aider à piloter les entreprises de façon plus précise et elle va favoriser la création des nouveaux services de demain ».

Toutefois, avant de déployer ces algorithmes « intelligents » à grande échelle, il convient de répondre aux questions relatives à l'utilisation des données, à la gouvernance de cette intelligence et au cadre juridique de ces nouveaux services. Définir un cadre juridique adapté à l'IA est absolument nécessaire. « L'IA est présente dans de nombreux domaines. Les robots logiciels rédigent des articles, font des diagnostics médicaux, traitent de questions juridiques, mais si une erreur est commise, qui est responsable ? », interroge Alain Bensoussan, avocat spécialisé en droit du numérique.

L'adoption de l'IA dépend de la confiance qu'elle inspire

Laurence Devillers, professeur à l'université Paris Sorbonne 4 et spécialiste des robots sociaux, insiste quant à elle sur l'importance de travailler sur les données. « Il faut savoir d'où viennent les données, si le public est consentant pour qu'elles soient utilisées, définir des règles de protection des données et des outils de vérification du respect de ces règles ».

Le déploiement de l'IA ne sera accepté par les usagers que s'ils ont confiance dans les entreprises et les services. « Le groupe Axa s'est engagé à ne pas vendre les données personnelles de ses assurés », souligne Cécile Wendling, responsable de la Prospective du groupe Axa, qui considère cette confiance absolument nécessaire. « Dans l'assurance, elle favorisera l'acceptation des innovations comme, par exemple, la voiture autonome ».

Les débats ont montré que les controverses étaient nombreuses et qu'elles étaient loin d'être résolues. Il faudra certainement encore du temps et d'autres débats pour arriver à la nouvelle ère ébauchée par le philosophe Bernard Stiegler en conclusion du colloque. Il plaide pour une nouvelle approche du travail où l'intelligence collective favorisera la création de nouveaux savoirs.

 

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close