Publié le 18/10/2021 Par Meriteam

Retour sur le salon Big Data & AI Paris 2021. Nos consultants décryptent pour vous les 6 grandes tendances technologiques qui vont animer les entreprises dans les mois à venir.

Les 28 et 29 septembre derniers se tenait la 10e édition du salon Big Data et AI Paris. L’opportunité
pour les 12 000 participants de découvrir de nouvelles bonnes pratiques techniques ou
organisationnelles, d’être en contact direct avec les experts, de se positionner par rapport au
marché, d’affiner leur veille technologique et de détecter les défis émergents. Six consultants
Meritis témoignent de leur retour d’expérience.
Après 18 mois marqués par la crise sanitaire, l’évènement parisien était cette année particulièrement
attendu. Covid oblige, le salon proposait un accès hybride aux quelque 350 conférences et ateliers,
en ligne ou en présentiel au Palais des Congrès. Que retenir de ces deux jours intenses ?
Nos consultants vous présentent six tendances clés en matière de données et d’intelligence artificielle.

Cosultants Meritis au salon Big Data et intéligence artificielle de Paris 2021

Tendance N°1 : l’open data, nouvel eldorado des big data

Voilà le premier enseignement à retenir : oui, le covid a changé la donne et accéléré les projets grâce
notamment aux possibilités offertes par l’open data. Plus les entreprises disposeront d’un volume
important de données, plus elles pourront entraîner leurs IA. Résultat, « de nombreuses startups ont
su profiter de cette ouverture des données par l’État, confirme Abdelkader Hamadi. L’exemple le plus
probant est certainement celui de Guillaume Rozier, fondateur de l’application CovidTracker et du site
Vite ma dose. Sans l’open data, son outil n’aurait jamais vu le jour. »


Un esprit d’ouverture souffle résolument sur le monde des données, à l’image du groupe MAIF qui
« développe une librairie open source pour permettre de visualiser ses données. Cette culture du
partage fait véritablement partie des valeurs du groupe mutualiste et ça fait toute la différence
avec certaines entreprises dont l’objectif est simplement de vendre leurs solutions », affirme Clara
Véré.


« Ouverture, partage et valeurs » s’impose comme le nouveau triptyque en matière de politiques de
données.
➢ En savoir plus sur l’initiative de la Maif

Tendance N°2 : la souveraineté, gage de contrôle des données

Malgré une tendance affirmée, l’open data n’est pas la voie unique privilégiée par les entreprises. En
effet, une organisation, quelle qu’elle soit, doit aussi se montrer garante de ses données les plus
sensibles. Une maîtrise des données qui n’est pas sans poser quelques questions niveau cloud.
Par conséquent, en parallèle à ce mouvement d’ouverture, on assiste également au développement
d’alternatives souveraines face aux leaders américains que sont les clouds Azure et AWS.


Principal enjeu : l’usage réel des données une fois stockées dans le cloud. En effet, les deux leaders
du marché imposent tous deux que les données soient stockées sur leur plateforme respective pour
utiliser leurs modèles mais aussi de pouvoir, en retour, utiliser les données hébergées pour faire de
l’apprentissage. « Une fois les données dans le cloud, les entreprises en perdent la maîtrise, avance
Abdelkader Hamadi. Le cloud peut vite devenir une boîte noire car on ne sait pas ce qui est fait de la
donnée, si elle est utilisée ailleurs, ni par qui. »


Désormais, la localisation des données s’impose comme un enjeu national ou européen, comme le
constate Florian Talour : « Thalès par exemple possède déjà son propre cloud d’entreprise. Cette
démarche de type hybride est amenée à se développer dans les années à venir, notamment pour
renforcer l’aspect sécurité. Avec les confinements, le nombre de connexions a explosé, augmentant
considérablement les cybermenaces et les risques de sécurité. Le fait que les données soient
accessibles à tous accentue alors la crainte de cyberattaques pour les entreprises. »

Tendance N°3 : pour une Intelligence Artificielle de confiance

Intelligence Artificielle

L’éthique constitue très certainement le futur de l’intelligence artificielle, tout du moins en Europe.
Comment en effet faire confiance aux outils dotés d’une IA ? Quel modèle pour évaluer le processus
suivi par l’intelligence artificielle ? L‘entreprise concernée est-elle habilitée à proposer un modèle de
confiance ? Peut-on faire confiance à l’IA dans le but d’industrialiser les outils ?

Autant de questions qui n’ont pas manqué d’animer le salon quelques mois à peine après la
publication par la Commission européenne le 21 avril dernier d’un projet de règlement autour de
l’intelligence artificielle. Un « RGPD de l’IA » en quelque sorte combinant droit, normes, éthique et
conformité.

« On sent que les choses avancent côté intelligence artificielle. L’Europe est pionnière en matière de
droit de l’IA. Le futur règlement européen sera différenciant sur le marché et servira de référence
mondiale. Les règles qui s‘appliqueront à l’IA reflèteront les valeurs humaines prônées par l’Union
européenne. Aujourd’hui, les entreprises se posent clairement davantage de questions liées à leur
responsabilité. Mais malgré cette prise de conscience, les contours de l’utilisation de l’IA sont encore
très flous », précise Loïc Veyssiere.

Comme mentionné lors d’une conférence, « le droit de l’IA est l’écume des valeurs ». Et sur ce point,
force est de constater que les entreprises n’en sont pas au même stade de réflexion. Pour certaines,
l’éthique est surtout une question d’image. D’autres en revanche, comme le groupe La Poste, sont
ancrés dans une démarche plus profonde autour d’une question essentielle : comment allier IA et
relation client sans affecter le contact humain ?

Tendance N°4 : quelle approche pour accélérer l’IA ?

L’IA serait-elle la nouvelle data ? En entreprise, cela semble être le cas. Les outils big data de type
Hadoop sont dans l’ensemble bien maîtrisés permettant aux entreprises de se focaliser désormais
sur l’intelligence artificielle. Reste alors à savoir comment la mettre en œuvre ! Pour notre
consultante Lucie Martin, « le deep learning est LA révolution ».
👉🏻 Découvrez notre article dédié pour mieux comprendre le deep learning.

Toutefois, une autre tendance considérée comme le « futur du machine learning » émerge : celle de
l’apprentissage auto-supervisé qui donne la possibilité à la machine d’apprendre automatiquement
sans que les données aient besoin d’être étiquetées manuellement. Une approche de self-learning
utilisée notamment par Facebook dans l’analyse visuelle.

Toutefois, quelle que soit la méthode employée, les entreprises font face à un problème de taille :
85 % des projets liés à l’IA ne vont pas en production ! En réponse, la pratique MLOps se développe
comme l’explique Amady Ba : « Le MLOps, pour Machine Learning Opérations, permet d’appliquer les
méthodes agiles de développement continu issues du DevOps au monde de la data. On dispose
aujourd’hui d’un certain nombre d’outils interopérables, notamment grâce à la suite open source
MLflow. Aujourd’hui, il est plus facile de mettre en œuvre une démarche MLOps efficace sur des
services cloud tels que GCP ou Azure qui disposent nativement des briques fonctionnelles pour nous
permettre de développer, et de faire fonctionner en production et de manière continue de tels
systèmes de machine learning. Pour autant, il est tout à fait possible d’adopter une approche MLOps
sans utiliser les services cloud. »

Tendance N°5 : comment vulgariser l’IA

Si le domaine de l’intelligence artificielle est en pleine ébullition, il semble encore trop tôt pour
détecter une solution miracle qui permettrait au plus grand nombre de faire du machine learning
simplement. Néanmoins, le salon a mis en avant un certain nombre d’outils low code ou même no
code dans le but d’automatiser les tâches les plus complexes et de démocratiser l’accès à l’IA.

Parmi lesquels, le logiciel de reconnaissance optique de caractères (ou OCR pour optical character
recognition) développé par ABBYY qui fait figure de véritable outil d’aide à la décision. Conçue de
façon à reconnaître le type de documents, la solution est capable de prédire l’information,
permettant ainsi aux utilisateurs, en quelques clics à peine, de reproduire certains processus même
complexes sans connaissance technique. D’autres solutions, de dataviz notamment, proposent-elles
aussi des interfaces améliorées pour faire du machine learning facilement et sans coder.

Tendance N°6 : la course aux compétences

la course aux competences, un homme qui cours du des escaliers

Les outils, c’est bien mais ça ne suffit pas. Encore faut-il savoir les utiliser ! Parmi les compétences les
plus recherchées : data engineer, data analyst, data scientist, expert en sécurité des données et
spécialiste de la sécurité réseau auront de la valeur. « Trouver des profils est une chose mais acquérir
les compétences est plus long et difficile. La pente d’apprentissage est souvent assez raide et longue,
notamment lorsque l’on travaille sur les réseaux de neurones. Donc trouver des profils qui savent faire
bien et rapidement, ou capables d’apprendre sera plus compliqué pour les entreprises », poursuit
Lucie Martin.

Pourquoi ? Parce que les profils disponibles ne possèdent souvent qu’une vision partielle de la
culture informatique. Quels sont alors les 3 piliers de la data science selon Loïc Veyssiere ? La
technique pour savoir coder, les mathématiques pour les connaissances en algorithme et le métier
pour comprendre pourquoi on fait les choses.

Et de rappeler que la route est encore longue : « Je ne suis pas très impressionné pour le moment.
Même si la plupart des entreprises ‘‘jouent’’ avec des réseaux de neurones et l’intelligence artificielle,
très peu ont su créer une véritable rupture dans leurs pratiques. Et certains domaines comme celui du
BTP sont encore loin d’utiliser la technologie. Aujourd’hui, il est vraiment encore trop tôt pour parler
de révolution industrielle de l’IA. »

Pas encore de commentaires

Publier un commentaire