Depuis son lancement en novembre 2022, difficile de passer à côté du phénomène ChatGPT. En janvier 2023, soit à peine deux mois après sa sortie, l’IA conversationnelle d’OpenAI comptait déjà plus de 100 millions d’utilisateurs actifs[1]. Alors véritable révolution ou simple effet de buzz ? Basé sur le modèle de langage GPT-3.5, le générateur de texte comporte en effet un grand nombre de limites.
Conçu comme un bot capable de discuter comme un humain, ChatGPT répond à toutes vos questions… ou presque. Malgré ses multiples usages – rédaction de contenu, traduction, génération de code, classification ou extraction de données, etc. –, la v3 actuellement disponible présente certaines limites, à la fois techniques, éthiques ou pratiques, poussant l’éditeur lui-même à indiquer quelques précautions d’utilisation sur son propre site.
1
Le manque d’interprétation
Malgré son nom, l’IA n’est pas intelligente. Le modèle statistique utilisé repose sur des corrélations et non une interprétation du monde externe. Par conséquent, les réponses fournies sont dénuées de « sens » ou de contexte.
2
l’âge des données
Contrairement à un moteur de recherche, ChatGPT n’est pas nécessairement connecté à internet. Or sa base de connaissances s’arrêtant fin 2021, le bot est donc incapable d’intégrer des données issues de l’année 2022. Une limite qui augmente le risque d’erreur ou d’incohérence.
3
Le manque de créativité
Si ChatGPT peut tout à fait créer des contenus originaux – code, scénario, jeu, dissertation… –, il ne peut néanmoins le faire sans un accompagnement humain. Ainsi, plus le prompt sera précis et complet, plus il sera à même de fournir une réponse correcte et impressionnante.
4
Les biais et les erreurs
ChatGPT repose sur un modèle d’apprentissage : plus il a d’informations, plus il peut apprendre. Pour information, la v3 actuelle se base sur 175 milliards de données en entrée. Toutefois, ses réponses restent dépendantes de la qualité des données d’entraînement. Si celles-ci intègrent certains biais, alors les réponses les reproduiront inévitablement. La start-up américaine Textio, spécialisée dans la détection de biais algorithmiques, a ainsi détecté de nombreux biais sociaux[2] lors d’un test de rédaction de 167 annonces d’emploi.
5
L’absence de règle mathématique
ChatGPT reste avant tout un modèle de langage. Par conséquent, il manque de logique dans les questions mathématiques. Le bot ne peut ainsi multiplier correctement que de petits nombres. Mais il s’avère incapable d’expliquer son raisonnement étape par étape sans générer de non-sens.
6
Le manque de format de sortie et d’entrée
ChatGPT est un générateur de texte exclusif. Il n’est ni apte à traiter des données visuelles, vidéo ou audio, ni à transformer les données texte reçues en entrée dans un autre format. Impossible par exemple de créer une infographie à partir de chiffres clés spécifiés dans le prompt.
7
Les réponses ambigües
Impossible de mentionner les sources utilisées pour générer la réponse ! Une limite très contraignante dans le cadre de la rédaction de contenus à forte valeur ajoutée en communication ou en marketing. Nous avons-nous-mêmes fait le test chez Meritis dont vous pouvez consulter le résultat dans l’article : Présentation de ChatGPT par lui-même : tout comprendre de son fonctionnement et de ses limites.
8
La disponibilité
Victime de son succès, ChatGPT est souvent inaccessible du fait d’un trop grand nombre de sollicitations. En résumé, on a du mal à accéder à l’outil et les réponses sont souvent erronées !
Au-delà de ces limitations que la v4 attendue courant 2023 devrait corriger, le bot conversationnel d’OpenAI interroge également par ses conséquences sur le monde de l’éducation. En effet, son usage intensif de la part des étudiants a d’ores et déjà poussé certaines écoles comme Sciences Po à interdire officiellement l’outil. Demain, ces restrictions pourraient s’étendre à l’échelle de tout un secteur d’activité ou même d’un pays, à l’image des limites d’accès à certains réseaux sociaux.
En attendant, plusieurs alternatives au chatbot d’OpenAI existent, à commencer par BARD AI de Google. Parmi les autres solutions possibles : YouChat qui affiche les sources utilisées, Simplified AI Writer dédiée à des domaines spécifiques (e-commerce, branding, blog, social media…), ChatSonic capable de générer des images, ou encore Magic Write, intégré à Canva Docs et qui transforme des mots clés en un texte complet. Si toute IA comporte une limite, bientôt, chaque besoin métier posèdera sa propre IA !
- [1] Selon une étude d’UBS, février 2023
- [2] ChatGPT writes job posts, Textio, janvier 2023
Vos commentaires
Excellent article avec le lien vers l’éditeur et les multiples exemples de sa mise en garde; ce type d’informations est tellement utile pour tout utilisateur plus curieux, et informaticien avéré.
Merci pour cet article et l’explication des limites.
Néanmoins depuis la sortie de GPT-4, certaines ont été levées.
De plus avec la récente intégration de ChatGPT dans l’outil Copilot de Microsoft disponible dans toute la gamme Windows (Win11, Bing, Office 365) l’usage massif du ChatML va se généraliser et on risque de voir apparaitre d’autres biais.
L’actualité de l’IA est très riche et sa « vulgarisation » va avec une vitesse incroyable avec la « poussée » des GAFAM dans ce domaine : Copilot pour Windows, Google ne va pas tarder à également inclure son IA générative Bard dans ses produits et le « Apple GPT » ne devrait pas tarder avec le projet « Ajax ».