Gilles Moyse [reciTAL] : "Il y a fort à parier que les gens qui utilisent ChatGPT vont remplacer les gens qui ne l’utilisent pas"

Entrepreneur, Gilles Moyse est fondateur de la société reciTAL. Dans son ouvrage Donnerons-nous notre langue à ChatGPT (Le Robert, 2023), il revient sur la révolution des modèles de génération automatique de texte (Large language model ou LLM) mais aussi sur les nombreux fantasmes que véhicule parfois l’Intelligence artificielle

  • Temps de lecture: 5 min
 Gilles MOYSE

Big média : ChatGPT a fait revenir l’Intelligence artificielle sur le devant de la scène. S’agit-il d’une véritable rupture dans les technologies d’IA ?

Giles Moyse : Si rupture il y a, elle est davantage sociologique que technologique. La révolution du Deep learning (Apprentissage profond) dans le texte a eu lieu en 2017 avec la création par Google du premier modèle de Transformers. Lorsque OpenAI sort GPT-1 en 2018, GPT-2 en 2019, puis GPT-3 en 2020, la technologie est déjà mature mais l’entreprise s’est vue dans l’obligation de fermer son modèle au public en raison des fake news et des propos haineux que l’outil aurait pu véhiculer, mais également pour conserver la valeur économique potentielle du modèle. Entre 2019 et 2022, OpenAI a donc principalement travaillé à contrôler son modèle en lui ajoutant un « surmoi », lui permettant d’identifier les questions qui généraient une réponse sexiste, raciste, antisémite ou portant sur des actes illégaux – fabriquer une bombe ou déguiser un meurtre en accident par exemple.

BM : Depuis novembre 2022, quels sont les cas d’usage que vous constatez dans les entreprises ?

GM : Beaucoup de gens font désormais de ChatGPT un usage personnel pour rédiger leurs mails, reformuler un texte ou corriger l’orthographe. Des études menées par des chercheurs au MIT montrent notamment que ChatGPT profite davantage aux collaborateurs avec peu d’expérience qu’aux collaborateurs qui cumulent ancienneté et importante capacité de travail.

BM : À court terme, jusqu’où ces applications pourraient aller ?

GM : En entreprise nous allons assister à la « revanche du trombone », cet assistant conversationnel qui fonctionnait sur la base de questions préparées dans les anciennes versions de Microsoft Office. Avant, ce type d’outil était décevant. Avec ChatGPT, des logiciels comme Word, Outlook, Excel ou PowerPoint vont se doter d’un agent susceptible de pré-rédiger un mail ou de générer des slides basées sur une présentation précédente. Concrètement, c’est la fin de la page blanche, même si le risque de standardisation est réel. Selon une étude de la Harvard Business School et du Boston Consulting Group, les consultants qui utilisent ChatGPT sont 40 % moins créatifs que ceux qui ne l’utilisent pas. Le risque est celui d’un « biais de confirmation » que les sondeurs connaissent bien. L’esprit humain est en effet souvent trop paresseux pour modifier complètement une proposition qu’on lui fait. Or si toutes les personnes dans toutes les entreprises utilisent le même ChatGPT, nous allons avoir un souci de diversité.

BM : S’agit-il à vos yeux d’un enjeu de souveraineté économique ?

GM : Les questions de souveraineté économique que pose ChatGPT ne sont pas radicalement nouvelles. Lorsqu’une personne, au ministère des armées, chez Safran ou chez Airbus fait une requête dans ChatGPT, il peut engager des données particulièrement sensibles. Mais il ne s’agit là qu’une nouvelle déclinaison de la problématique de la protection des données personnelles qui se pose également avec les moteurs de recherche et les réseaux sociaux. Et d’un point vue géostratégique, le risque que fait peser l’IA sur nos données sensibles reste secondaire par rapport à notre dépendance vis-à-vis de technologies cloud et hardware américaines. 

BM : Où se situe la France dans la course à l’Intelligence Artificielle ?

GM : À supposer que Mistral et LightOn parviennent à entraîner un modèle du même niveau que GPT-4, personne en Europe n’a la puissance de calcul nécessaire pour en permettre l’utilisation par 100 millions d’utilisateurs comme ChatGPT aujourd’hui. Pour satisfaire ses utilisateurs, OpenAI s’appuie sur près de 30 000 GPU (Graphics Processing Unit), des processeurs spécifiques destinés à accélérer les calculs des modèles d’IA utilisés dans les grands modèles de langue comme ChatGPT. À titre de comparaison, le super calculateur acheté par Scaleway en septembre 2023 équivaut à 1 000 GPU, et le calculateur français Jean Zay à 3 000. En outre Mistral et LightOn sont loin de disposer du volume de données dont OpenAI peut se prévaloir. Ces initiatives sont néanmoins de très haut niveau et à encourager ! Il faut sortir de l’état de fascination dans lequel nous sommes vis-à-vis des solutions américaines, notamment alors que le procès New York Times contre OpenAI et l’AI Act pourraient bien venir bouleverser ce marché.

BM : L’IA fait-elle vraiment peser une menace en termes de destruction d’emplois ? L’intelligence humaine a-t-elle du souci à se faire ?

GM : Déjà en 2013, une étude de l’Université d’Oxford prédisait que 50 % des emplois seraient menacés avant 2020. Ces discours catastrophistes accompagnent toutes les révolutions techniques, sans jamais être vérifiés à long terme, surtout que la révolution de l’IA générative ne concerne pas les cols bleus mais les cols blancs. Il ne faut cependant pas minimiser les changements à venir. Il est certain que nous aurons toujours besoin de gens pour créer des technologies d’intelligence artificielle, les entretenir et les réguler. Mais il y a fort à parier que les gens qui utilisent ChatGPT vont remplacer les gens qui ne l’utilisent pas. Il faut donc apprendre à se familiariser avec ces technologies, anticiper les nouveaux usages et réfléchir aux enjeux en termes de protection des données personnelles ou de temps d’écran.

logo big média
Big média Rédacteur web