Fin 2022, OpenAI lançait ChatGPT et ouvrait la boîte de Pandore. Deux ans plus tard, l’intelligence artificielle (IA) s’invite déjà dans les entreprises, les médias et l’administration. Où en sommes-nous aujourd’hui avec l’IA générative, notamment en Suisse?
L’histoire retiendra novembre 2022 comme le mois où l’intelligence artificielle (IA) est sortie des laboratoires pour entrer dans nos vies. Avec ChatGPT, la start-up américaine OpenAI a pris le monde d’assaut, en mettant à disposition un outil capable de produire du texte à partir de commandes simples, réalisables par chacun, en langage non-informatique. «Rédige-moi un poème dans le style de Baudelaire, des lignes de code en langage C++ ou un résumé du Code suisse des obligations…» La polyvalence textuelle et la simplicité de l’outil ont fasciné 100 millions d’utilisateurs mensuels deux mois après son lancement, et 200 millions d’utilisateurs hebdomadaires en août 2024.
Toutefois, l’outil d’IA générative – que l’on classe parmi la technologie dite des «grands modèles de langage» (LLM) – n’en était qu’à ses balbutiements. Passé l’enthousiasme initial, beaucoup s’en sont détournés. En effet, si ChatGPT et ses équivalents impressionnent parfois, ils produisent également des résultats médiocres et des erreurs grossières, au point d’inventer des faits. Cela a par ailleurs eu le don de rassurer sur une IA dont certains disaient déjà qu’elle allait remplacer l’être humain.
Si l’IA générative n’a pas provoqué le chômage de masse redouté, elle a déjà profondément modifié notre société. Du texte à l’image, en passant par la vidéo, son adoption massive par le grand public a marqué un tournant. Cette technologie, pourtant vieille de plusieurs décennies, atteint selon l’économiste de Stanford Erik Brynjolfsson un potentiel de transformation égal, voire supérieur, à celui d’Internet.
La mutation du marché du travail n’est aujourd’hui plus à craindre: elle a déjà lieu. L’IA générative impressionne, les entreprises et l’administration ne s’y trompent pas. A quoi ressemble l’IA générative depuis le «boom» de fin 2022, et comment a-t-elle transformé le monde du travail? Tour d’horizon.
Des outils très performants mais encore imparfaits
Connaître le fonctionnement des grands modèles de langages permet d’en saisir les limitations, et d’identifier où se trouve leur marge de progression. Ces outils sont d’abord entraînés sur des volumes massifs de données textuelles: documents officiels, articles de presse, livres, contenus Web, code informatique… Cette phase d’entraînement combine apprentissage automatique et ajustements humains. Le modèle apprend ainsi à prédire statistiquement les séquences de mots les plus probables en réponse à une requête.
Derrière leur apparente intelligence, ces modèles opèrent essentiellement par calculs de probabilités. Ils se distinguent en cela du raisonnement humain qui combine logique, causalité et expérience vécue, sans être exempt de biais ou d’irrationalité. Voilà pourquoi ChatGPT et consorts ont une marge d’erreur. Et voilà pourquoi, à mesure qu’ils s’entraînent sur des jeux de données toujours plus grands et qualitatifs pour leurs modèles plus avancés (et plus onéreux), le nombre d’erreurs tend à s’amenuir, et la précision des réponses augmente.
L’évolution des performances entre les versions successives de ChatGPT est particulièrement visible dans les tests standardisés. Ainsi, à l’examen du barreau américain, GPT-3.5 (le modèle originel) se classait parmi les 10% les moins performants des candidats, tandis que GPT-4 (sorti en mars 2023) a atteint le niveau des 10% meilleurs candidats.
Les grands modèles de langage excellent dans de nombreux autres domaines: du savoir encyclopédique aux analyses littéraires, en passant par les mathématiques. Pour ces dernières, ils peuvent résoudre des équations complexes, car ils ont appris les «patterns» du raisonnement mathématique à travers leurs données d’entraînement. Enfin, ChatGPT et d’autres outils similaires peuvent également produire toute sorte de visuels, des logos d’entreprises, aux graphiques, en passant par des images photoréalistes. Ces dernières posent bien sûr toute une série de problème éthiques, et sont déjà utilisées dans la presse.
Les recherches internet en temps réel
A son lancement fin 2022, ChatGPT ne pouvait pas rivaliser avec les moteurs de recherche traditionnels pour une raison fondamentale: contrairement à Google qui explore Internet en temps réel, le modèle n’avait accès qu’aux données utilisées lors de son entraînement. Ses connaissances étaient donc figées, ce qui le rendait rapidement obsolète pour toute information récente. Aujourd’hui toutefois, les utilisateurs payants de l’outil ont accès à des informations actualisées en continu avec la fonctionnalité (payante) «ChatGPT Search», spécifique à la recherche sur la toile.
Le géant américain Google et ses 90% de parts de marché dans le monde (données de décembre 2024) se retrouve confronté à une sérieuse concurrence pour ce qui est de la recherche d’informations. Toutefois, une différence majeure demeure: la capacité qu’a ChatGPT d’extraire directement les informations de ses sources, dispensant à priori les utilisateurs de se rendre sur les sites internet où réside l’information recherchée. Cela peut avoir l’effet de priver les entreprises (notamment médiatiques) d’un précieux trafic sur leurs sites, alors même qu’ils tirent parfois de celui-ci une importante partie de leur revenu – moyennant l’intégration de publicité – et le prospect de voir le clic initial converti en un abonnement payant.
Bien que les informations demandées soient directement compilées par ChatGPT, consulter les sources – que l’outil d’OpenAI propose désormais souvent pour étayer ses réponses – demeure une nécessité, tant le nombre d’erreurs reste substantiel. En effet, l’outil probabiliste préfère encore inventer une énormité que de dire «je ne sais pas». La centralisation du trafic des pages Web vers ChatGPT pourrait ainsi s’en voir retardée.
Multimodalité: une pléiade d’utilisations possibles
A la base purement textuels, les grands modèles de langage ont déjà grandement élargi le champ des possibles. ChatGPT, comme d’autres, est devenu pleinement multimodal. Auparavant, l’outil ne traitait que le texte dactylographié dans la bulle de dialogue. On peut désormais lui demander de traiter des documents et liens URL externes, mais également des captures d’écrans, et photographies. Cela ouvre une pléiade d’utilisations, de la simple synthèse ou traduction d’un fichier PDF à la correction des devoirs manuscrits de son enfant, en passant par l’identification d’un produit électroménager joint en photo, la suggestion des recettes de cuisine sur la base d’une photo prise du contenu d’un frigo…
ChatGPT prend également en charge les commandes vocales depuis septembre 2023, nous permettant par exemple de lui demander de nous faire répéter le livre de cours qu’on lui aura fourni en fichier PDF. Les fonctionnalités vocales ont pris un tournant depuis mi-septembre, avec la fonction vocale avancée. Celle-ci est si réaliste qu’elle permet de mener une conversation authentique avec le robot, préparer un entretien d’embauche ou travailler une langue étrangère.
Utilisation à tous les échelons
Les entreprises sont déjà nombreuses à avoir intégré ces outils. En Suisse, les trois plus grosses capitalisations boursières que sont Nestlé, Roche et Novartis utilisent l’intelligence artificielle pour leurs activités de recherche et de développement. Comme beaucoup d’autres grands groupes, les trois géants ont une utilisation de l’IA qui précède largement l’essor de fin 2022 et qui dépasse la simple IA générative, laquelle prend parfois – à tort – des allures de gadget grand public. Quatre personnes sur dix utilisent les d’outils d’intelligence artificielle tels que ChatGPT en Suisse en 2024, selon une étude Digimonitor.
Une partie du secteur bancaire suisse a d’ores et déjà adopté l’IA générative, comme le documente L’Agefi depuis l’apparition de ces outils. Du côté des petites et moyennes entreprises (PME) suisses, cette adoption est plus timide. Selon une enquête de Kearney, Swiss Export et la banque Raiffeisen datant du printemps 2024 et mobilisant plus de 600 entreprises de taille moyenne, 9% d’entre elles l’utilisent systématiquement, 37% ne le font pas du tout et 54% déploient des projets-pilotes. Les médias, naturellement concernés par l’émergence de ces outils capables de générer du contenu, ont dû établir leurs propres règles d’utilisation.
La Radio Télévision Suisse (RTS) a fait entrer en vigueur en mai 2023 une charte régissant l’utilisation de l’IA dans la production de ses contenus éditoriaux, stipulant par exemple que l’IA est admise pour résumer des sources jugées fiables, et interdisant de publier tout texte dont la production n’a pas été supervisée par un humain. Le groupe de presse Tamedia a communiqué ses pratiques en la matière dans un article du 3 janvier 2024. Ses journalistes peuvent notamment avoir recours à la traduction automatique de textes, à la transcription de fichiers audios ou vidéo ou à la génération de titres.
Enfin, du côté des autorités publiques, la Confédération a également émis début 2024 une fiche technique sur l’utilisation d’outils d’IA générative au sein de l’administration. Le résumé de textes publiquement disponibles est notamment permis, tout comme l’emploi de l’IA générative pour se familiariser avec des sujets ou la rédaction du texte pour des présentations PowerPoint. Plusieurs pratiques sont proscrites, notamment le fait de saisir des données personnelles ou confidentielles. Les plus petites administrations publiques devraient prochainement y aller de leur régulation en matière d’IA, comme le laisse à penser l’engouement remarqué lors du 12e Symposium romand sur l’eGovernment organisé en mai 2024 par l’Administration numérique suisse.
La revanche des cols bleus
Un renversement historique s’opère avec l’IA générative: contrairement aux révolutions industrielles précédentes qui ont principalement impacté les emplois les moins qualifiés, notamment avec l’automatisation des chaînes de production fordistes au début du XXe siècle, la révolution de l’IA cible prioritairement le secteur tertiaire et les emplois de bureau.
Toute fonction impliquant principalement le traitement de l’information écrite subira potentiellement son automatisation partielle ou totale via l’IA. Les employés de banque ou d’assurance, ainsi que les secrétaires ou les journalistes d’agences de presse, seront concernés. Toutefois, les bouleversements auront vraisemblablement lieu à tout niveau de qualification. Selon les recherches du centre américain du Pew Research Center rapportées par la NZZ am Sonntag le 13 avril dernier, les greffiers, les dessinateurs en bâtiment et les comptables auront de quoi trembler pour leur emploi.
IA et emploi: le grand chambardement
Aujourd’hui, il est très probable que des travailleurs aient déjà été remplacés par l’IA, bien qu’un licenciement sur cette base ne soit évidemment jamais communiqué comme tel. Une enquête de la plateforme en ligne ResumeBuilder mobilisant mille entreprises américaines révèle que près de 50% de celles qui utilisent ChatGPT ont procédé à des licenciements. Si la corrélation ne prouve pas la causalité, cette statistique soulève des questions sur le rôle de l’intelligence artificielle dans ces décisions.
Les projections des experts dessinent un futur incertain. En mars 2023, la banque Goldman Sachs estimait que 300 millions d’emplois dans le monde étaient menacés par ChatGPT et l’IA en général. Plus récemment, le Fonds monétaire international (FMI) évoquait 40% d’emplois «affectés» dans le monde, principalement dans le tertiaire.
Au-delà des scénarios catastrophes qui peuvent émerger de ces prévisions à propos de la disparition des emplois causée par l’IA, une analyse plus nuancée émerge, résumée par cet adage qui fait davantage consensus: «l’IA ne vous remplacera pas, mais quelqu’un qui utilise l’IA le fera». Les traducteurs en font déjà l’expérience, devenant «superviseurs» d’une IA rapide mais imparfaite. D’autres professions suivront probablement ce modèle du human-in-the-loop, où l’humain conserve un rôle de validation finale.
Reste à savoir combien de ces «superviseurs» seront nécessaires à chaque entreprise. Une chose est sûre: la formation à l’IA devient cruciale, comme en témoigne la création en Suisse d’un brevet fédéral en la matière, prévu pour 2025. S’attaquer à la fracture numérique qui risque de s’agrandir avec les progrès de ces outils demeure encore une autre paire de manches.
Dangers physiques et informatiques
L’essor fulgurant de l’IA soulève des inquiétudes environnementales majeures. Son empreinte écologique est considérable: une requête ChatGPT consomme dix fois plus d’électricité qu’une recherche Google classique, selon le média d’expert connaissancedesenergies.org. Plus alarmant encore, les supercalculateurs de ChatGPT engloutissent un demi-litre d’eau pour refroidir le traitement de 10 à 50 questions, selon une étude menée des chercheurs des universités américaines de Riverside et Arlington. À l’heure où l’usage de l’IA se généralise, sa durabilité pose sérieusement question.
Son essor soulève une autre inquiétude majeure: celle de sa concentration entre les mains d’une poignée d’acteurs. Les GAFAM, grâce à leurs ressources financières et leurs vastes bases de données, dominent le secteur, et chacun de ces géants développe ses écosystèmes et outils d’IA générative. OpenAI fait bien sûr aussi partie des acteurs majeurs, ainsi que NVIDIA. La multinationale américaine active dans la technologie contrôle 92% du marché des processeurs GPU dédiés à l’IA.
Cette hyper-centralisation du pouvoir technologique et économique soulève des inquiétudes démocratiques. Face à cela, les modèles en sources ouvertes (open source) émergent comme une alternative prometteuse, offrant plus de transparence et d’accessibilité.
La gestion des données constitue le troisième défi critique. Comment encadrer juridiquement leur utilisation? Comment garantir leur qualité pour l’entraînement des modèles? Comment protéger les données personnelles face à une collecte qui s’annonce toujours plus massive? Les régulateurs doivent répondre à ces questions alors même que la technologie évolue à grande vitesse, ce qui complexifie leur tâche.
Régulation: l’Europe en tête
En matière de régulation de l’IA, la Suisse est encore en phase préparatoire. En novembre 2023, le Conseil fédéral a annoncé travailler sur un cadre réglementaire spécifique, avec une analyse des différentes approches possibles. Cette démarche intervient alors que d’autres juridictions, notamment l’Union européenne (UE), ont déjà adopté des législations contraignantes.
L’UE, qui a développé l’AI Act, fait en effet figure de pionnière en matière de régulation de l’IA. Ce texte impose des exigences de transparence aux développeurs, par exemple concernant le respect des droits d’auteur et la documentation des données d’entraînement. Par ailleurs, Un bureau de l’IA au sein de la Commission européenne a été créé, pour se charger de la mise en œuvre de la législation, qui comprend notamment des sanctions pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires international selon la gravité de l’infraction.
Le débat sur la régulation de l’IA oppose deux visions. Les grandes entreprises technologiques, soucieuses de préserver leur capacité d’innovation, privilégient une régulation minimale. De l’autre côté, experts et organisations non gouvernementales appellent à un encadrement plus strict, s’appuyant sur les leçons du passé. A ce sujet, Wojciech Wiewiórowski, contrôleur européen de la protection des données, prédisait dans le MIT Technology Review en avril 2023 l’arrivée d’un scandale similaire à Cambridge Analytica. Cette affaire avait exposé l’utilisation abusive des données de 87 millions d’utilisateurs Facebook.
La concurrence de ChatGPT
Les géants du numérique se sont lancés dans une course aux grands modèles de langage, en développant différents outil au fonctionnement conversationnel similaire. Quelques différences demeurent toutefois sur ce marché. A côté du pionnier ChatGPT, Google a développé Gemini, un modèle d’IA générative conçu pour s’intégrer nativement dans l’ensemble de ses services, du moteur de recherche à la suite bureautique. Meta a choisi une approche particulière avec LLaMA, en le rendant «open source». Cette stratégie permet aux chercheurs et développeurs de l’adapter et de l’améliorer librement.
Anthropic, qui a reçu un investissement majeur d’Amazon en 2023, a développé Claude. L’entreprise se démarque par sa volonté affichée de créer une IA plus sûre et contrôlée. Dans la pratique, Claude se caractérise notamment par sa capacité à analyser des documents de plusieurs centaines de pages, là où ses concurrents en sont souvent limités à quelques dizaines.
En décembre 2024, Amazon a également lancé Nova, sa propre famille de modèles d’IA générateurs, qui peuvent générer des vidéos en plus du texte et des images. Vendus comme plus rapides et performants que leurs concurrents, ces outils ne sont toutefois pas encore accessibles aux particuliers, mais réservés aux entreprises et développeurs clients d’Amazon Web Services, la plateforme cloud du géant de l’e-commerce.
Vous venez de lire un article inédit. Débats, analyses, actualités culturelles: abonnez-vous à notre média de réflexion pour nous soutenir et avoir accès à tous nos contenus!
Ecrire à l’auteur: jean.friedrich@leregardlibre.com