Voices
Points de vue sur le monde du travail
Photo: iStock.com/gorodenkoff

Podcast l'avenir du travail

Episode 36
Intelligence artificielle

Il faut une vraie réflexion sur les effets de l’intelligence artificielle

28 avril 2023
00:00

Antonio Casilli, professeur de sociologie à l’Institut polytechnique de Paris et co-directeur du groupe de recherche DiPLab, estime qu’une vraie réflexion est nécessaire pour évaluer et surtout anticiper les effets de l’intelligence artificielle (AI) sur le marché du travail; une discussion qui devrait inclure, entre autres, les décideurs publics, les représentants de la société civile, et surtout les «petites mains» qui travaillent pour ces nouveaux logiciels, souvent en sous-traitance dans des pays en développement, loin des regards du monde. 

Transcription

Bonjour et bienvenue dans ce nouvel épisode des voix de l'OIT,

un podcast de l'OIT où nous abordons les problèmes et les problématiques

du monde du travail et les profondes

transformations qu'il est en train de vivre.

Aujourd'hui, nous allons parler de l'intelligence artificielle

et de son impact sur le futur marché de l'emploi.

Un impact difficile à estimer entre les pessimistes

qui craignent une explosion massive du chômage

et les optimistes qui croient en la destruction

créative ou en l'avènement d'une société sans travail.

Pour en parler, nous avons Antonio Casilli,

professeur de sociologie à l'Institut Polytechnique

de Paris et co-directeur du groupe de recherche DiPLab.

Monsieur Casilli, bonjour. Merci d'être avec nous.

Bonjour.

Nous allons parler en particulier de ChatGPT,

l'intelligence artificielle développée par OpenAI,

une entreprise américaine de recherche et de développement

spécialisée dans l'intelligence artificielle.

Ce n'est pas la première fois que des avancées

technologiques ont un impact sur le marché du travail.

L'affirmation selon laquelle les nouvelles technologies se substitueraient

à la nécessité de main-d'œuvre est une vision qui n'est pas nouvelle.

Dans le cas de ChatGPT,

est-ce qu'il s'agit d'un saut technologique majeur?

Est-ce que cela va vraiment changer les choses, monsieur Casilli?

Il s'agit certainement d'une famille de modèles

d'intelligence artificielle, de solutions d'intelligence artificielle

qui sont présentés aux investisseurs

et à l'opinion publique comme absolument révolutionnaires,

surtout parce qu'ils ont une taille faramineuse.

On parle avec ChatGPT et plutôt les deux modèles qui sont à la base

de ce produit qui s'appellent respectivement GPT-3 et GPT-4,

on parle de plusieurs centaines de milliers de milliards

de paramètres pour faire tourner cette intelligence artificielle.

Or, ça peut paraître abstrait, mais en réalité,

disons que cela est présenté aux personnes qui sont

des experts dans ces sujets comme une révolution.

Il s'agit en réalité de la convergence

de deux types d'intelligence artificielle,

d'une part ce qu'on appelle

les intelligences artificielles génératives,

donc celles qui peuvent produire des textes, des images, des vidéos,

de la musique, ainsi de suite, et de l'autre,

des modèles qui s'appellent LLM,

c'est-à-dire des modèles de très grande taille

et qui sont surtout utilisés pour gérer le langage.

ChatGPT en tant que chatbot, en tant qu'agent conversationnel, se présente

en tant que tel comme un modèle linguistique, mais en même temps,

il fait beaucoup plus que ça ou alors

il promet de faire beaucoup plus que ça.

Ses performances sont tout à fait relatives.

Il y a aujourd'hui énormément d'anthropomorphisation,

c'est-à-dire que nous-mêmes, nous projetons,

en tant qu'usagers de cette solution d'intelligence artificielle,

beaucoup de nos attentes, beaucoup de nos desideratas

sur ce logiciel finalement.

Un peu comme des parents qui seraient

très fiers d'un enfant et qui seraient prêts

à reconnaître que cet enfant est un génie

au moindre geste ou à la moindre parole,

même s'il s'agit de balbutiements et de gestes maladroits.

Nous-mêmes sommes en train de peut-être attribuer

trop de valeurs à cette intelligence artificielle, ce qui,

évidemment, est parfaitement dans la lignée politique

et économique des investisseurs et des concepteurs,

et des propriétaires de cette solution d'IA.

Un enfant, comme vous dites,

qui a provoqué énormément de remous et de grandes

inquiétudes, en particulier sur le marché de l'emploi.

J'ai demandé à ChatGPT quel serait son impact

sur le marché de l'emploi et voilà ce que ChatGPT répond.

Il répond qu'il peut potentiellement avoir un impact

sur le marché de l'emploi dans plusieurs domaines,

notamment la traduction, l'écriture de contenus, l'assistance virtuelle,

la recherche en ligne, la formation en ligne et bien plus encore.

Il dit également, ce logiciel,

que l'impact sur le marché de l'emploi dépendra de la manière dont

les entreprises et les travailleurs s'adaptent à sa technologie.

Que certains emplois pourront être automatisés ou remplacés, mais également,

il y aura peut-être de nouveaux emplois qui pourront être créés.

Alors, est-ce qu'il faut déjà s'y mettre?

Que vous semble cette estimation du propre ChatGPT?

Cette estimation me paraît tout à fait intéressée

et biaisée du point de vue même idéologique.

Ce n'est pas au hasard que les domaines

dans lesquels ChatGPT même annonce qu'il va

avoir un impact sont des domaines économiques

dans lesquels l'entreprise OpenAI, donc l'entreprise qui produit ChatGPT,

se prépare à être engagée dans la formation en ligne, la traduction.

Ella a même des intérêts.

C'est clair que le produit parle la langue des propriétaires du produit.

Ça, ce n'est pas une nouveauté, his master's voice,

comme on disait dans le siècle passé en anglais,

mais il y a aussi beaucoup plus que ça.

On est face, avec ChatGPT et en général

aussi tous les produits GPT d'OpenAI,

face à une véritable déferlante de publicités

finalement déguisées en crainte,

voire en menace d'un impact qui pourrait déranger certains équilibres.

Clairement, le discours qu'OpenAI porte sur le monde du travail

s'inscrit dans cette logique-là.

Pas plus tard qu'il y a quelques semaines, des chercheurs,

dont trois chercheurs d'OpenAI et un chercheur

universitaire qui était un peu la caution académique,

ont publié un article qui, par ailleurs,

n'est pas un article publié dans une revue,

il s'agit tout simplement d'un article

autopublié dans une archive en ligne,

qui annonçait que 80 % des métiers allaient être exposés,

ça, c'est très ambigu comme définition,

– C'est très vague –

à l'intelligence artificielle et en particulier les personnes

qui ont un plus haut niveau d'études allaient être touchées.

Évidemment, il y a beaucoup de problèmes.

J'ai déjà précisé que cette étude a plus de limitations

que de résultats et qu'en plus, on est face à cette prophétie de la fin

du travail ou de l'automatisation complète

ou du remplacement des travailleurs

humains par des processus automatiques.

Il y a toujours la même rengaine,

la même prophétie dystopique qu'on retrouve tous les 10 ans.

Si vous y pensez, il y a 10 ans, on avait un célèbre rapport

de l'Université d'Oxford publié il y a exactement 10 ans, 2013,

qui s'appelait The Future of Employment, le futur de l'emploi,

qui annonçait que 47 % des jobs aux États-Unis allaient disparaître.

10 ans avant, on avait encore d'autres prophéties dans ce sens-là.

Il y a une cyclicité de ce discours et figurez-vous,

ces prophéties-là ne se réalisent jamais.

Elles sont aussi suffisamment vagues pour pouvoir

être après remises en doute par les auteurs mêmes.

Je pense qu'on n'est pas loin de cette situation

avec ChatGPT et ses annonces,

mais il y a aussi un élément important.

ChatGPT et ses annonces de menace qu'il ferait peser sur le marché du travail

sont des outils de discipline de la force de travail.

Finalement, les travailleurs constamment exposés à ces peurs

plus ou moins fantasmatiques sont poussés,

par ces discours et par ces acteurs sociaux

et économiques, à finalement se tenir à carreau,

respecter tout un tas de règles et ne pas trop protester,

parce qu'on leur fait imaginer

le risque que des robots les remplacent.

Or, la réalité, malheureusement, est une autre et n'est pas plus rose.

C'est-à-dire que le risque est plutôt que les travailleurs aujourd'hui,

les travailleurs au sens aussi surtout de personnes

employées formellement avec un contrat à durée indéterminée,

soient remplacées par des personnes qui ont des contrats plus précaires,

qui sont moins bien payées,

dont les droits sont moins respectés et fort souvent

qui se trouvent dans des pays d'externalisation

ou d'offshoring dans lesquels le niveau moyen des salaires est plus bas.

Surtout l'utilisation d'infrastructures numériques,

y compris celles mises en place par OpenAI

et par ses partenaires comme Microsoft ou Google, Amazon, et cetera,

contribuent à cette externalisation forcée

qui est aussi une forme de précarisation extrême.

Justement, plus qu'une suppression d'emploi,

une plus grande précarisation.

Vous qui parlez de rapports qui, tous les 10 ans,

annoncent des résultats catastrophiques,

justement, il y a un rapport paru récemment par Goldman Sachs

qui estime à 300 millions le nombre d'emplois

dans le monde que des systèmes d'intelligence

artificielle seraient susceptibles de remplacer,

c'est-à-dire 1/4 de l'activité mondiale.

Il ne parle pas seulement de tâches administratives,

mais aussi de forces armées, l'agriculture, la forêt,

la pêche... il y aurait aussi des secteurs

sensibles à des automatisations de processus.

La banque américaine parle aussi d'une avancée majeure

dans la création de nouveaux emplois

et d'un coup de fouet à la productivité

mondiale en augmentant de 7 % le PIB mondial.

Est-ce que nous sommes encore face à un rapport un petit peu exagéré,

puisque nous en sommes un peu au début de ce processus et qui en fait masque,

comme vous l'avez dit, d'autres enjeux comme celui de la vulgarisation?

L'exagération est évidente et je pense que les deux facteurs

qui jouent pour permettre cette exagération sont d'une part,

la productivité ou plutôt ce que ce rapport dit

sur la productivité qui est entièrement faux, et la question de réduire

le travail à un ensemble de tâches.

D'abord, la productivité.

Ce que les statistiques nous disent est que depuis plusieurs décennies

et surtout depuis l'arrivée de l'automatisation intelligente,

donc tout ce qui relève effectivement de solutions d'intelligence

artificielle appliquée au monde du travail,

on assiste à une baisse généralisée dans tous

les pays du monde de l'augmentation du taux de productivité.

Et donc effectivement, si l'estimation de Goldman Sachs était correcte,

ce serait un truc complètement contre-intuitif,

un renversement total de cette tendance statistique.

Ce qui paraît assez improbable.

Après, il y a le problème qui est de nature méthodologique,

le fait de continuer à considérer le travail comme un ensemble de tâches.

Par exemple, je suis infirmier et donc

je réalise une tâche d'assistance aux patients,

une tâche d'enregistrement d'information dans un ordinateur,

une tâche de participation à des réunions et ainsi de suite.

Ce type d'estimation considère, dans chaque métier,

il y a, par exemple, 10 tâches.

Si j'arrive à automatiser cinq ou six, donc la majorité,

je peux considérer que ce travail est automatisé

et donc que cet emploi disparaît.

La réalité ne se passe pas comme ça.

La réalité est que, malheureusement,

pour les travailleurs face à ces formes d'automatisation,

surtout lorsqu'elles sont présentées

comme des gains en termes de productivité, ce qui,

comme je viens de le dire, peut être mis en doute,

les employeurs ont plutôt tendance à surcharger le cahier des charges

des personnes qui s'occupent de différentes fonctions et donc,

finalement, à augmenter le travail face à une baisse des salaires réelle.

Par exemple, dans n'importe quel métier,

je pourrais même citer mon métier à moi

qui est celui d'enseignant universitaire

et chercheur, a évolué dans les dernières

décennies comparé à la génération précédente.

Parce que tout un tas de fonctions par exemple

qui étaient de nature administrative, communicative,

gérer, par exemple, des emails, gérer des fichiers Excel,

gérer des bilans qui normalement auraient dû être réalisés

par d'autres personnes, sont aujourd'hui réalisées par moi-même.

Ce n'est pas un robot qui a remplacé un emploi,

mais c'est moi-même qui me retrouve à travailler davantage

par rapport aux générations précédentes ou même aux décennies précédentes.

Faire des tâches que vous n'avez pas forcément envie de faire,

mais justement quand même tout ce débat

illustre tout de même le grand malaise qui maintenant se vit

dans le monde du travail sur les changements.

On a l'impression de ne pas contrôler ces robots qui, d'un seul coup,

vont remplacer les humains.

Ces tâches, comme vous disiez, que vous-même vous faites,

que vous ne faisiez pas il y a 10 ans.

C'est vrai qu'en France, il y a tout ce débat sur le travail des séniors

qui ont l'air plus vulnérables à de nouvelles tâches ou une formation

ou des travaux pour lesquels ils ne sont pas forcément préparés.

Tout ça, ça fait quand même tout le débat sur le marché du travail.

Si en plus, nous avons ce que vous considérez

plus ou moins comme ce gros coup de pub de ChatGPT,

ça fait que ce n'est pas évident de savoir comment

va évoluer le monde du travail dans les prochaines années.

Oui. Tout à fait.

Il y a quand même certaines tendances qui se dégagent et heureusement

l'OIT aussi y participe avec nous dans le groupe de recherche DiPLab,

à une vague généralisée d'enquêtes

et d'analyses de certaines transformations

du monde du travail qui ont un lien avec l'intelligence artificielle.

Je fais référence, par exemple,

aux travaux des économistes Uma Rani Amara ou Janine Berg de l'OIT qui,

à partir de la moitié des années 2010,

ont produit des rapports absolument remarquables

sur l'émergence de tout le travail des petites

mains de l'intelligence artificielle qui sont

nécessaires aussi pour produire ChatGPT.

Parce que ces intelligences artificielles,

bien qu'elles soient présentées constamment

comme le résultat du travail d'ingénieurs,

data scientists, développeurs de code, et cetera,

sont aussi le produit du travail de personnes qui s'occupent de réaliser

des activités beaucoup plus simples parfois

ou alors présentées comme simples comme, par exemple,

de filtrer des données, modérer des contenus

ou taguer des images, retranscrire des textes.

Tout ça est nécessaire pour les intelligences artificielles.

Ce n'est pas un hasard si ChatGPT même

a été contraint d'admettre

que derrière son intelligence artificielle entièrement automatisée,

il y a en réalité une armée de réserve de personnes qui réalisent

ce travail de petites mains de l'intelligence artificielle.

Quelques mois après le lancement de ChatGPT,

Time Magazine a publié une enquête qui dévoile qu'au Kenya,

il y a un nombre important de personnes qui ont été recrutées,

pas embauchées, parce qu'il s'agit de sous-traitants

de sous-traitants de sous-traitants,

embauchées via une plateforme, qui s'occupaient

tout simplement de filtrer tous les messages racistes,

sexistes de ChatGPT.

OpenAI, l'entreprise qui produit cette solution,

a après été obligée d'admettre qu'elle a recruté

des personnes aux Philippines, en Afrique du Sud, en Turquie,

en Amérique Latine et dans d'autres pays.

C'est important d'aller dans ces pays,

comme nous le faisons dans le cadre de DiPLab

ou comme nos collègues de l'OIT le font,

d'aller dans ces pays interviewer ces personnes et se rendre

compte à quel niveau ils sont intégrés à ce processus productif.

Il n'y a pas d'intelligence artificielle

sans le travail de ces petites mains.

Finalement, ceci est d'une part quelque chose qui semblerait

une annonce rassurante, mais est en réalité, à mon avis,

la chose qui devrait nous inquiéter davantage.

Parce que tant qu'on continue de nier

déjà l'existence de ces travailleurs, de les mettre à distance,

même distance géographique pour des raisons économiques, clairement,

et tant qu'on continue de présenter l'intelligence

artificielle comme entièrement artificielle, là, on aura un problème.

Un problème en termes de sous-évaluation de l'impact

réel de ces solutions informatiques sur le monde du travail à mon avis.

Par exemple, Elon Musk, le fondateur de Tesla, et des centaines d'experts

mondiaux ont signé le 29 mars un appel à stopper

durant 6 mois la recherche sur les intelligences artificielles

plus puissantes que ChatGPT4, le modèle d'OpenAI lancé mi-mars.

Dans cette pétition, ils évoquent des risques majeurs pour l'humanité.

Ils réclament un moratoire jusqu'à

la mise en place de systèmes de sécurité,

car ils craignent des perturbations économiques et politiques

dramatiques que l'intelligence artificielle pourrait provoquer.

Est-ce que vous êtes d'accord ou est-ce

que c'est un petit peu dramatique?

Dans ma vie de chercheur, souvent mes positions ont changé,

mais il y a une seule position qui n'a jamais changé.

Ne jamais signer une pétition qui a aussi été signée par Elon Musk.

La base est qu'en général,

vous ne feriez pas confiance

à une secte ou plutôt à ceux qui dirigent

une secte ou un parti politique extrémiste pour vous dire ce qui est

le mieux pour la société

et en plus en montrant tout un tas

de risques et de menaces qui sont associés à leurs propres activités,

ce qui est exactement le cas.

C'est plutôt une question d'intérêt peut-être économique,

mais à ce moment-là, qu'est-ce qu'il faudrait faire pour orienter ChatGPT

face à tous les risques dont vous nous avez parlé?

Le problème est qu'à ce stade-là, depuis des années,

depuis une décennie, on ne fait qu'appliquer des solutions a posteriori.

C'est-à-dire, d'abord les producteurs

d'intelligence artificielle produisent leurs solutions,

ils ne se préoccupent pas par avance des conséquences

potentiellement négatives et ils se disent: «S'il y a un pépin,

on va le gérer avec nos experts légaux et éventuellement,

on va aussi externaliser quelqu'un pour faire une petite étude éthique.»

C'est exactement comme ça que ça s'est passé, Google,

Meta et d'autres géants de l'informatique

qui ont ravagé littéralement nos sociétés pendant

des décennies, ont largement financé des enquêtes qui,

après, servaient un peu pour être la caution

éthique ou sociale de leurs activités.

Le problème à mon avis est qu'il faut

arrêter d'adopter cette logique de l'a

posteriori ou de gérer la catastrophe

lorsqu'elle se manifeste systématiquement,

mais plutôt de commencer à avoir une réflexion

a priori avec les décideurs publics,

avec les représentants de la société civile,

avec les producteurs,

c'est-à-dire aussi les travailleurs qui produisent

ces intelligences artificielles et les représentants

du monde de la culture et ainsi de suite pour qu'on

anticipe ces solutions avant de les lancer,

sans faire ce moratoire de six mois.

Pourquoi six mois, pourquoi un moratoire et pas une interdiction totale?

Il y a dans cette lettre ouverte, dans cette pétition,

un aspect qui est un peu dérangeant, qu'il s'agisse

d'une petite pub déguisée en cri du cœur ou en cri d'alarme.

Merci beaucoup.

Aujourd'hui, nous avons parlé avec Antonio Casilli,

professeur de sociologie à l'Institut Polytechnique de Paris.

Nous continuerons à parler des changements qui bouleversent

le monde du travail dans les prochaines semaines.

Pour l'instant, c'est au revoir et à bientôt

pour un prochain épisode des voix de l'OIT.

[musique]