Retour sur la conférence "Conflictualités sociales et environnementales autour de l’automation intelligente."

Forum de sociologie 2023, Université de Genève, 19 avril 2023

Cette conférence s'est tenue dans le cadre du forum de sociologie 2023 organisé au sein de l'Université de Genève. Elle porte sur le malaise dans l'éthique de l'IA. Elle est animée par Antonio Casili, professeur de sociologie à Telecom Paris, Institut Polytechnique de Paris, et chercheur à l'Institut Interdisciplinaire de l'Innovation.

Antonio Casilli

Professeur de sociologie à Telecom Paris, Institut Polytechnique de Paris, et chercheur à l’Institut Interdisciplinaire de l’Innovation (i3), unité mixte de recherche du CNRS.

L'intelligence artificielle existe depuis 70 ans. Le domaine de recherche est plus récent, datant de 2016/2017. Depuis lors, la production d'IA éthique a été immense, voire excessive.

Le mythe de l'IA est celui d'une intelligence artificielle dépassant l'intelligence humaine dans tous les domaines. Certains domaines critiques comprennent l'armement, les voitures autonomes, les contextes judiciaires et policiers.

Antonio Casilli pose la question suivante : qui est autorisé à parler et à définir ce qu'est une IA éthique ?

Inquiétudes autour des conséquences éthiques

Dernièrement, une lettre ouverte1 signée par des milliers de scientifiques et d'industriels, tels qu'Elon Musk, a demandé l'arrêt du développement de nouvelles IA pendant six mois. Ces personnes sont des défenseurs de l'éthique de l'IA, mais, comme le souligne Antonio Casilli, ce sont les mêmes qui ont signé une lettre en 2015 marquant le début de l'IA.

Depuis 2015,167 chartes éthiques pour l'IA ont été créées, fournissant des orientations, des normes et des meilleures pratiques pour l'application de l'IA. Cependant, cette application est encore à débattre. Parmi les signataires se trouvent des agences étatiques, des institutions internationales, des scientifiques, des groupes d'intérêts et des producteurs, illustrant l'investissement politique dans ces orientations.

En 2019, la revue Nature a identifié cinq thèmes relatifs à l'éthique de l'IA :

1. Transparence : Qu'est-ce qui se cache derrière les chatbots GPT ? Des incitations à la mise en place d'une IA transparente sont mises en place.

2. Justice et équité : les IA peuvent favoriser ou défavoriser certaines populations à travers des biais algorithmiques.

3. Non-malfaisance : ces IA ne devraient pas causer des dommages permanents et graves à des populations, par exemple, dans des contextes de guerre et d'armement. La question se pose de savoir s'il est juste d'utiliser des systèmes d'IA pour cibler des missiles ou des drones par exemple.

4. Responsabilité : résoudre des dilemmes éthiques. Ces situations sont rarement extrêmes et plutôt de nature juridique.

5. Protection de la confidentialité : vie privée des utilisateurs.

Antonio Casilli remarque que bien que ces grandes valeurs divergent, il y a un aspect important, elles se concentrent sur l'utilisation. Cependant, certaines valeurs importantes telles que la soutenabilité, la confiance, l'autonomie, la solidarité et la dignité sont absentes.

Liens troubles avec l’industrie

Antonio Casilli nous met en garde : le même discours est tenu depuis 2015, il faut trouver une éthique qui ne freine pas les producteurs d'IA.

La convergence, l'alliance et la concertation entre les personnes qui font de la recherche sur l'éthique et les producteurs de technologie sont de plus en plus floues. Les auteurs affiliés aux GAFAM sont passés de 43 à 79 %, ce qui signifie que la majorité des auteurs de papiers présentés dans les conférences proviennent de ces entreprises.

Il soulève également le problème suivant : l'éthique n'est-elle qu'une préoccupation du Nord ? Les pays du Sud sont sous-représentés dans ce domaine, ce qui peut nuire au pluralisme et à l'ouverture culturelle. Il constate que la Chine est complètement absente : il n'y a pas de charte éthique chinoise traduite.

On se concentre sur la phase d’usage (Ethics by design), mais il faut se concentrer aussi sur la phase de production

Antonio Casilli montre qu'il existe trois contributions humaines dans le travail du clic pour la production de l'IA : la phase de préparation, de vérification et d'imitation.

  1. Préparation de l'IA : il s'agit de la création de données pour l'entraînement. Par exemple, en 2017, certaines personnes devaient entourer des tomates pour entraîner l’IA. Les personnes faisaient cela sans comprendre pourquoi cela était nécessaire. Antonio Casilli parle d’aliénation détachée au sens de Marx1.
  2. Vérification de l'IA : un processus essentiel pour garantir sa qualité et contribuer. L'IA est déjà présente sur le marché. Il cite, par exemple, des personnes qui peuvent être chargées de vérifier les enregistrements d'un assistant vocal. Cela soulève des problèmes considérables en matière de vie privée. L'Union Européenne est un important producteur d'IA et a recours à des plateformes chinoises pour effectuer des vérifications. Ces plateformes se tournent ensuite vers des plateformes japonaises, puis espagnoles, avant de renvoyer les données aux États-Unis.
  3. Imitation de l'IA : il cite comme exemple les caméras intelligentes dans les magasins comme Carrefour ou Monoprix, censées détecter les personnes susceptibles de voler. Elles détectent un geste et savent si c'est anodin ou non. Un message automatique est envoyé au vigile ou au caissier. Environ 127 personnes à Madagascar effectuent ce travail de caméra intelligente avec une surveillance à distance en flux tendu. Il n'y a pas d'algorithmes. Antonio Casilli confirme que c'est une pratique répandue, mais il est nécessaire de tester pour que l'IA fonctionne correctement. Elle peut donner un coup de pouce, mais nous avons encore besoin d'intervention humaine. Malgré cela, il n'y a pas eu d'avancées significatives au cours des cinq dernières années.

La géographie globale (de l’éthique) de l’IA

Antonio Casilli présente une cartographie basée sur six années de recherche. Les pays producteurs et vendeurs sont situés dans les pays du nord du monde.

Les personnes qui annotent, vérifient et entraînent les données (à travers de nombreux flux) viennent de :

  • Asie du Sud-Est vers l'Amérique (en passant par l'Inde et le Royaume-Uni)
  • Axe francophone : Madagascar -> France -> Russie
  • En Afrique : l'Égypte vend des données aux pays du Golfe et en Chine
  • Amérique latine vers les États-Unis
  • En Chine, un énorme marché interne existe avec des dizaines de millions de personnes effectuant des micro-travaux pour le compte de la Chine.

L'impact environnemental de l'IA

L'environnement est un aspect central. Comme l'explique Antonio Casilli, cela a des conséquences en termes d'empreinte carbone, les coûts environnementaux de l'apprentissage automatique étant très élevés. Il prend l'exemple de Chat GPT, avec ses 165 trillions de paramètres, qui nécessite une quantité d'énergie énorme. Pour lui, les solutions consistent généralement en une utilisation "homéopathique" de l'IA pour réduire l'empreinte carbone, les déchets et les externalités négatives de l'IA elle-même.

Selon Antonio Casilli, il est également nécessaire de considérer l'aspect minéralogique de la production de l'IA. Pour lui, c'est très matériel. Il y a du cobalt, du nickel, du lithium et des terres rares. Les ressources minières sont dans les axes stratégiques mentionnés ci-dessus et les Chinois sont assis sur des terres rares. La cartographie des flux de travail devient encore plus compliquée.