Antonio Casilli
Professeur de sociologie à Telecom Paris, Institut Polytechnique de Paris, et chercheur à l’Institut Interdisciplinaire de l’Innovation (i3), unité mixte de recherche du CNRS.
Forum de sociologie 2023, Université de Genève, 19 avril 2023
Cette conférence s'est tenue dans le cadre du forum de sociologie 2023 organisé au sein de l'Université de Genève. Elle porte sur le malaise dans l'éthique de l'IA. Elle est animée par Antonio Casili, professeur de sociologie à Telecom Paris, Institut Polytechnique de Paris, et chercheur à l'Institut Interdisciplinaire de l'Innovation.
Professeur de sociologie à Telecom Paris, Institut Polytechnique de Paris, et chercheur à l’Institut Interdisciplinaire de l’Innovation (i3), unité mixte de recherche du CNRS.
L'intelligence artificielle existe depuis 70 ans. Le domaine de recherche est plus récent, datant de 2016/2017. Depuis lors, la production d'IA éthique a été immense, voire excessive.
Le mythe de l'IA est celui d'une intelligence artificielle dépassant l'intelligence humaine dans tous les domaines. Certains domaines critiques comprennent l'armement, les voitures autonomes, les contextes judiciaires et policiers.
Antonio Casilli pose la question suivante : qui est autorisé à parler et à définir ce qu'est une IA éthique ?
Dernièrement, une lettre ouverte1 signée par des milliers de scientifiques et d'industriels, tels qu'Elon Musk, a demandé l'arrêt du développement de nouvelles IA pendant six mois. Ces personnes sont des défenseurs de l'éthique de l'IA, mais, comme le souligne Antonio Casilli, ce sont les mêmes qui ont signé une lettre en 2015 marquant le début de l'IA.
Depuis 2015, 167 chartes éthiques pour l'IA ont été créées, fournissant des orientations, des normes et des meilleures pratiques pour l'application de l'IA. Cependant, cette application est encore à débattre. Parmi les signataires se trouvent des agences étatiques, des institutions internationales, des scientifiques, des groupes d'intérêts et des producteurs, illustrant l'investissement politique dans ces orientations.
En 2019, la revue Nature a identifié cinq thèmes relatifs à l'éthique de l'IA :
1. Transparence : Qu'est-ce qui se cache derrière les chatbots GPT ? Des incitations à la mise en place d'une IA transparente sont mises en place.
2. Justice et équité : les IA peuvent favoriser ou défavoriser certaines populations à travers des biais algorithmiques.
3. Non-malfaisance : ces IA ne devraient pas causer des dommages permanents et graves à des populations, par exemple, dans des contextes de guerre et d'armement. La question se pose de savoir s'il est juste d'utiliser des systèmes d'IA pour cibler des missiles ou des drones par exemple.
4. Responsabilité : résoudre des dilemmes éthiques. Ces situations sont rarement extrêmes et plutôt de nature juridique.
5. Protection de la confidentialité : vie privée des utilisateurs.
Antonio Casilli remarque que bien que ces grandes valeurs divergent, il y a un aspect important, elles se concentrent sur l'utilisation. Cependant, certaines valeurs importantes telles que la soutenabilité, la confiance, l'autonomie, la solidarité et la dignité sont absentes.
1 Lettre ouverte "Suspendre les IA plus puissantes que ChatGPT" - lien externe
Antonio Casilli nous met en garde : le même discours est tenu depuis 2015, il faut trouver une éthique qui ne freine pas les producteurs d'IA.
La convergence, l'alliance et la concertation entre les personnes qui font de la recherche sur l'éthique et les producteurs de technologie sont de plus en plus floues. Les auteurs affiliés aux GAFAM sont passés de 43 à 79 %, ce qui signifie que la majorité des auteurs de papiers présentés dans les conférences proviennent de ces entreprises.
Il soulève également le problème suivant : l'éthique n'est-elle qu'une préoccupation du Nord ? Les pays du Sud sont sous-représentés dans ce domaine, ce qui peut nuire au pluralisme et à l'ouverture culturelle. Il constate que la Chine est complètement absente : il n'y a pas de charte éthique chinoise traduite.
Antonio Casilli montre qu'il existe trois contributions humaines dans le travail du clic pour la production de l'IA : la phase de préparation, de vérification et d'imitation.
Imitation de l'IA : il cite comme exemple les caméras intelligentes dans les magasins comme Carrefour ou Monoprix, censées détecter les personnes susceptibles de voler. Elles détectent un geste et savent si c'est anodin ou non. Un message automatique est envoyé au vigile ou au caissier. Environ 127 personnes à Madagascar effectuent ce travail de caméra intelligente avec une surveillance à distance en flux tendu. Il n'y a pas d'algorithmes. Antonio Casilli confirme que c'est une pratique répandue, mais il est nécessaire de tester pour que l'IA fonctionne correctement. Elle peut donner un coup de pouce, mais nous avons encore besoin d'intervention humaine. Malgré cela, il n'y a pas eu d'avancées significatives au cours des cinq dernières années.
Antonio Casilli présente une cartographie basée sur six années de recherche. Les pays producteurs et vendeurs sont situés dans les pays du nord du monde.
Les personnes qui annotent, vérifient et entraînent les données (à travers de nombreux flux) viennent de :
L'environnement est un aspect central. Comme l'explique Antonio Casilli, cela a des conséquences en termes d'empreinte carbone, les coûts environnementaux de l'apprentissage automatique étant très élevés. Il prend l'exemple de Chat GPT, avec ses 165 trillions de paramètres, qui nécessite une quantité d'énergie énorme. Pour lui, les solutions consistent généralement en une utilisation "homéopathique" de l'IA pour réduire l'empreinte carbone, les déchets et les externalités négatives de l'IA elle-même.
Selon Antonio Casilli, il est également nécessaire de considérer l'aspect minéralogique de la production de l'IA. Pour lui, c'est très matériel. Il y a du cobalt, du nickel, du lithium et des terres rares. Les ressources minières sont dans les axes stratégiques mentionnés ci-dessus et les Chinois sont assis sur des terres rares. La cartographie des flux de travail devient encore plus compliquée.
Informations
Crédits