Description |
Présentation générale
Les nouveaux enjeux sociétaux produits par le transition numérique, tels que le développement de l’IA, doivent être envisagées en tant qu'objets et contexte de recherche par lesdoctorant·es en sciences humaines et sociales. Un des défis majeurs est de faire progresser le discours critique sur l’innovation technologique et ses applications d’une perspective des sciences sociales, indispensable pour comprendre la nature de ces phénomènes dans leurs contextes sociaux, politiques, épistémique etc.
En plus des séances, les ateliers offrent un espace de réflexion et de discussion sur l’implication des technologies numériques dans l’évolution des organisations et pratiques sociales, permettant également aux doctorant·es d’exposer leurs recherches et recevoir un retour d'information de la part de chercheur·ses confirmé·es.
Aucune connaissance technique particulière n'est requise pour cet atelier
Outline
The societal arising from the digital transition, such as the development of AI, should be considered as objects and contexts of research by the doctoral students in the humanities and social sciences. From a social science perspective, one of the major challenges is to develop the critical discourse on the technological innovation and its applications, which is essential for understanding the nature of these phenomena in their social, political and epistemic contexts.
In addition to the lectures, the workshops offer a space for reflection and discussion on the implication of digital technologies in the evolution of social organisations and practices, as well as allowing the doctoral students to present their research and receive feedback from established researchers.
No special technical knowledge is required for this workshop.
|
Programme |
28/11
Matin
9h15 à 9h30 : Introduction Mathis Stock et Olivier Glassey, Université de Lausanne
9h30 à 11h00 : L'appropriation de l'IA Générative comme savoir ordinaire.
Olivier Glassey, Université de Lausanne
11h00 à 11h30 : Pause
11h30 à 12h30 : Atelier
Après-midi
14h00 à 15h30 : From the politics of Artificial Intelligence: A compass to navigate conflicting regulation. Bilel Benbouzid, Université Paris Est Marne la Vallée (UPEM)
15h30 à 16h00 : Pause
16h00 à 17h30 : Atelier
29/11
Matin
9h30 à 11h00 : Apprendre à interdire : gouvernance par le prompt et la censure des IA génératives Ksenia Ermoshina, Centre Internet et Société
11h00 à 11h30 : Pause
11h30 à 12h30 : Atelier
Après-midi
14h00 à 16h00 : Atelier
16h00 à 16h30 : Conclusion Mathis Stock et Olivier Glassey, Université de Lausanne
16h30 : Apéro de clôture
Programme Détaillé: Detailed Program:
L’année 2022 a marqué un tournant majeur avec la diffusion rapide de l’IA générative auprès du grand public. Au sens propre de l’expression, du jour au lendemain, des millions de personnes de divers horizons ont commencé à interagir avec ces nouvelles technologies, explorant leurs possibilités, leurs limites et expérimentant leur impact sur la vie quotidienne. Ce processus de diffusion massive et hétérogène soulève de nombreuses questions épistémologiques pour la sociologie des usages et, plus largement, pour l’étude des processus sociaux et des pratiques qui se déploient dans un monde où l’IA générative devient omniprésente sous diverses formes.
Cette contribution propose d’examiner sous quels registres les individus s’approprient l’IA générative dans leurs pratiques quotidiennes. En mettant l’accent sur les expériences réelles plutôt que sur les discours médiatiques ou les promesses technologiques, nous explorerons ce que les personnes “fabriquent” concrètement avec ces outils. Cette approche permet de mieux saisir l’ampleur et les spécificités de l’impact de l’IA générative à une échelle encore souvent ignorée mais cruciale.
From the politics of Artificial Intelligence: A compass to navigate conflicting regulation.
[Bilel Benbouzid, Université Paris Est Marne la Vallée (UPEM)]
Never has a technology been the subject of such a desire for control than artificial intelligence. Targeted from all sides by criticism, it has become in a few years one of the most agitated areas of the regulation of technosciences. However, its development still seems to escape our collective will. What is happening that so much political turmoil leads to so little control over the course of AI development? Why, at the slightest attempt to concretely limit AI, are the measures envisaged immediately accused of being unrealistic?
For three years, I have been trying to answer this question by investigating the actors, places and debates around the regulation of AI. My political sociology investigation, which is part of an HDR project, intends to explain why taking a political position on AI remains difficult while we observe an exceptional enthusiasm for its social control. To do this, I will present some conceptual tools to help you to position politically on questions of AI regulation. In a context where the left/right divide is rarely relevant when talking politically about technology, I offer you an original reading grid which opposes neutrals to anti-neutrals, a divide borrowed from Roland Barthes. With an ad hoc political theory, I offer you a compass to navigate the troubled waters of debates on AI. My approach is therefore empirical.
Four arenas will be explored, considered as different ways of politically tackling AI: The political fiction of superintelligence; The very political science of controlling the robustness of AI; Radical decolonial critique; The European regulation of the AI Act and the debates associated with it on fundamental rights and open-source strategies. I will show you the political tensions in each of these arenas, but also the way in which these arenas themselves come into tension with each other, implying different political positions on the development of AI. In conclusion, I will show how and why Big Tech wins the battle of ideas in this conflicting regulation by taking a position in each of these arenas. This confusionist strategy could well explain why we have arrived at this paradoxical situation where technology seems politicized on all sides, while, at the same time, its development continues to be self-sufficient.
Apprendre à interdire : gouvernance par le prompt et la censure des IA génératives [Ksenia Ermoshina, Centre Internet et Société du CNRS] La démocratisation d’accès aux outils de génération d’images comme Dall-E, Midjourney ou Stable Diffusion, a suscité le besoin de régulation et de l’encadrement des usages de ces IAs. Nous appelons cela “gouvernance par le prompt” qui consiste à interdire les usages de certains mots-clés dans les prompts textuels. Ces prompts interdits évoquent le plus souvent des régistres lexicaux qui renvoient à la violence, nudité, sexualité, sexisme, racisme. Or, dans d’autres cas, les interdictions peuvent également concerner des personnalités politiques, des noms de pays ou de régions, des évènements historiques ou même des identités sexuelles. Ce séminaire est basé sur une enquête de terrain comparative autour des trois IA génératives à destination du grand public : le projet chinois ERNIE-ViLG, le projet russe Kandinsky XXL et le projet américain DALL-E. Elle explore les impacts de facteurs culturels et politiques ainsi que des modes de production de ces IA et leurs licences sur les formes de censure et gouvernance par le prompt. L’enquête explore également la propagation de pratiques de ruse et bricolage collectives par les utilisateurs face à la censure. Tout d’abord, pour mettre la lumière sur l’existence même des listes noires de prompts, mener des enquêtes collectives de “reverse engineering” pour rétablir ces listes et les partager avec les autres. Ensuite, pour trouver des façons de contourner ces interdictions, surtout par les artistes visuels.
|