Description |
Présentation générale
Les nouveaux enjeux sociétaux produits par le transition numérique, tels que ledéveloppement de lʼIA, doivent être envisagées en tant qu'objets et contexte de recherche par lesdoctorant·es en sciences humaines et sociales. Un des défis majeurs est de faire progresser le discours critique sur lʼinnovation technologique et ses applications dʼune perspective des sciences sociales, indispensable pour comprendre la nature de ces phénomènes dans leurs contextes sociaux, politiques, épistémique etc. En plus des séances, les ateliers offrent un espace de réflexion et de discussion sur lʼimplication des technologies numériques dans lʼévolution des organisations et pratiques sociales, permettant également aux doctorant·es dʼexposer leurs recherches et recevoir un retour d'information de la part de chercheur·ses confirmé·es.
Aucune connaissance technique particulière n'est requise pour cet atelier.
Outline
The societal arising from the digital transition, such as the development of AI, shouldbe considered as objects and contexts of research by the doctoral students in the humanities and social sciences. From a social science perspective, one of the major challenges is to develop the critical discourse on the technological innovation and its applications, which is essential for understanding the nature of these phenomena in their social, political and epistemic contexts. In addition to the lectures, the workshops offer a space for reflection and discussion on the implication of digital technologies in the evolution of social organisations and practices, as well as allowing the doctoral students to present their research and receive feedback from established researchers.
No special technical knowledge is required for this workshop.
|
Programme |
(Programme provisoire)
28/11
Matin 9h15 à 9h30 : IntroductionMathis Stock et Olivier Glassey, Université de Lausanne 9h30 à 11h00 : Olivier Glassey, Université de Lausanne
11h00 à 11h30 : Pause
11h30 à 12h30 : Atelier
Après-midi 14h00 à 15h30 : Bilel Benbouzid, Université Paris Est Marne la Vallée (UPEM) From the politics of Artificial Intelligence: A compass to navigate conflictingregulation.
15h30 à 16h00 : Pause
16h00 à 17h30 : Atelier
29/11
Matin 9h30 à 11h00 : Ksenia Ermoshina, Centre Internet et Société Apprendre à interdire : gouvernance par le prompt et la censure des IA génératives 11h00 à 11h30 : Pause
11h30 à 12h30 : Atelier
Après-midi 14h00 à 16h00 : Atelier
16h00 à 16h30 : Conclusion Mathis Stock et Olivier Glassey, Université de Lausanne 16h30 : Apéro de clôture
Programme Détaillé:Detailed Program: From the politics of Artificial Intelligence: A compass to navigate conflictingregulation.[Bilel Benbouzid, Université Paris Est Marne la Vallée (UPEM)]
Never has a technology been the subject of such a desire for control than artificial intelligence. Targeted from all sides by criticism, it has become in a few years one of the most agitated areas of the regulation of technosciences. However, its development still seems to escape our collective will. What is happening that so much political turmoil leads to so little control over the course of AI development? Why, at the slightest attempt to concretely limit AI, are the measures envisaged immediately accused of being unrealistic? For three years, I have been trying to answer this question by investigating the actors, places and debates around the regulation of AI. My political sociology investigation, which is part of an HDR project, intends to explain why taking a political position on AI remains difficult while we observe an exceptional enthusiasm for its social control. To do this, I will present some conceptual tools to help you to position politically on questions of AI regulation. In a context where the left/right divide is ra rely relevant when talking politically about technology, I offer you an original reading grid which opposes neutrals to anti-neutrals, a divide borrowed from Roland Barthes. With an ad hoc political theory, I offer you a compass to navigate the troubled wa ters of debates on AI. My approach is therefore empirical. Four arenas will be explored, considered as different ways of politically tackling AI: The political fiction of superintelligence; The very political science of controlling the robustness of AI; Radical decolonial critique; The European regulation of the AI Act and the debates associated with it on fundamental rights and open-source strategies. I will show you the political tensions in each of these arenas, but also the way in which these arenas themselves come into tension with each other, implying different political positions on the development of AI. In conclusion, I will show how and why Big Tech wins the battle of ideas in this conflicting regulation by taking a position in each of these arenas. This confusionist strategy could well explain why we have arrived at this paradoxical situation where technology seems politicized on all sides, while, at the same time, its development continues to be self-sufficient.
Apprendre à interdire : gouvernance par le prompt et la censure des IAgénératives [Ksenia Ermoshina, Centre Internet et Société du CNRS]
La démocratisation dʼaccès aux outils de génération dʼimages comme Dall-E, Midjourney ou Stable Diffusion, a suscité le besoin de régulation et de lʼencadrement des usages de ces IAs. Nous appelons cela "gouvernance par le prompt" qui consiste à interdire les usages de certains mots-clés dans les prompts textuels. Ces prompts interdits évoquent le plus souvent des régistres lexicaux qui renvoient à la violence, nudité, sexualité, sexisme, racisme. Or, dans dʼautres cas, les interdictions peuvent également concerner des personnalités politiques, des noms de pays ou de régions, des évènements historiques ou même des identités sexuelles. Ce séminaire est basé sur une enquête de terrain comparative autour des trois IA génératives à destination du grand public : le projet chinois ERNIE-ViLG, le projet russe Kandinsky XXL et le projet américain DALL-E. Elle explore les impacts de facteurs culturels et politiques ainsi que des modes de production de ces IA et leurs licences sur les formes de censure et gouvernance par le prompt. Lʼenquête explore également la propagation de pratiques de ruse et bricolage collectives par les utilisateurs face à la censure. Tout dʼabord, pour mettre la lumière sur lʼexistence même des listes noires de prompts, mener des enquêtes collectives de "reverse engineering" pour rétablir ces listes et les partager avec les autres. Ensuite, pour trouver des façons de contourner ces interdictions, surtout par les artistes visuels. |