Information détaillée concernant le cours

[ Retour ]
Titre

Enjeux sociétaux et politiques de l’IA - Social and political issues of AI

Dates

28-29 novembre

Lang FR Activité en français
Organisateur(s)/trice(s)

Pr. Mathis Stock, UNIL

Dr. Olivier Glassey, UNIL

Pr. Boris Beaude, UNIL

Davide Ceccato, Doctorant, UNIL

Intervenant-e-s

Bilel Benbouzid, Université Paris Est Marne la Vallée (UPEM)

Ksenia Ermoshina, Centre Internet et Société

Mathis Stock, Université de Lausanne

 

Olivier Glassey, Université de Lausanne

 

Description

Présentation générale

Les nouveaux enjeux sociétaux produits par le transition numérique, tels que ledéveloppement de lʼIA, doivent être envisagées en tant qu'objets et contexte de
recherche par lesdoctorant·es en sciences humaines et sociales. Un des défis majeurs
est de faire progresser le discours critique sur lʼinnovation technologique et ses
applications dʼune perspective des sciences sociales, indispensable pour comprendre
la nature de ces phénomènes dans leurs contextes sociaux, politiques, épistémique
etc.
En plus des séances, les ateliers offrent un espace de réflexion et de discussion sur
lʼimplication des technologies numériques dans lʼévolution des organisations et
pratiques sociales, permettant également aux doctorant·es dʼexposer leurs
recherches et recevoir un retour d'information de la part de chercheur·ses
confirmé·es.

 

Aucune connaissance technique particulière n'est requise pour cet atelier.

 

Outline

The societal arising from the digital transition, such as the development of AI, shouldbe considered as objects and contexts of research by the doctoral students in the
humanities and social sciences. From a social science perspective, one of the major
challenges is to develop the critical discourse on the technological innovation and its
applications, which is essential for understanding the nature of these phenomena in
their social, political and epistemic contexts.
In addition to the lectures, the workshops offer a space for reflection and discussion
on the implication of digital technologies in the evolution of social organisations and
practices, as well as allowing the doctoral students to present their research and
receive feedback from established researchers.


No special technical knowledge is required for this workshop.

Programme

(Programme provisoire)

28/11

Matin
9h15 à 9h30 : Introduction
Mathis Stock et Olivier Glassey, Université de Lausanne
9h30 à 11h00 :
Olivier Glassey
, Université de Lausanne

11h00 à 11h30 : Pause

11h30 à 12h30 : Atelier

 

Après-midi
14h00 à 15h30 : Bilel Benbouzid
, Université Paris Est Marne la Vallée (UPEM) From the politics of Artificial Intelligence: A compass to navigate conflictingregulation.

15h30 à 16h00 : Pause

16h00 à 17h30 : Atelier

 

29/11

Matin
9h30 à 11h00 : Ksenia Ermoshina
, Centre Internet et Société
Apprendre à interdire : gouvernance par le prompt et la censure des IA génératives
11h00 à 11h30 : Pause

11h30 à 12h30 : Atelier

Après-midi
14h00 à 16h00 : Atelier

16h00 à 16h30 : Conclusion
Mathis Stock et Olivier Glassey, Université de Lausanne
16h30 : Apéro de clôture



Programme Détaillé:
Detailed Program:
From the politics of Artificial Intelligence: A compass to navigate conflicting
regulation.[Bilel Benbouzid, Université Paris Est Marne la Vallée (UPEM)]


Never has a technology been the subject of such a desire for control than artificial
intelligence. Targeted from all sides by criticism, it has become in a few years one of
the most agitated areas of the regulation of technosciences. However, its development
still seems to escape our collective will. What is happening that so much political
turmoil leads to so little control over the course of AI development? Why, at the
slightest attempt to concretely limit AI, are the measures envisaged immediately
accused of being unrealistic?
For three years, I have been trying to answer this question by investigating the actors,
places and debates around the regulation of AI. My political sociology investigation,
which is part of an HDR project, intends to explain why taking a political position on
AI remains difficult while we observe an exceptional enthusiasm for its social control.
To do this, I will present some conceptual tools to help you to position politically on
questions of AI regulation. In a context where the left/right divide is ra rely relevant
when talking politically about technology, I offer you an original reading grid which
opposes neutrals to anti-neutrals, a divide borrowed from Roland Barthes. With an ad
hoc political theory, I offer you a compass to navigate the troubled wa ters of debates
on AI. My approach is therefore empirical.
Four arenas will be explored, considered as different ways of politically tackling AI:
The political fiction of superintelligence; The very political science of controlling the
robustness of AI; Radical decolonial critique; The European regulation of the AI Act
and the debates associated with it on fundamental rights and open-source strategies.
I will show you the political tensions in each of these arenas, but also the way in which
these arenas themselves come into tension with each other, implying different
political positions on the development of AI. In conclusion, I will show how and why
Big Tech wins the battle of ideas in this conflicting regulation by taking a position in
each of these arenas. This confusionist strategy could well explain why we have
arrived at this paradoxical situation where technology seems politicized on all sides,
while, at the same time, its development continues to be self-sufficient.

Apprendre à interdire : gouvernance par le prompt et la censure des IA
génératives
[Ksenia Ermoshina, Centre Internet et Société du CNRS]

La démocratisation dʼaccès aux outils de génération dʼimages comme Dall-E,
Midjourney ou Stable Diffusion, a suscité le besoin de régulation et de lʼencadrement
des usages de ces IAs. Nous appelons cela "gouvernance par le prompt" qui consiste
à interdire les usages de certains mots-clés dans les prompts textuels. Ces prompts
interdits évoquent le plus souvent des régistres lexicaux qui renvoient à la violence,
nudité, sexualité, sexisme, racisme. Or, dans dʼautres cas, les interdictions peuvent
également concerner des personnalités politiques, des noms de pays ou de régions,
des évènements historiques ou même des identités sexuelles.
Ce séminaire est basé sur une enquête de terrain comparative autour des trois IA
génératives à destination du grand public : le projet chinois ERNIE-ViLG, le projet
russe Kandinsky XXL et le projet américain DALL-E. Elle explore les impacts de
facteurs culturels et politiques ainsi que des modes de production de ces IA et leurs
licences sur les formes de censure et gouvernance par le prompt.
Lʼenquête explore également la propagation de pratiques de ruse et bricolage
collectives par les utilisateurs face à la censure. Tout dʼabord, pour mettre la lumière
sur lʼexistence même des listes noires de prompts, mener des enquêtes collectives
de "reverse engineering" pour rétablir ces listes et les partager avec les autres.
Ensuite, pour trouver des façons de contourner ces interdictions, surtout par les
artistes visuels.

Lieu

UNIL (Site de Sion)

Information
Inscription

 

 

Places

15

Délai d'inscription 23.11.2024
short-url short URL

short-url URL onepage