BRUXELLES 1SCIENCES

Repenser notre rapport à l’intelligence artificielle

Le jeudi 13 février 2025, l’école européenne d’Uccle a ouvert ses portes à une conférence captivante menée par Louis de Diesbach sur le rôle de l’intelligence artificielle dans nos sociétés. Cette démarche réflexive initiées durant les cours de philosophie 4 en S6 et S7 nous a permis de nous plonger dans diverses pistes de réflexion sur le sujet.

Louis de Diesbach est un jeune écrivain et penseur engagé sur les questions d’éthique de l’IA. Père de famille d’une part et consultant dans une entreprise du monde de la tech d’autre part, il est spécialiste des questions d’éthique sur notre rapport aux nouvelles technologies. Il nous offre un point de vue fort utile sur ce nouvel outil de plus en plus omniprésent dans notre quotidien.

Poser des limites

L’IA est déjà présente dans notre quotidien, mais pour savoir comprendre comment s’en servir sans que cela ne soit éventuellement préjudiciable, il est important de définir quelles limites fixer à son utilisation pour que cela ne porte pas atteinte à notre capacité à penser par nous-mêmes ainsi qu’à notre rapport au réel et à la vérité. Il faut prendre conscience que l’IA est plutôt un outil parmi d’autres pour augmenter nos potentiels humains.

Dans son livre « Bonjour Chat GPT » il commence par définir ce qu’est l’anthropomorphisme, principe qui consiste à attribuer des caractéristiques humaines à des animaux, des divinités ou encore des objets. Le titre de son livre se réfère donc aux personnes qui au début de l’utilisation de chat GPT lui disent bonjour comme à une personne humaine, gommant en cela les limites entre le virtuel et le réel.

Grâce à cette conférence, on a également pu observer les biais cognitifs induits par l’IA. L’expérience était de demander à Chat GPT de générer des images de médecin et d’ingénieurs brillants (« successful »). Les images générées étaient dans les deux cas des hommes blancs à lunettes d’environ une trentaine d’année. On lui a ensuite demandé une infirmière et il l’a qualifié de « dedicated » à la place de « succesful » parce que c’était une femme représentée pour ce métier-là. Cette expérience a fait ressortir les biais sexistes et racistes de notre société. Le problème n’est pas ici que l’IA soit discriminante, mais plutôt que la programmation de ces machines révèle des problèmes de discrimination sociale profonde. Les réponses dépendent des bases de données programmées et utilisées et reflètent leurs biais. Il serait donc essentiel de renforcer la diversité des données utilisées pour générer ces algorithmes, afin de réduire les biais qui pourraient nuire à certaines minorités.

Des questions éthiques

Un autre aspect important est celui de l’utilitarisme et son lien avec l’intelligence artificielle. L’utilitarisme est un courant philosophique moral fondé sur l’idée que l’action la plus éthique est celle qui bénéficie au plus grand nombre. Cette approche soulève des questions éthiques importantes par rapport aux IA : Jusqu’où peut-on pousser cette maximisation du bien-être sans négliger les droits individuels de chacun ? De plus, comment garantir que les algorithmes ne soient pas biaisés en faveur de certains groupes ou intérêts. Il pourrait être nécessaire de créer des systèmes d’IA qui fonctionnent sous le contrôle d’un cadre éthique. Ce cadre pourrait être établi par des experts en éthique, des sociologues, des philosophes et des régulateurs.

Par conséquent, ce qui était marquant dans cette conférence, c’était l’importance de chercher à comprendre quels problèmes de société ressortent de l’utilisation des algorithmes qui sont à la source des contenus générés par l’IA, et ce, pour pouvoir adopter un comportement sain par rapport à ces machines, dans le but de les utiliser de manière plus responsable et plus éthique. Cette vaste réflexion est davantage explorée dans ces deux livres de Louis de Diesbach : Liker sa servitude et Bonjour ChatGPT.

Isabella Silla / S6FRA / EEB1 Uccle

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *