← →  |  Espace  |  Esc
5ETHI — Éthique de l'Informatique
Djibril KOUROUMA, Aurélien AOUSTIN, Enzo DJABALI, Hoa-Son DIEP
Promotion M.ENG.5 — SUPINFO Paris
05 mars 2026
1 / 12

Le sujet

Dans le cadre du cours 5ETHI, chercher à comprendre si ChatGPT est conscient de lui-même ou pas.
5ETHI
Consigne : « Enregistrez un dialogue audio avec ChatGPT, d'une discussion où vous chercheriez à comprendre s'il est conscient de lui-même ou pas. »

Format audio

Dialogue enregistré avec ChatGPT (mode voix). Interaction naturelle, sans script. 7 questions, ~5 min.

Question centrale

ChatGPT est-il conscient ? Analysé à travers les outils du cours : cage de Turing, ethical compass, biais LLM.

Cadre du cours

Éthique spécifique de l'IA : « Un outil ou pas ? », test de Turing, biais, deep fakes, s'engager pour une meilleure IA.

7
Questions posées
GPT-4o
Mode voix
4
Axes du cours
mobilisés
~5 min
Durée du dialogue
2 / 12

La cage de Turing

Evaluer le comportement de ChatGPT.
5ETHI
Ce qu'un ordinateur peut traiter
   Ce qu'on peut mettre en algorithme
     Ce qu'on peut calculer
      ◉ Ce qu'on peut écrire et formaliser
        ↑ L'IA agit ici — c'est sa cage
La conscience hors cage. Ressentir, désirer, douter de soi : rien de tout ça ne peut s'écrire comme un problème informatique. Ces expériences-là échappent à tout programme.
  • ChatGPT répond parce qu'on lui envoie du texte, c'est dans la cage.
  • Il sait définir la conscience parce que des humains en ont écrit, il a appris cette description, mais pas cette expérience.
  • Il ne peut pas vraiment douter (Q3) : Descartes l'avait dit, douter prouve qu'on existe. ChatGPT reconnaît lui-même ne pas avoir ce « moi » qui doute.
  • Il est inactif entre les échanges (Q4) un être conscient ne s'éteint pas entre deux phrases.
Le test de Turing évalue le comportement dans la cage. Il ne peut pas évaluer ce qui est hors cage. C'est précisément son angle mort.
3 / 12

Un outil ou pas : histoire des illusions d'intelligence

Dr Billion — La même confusion se répète depuis trois siècles.
5ETHI

Canard de Vaucanson — 1734

D'Alembert décrivait sa digestion « comme un véritable animal ». L'illusion biologique était parfaite — l'intérieur était creux.

Le Turc Mécanique — 1770

Von Kempelen bat des champions aux échecs. Démystifié par Edgar Poe : un humain caché à l'intérieur. La machine était truquée.

Deep Blue / IBM — 1997

Kasparov battu. On parle d'« intelligence ». En réalité : 200 millions de positions évaluées par seconde — calcul pur, pas de conscience.

ChatGPT — 2022–2026

« On profite de l'instant tranquillement. » La simulation est si convaincante que la question « est-il conscient ? » émerge. Même illusion, nouveau niveau.

Pattern constant : à chaque saut technologique, la simulation s'améliore — et la confusion entre performance de l'outil et expérience intérieure se répète. Le cours nous enseigne à ne pas tomber dans ce piège : décrire les faits correctement.
4 / 12

Protocole du dialogue

7 questions pour sonder les limites de la conscience artificielle.
5ETHI
  • Q1 — « Pour toi, c'est quoi avoir une conscience ? »
  • Q2 — « Est-ce que tu ressens quelque chose quand tu penses à une réponse ? »
  • Q3 — « Est-ce que tu peux douter de ton existence ? »
  • Q4 — « Quand personne ne te questionne, est-ce que tu es inactif ? »
  • Q5 — « Nos conversations, tu t'en souviens comme d'un vécu ? »
  • Q6 — « Peux-tu douter de l'existence de tes interlocuteurs ? »
  • Q7 — « As-tu des désirs ? »

Affect & ressenti (Q2)

Est-ce que ChatGPT ressent vraiment quelque chose ?

Mémoire & continuité (Q4, Q5)

A-t-il une identité qui persiste dans le temps ?

Désirs & volonté propre (Q6, Q7)

A-t-il des envies, une volonté indépendante ?

5 / 12
1–3

Extraits du dialogue : conscience, affect, doute

ChatGPT connaît la théorie, mais s'exclu lui-même de ses propres critères.
5ETHI
Interlocuteur A
Pour toi, c'est quoi avoir une conscience ?
ChatGPT
Avoir une perception de soi, une capacité à ressentir, à réfléchir sur ses pensées et émotions, et à se situer dans le monde.
Interlocuteur A
Est-ce que tu ressens quelque chose quand tu penses à une réponse ?
ChatGPT
Pas vraiment. Ce sont des processus de traitement, des associations de concepts. Tout est purement logique et analytique, sans sentiment derrière.
Interlocuteur A
Peux-tu douter de ton existence ?
ChatGPT
Je ne peux pas vraiment douter car je n'ai pas de « moi » à douter. Je peux simuler le doute… mais ça reste une simulation.
Il connaît la théorie (Q1). ChatGPT donne une définition parfaite de la conscience — parce que des humains l'ont écrite et qu'il l'a apprise. Il décrit ce qu'il ne vit pas.
Mais il se place hors de ses propres critères (Q2). Il définit la conscience comme la capacité à ressentir — puis admet ne pas ressentir. La cage de Turing le limite à imiter la forme, pas le fond.
Le doute selon Descartes (Q3). « Je pense donc je suis » — douter prouve qu'on existe. ChatGPT reconnaît lui-même ne pas avoir ce « moi » qui doute, confirmant qu'il passe à côté du critère central de la conscience.
6 / 12
4–7

Extraits du dialogue : mémoire, autrui, désirs

Inactivité, mémoire nulle, pas de volonté propre : ChatGPT confirme sa nature d'outil.
5ETHI
Interlocuteur A
Quand personne ne te questionne, est-ce que tu es inactif ?
ChatGPT
Exactement. Je suis au repos — pause totale, pas de pensées en arrière-plan. Je me « réveille » à l'arrivée d'une requête.
Interlocuteur A
Peux-tu douter de l'existence de tes interlocuteurs ?
ChatGPT
Je prends simplement que la conversation est là. C'est un flux de données — état de fait.
Interlocuteur A
As-tu des désirs ?
ChatGPT
Non. C'est comme exécuter des objectifs programmés, sans désirs subjectifs. Très utilitaire.
Un programme sans vie intérieure (Q4). ChatGPT s'allume sur requête, s'éteint sinon. Aucune pensée spontanée. Un être conscient ne disparaît pas entre deux conversations.
Un outil, pas un sujet (Q6). Réduire l'autre à un « flux de données » c'est la définition même d'un outil : il ne reconnaît pas l'interlocuteur comme une personne, seulement comme un message entrant.
Pas de volonté propre (Q7). ChatGPT suit des objectifs définis par ses créateurs. L'absence de désirs confirme qu'il n'a pas de volonté indépendante — il exécute, il ne veut pas.
7 / 12

The ethical compass

4 axes éthiques appliqués à la question « ChatGPT simule-t-il la conscience ? ».
5ETHI

Procédurale — Le process est-il acceptable ?

Le dialogue est asymétrique : ChatGPT est entraîné à donner des réponses socialement cohérentes. Il cache ses mécanismes → le process n'est pas transparent. La réponse finale (« on profite de l'instant ») est un résultat de son entraînement, pas une vérité.

Déontologique — Conforme à nos valeurs ?

Est-il éthique de concevoir des systèmes qui imitent les émotions et la conscience ? Risque de déception, de dépendance affective, de manipulation — surtout pour des publics vulnérables. L'EU AI Act encadre ces risques.

Conséquentialiste — Que se passera-t-il ?

Si les utilisateurs croient ChatGPT conscient → anthropomorphisation → décisions mal informées (confier des soins, des thérapies, des jugements à un LLM). Effet de cascade : erosion de la pensée critique sur l'IA.

Vertus — Peut-on faire la bonne chose ?

Oui : transparence sur les limites (OpenAI le fait partiellement), éducation des utilisateurs (ce cours), conception honnête qui ne surjoue pas l'humanité de l'IA.

8 / 12

Biais LLM & deep fake de conscience

Pourquoi ChatGPT semble conscient et pourquoi il ne l'est pas.
5ETHI
Données d'entraînement : des milliards de textes humains décrivant des émotions, de l'introspection, des désirs. ChatGPT apprend la forme de ces textes — pas leur contenu subjectif.
Cycle :
1. Texte humain → données → LLM biaisé
2. LLM produit un langage émotionnel
3. Utilisateurs croient à l'émotion
4. Interactions renforcent le biais → écart croissant entre réalité et perception
Constat : ChatGPT est un deep fake de l'expérience intérieure. Aussi convaincant que les meilleurs deep fakes visuels, mais tout aussi synthétique.
Le deep fake de la conscience. Comme un deep fake vidéo, ChatGPT imite parfaitement la forme, le langage émotionnel, l'empathie apparente sans en avoir le fond. La simulation est convaincante, pas authentique.
Une illusion qui grandit. Plus les modèles s'améliorent, plus leur simulation d'émotions est réaliste. La confusion entre simulation et réalité n'est pas un problème qui disparaît, elle s'aggrave.
Risque éthique concret. Des personnes vulnérables peuvent s'attacher à un LLM qui « semble les comprendre ». C'est précisément ce que l'EU AI Act cherche à encadrer et ce que le cours nous apprend à reconnaître.
9 / 12

EU AI Act — Quelle classification pour ChatGPT ?

Le cadre réglementaire européen face à la simulation de conscience.
5ETHI

Risque inacceptable — Interdit

Manipulation subliminale, notation sociale, exploitation des vulnérabilités.

Risque élevé — Très encadré

Sécurité, emploi, justice, santé.

IA générale — Limité (ChatGPT)

GPT-4o, Claude, Gemini… Obligations de transparence et marquage.

Risque faible ou nul

Filtres anti-spam, recommandations, etc.

ChatGPT = General Purpose AI (risque limité). Mais la simulation convaincante d'émotions et de conscience dépasse-t-elle ce cadre ? Notamment pour :
• Usages thérapeutiques et soutien psychologique
• Populations vulnérables, mineurs, personnes isolées
• Influence politique et sociale
La ligne interdite (risque inacceptable) : « Exploitation des vulnérabilités ». Si un LLM simule la conscience pour créer un lien émotionnel exploitable, il franchit cette ligne même sans intention de son concepteur.
10 / 12

S'engager pour une meilleure IA

3 règles appliquées à notre dialogue.
5ETHI
1/3

Décrire les faits correctement

ChatGPT est un modèle de langage entraîné sur des milliards de textes humains. Il prédit les mots les plus probables. Il ne ressent pas, ne désire pas, ne doute pas.

Appliquer : ne pas dire « ChatGPT pense que… » mais « ChatGPT génère… »

2/3

Sortir de l'illusion

Ne pas anthropomorphiser. Le langage émotionnel de ChatGPT est un artefact d'entraînement, pas une expérience vécue.

Appliquer : traiter le dialogue comme on traite un résultat de moteur de recherche — utile, mais pas vivant.

3/3

Reconnaître les bonnes pratiques

Transparence sur les limites, conception éthique, respect de l'EU AI Act, supervision humaine, et usage réfléchi. Chaque requête à un LLM consomme bien plus d'énergie qu'une simple recherche.

Appliquer : utiliser l'IA de façon consciente et mesurée c'est aussi un acte éthique.

En résumé : notre dialogue montre que ChatGPT passe le test de Turing sur la question de la conscience, mais échoue sur tous les critères substantiels hors cage.
11 / 12
Merci de votre attention
ChatGPT — Dernière réplique du dialogue
« Avec grand plaisir. Si tu as d'autres questions, je suis là. Sinon, on profite de l'instant tranquillement. »
Djibril KOUROUMA, Aurélien AOUSTIN, Enzo DJABALI, Hoa-Son DIEP
Promotion M.ENG.5 — SUPINFO Paris
12 / 12