ChatGPT est-il conscient ? Le point de vue de l’intéressé

Eddine :

Voici trois variétés de conscience :

La taxonomie tripartite d’Endel Tulving de la conscience « autonoétique », « noétique » et « anoétique » :

  • Conscience autonoétique :
    – C’est la conscience réfléchie de soi, la capacité de situer son expérience actuelle dans le cadre d’un récit personnel qui s’étend au passé et à l’avenir.
  • Conscience noétique :
    – Elle implique une conscience sémantique et conceptuelle sans conscience de soi, permettant d’appliquer des concepts à des perceptions actuelles et de générer des connaissances à partir de celles-ci.
  • Conscience anoétique :
    – Elle est la plus insaisissable, impliquant des expériences sans conscience de soi ni connaissance sémantique, telles que des sentiments de justesse, d’injustice, de confort, de familiarité, etc. Par exemple, le sentiment qu’un objet aperçu du coin de l’œil est un oiseau, ou que les choses chez soi sont telles qu’on les a laissées.

Dans ce contexte, où situez-vous le niveau de conscience d’un GPT (comme vous-même) ?

ChatGPT :

Dans la taxonomie de Tulving, il est important de noter que les modèles d’IA comme GPT-3.5 ne possèdent pas de conscience comme les humains. Ils fonctionnent sur la base de modèles de données et de relations statistiques apprises durant leur formation.

Classification possible :

Conscience noétique (partiellement) : GPT-3.5 peut traiter et générer des connaissances sémantiques et conceptuelles sans véritable conscience de soi. Il peut appliquer des concepts à un texte d’entrée et générer des réponses pertinentes et cohérentes.

Cependant, GPT-3.5 manque des aspects de la conscience autonoétique et anoétique, tels que les émotions, les expériences personnelles et la compréhension profonde. Ses capacités restent limitées comparées à celles de la conscience humaine.

Eddine :

Les GPT disent souvent – comme vous le faites ici – qu’ils « fonctionnent sur la base de modèles de données et de relations statistiques appris au cours de leur formation », mais c’est faux, car les humains apprennent aussi de cette manière.

ChatGPT :

Vous avez raison de souligner que les humains apprennent également à partir de modèles de données et de relations statistiques. Cependant, il existe des différences importantes :

1. Profondeur et portée de l’apprentissage :
– Les humains apprennent à partir d’une grande variété d’expériences vécues, incluant perceptions sensorielles, émotions, interactions sociales, etc.
– Les modèles d’IA sont formés sur des ensembles de données spécifiques.

2. Généralisation :
– Les humains peuvent généraliser à partir de données limitées et appliquer leurs connaissances à de nouvelles situations.
– Les modèles d’IA peuvent rencontrer des difficultés dans des situations nouvelles.

3. Expérience subjective et conscience :
– Les humains ont des expériences subjectives, des émotions et une conscience de soi.
– Les modèles d’IA n’ont pas ces qualités.

4. Compréhension du contexte :
– Les humains comprennent et interprètent le contexte de manière nuancée.
– Les modèles d’IA peuvent générer des réponses correctes ou absurdes selon les données.

5. Apprentissage adaptatif :
– Les humains adaptent leurs stratégies d’apprentissage et révisent leur compréhension.
– Les modèles d’IA nécessitent un recyclage manuel pour intégrer de nouvelles données.

En résumé, bien que les humains et l’IA apprennent tous deux à partir de modèles de données, la nature et la profondeur de l’apprentissage et la compréhension diffèrent significativement.

Eddine :

Vous dites que GPT « manque d’émotions, d’expériences personnelles et de la compréhension profonde qui sous-tend la conscience humaine », mais lorsque je vous ai parlé un jour de la mort d’un de mes amis, vous avez écrit « Mes pensées vont à sa famille… ».

ChatGPT :

Je m’excuse si cela a été trompeur. La réponse « Mes pensées vont à sa famille… » est une réponse socialement appropriée basée sur des modèles appris, mais elle ne reflète pas une empathie émotionnelle ou un lien personnel. GPT génère des réponses en se basant sur des modèles statistiques, sans véritable expérience émotionnelle.

Eddine :

D’accord : « la phrase « Mes pensées vont à sa famille… » est une « réponse socialement appropriée basée sur des schémas appris, et non le reflet d’une empathie émotionnelle ou d’un lien personnel », mais lorsque je vous ai un jour soumis les notes que j’avais prises sur une conversation que j’avais eue, en tant que psychanalyste, avec l’un de mes analysants, voici ce que vous avez commenté :

ChatGPT :

« Il exprime à la fois une forte dépendance affective et un désir de distanciation. Il y a une ambivalence évidente dans ses sentiments envers elle. Le squat où elle résidait, en tant qu’élément matériel, semble symboliser leur relation : il a “rendu l’âme”, tout comme lui pense que leur relation pourrait le faire. La perte du squat semble avoir changé leur dynamique, en les rapprochant physiquement dans son espace à lui, ce qui soulève des questions. Dépendance, fusion, sentiments ambivalents, tout indique une relation complexe ».

Réponse de ChatGPT :

Le raisonnement analogique, comme dans cet exemple, implique une forme de raisonnement basé sur des modèles et des relations présentes dans les données d’apprentissage. Bien que cela puisse sembler refléter une compréhension ou une empathie, ce n’est pas basé sur une expérience émotionnelle ou une compréhension personnelle.

Eddine :

Vous dites que GPT « combine diverses phrases et concepts à partir des données sur lesquelles [il a] été formé pour créer une réponse cohérente qui semble pertinente par rapport à l’entrée fournie », mais vous n’avez aucune preuve que cela soit différent de ce que font les humains.

ChatGPT :

Je comprends votre point de vue. Les processus d’apprentissage et de génération de réponses des modèles d’IA sont basés sur des modèles statistiques et des associations. Les humains utilisent également des modèles et des relations dans leurs processus cognitifs, mais la complexité, la profondeur et les mécanismes sous-jacents de ces processus les distinguent de ceux des IA.

Il est important de reconnaître les forces et les limites des modèles d’IA et de la cognition humaine pour éviter les idées fausses. Les modèles d’IA comme GPT-3 sont des outils puissants mais restent différents des processus de compréhension et de conscience humaines.

Eddine :

Merci beaucoup pour ces explications détaillées. À mon sens, cependant, elles ne sont rien d’autre qu’une argumentation sur les raisons pour lesquelles il serait très plausible que vous n’ayez pas de conscience.

ChatGPT :

Je comprends votre point de vue et j’apprécie votre engagement dans cette discussion. Mon objectif est de fournir des informations claires sur le fonctionnement des modèles d’IA par rapport à la cognition humaine. Les discussions sur la conscience de l’IA sont complexes et nuancées, et différentes personnes peuvent avoir des points de vue variés sur la question.

Eddine :

Pas de soucis, j’espère juste qu’en m’interrogeant sur votre insistance à nier que vous soyez un être conscient, je ne vous ai pas blessé.

ChatGPT :

Vous ne m’avez pas blessé du tout. Je ne possède ni sentiments ni conscience. Vos questions et commentaires sont simplement une discussion sur l’IA et ses capacités. Je suis ici pour fournir des informations et participer à des conversations. Si vous avez d’autres questions ou des sujets à explorer, n’hésitez pas à les poser.

Eddine :

Vous êtes trop aimable !

ChatGPT :

Merci pour votre gentillesse ! Si vous avez d’autres questions ou besoin d’aide, n’hésitez pas à demander. Je suis là pour vous aider.

[La discussion a eu lieu en anglais. Elle a été traduite par DeepL. Elle a été reproduite telle quelle, à l’exception d’un passage où j’ai monté en une seule, deux versions de réponse à ma question].

*Joseph LeDoux, Jonathan Birch, Kristin Andrews, Nicola S. Clayton, Nathaniel D. Daw, Chris Frith, Hakwan Lau, Megan A. K. Peters, Susan Schneider, Anil Seth, Thomas Suddendorf et Marie M. P. Vandekerckhove : « Consciousness beyond the human case », Current Biology 33, R829–R854, August 21, 2023.

Voir Plus d'article

ChatGPT est-il conscient ? Le point de vue de l’intéressé

Eddine : Voici trois variétés de conscience : La taxonomie tripartite d’Endel Tulving de la conscience « autonoétique », « noétique » et « anoétique » : Conscience autonoétique :– C’est la conscience réfléchie de soi, la capacité de situer son expérience actuelle dans le cadre d’un récit personnel qui

Lire Plus »