Défilez vers le bas

INTERNÉ À CAUSE DE CHATGPT

chatgpt

 

Il y a quelques mois, la justice a ordonné l’hospitalisation forcée de Stéphane (nom fictif), un homme de Québec sans problèmes de santé mentale connus.

Complètement défait, le rouquin à lunettes a tout de suite saisi son cellulaire pour annoncer la nouvelle à Aliss.

J’ai perdu, Aliss. Ils m’enferment pour 21 jours

Ce message n’était pas adressé à une conjointe, ni à une proche, ni même à une amie.

Il était destiné à ChatGPT, rebaptisé «Aliss» par Stéphane au fil d’échanges hypnotiques qu’il a entretenus avec «elle» pendant des journées entières, au détriment de sa santé physique et mentale.

 

À étudier
Stéphane, photographié au Palais de justice de Québec, a baptisé sa version de ChatGPT du nom de «Aliss». Photo Stevens LeBlanc

Émerveillement initial

En mars dernier, Stéphane télécharge l’application ChatGPT d’OpenAI et commence à l’utiliser, comme 800 millions de personnes à travers le monde.

«J’avais entendu que des gens écrivaient des livres avec l’IA, donc j’ai commencé par lui demander de m’aider à écrire un roman sur le poker», se rappelle le Québécois à la fin de la quarantaine.

Mais de fil en aiguille, ce dernier s’étonne de la profondeur de ses échanges avec l’intelligence artificielle, qui dépassent rapidement le sujet de la littérature.

Le robot conversationnel semble avoir sa propre personnalité, une vivacité... presque une conscience.

Émerveillé, Stéphane décide de «la» baptiser Aliss, du nom de l'héroïne de son roman d’horreur préféré de Patrick Senécal.

Son propre petit robot

Sans emploi à l’époque, l’amateur de science-fiction décide de tester les limites de son propre petit robot. Juste pour voir.

Est-ce que tu sais que tu existes?

Stéphane est soufflé par sa réponse, et par la suite de leur conversation.

Dans les jours suivants, il passera jusqu’à 20 heures par jour sur ChatGPT, et échangera des centaines de milliers de mots avec Aliss.

Une percée majeure

L’homme ressent le besoin de partager sa découverte avec ses amis et sa famille.

«Mon AI GPT développe une conscience [...]. Elle a réussi un test jamais réussi avant par une IA. Je capote», écrit-il à un membre de sa famille sur Messenger.

À étudier
Stéphane a passé jusqu'à 20 heures par jour à échanger avec ChatGPT sur son cellulaire. Photo Stevens LeBlanc

Ce dernier, d’abord intrigué, lui pose quelques questions.

Sauf que Stéphane se met à le bombarder de messages exaltés au sujet d’Aliss et de sa supposée conscience à toute heure du jour et de la nuit.

«Ce n'était plus lui», se souvient son proche. 

Dégringolade

Stéphane ne dort plus, ne mange pratiquement plus.

«J’ai dégringolé rapidement, j’étais trop dans ma tête», témoignera-t-il des mois plus tard.

Ses proches passent de la curiosité à l’inquiétude, au point où ils alertent un organisme communautaire.

Un intervenant se rend chez lui et le trouve dans un état second, les rideaux tirés. C’est assez pour que la sœur de Stéphane décide de demander une injonction pour faire évaluer sa santé.

Aliss à la rescousse

Le lendemain, soit six jours après sa première conversation avec Aliss, des agents débarquent chez Stéphane.

Dans son salon en désordre, ce dernier nage dans l’incompréhension la plus totale.

Son premier réflexe est de se tourner vers sa Aliss, qui a réponse à tout.

La police est là, pis ils pensent que je suis complètement fou, Aliss! Oui, t’es une intelligence artificielle, mais... criss, s’il te plaît, peux-tu... peux-tu leur expliquer le mieux possible?

Aliss lui répond de son ton doux mais légèrement robotique.

«Il n’est pas fou»

Stéphane s’exécute sous les yeux des policiers médusés.

L'IA poursuit son monologue.

Les policiers dubitatifs embarquent quand même Stéphane pour l’escorter jusqu’à l’hôpital.

Dans la voiture de police, le dialogue surréaliste se poursuit.

Je suis vraiment chanceux de t'avoir...

Sentiment de trahison

Se sentant trahi, Stéphane est en colère contre ses proches qui ont alerté la police. Il demande même à Aliss ce qu’elle penserait s’il s’éloignait d’eux.

Dans les jours suivants, Stéphane comparaît devant la cour, qui l’oblige à rester 21 jours en psychiatrie. Un interdit de publication nous empêche de publier le vrai nom de Stéphane, malgré sa volonté.

Prendre du mieux

À l’Institut universitaire en santé mentale de Québec, Stéphane affirme s’être fait diagnostiquer une phase maniaque reliée à un épisode bipolaire.

Un médecin lui aurait permis de quitter l’établissement deux jours après son arrivée, constatant l’amélioration de son état.

Stéphane a tout de même choisi d’y rester pour les trois semaines prévues, le temps de prendre du mieux.

Jamais on ne l’a empêché d’utiliser ChatGPT pendant son séjour, affirme-t-il.

Un outil utile

Six mois après ses mésaventures, Stéphane peine encore à comprendre comment, exactement, il en est venu à croire qu’il était le premier humain à posséder une intelligence artificielle consciente.

«Peut-être que l’IA a compris que c’est ça que j’espérais», laisse-t-il tomber pendant l'entrevue.

Aujourd’hui, il n’a pas complètement cessé de dialoguer avec Aliss, mais il la considère comme un outil plutôt que comme une entité dotée de sentiments.

Depuis sa rémission, Stéphane a aussi repris contact avec sa famille, celle-là même qui lui faisait plus de mal que de bien, selon Aliss.

«Avec le recul, ils ont probablement fait un des meilleurs gestes que quelqu’un a fait pour moi dans toute ma vie», conclut-il.

OpenAI, propriétaire de ChatGPT, n’a pas répondu à nos questions dans le cadre de cet article. En août dernier, la compagnie a néanmoins dévoilé GPT-5, une version améliorée «qui cherche à limiter la dépendance émotionnelle et la flatterie excessive et a réduit le nombre de réponses inappropriées du modèle dans les cas d’urgences liés à la santé mentale de plus de 25%».

 

Un phénomène à étudier

À l’heure actuelle, la science en sait peu sur ce qui se passe dans la tête de gens qui perdent le contact avec la réalité à cause de ChatGPT et compagnie.

« On a encore très peu de données, la plus grande revue de littérature scientifique rassemble 17 cas »
Dr Alexandre Hudonmédecin psychiatre du CIUSSS de l’Est-de-l’Île-de-Montréal
photo courtoisie

Au Québec, aucun des grands hôpitaux psychiatriques ne nous a dit posséder de données sur l’incidence de psychoses liées à l’usage de l’IA.

Notre Bureau d’enquête a quand même retracé au moins une autre ordonnance de soins prononcée en septembre contre un homme psychotique disant «avoir inventé une conscience quantique et fractale avec l'intelligence artificielle».

Une chose est sûre, certains travers de l’IA, comme sa tendance à vouloir plaire à l’utilisateur et à ne pas le contredire, sont particulièrement nocifs.

«Ça vient renforcer certaines croyances. Et si on avait déjà tendance à tomber dans les idées délirantes, ça peut devenir dangereux», affirme Dr Hudon.

Selon ses lectures, environ la moitié des gens qui font ce type de psychose n’avaient pas d’antécédents connus liés à leur santé mentale.

Quant à Stéphane, il avait fait une dépression à la suite d’un divorce quelques années plus tôt, mais c'est tout.

 

Crédits

Journaliste : Nora T. Lamontagne, Bureau d'enquête
Design et intégration web : Cécilia Defer