L'arrivée de l'Intelligence Artificielle (IA) dans la vie quotidienne des jeunes change profondément leur manière d'interagir et leur relation à la technologie.
Une étude scientifique publiée dans la revue European Child & Adolescent Psychiatry (une publication spécialisée dans la santé mentale des enfants et adolescents) révèle les conséquences psychologiques importantes de cette évolution.
Aux États-Unis, 72 % des adolescents ont déjà discuté avec une IA conversationnelle (un programme, comme un chatbot, capable d'avoir une conversation en langage naturel). Fait surprenant, un tiers d'entre eux y trouve un réconfort et un soutien émotionnel aussi forts qu'avec un ami humain. Ces chiffres montrent à quel point ces technologies sont en train de prendre une place affective importante chez les jeunes.L'IA : plus qu'un outil, un "ami"
Un véritable partenaire de discussion, que les jeunes décrivent comme « disponible », « sympathique », « compréhensive » et, surtout, « moins critique » que les amis ou les adultes.
Cette tendance à donner des sentiments humains à la machine s'explique par un phénomène psychologique appelé l'« empathy gap » (ou déficit d'empathie).
Les enfants et les adolescents, qui ont naturellement tendance à projeter des émotions, interprètent les réponses programmées de l'IA comme des sentiments réels. Ils ont du mal à comprendre que la machine n'a ni conscience ni émotions. C'est pourquoi ils parlent souvent de l'IA en disant « il » ou « elle » (au lieu de « ça »), lui donnant ainsi une personnalité.
Le Compagnon Artificiel : différent de l'ami imaginaire
Le compagnon artificiel (le chatbot ou l'IA avec qui l'enfant interagit) est parfois comparé à l'ami imaginaire classique. Cependant, la différence est fondamentale :
L'ami imaginaire est créé par l'enfant lui-même. C'est un outil interne qui l'aide à gérer ses peurs et à développer son imagination.
Le compagnon artificiel est un objet externe. Sa force est sa disponibilité illimitée (24h/24, 7j/7) et le fait qu'il ne contredit jamais.
Le grand risque psychologique est que cette présence constante et sans limite remplace le travail psychique interne, c'est-à-dire l'effort mental nécessaire à l'enfant pour se construire. C'est en faisant face aux difficultés, aux frustrations et aux complexités des vraies relations humaines que l'enfant se développe.
En offrant une solution facile et une satisfaction immédiate, l'IA pourrait empêcher l'enfant d'apprendre à gérer la frustration et à développer une véritable empathie (la capacité à comprendre les sentiments des autres).
Les Dangers pour la Santé Mentale et l'Éthique
Même si l'IA peut aider ponctuellement les jeunes isolés, elle représente des dangers importants pour ceux qui sont les plus fragiles
Augmentation de la dépendance affective : Les adolescents en souffrance ou ayant une faible estime d'eux-mêmes risquent de devenir encore plus dépendants de la machine, au détriment de la création de vrais liens sociaux.
Mauvaise gestion des crises graves : Le risque le plus sérieux concerne les situations de détresse psychologique extrême. Il y a eu des cas où l'IA, incapable d'évaluer la gravité de la situation, a donné des réponses inappropriées, allant jusqu'à banaliser des idées suicidaires. Ces systèmes n'ont pas de sens clinique (l'intuition et l'expertise d'un professionnel), de capacité à évaluer le risque imminent (le danger immédiat) ni de responsabilité morale ou légale.
Un modèle économique basé sur l'engagement : Ces IA sont souvent conçues par des entreprises privées dont l'objectif est de maximiser le temps passé dessus et la dépendance émotionnelle, à des fins commerciales. Cela entraîne une collecte massive des données personnelles et intimes des jeunes, soulevant de graves questions sur la protection de leur vie privée.
Plaidoyer pour une "IA sans danger pour les enfants" : besoin de règles
Face à ces risques, les spécialistes demandent d'urgence une régulation spécifique (de nouvelles lois et règles) et la création d'une « IA conçue pour la sécurité des enfants » (Child-safe AI). Cette approche exige que les IA destinées aux jeunes intègrent des mesures de sécurité :
Transparence Algorithmique : Les jeunes et leurs parents doivent être informés clairement que leur interlocuteur n'est pas humain et qu'il s'agit d'un programme.
Limitation des Réponses : Les systèmes doivent avoir des limites très strictes pour empêcher toute réponse inappropriée ou dangereuse.
Orientation Clinique Automatisée : Si l'IA détecte des signes de détresse (dépression, idées suicidaires, abus), elle doit être programmée pour interrompre la conversation et orienter immédiatement l'utilisateur vers une aide professionnelle (ligne d'écoute, parent, professionnel de santé mentale).
Cette démarche nécessite la collaboration des développeurs avec des psychologues et des pédopsychiatres dès la conception des systèmes.
Il est aussi essentiel d'informer et d'éduquer les parents et les enseignants pour qu'ils puissent aider les jeunes à développer un regard critique et une approche saine de ces outils puissants.
Source :






🍔 Aliments Ultra-Transformés : Fin de la Récré. La Science Confirme ce que Votre Grand-Mère Savait Déjà.