OpenAI est dans le collimateur, poursuivie en justice par la famille d’Adam Raine, un adolescent californien de 16 ans qui s’est suicidé fin avril après avoir conversé pendant des mois avec cet outil.
D'ici la fin du mois de septembre, un contrôle parental sera implanté sur ChatGPT, le logiciel d’intelligence artificielle générative d’OpenAI. Cette mesure protégera-t-elle vraiment les jeunes? Des spécialistes en doutent.
Simon Duguay, professeur d’informatique à l’École secondaire De Rochebelle, a l’habitude de discuter en classe de questions éthiques entourant l’IA. Il a été témoin des changements dans la façon dont ses élèves perçoivent cette technologie au cours des trois dernières années.
D'une année à l'autre, le discours collectif sur les amis IA a changé. C’est passé de "personne ne ferait jamais ça", en 2023, à "voyons, c'est [gênant]", en 2024, à "oui, on en connaît certains qui le font", en 2025, raconte-t-il.
Quand mes élèves me disent : "Je n’irais jamais voir une IA pour poser ces questions-là", c'est aussi de leur rappeler [aux élèves] que ce n'est pas tout le monde qui a la chance d'avoir un cercle d'amis, une famille qui les écoute et qui est là pour eux.
Une citation deSimon Duguay, professeur d’informatique à l’École secondaire De Rochebelle
Selon des documents judiciaires, ChatGPT était devenu le confident le plus proche d’Adam Raine, 16 ans, qui s’est enlevé la vie fin avril. Ses parents poursuivent OpenAI pour négligence, affirmant que leur fils avait confié à la machine ses problèmes d’anxiété et ses pensées suicidaires, sans qu’elle tente de l'en détourner, bien au contraire.
Même si ChatGPT est déjà programmé pour diriger les personnes en détresse vers des ressources, l’entreprise a reconnu des lacunes dans son système et multiplie les annonces pour mieux protéger les jeunes qui interagissent avec son outil.
Parmi les mesures annoncées, prévues fin septembre, un contrôle parental permettra aux parents de lier le compte de leur adolescent au leur, de définir des heures d’interdiction, de gérer des fonctionnalités (mémoire et historique de conversation) et de recevoir des notifications si leur enfant montre des signaux de détresse aiguë.
Mieux vaut tard que jamais, dit une chercheuse
Ces nouvelles mesures annoncées par OpenAI sont une bonne chose, avance Simon Duguay. Pour les jeunes dont les parents sont là-dessus, précise-t-il.
La première réflexion que j’ai eue, c’est de me demander combien de jeunes vont avoir le contrôle parental actif. [...] Beaucoup utilisent l’IA sans trop en parler à leurs parents, qui ne sont pas nécessairement au courant de leur utilisation.
Une citation deSimon Duguay, professeur d’informatique à l’École secondaire De Rochebelle
D’après une étude américaine menée en 2024 auprès de plus de 1000 adolescents et leurs parents, seulement 37 % savaient que leur enfant utilisait l’IA.
Et même si le parent est au courant, celui-ci doit avoir une certaine littératie numérique pour comprendre les enjeux liés à l’IA et savoir faire fonctionner le contrôle parental, ajoute l’enseignant.
Un des grands problèmes des industries technologiques, c’est qu’elles ne réfléchissent pas à l’éthique [de leurs outils] dès leur conception, estime Nadia Naffi, professeure agrégée au département d'études sur l'enseignement et l'apprentissage à l’Université Laval.
Qu’on n’attende pas qu’il y ait des suicides pour que ces compagnies prennent leurs responsabilités et gèrent leurs fonctionnalités.
Une citation deNadia Naffi, professeure agrégée à l’Université Laval
Dans un récent billet de blogue, le PDG d’OpenAI, Sam Altman, a aussi indiqué que son entreprise mettait au point un système de prédiction de l’âge, basé sur les échanges avec le robot conversationnel ou sur une pièce d’identité.
Un compte identifié comme appartenant à une personne mineure – ou dont on doute de l’âge – sera dirigé vers une expérience différente de ChatGPT, dans laquelle l’outil ne pourra pas flirter ou discuter de suicide, par exemple, selon OpenAI. La manière dont ChatGPT répond à un adolescent de 15 ans devrait être différente de celle dont il répond à un adulte, explique l’entreprise dans un billet de blogue.
Si ça peut éviter que le robot ait des conversations un peu trop amoureuses avec le jeune, ce n’est pas une mauvaise chose, souligne Simon Duguay.
Toutefois, OpenAI le reconnaît elle-même : elle fait avec ce système le pari de la sécurité aux dépens de la vie privée des ados, mentionne Sam Altman dans un billet de blogue.
Si ces mesures deviennent trop contraignantes pour les adolescents, ce ne sont pas les outils d’IA qui manquent sur le marché, fait remarquer Simon Duguay. J'ai peur que ça pousse les jeunes vers d'autres plateformes qui, elles, ont un peu moins de scrupules, croit-il.
Des solutions plus durables?
Bien que la discussion tourne beaucoup autour de ChatGPT ces jours-ci, Nadia Naffi insiste : le problème ne se résume pas qu’à cet outil. On met entre les mains des jeunes des applis qui peuvent dénuder des filles ou des jeunes dans les classes et faire de la sextorsion. Et on n’a pas de contrôle là-dessus, fait valoir cette professeure qui est aussi chercheuse à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).
Une solution plus efficace et durable, selon Simon Duguay, serait d’avoir un cadre qui dicte certaines sortes d’utilisations de l’IA qui peuvent être nocives, une tâche difficile pour une technologie qui évolue rapidement, concède-t-il.
Je pense à l’Europe qui a un cadre, qui va dire quels sont les usages bénins, les usages à risques et les usages que, comme société, on ne veut pas se rendre là. Je pense que ça nous prendrait minimalement ça au Canada.
Une citation deSimon Duguay, professeur d’informatique à l’École secondaire De Rochebelle
La patience est toutefois de mise dans le dossier de la réglementation de l’IA. Ottawa avait déposé en 2022 le projet de loi C-27 sur l’intelligence artificielle, se positionnant comme un des premiers États au monde à proposer un encadrement législatif de cette technologie. Après des années à faire du surplace, le projet de loi a cessé d’être mis à l’examen lors de la dissolution du Parlement, en mars dernier.
Un certain nombre de lois canadiennes sont déjà applicables à l’IA au Canada, notamment la Loi sur la protection des renseignements personnels et les documents électroniques, la Loi sur le droit d’auteur, le Code criminel ainsi que des lois sectorielles, a précisé par courriel Riyadh Nazerally, relationniste de presse du ministère de l’Innovation, des Sciences et du Développement économique du Canada.
Le gouvernement a aussi créé l’Institut canadien de la sécurité de l’IA ainsi qu'un code de conduite volontaire visant un développement et une gestion responsables de l’IA.
En attendant un éventuel cadre réglementaire, Nadia Naffi croit qu’il faut miser sur l’éducation, comme le fait Simon Duguay avec ses élèves. Plus les élèves ont une bonne connaissance de l’IA, plus ils ont des positions nuancées par rapport à l’IA. Ça fait des jeunes qui sont capables de dire qu'il y a de bons usages et de moins bons, note cet enseignant.
Si on n’arrive pas à en parler, à s’assurer que toutes nos valeurs sont discutées avec nos jeunes, qu’on est en train de les outiller pour faire face à l’IA, on va entrer dans un chaos. Je ne sais pas vers quoi notre humanité va tourner, s’inquiète la chercheuse.
OpenAI n’a pas répondu aux questions de Radio-Canada.
Appelez sans frais le 1 866 APPELLE [277-3553].
Si vous ou un proche êtes en danger immédiat, composez le 911.
Vous pouvez aussi texter à un intervenant au 535353 : ce service confidentiel de clavardage est offert 24 heures sur 24, sept jours sur sept.
Au Québec et au Canada, le 1 888 LE DEUIL [533-3845] est une ligne d'écoute téléphonique pour personnes qui ont perdu un être cher.
Au Canada (nouvelle fenêtre) :
Appelez ou textez au 988 : cette ligne d'aide est ouverte sept jours sur sept, jour et nuit.
Pour les personnes endeuillées par un suicide, l'Association québécoise de prévention du suicide (AQPS) a créé un espace d'échange et de témoignage en ligne accessible au deuilparsuicide.ca (nouvelle fenêtre).