Controverse et préoccupations éthiques après l’utilisation d’un outil d’intelligence artificielle, ChatGPT, en santé mentale


Écrit par Amira Shehata

Dimanche 08 janvier 2023 18h00

Une entreprise utilise l’IA pour expérimenter les soins de santé mentale numériques alors que les cas augmentent Avec l’outil ChatGPTce qui soulève des préoccupations éthiques quant à l’utilisation de la technologie. Rob Morris, co-fondateur de Koko, un service de santé mentale gratuit à but non lucratif qui travaille avec les communautés en ligne pour trouver et traiter les personnes à risque, a écrit dans un fil sur Twitter que la société utilisait des chatbots GPT .3 développer des réponses pour 4 000 utilisateurs.

Selon Business Insider, Morris a déclaré que la société avait testé une approche de soutien avec des humains effectuant la surveillance intelligence artificielle au besoin dans les messages envoyés via Peer Support, une plate-forme qu’il décrit dans une vidéo d’accompagnement comme « un endroit où vous pouvez obtenir de l’aide d’un réseau ou de quelqu’un d’autre ».

« Nous facilitons l’aide aux autres, et en utilisant GPT-3, nous le rendons encore plus facile, plus efficace et plus efficace en tant qu’assistant », a déclaré Morris dans la vidéo.

ChatGPT est une variante de GPT-3 qui génère un texte de type humain basé sur des invites, toutes deux générées par OpenAI.

Les utilisateurs de Koko n’ont pas été initialement informés que les réponses étaient générées par un bot, et Morris écrit : « Lorsque les gens ont découvert que les messages étaient co-générés par une machine, cela n’a pas fonctionné.

« Nous n’avons pas jumelé les gens pour discuter avec GPT-3 sans qu’ils le sachent », a déclaré le tweet, ajoutant : « Cette fonctionnalité a été activée, tout le monde savait quand elle était disponible pendant quelques jours ».

Il a constaté que les messages basés sur l’IA « se classaient beaucoup plus haut que ceux écrits par des humains » et que la technologie réduisait les temps de réponse de 50 %.



Préoccupations éthiques et juridiques

L’expérience a provoqué un tollé sur Twitter, certains professionnels de la santé publique et de la technologie dénonçant l’entreprise pour avoir prétendument enfreint la loi sur le consentement éclairé, une règle fédérale qui oblige les personnes à donner leur consentement avant de participer à la recherche.

« C’est complètement contraire à l’éthique », a écrit samedi l’analyste et chercheur en médias Eric Seeuvert sur Twitter.

Christian Hesketh, qui s’est tweeté en tant que clinicien scientifique, a tweeté : « Oh mon dieu… les participants auraient dû donner leur consentement éclairé et cela aurait dû passer par l’IRB. »

Morris a déclaré que la société ne rassemblait pas les gens pour discuter de GPT-3 et a déclaré que l’option d’utiliser la technologie avait été supprimée après avoir réalisé qu’elle « ressemblait à une expérience non originale ».

« Chaque individu doit donner son consentement pour utiliser le service », a expliqué Morris. « S’il s’agit d’une étude universitaire, ce qui n’est pas le cas, juste une fonction de produit à l’étude, alors elle relèverait des « exemptés ». catégorie recherche. »

Il a poursuivi: « Cela ne présente aucun risque majeur pour les utilisateurs, ni n’est trompeur, et nous ne collectons pas non plus d’informations personnelles ou d’informations personnelles sur la santé », ajoutant: « Il n’y a pas d’e-mail, de numéro de téléphone, d’adresse IP ou de nom d’utilisateur. « 

Cependant, l’expérience soulève des questions sur l’éthique et les zones d’ombre entourant l’utilisation des chatbots intelligents dans les soins de santé en général, ce qui a déjà provoqué des remous dans le milieu universitaire.

Arthur Kaplan, professeur de bioéthique à la Grossman School of Medicine de l’Université de New York, écrit que l’utilisation de la technologie de l’IA sans en informer les utilisateurs est « complètement contraire à l’éthique ».

« L’intervention ChatGPT n’est pas une norme de soins », a ajouté Kaplan. « Aucun groupe psychosocial n’a évalué son efficacité ou identifié des risques potentiels. »







Félix Germain

"Fan du Web. Étudiant au bacon d'une humilité exaspérante. Organisateur. Totalement expert de Twitter. Communicateur amical. Joueur."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *