ChatGPT : les États-Unis lancent une enquête sur les pratiques d’OpenAI

Les États-Unis viennent de lancer une enquête sur ChatGPT. La FTC s’interroge sur la manière dont OpenAI collecte et sécurise les informations personnelles des utilisateurs.


La Federal Trade Commission (FTC), l’agence américaine de protection des consommateurs, vient de lancer une enquête sur OpenAI, l’entreprise qui en est à l’origine. ChatGPT. Selon le Washington Post, l’organisation a envoyé une lettre à la startup demandant un tas d’informations.

Il s’agit d’une première étape pour déterminer si une entreprise enfreint en fait les lois fédérales sur la protection des consommateurs. Si la FTC détermine qu’une violation a eu lieu, OpenAI risque une action en justice et une amende. L’organisation est également en mesure d’imposer des changements dans le fonctionnement de la communauté.

Gestion des données et fake news

L’autorité, également en charge de la concurrence, s’intéresse particulièrement à la manière dont OpenAI traite les données de ses utilisateurs. L’enquête fait suite à un incident survenu fin mars. Après avoir été piraté, le chatbot a divulgué des informations sensibles sur ses utilisateurs, à savoir les noms, adresses et numéros de carte de crédit. OpenAI a admis que les informations de paiement d’une petite partie des abonnés à ChatGPT Plus, la version payante de son IA générative, étaient affichées de manière incorrecte sur d’autres comptes d’utilisateurs. La startup a alors été obligée de déconnecter le chatbot pendant quelques heures pour régler le problème.

Dans le même temps, plusieurs voix se sont élevées aux États-Unis et en Europe pour demander des éclaircissements sur la manière dont le modèle de langage GPT extrait les données de ses interlocuteurs. En fait, OpenAI utilise les informations fournies par l’utilisateur pour enrichir la base de données derrière GPT. Pour cette raison, de nombreuses entreprises comme Samsung ou Apple demandent à leurs employés de ne pas transmettre de données confidentielles à un chatbot. En réponse, la startup de San Francisco a lancé le mode incognito, qui empêche le bot d’enregistrer l’historique des conversations et d’utiliser les données de ses interlocuteurs pour améliorer ses réponses.

L’enquête porte également sur le contenu généré par ChatGPT. En conséquence, la FTC a exigé une liste de toutes les plaintes des utilisateurs concernant des allégations « fausses, trompeuses, désobligeantes ou préjudiciables » qui ont causé des « atteintes à la réputation » des consommateurs. Comme tous les systèmes d’IA générative, ChatGPT a tendance à générer par inadvertance des informations inexactes. Dans un élan de créativité, un chatbot peut en fait nous dire tout et n’importe quoi. OpenAI recommande à tous les internautes de vérifier toute information générée par ChatGPT avant de la partager.

OpenAI s’appuie sur la collaboration

Dans un tweet, le PDG et co-fondateur d’OpenAI, Sam Altman, a répondu à la demande de la FTC. Après qu’Altman ait regretté que la demande du régulateur ait été divulguée à la presse, il s’est engagé à travailler avec l’agence américaine. « Il est extrêmement important pour nous que notre technologie soit sécurisée […]Nous sommes convaincus que nous respectons la loi. C’est ce qu’a expliqué Sam Altman, précisant qu’OpenAI protège la vie privée des utilisateurs et se veut « transparent sur les limites de notre technologie ».

L’homme d’affaires a appelé à plusieurs reprises à la réglementation de l’intelligence artificielle. Devant le Sénat américain, il a plaidé en privé pour la création d’une agence dédiée uniquement au développement de modèles linguistiques. Cette approche devrait permettre d’atténuer les risques liés à l’IA.

Resserrement de l’étau réglementaire autour de ChatGPT

Les régulateurs du monde entier mettent en avant OpenAI et les entreprises dans la course à l’IA. Les autorités de protection des données en Europe se sont également penchées sur cette question. L’Italie a même brièvement interdit ChatGPT dans son pays car le chatbot constitue une menace pour la vie privée des internautes et viole le RGPD, le règlement européen sur la protection des données personnelles. Après avoir ajouté des informations claires sur la manière dont les données ont été traitées, OpenAI a été autorisé à retourner en Italie après quelques semaines.

La France s’est engagée pour l’instant à une certaine souplesse. Malgré les quelques plaintes reçues, la CNIL n’a pris aucune mesure spécifique pour interdire ou restreindre l’IA en France. Dans le même temps, de nombreux dirigeants politiques se sont publiquement opposés aux mesures restrictives contre ChatGPT. Le président français Emmanuel Macron a également indiqué en sa présence à VivaTech qu’il ne souhaitait pas étouffer l’innovation par une réglementation trop agressive.

Félix Germain

"Fan du Web. Étudiant au bacon d'une humilité exaspérante. Organisateur. Totalement expert de Twitter. Communicateur amical. Joueur."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *