Le président français Emmanuel Macron a reçu Sam Altman, fondateur et PDG d’OpenAI, le développeur de GPT Chat, au château de Versailles à Paris.
Macron a écrit dans un tweet sur Twitter à l’issue de la rencontre : « Nos priorités en matière d’intelligence artificielle » sont « le développement des talents et de la technologie en France et le travail d’établissement d’une régulation au niveau français, européen et mondial » et pointé pour en discuter. problèmes avec Sam Altman.
Le développement des talents et des technologies en France et la réglementation aux niveaux français, européen et mondial sont nos priorités dans le domaine de l’intelligence artificielle. Nous en avons discuté avec Sam Altman, le créateur de ChatGPT. pic.twitter.com/GES0hWv9SY
— Emmanuel Macron (@EmmanuelMacron) 23 mai 2023
Avant sa rencontre avec Macron à Paris, Sam Altman, qui a entrepris une tournée en Europe, a révélé que l’un des objectifs de sa visite actuelle dans les villes européennes est de rechercher un site approprié pour construire un nouveau siège social pour l’entreprise. Il est attendu au Royaume-Uni après sa visite à Paris.
Altmann a souligné que le nouveau siège européen de sa société sera dédié à la recherche et au développement et pas seulement un siège administratif, ajoutant que le lancement de la nouvelle application de plate-forme intelligente pour les téléphones « iPhone » entraînera une augmentation significative de ce nombre d’abonnés payants à le service de chat GBT+.
Altman a mis en garde contre le danger d’utiliser des modèles intelligents pour répandre la désinformation et les rumeurs, en particulier en période d’élections politiques, et a souligné la nécessité de réglementer l’utilisation de l’intelligence artificielle pour éviter les impacts négatifs sur la communauté internationale et l’opinion publique.
Le Parlement européen évalue les risques des modèles intelligents
Il convient de noter dans ce contexte que le Parlement européen a adopté un nouveau projet de loi sur la réglementation de l’intelligence artificielle, qui prévoit une classification des risques des modèles intelligents en quatre catégories différentes.
La première catégorie classe les risques inacceptables comme ceux dont l’existence n’est pas du tout acceptée, tandis que la deuxième catégorie est considérée comme un risque élevé, la troisième catégorie est considérée comme un risque limité et la quatrième catégorie est considérée comme un risque minimal et essentiellement sans risque.
Les risques classés comme inacceptables sont ceux qui ne sont pas du tout autorisés dans les modèles utilisés au sein de l’Union européenne.
Cette catégorie comprend l’utilisation de systèmes d’intelligence artificielle pour la manipulation et la tromperie, l’exploitation des vulnérabilités d’individus ou de groupes spécifiques, l’utilisation des données sensibles des utilisateurs dans leurs classifications biométriques, l’utilisation de systèmes d’intelligence artificielle pour l’évaluation sociale et les systèmes d’analyse des risques pour les infractions prédites.
« Fan du Web. Étudiant au bacon d’une humilité exaspérante. Organisateur. Totalement expert de Twitter. Communicateur amical. Joueur. »