L’Autorité nationale de protection des données personnelles en Italie a décidé de bloquer le robot conversationnel ChatGPT en raison de sa non-conformité à la législation sur les données personnelles et de l’absence d’un système de vérification de l’âge des utilisateurs mineurs. Cette décision aura pour conséquence la limitation temporaire du traitement des données des utilisateurs italiens par OpenAI, le créateur de ChatGPT.
Les autorités italiennes bloquent le robot ChatGPT. Selon Rome, ChatGPT ne respecte pas les règles de confidentialité et de sécurité des données personnelles. Le robot conversationnel utilise des techniques d’intelligence artificielle pour générer des réponses à partir des données fournies par l’utilisateur, mais il stocke également ces données pour améliorer ses performances. Cela signifie que les informations personnelles des utilisateurs italiens sont stockées sans leur consentement.
De plus, ChatGPT ne dispose pas d’un système de vérification de l’âge des utilisateurs mineurs, ce qui est obligatoire selon la législation italienne. Cette absence de vérification peut exposer les mineurs à des contenus inappropriés ou nuisibles.
Cette décision de blocage de ChatGPT intervient alors que la protection des données personnelles est de plus en plus importante en Europe, notamment avec l’entrée en vigueur du Règlement général sur la protection des données (RGPD). OpenAI a indiqué qu’il travaillait avec les autorités italiennes pour résoudre ces problèmes et rétablir l’accès de ChatGPT aux utilisateurs italiens dans les plus brefs délais.
En attendant, les utilisateurs italiens ne pourront plus accéder au robot conversationnel et leurs données personnelles ne pourront plus être traitées par ChatGPT.
Recherche sur l’IA : une pause s’impose-t-elle?
Alors que beaucoup apprécient l’avancée des recherches dans le domaine de l’Intelligence Artificielle, Elon Musk et des centaines d’experts réclament une « pause » dans le développement de l’intelligence artificielle.
Il faut «Â mettre en pause »Â à l’avancée de l’intelligence artificielle, réclament dans une lettre ouverte parue mardi 28 mars un millier d’experts du secteur, dont Elon Musk, le PDG de Tesla. Ceux-ci souhaitent suspendre pendant six mois les recherches sur les systèmes plus puissants que GPT-4, le nouveau modèle de traitement du langage lancé mi-mars par OpenAI, l’entreprise à l’origine du robot conversationnel ChatGPT, et qu’Elon Musk a cofondée. Le but : élaborer de meilleurs garde-fous pour ces logiciels, jugés «Â dangereux pour l’humanité ».
« Ces derniers mois ont vu les laboratoires d’intelligence artificielle s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », s’inquiètent les signataires, en référence aux annonces d’OpenAI et son partenaire Microsoft, de Google ou Meta et de nombreuses start-up.
« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, et nous remplacer ? », demandent les auteurs.