Les autorités chinoises ont annoncé la mise en place d’une réglementation exigeant une inspection de sécurité pour les outils d’IA, y compris ChatGPT, avant qu’ils ne soient autorisés à fournir des services au public.
Mardi 11 avril, l’Administration chinoise du cyberespace a dévoilé un projet de réglementation exigeant une « inspection de sécurité » pour les outils d’IA développés en Chine. Selon cette réglementation, avant de fournir des services au public, les entreprises doivent obtenir l’approbation des départements de régulation d’Internet en fournissant une inspection de sécurité de leurs produits d’IA générative.
Le but de cette réglementation est d’assurer que les outils d’IA sont fiables, sûrs et ne constituent pas une menace pour la sécurité nationale. Les autorités chinoises souhaitent ainsi renforcer la réglementation dans le domaine de l’IA, un secteur en plein essor en Chine.
Cette annonce survient alors que les préoccupations concernant l’utilisation abusive de l’IA et son impact sur la vie privée et la sécurité continuent de croître dans le monde entier. En réponse, de nombreux pays examinent la mise en place de réglementations plus strictes pour le développement et l’utilisation de l’IA.
Si elle est adoptée, cette réglementation aura un impact significatif sur les entreprises d’IA en Chine, y compris les créateurs de ChatGPT. Alors que la Chine continue de renforcer sa réglementation sur l’IA, il est probable que d’autres pays suivront cet exemple et mettront en place des réglementations similaires pour assurer la sécurité de leurs citoyens.