Un changement majeur est intervenu ce week-end dans les règles d’utilisation de l’intelligence artificielle d’OpenAI. Le modèle ChatGPT ne pourra désormais plus délivrer de conseils personnalisés dans des domaines exigeant une certification professionnelle, comme la médecine ou le droit.
Dans la dernière mise à jour de ses Usage Policies, OpenAI précise que ses outils ne doivent plus être utilisés pour fournir « des conseils nécessitant une licence, tels que les avis médicaux ou juridiques, sans la supervision d’un professionnel habilité ». En clair, le modèle peut continuer à fournir des informations générales, mais ne peut plus remplacer un médecin, un avocat ou tout autre spécialiste accrédité.
Cette évolution découle de préoccupations liées à la fiabilité des réponses générées par les IA. Plusieurs études ont révélé que les modèles grand public pouvaient produire des réponses erronées, voire dangereuses. Une recherche récente estimait que 13 % des conseils médicaux générés par les IA pouvaient induire en erreur ou présenter un risque pour la santé.
Le cadre juridique pose lui aussi problème. Dans le domaine du droit, l’absence de confidentialité entre l’utilisateur et le modèle, ainsi que la possibilité que les échanges soient produits en justice, représentent un risque réel. De plus, la gestion des données de santé ne respecte pas toujours les normes de conformité internationales, comme la loi HIPAA aux États-Unis.
OpenAI rappelle que ses services ne sont pas conçus pour remplacer des professionnels certifiés. L’objectif de cette clarification est double : préserver la sécurité des utilisateurs et protéger l’entreprise d’éventuelles poursuites liées à des usages à risque.
Ce durcissement marque un tournant. Les géants de l’IA commencent à encadrer davantage les usages de leurs modèles, alors que ces outils s’intègrent dans des domaines de plus en plus sensibles — de la télémédecine aux plateformes de conseil juridique.
Cette décision pourrait accélérer un débat de fond sur la responsabilité partagée entre utilisateurs et concepteurs d’IA, et relancer les discussions autour d’une réglementation internationale des usages critiques. L’intelligence artificielle se veut un outil d’aide, pas un substitut au jugement humain.



                                    
