AccueilGeneralChatGPT n’a plus le droit de jouer au médecin ni à l’avocat

ChatGPT n’a plus le droit de jouer au médecin ni à l’avocat

Published on

Un changement majeur est intervenu ce week-end dans les règles d’utilisation de l’intelligence artificielle d’OpenAI. Le modèle ChatGPT ne pourra désormais plus délivrer de conseils personnalisés dans des domaines exigeant une certification professionnelle, comme la médecine ou le droit.

Dans la dernière mise à jour de ses Usage Policies, OpenAI précise que ses outils ne doivent plus être utilisés pour fournir « des conseils nécessitant une licence, tels que les avis médicaux ou juridiques, sans la supervision d’un professionnel habilité ». En clair, le modèle peut continuer à fournir des informations générales, mais ne peut plus remplacer un médecin, un avocat ou tout autre spécialiste accrédité.

Cette évolution découle de préoccupations liées à la fiabilité des réponses générées par les IA. Plusieurs études ont révélé que les modèles grand public pouvaient produire des réponses erronées, voire dangereuses. Une recherche récente estimait que 13 % des conseils médicaux générés par les IA pouvaient induire en erreur ou présenter un risque pour la santé.

Le cadre juridique pose lui aussi problème. Dans le domaine du droit, l’absence de confidentialité entre l’utilisateur et le modèle, ainsi que la possibilité que les échanges soient produits en justice, représentent un risque réel. De plus, la gestion des données de santé ne respecte pas toujours les normes de conformité internationales, comme la loi HIPAA aux États-Unis.

OpenAI rappelle que ses services ne sont pas conçus pour remplacer des professionnels certifiés. L’objectif de cette clarification est double : préserver la sécurité des utilisateurs et protéger l’entreprise d’éventuelles poursuites liées à des usages à risque.

Ce durcissement marque un tournant. Les géants de l’IA commencent à encadrer davantage les usages de leurs modèles, alors que ces outils s’intègrent dans des domaines de plus en plus sensibles — de la télémédecine aux plateformes de conseil juridique.

Cette décision pourrait accélérer un débat de fond sur la responsabilité partagée entre utilisateurs et concepteurs d’IA, et relancer les discussions autour d’une réglementation internationale des usages critiques. L’intelligence artificielle se veut un outil d’aide, pas un substitut au jugement humain.

Lire aussi

À Tanger, la Green March 2.0 ouvre une nouvelle page d’engagement citoyen

Depuis Tanger, la Green March 2.0 a pris son envol ce matin, amorçant un...

MarjaneMall lance un Black Friday 2025 XXL au Maroc

Depuis le 31 octobre, MarjaneMall a donné le coup d’envoi de son Black Friday,...

CAN 2025 : les Marocains et Africains d’Europe s’arrachent les billets

L’attente grandit à mesure que la TotalEnergies CAF Coupe d’Afrique des Nations Maroc 2025...
spot_img

Latest articles

À Tanger, la Green March 2.0 ouvre une nouvelle page d’engagement citoyen

Depuis Tanger, la Green March 2.0 a pris son envol ce matin, amorçant un...

MarjaneMall lance un Black Friday 2025 XXL au Maroc

Depuis le 31 octobre, MarjaneMall a donné le coup d’envoi de son Black Friday,...

CAN 2025 : les Marocains et Africains d’Europe s’arrachent les billets

L’attente grandit à mesure que la TotalEnergies CAF Coupe d’Afrique des Nations Maroc 2025...

Le Maroc signe une première africaine en chirurgie auditive

Le Maroc vient de franchir un nouveau seuil dans le domaine de la chirurgie...