AccueilGeneralChatGPT n’a plus le droit de jouer au médecin ni à l’avocat

ChatGPT n’a plus le droit de jouer au médecin ni à l’avocat

Published on

Un changement majeur est intervenu ce week-end dans les règles d’utilisation de l’intelligence artificielle d’OpenAI. Le modèle ChatGPT ne pourra désormais plus délivrer de conseils personnalisés dans des domaines exigeant une certification professionnelle, comme la médecine ou le droit.

Dans la dernière mise à jour de ses Usage Policies, OpenAI précise que ses outils ne doivent plus être utilisés pour fournir « des conseils nécessitant une licence, tels que les avis médicaux ou juridiques, sans la supervision d’un professionnel habilité ». En clair, le modèle peut continuer à fournir des informations générales, mais ne peut plus remplacer un médecin, un avocat ou tout autre spécialiste accrédité.

Cette évolution découle de préoccupations liées à la fiabilité des réponses générées par les IA. Plusieurs études ont révélé que les modèles grand public pouvaient produire des réponses erronées, voire dangereuses. Une recherche récente estimait que 13 % des conseils médicaux générés par les IA pouvaient induire en erreur ou présenter un risque pour la santé.

Le cadre juridique pose lui aussi problème. Dans le domaine du droit, l’absence de confidentialité entre l’utilisateur et le modèle, ainsi que la possibilité que les échanges soient produits en justice, représentent un risque réel. De plus, la gestion des données de santé ne respecte pas toujours les normes de conformité internationales, comme la loi HIPAA aux États-Unis.

OpenAI rappelle que ses services ne sont pas conçus pour remplacer des professionnels certifiés. L’objectif de cette clarification est double : préserver la sécurité des utilisateurs et protéger l’entreprise d’éventuelles poursuites liées à des usages à risque.

Ce durcissement marque un tournant. Les géants de l’IA commencent à encadrer davantage les usages de leurs modèles, alors que ces outils s’intègrent dans des domaines de plus en plus sensibles — de la télémédecine aux plateformes de conseil juridique.

Cette décision pourrait accélérer un débat de fond sur la responsabilité partagée entre utilisateurs et concepteurs d’IA, et relancer les discussions autour d’une réglementation internationale des usages critiques. L’intelligence artificielle se veut un outil d’aide, pas un substitut au jugement humain.

Lire aussi

Un trophée FIFA pour Hakimi, sacré dans le onze de l’année

Achraf Hakimi a reçu samedi le prestigieux trophée FIFA « The Best Starting 11...

Casablanca, Marrakech, Agadir… les aéroports tournent à plein régime

À quelques heures du coup d’envoi de la CAN 2025, les aéroports marocains franchissent...

Le Maroc lance « Météo du Match » pour encadrer la CAN 2025

À la veille du coup d’envoi de la Coupe d’Afrique des Nations 2025, la...
spot_img

Latest articles

Un trophée FIFA pour Hakimi, sacré dans le onze de l’année

Achraf Hakimi a reçu samedi le prestigieux trophée FIFA « The Best Starting 11...

Casablanca, Marrakech, Agadir… les aéroports tournent à plein régime

À quelques heures du coup d’envoi de la CAN 2025, les aéroports marocains franchissent...

Le Maroc lance « Météo du Match » pour encadrer la CAN 2025

À la veille du coup d’envoi de la Coupe d’Afrique des Nations 2025, la...

Washington suspend la loterie de la Green Card

Les autorités américaines ont annoncé la suspension immédiate du programme de loterie de la...