Articles

Machine vs. Machine

Machine vs. Machine - Match n° 1 : 
CHATGPT vs MISTRAL 

Les grands modèles de langage (LLM) et l’intelligence artificielle générative s’imposent progressivement dans le monde juridique. En dépit de certaines réticences, leur utilisation par les professionnels du droit ne fera que croître. Il n’est dès lors pas inintéressant d’évaluer la fiabilité juridique des réponses qu’ils proposent, en confrontant deux modèles de référence qui, sans revendiquer une spécialisation en droit, sont appelés à devenir des outils quotidiens de travail des juristes

17 juin 2025

Machine vs. Machine

Machine vs. Machine - Match n° 2 :
CLAUDE (Sonnet 4) vs. GEMINI (2.5 Pro)

Pour réaliser ce test, nous avons choisi un sujet d’actualité: la question de la règle majoritaire dans les sociétés par actions simplifiées, et plus particulièrement le choix statutaire d’une règle de majorité ayant un seuil inférieur à la majorité simple pour l’adoption des décisions collectives des associés. Cette question porte en elle les bons ingrédients pour mettre à l'épreuve les deux agents conversationnels du jour  Claude (développé par Anthropic) et Gemini (développé par Google), deux acteurs majeurs de l’intelligence artificielle générative.

31 juin 2025

Machine vs. Machine

Machine vs. Machine - Match n° 2 :
CLAUDE (Sonnet 4) vs. GEMINI (2.5 Pro)
(Prolongations)

Lors du premier round, ni Claude ni Gemini n’avaient identifié l’arrêt décisif de la Cour de cassation, pourtant incontournable sur la question des clauses permettant à une minorité de voter des décisions collectives dans une SAS. Résultat ? Un match nul décevant sur le fond.

Nous avons donc décidé de jouer les prolongations : nouvel échange, nouveau prompt, cette fois en leur signalant explicitement l’arrêt de l'assemblée plénière de 2024.

7 juillet 2025

Machine vs. Machine

Machine vs. Machine - Match n° 2 :
Cohere Command R vs. Mixtral 8X7 B Instruct
Aptitude à la synthèse

Les modèles d’IA sont dotées d’innombrables capacités utiles aux juristes : parmi celles-ci figure incontestablement la capacité à synthétiser et à résumer des textes. Dans un contexte d’inflation des sources du droit, cette automatisation est particulièrement appréciable en présence de décisions de justice qui peuvent parfois avoir des dimensions importantes et comporter des passages présentant des intérêts variables.

11 juillet 2025

Au début était le consentement

Contrats : quelques réflexions sur la place du consentement en présence d'une IA


 

Les développements des systèmes d’IA et les nombreuses applications dont elle peut faire l’objet ne manquent pas de bousculer les concepts juridiques, parmi eux le consentement, fondement de la formation des contrats.


 C’est surtout autour de l’automatisation de certains contrats que les débats se sont cristallisés ; peut-on parler de véritable consentement lorsque la machine décide de conclure un contrat à la place d’un humain ? Si les robots n’ont pas la personnalité juridique, le consentement doit forcément émaner d’une personne juridique, physique ou morale. Mais alors, en présence d’un système d’IA, le consentement de la personne y recourant paraît pour le moins artificiel, voire fictif. Pour prendre un exemple une intelligence artificielle chargée d’effectuer des investissements pour le compte pourrait le faire indépendamment de toute volonté de la personne pour le compte de laquelle la décision est prise.


 Il convient toutefois de relativiser les dangers d’une absence de consentement. Tout d’abord, il est des situations en droit où une personne est engagée sans son consentement direct : le mandat en est un exemple parlant. Il est vrai que le dans ce dernier cas, le mandant a conclu un contrat avec le mandataire, en consentant à être représenté par ce dernier. Nous savons cependant que la qualification de mandat ne sied pas à l’intelligence artificielle, en l’absence de personnalité juridique.


 Toujours est-il que la plupart du temps, en présence d’une utilisation d’une intelligence artificielle, le consentement peut être trouvé. En effet, l’usager consent à utiliser le système d’intelligence artificielle. Cependant, un décalage pourrait exister entre le consentement initial à l’utilisation, et les contrats conclus à la suite sur décision de l’IA. C’est là que sont le plus souvent invoquées les théories du consentement objectif, correspondant à une volonté manifestée, plutôt que celles du consentement subjectif, correspondant au consentement réel. L’adoption d’une appréciation objective du consentement aboutit déjà à un changement de paradigme, l’appréciation subjective ayant toujours eu la préférence du droit français. Le glissement vers une conception objective n’est d’ailleurs pas sans entraîner des conséquences sur d’autres notions, tels que l’erreur vice du consentement. Mais c’est là peut-être le prix à payer pour garder en vie les nombreux contrats conclus au moyen de l’IA.


 C’est d’autant plus alarmant que la personne qui consent à utiliser un logiciel d’IA est bien souvent incapable de comprendre le fonctionnement de cette IA. Rappelons en effet qu’en droit français, le consentement doit être libre et éclairé. Il est vrai que ce n’est pas un argument décisif, puisque, même avant l’arrivée de cette technologie, une personne pouvait être engagée par une opération complexe dont elle ne comprenait pas tous les tenants et aboutissants par le biais d’un mandataire spécialiste. Mais le problème semble décuplé avec l’IA, puisque dans biens des cas, même les plus grands spécialistes ne saisissement pas pourquoi et comment la décision a été prise. C’est le phénomène souvent mentionné de la « boîte noire » dont découle la problématique de l’explicabilité des algorithmes.


 Ce décalage entre volonté réelle et volonté objective peut a priori faire craindre des dérives, mais il est possible de ne pas être totalement pessimiste. Au delà des mécanismes correctifs existant déjà en droit positif (on peut songer à la responsabilité du créateur de logiciel, ou au principe de loyauté) on pourrait même penser que l’IA elle même pourrait venir au secours de son utilisateur, de façon préventive.


 Au moment de la conclusion du contrat d’utilisation de l’IA, le futur cocontractant pourra déjà voir son information réelle drastiquement améliorée. Certes, l’obstacle de la boîte noire subsiste, mais tout au moins l’utilisateur verra sa compréhension du contrat améliorée, grâce aux informations portées à sa connaissance, notamment grâce au legal design. Rappelons que cette notion se définit comme une méthode de conception qui vise à repenser la manière dont le droit est présenté, expliqué et utilisé, en plaçant l’utilisateur au centre de la démarche. L’IA, en calibrant l’information en fonction du profil pourrait dès lors contribuer à une meilleure information de l’utilisateur à propos des caractéristiques du contrat projeté (avec les limites de l’explicabilité), mais surtout des risques encourus.


 De façon plus originale, au niveau de l’exécution du contrat, il serait envisageable de contractualiser l’intérêt du client et de faire de l’IA le gardien de cet intérêt. Certes, la définition de l’intérêt du client suscite ses propres questionnements, mais dans l’hypothèse d’un système d’intelligence artificielle performant il serait possible d’envisager un contrat où l’intérêt du client serait précisément défini. Pour reprendre l’exemple des investissements, une IA qui calcule en continu les meilleures décisions que doit prendre un client en fonction de sa situation financière et d’autres données, notamment celles liées au marché. L’IA aurait pour mission de maximiser, d’un point de vue strictement comptable l’intérêt du client et d’effectuer les meilleures transactions possibles, voire même de résilier le contrat si l’intérêt du client le dicte. Le consentement, figé dès le début de la relation contractuelle, serait en quelque sorte épaulé par l’intérêt du client calculé par l’IA tout au long de l’exécution du contrat. Le consentement « imparfait » de l’humain serait dès lors compensé par un outil qui travaillerait inlassablement et de façon efficace mais de façon tout aussi inintelligible en faveur de l’humain...

Legal design et legal trickery

Contrats : variations sur le legal design et le dol

 

Le legal design est une approche innovante qui applique les principes du design thinking au domaine juridique. Le design thinking se définit lui-même comme une méthodologie d’innovation centrée sur l’humain, qui vise à résoudre des problèmes complexes en adoptant une approche créative, collaborative et itérative. Le legal design vise dès lors à rendre le droit plus accessible, compréhensible et utilisable par tous les publics, qu'ils soient juristes ou non.


 L’intelligence artificielle générative, quant à elle va pouvoir venir appuyer le legal design en proposant des outils favorisant la vulgarisation, la clarté, la schématisation et l’individualisation de l’information, d’autant plus qu’elle est capable générer toute sorte de contenu favorisant la compréhension du droit, même au profit de profanes. L’intention des personnes faisant appel au legal design paraît donc a priori louable, et la combinaison de l’IA et de cette technique contribue certainement à favoriser l’accès au droit dans le domaine contractuel.

 

Ce mariage n’est pas sans susciter quelques problèmes puisqu’une intelligence artificielle au service de la conclusion de contrats peut générer des documents informatifs qui, en apparence, améliorent l’information du cocontractant mais qui, en réalité, l’incitent à contracter et ce de façon déloyale. L’on songe par exemple à des chatbots qui dirigeraient le prospect vers un contrat en orientant la discussion vers les avantages proposés ou en exploitant les faiblesses. Ou bien encore à des instruments de profilage qui là aussi, par une forme de manipulation, agiraient sur la psyché du cocontractant pour les inciter à contracter.


Il n’est donc pas contestable que l’intelligence artificielle permettra donc, dans certains cas, à une personne de tromper son partenaire. Au delà des hypothèses pratiques, l’utilisation de l’intelligence artificielle dans le domaine contractuel appelle certaines réflexions lorsqu’on l’a confronte aux règles juridiques régissant le dol.

 

L’on définit généralement le dol comme un un comportement malhonnête, une tromperie qui amène l’autre partie à conclure le contrat sur la base d’une croyance erronée. Nul doute qu’un système d’intelligence artificielle peut provoquer une erreur chez le cocontractant, pour les raisons exposées plus haut. Mais cette idée de malhonnêteté et de tromperie semble supposer un certain état mental chez la personne qui provoque le dol. Est-ce vraiment le cas lorsqu’une personne a recours à un système d’intelligence artificielle pour contracter ?

 

Que disent les règles du dol ? L’article 1137 du code civil dispose que :


 « Le dol et le fait pour un contractant d’obtenir le consentement de l’autre par des manœuvres ou des mensonges.

Constitue également un dol la dissimulation intentionnelle par l’un des contractants d’une information dont il sait le caractère déterminant pour l’autre partie.

Néanmoins, ne constitue pas un dol le fait pour une partie de ne pas révéler à son cocontractant son estimation de la valeur de la prestation ».


 L’examen de cet article semble supposer de la part du cocontractant une intention de tromper. L’utilisation de manœuvres de mensonges pour obtenir le consentement semble supposer une certaine conscience de tromper. L’utilisation, dans la deuxième phrase de l’expression « dissimulation intentionnelle » conforte cette analyse.

 

Cette conscience de tromper peut bien entendu être caractérisée chez certains contractants qui utilisent sciemment l’intelligence artificielle afin d’induire leur cocontractant en erreur. Notons que l’attitude serait particulièrement fourbe puisque sous couvert de legal design, le coconctractant en profiterait pour duper son partenaire.


 Mais quid lorsque le cocontractant a recours à l’intelligence artificielle et que c’est cette dernière qui « tromperait » le partenaire contractuel ? Il y aurait dans ce cas certes erreur provoquée, mais il serait dans ce cas difficile de prouver la conscience qu’avait l’utilisateur d’IA de tromper. Tout au plus pourrait-on lui reprocher une certaine négligence dans l’utilisation de son outil.

 

L’examen de l’article 1138 du code civil peut fournir quelques éléments de réflexion complémentaires :

 

« Le dol est également constitué s’il émane du représentant, gérant d’affaires, préposé ou porte-fort du contractant.

 

Il l’est encore lorsqu’il émane d’un tiers de connivence ».

 

Cet article admet donc le dol « par procuration », puisque la personne qui sera liée par le contrat ne sera pas forcément la personne qui sera à l’origine des manœuvres et elle ne sera pas non plus forcément la personne qui aura conscience de provoquer l’erreur du cocontractant. Pourtant, dans les hypothèses visées par l’article 1138, les entités qui provoquent le dol ont toutes la personnalité juridique ce qui n’est pas le cas, en l’état actuel du droit, de l’intelligence artificielle. Ce dernier article milite en faveur d’un élargissement du domaine du dol, mais peut-on aller jusqu’au point d’admettre le dol en présence d’une situation où aucune personne n’a conscience de tromper son cocontractant ?

 

En l’absence de solution jurisprudentielle, il est difficile de se prononcer avec certitude. Il est vrai que comme il a été noté plus haut, une faute de négligence pourrait être mise à la charge de l’utilisateur d’IA. Il est vrai aussi que dette faute pourrait être appréciée avec plus de clémence si l’on tient compte du fait que l’IA a été utilisée de bonne foi aux fins de favoriser l’information de la victime de l’erreur.


 

Preuve et explicabilité

 

L’intelligence artificielle pose d’épineuses questions lorsqu’elle est confrontée au droit de la preuve. Les interrogations qui touchent à la pertinence ou à fiabilité de la preuve par l’intelligence artificielle sont nombreuses. Nous voudrions mettre en lumière une autre difficulté, qui se rapporte moins aux déficiences techniques de l’IA qu’à son utilisation abusive. En effet, l’intelligence artificielle peut se présenter comme un outil particulièrement efficace pour se constituer une preuve, que ce soit en matière civile ou pénale. En même temps, il est souvent reproché à l’intelligence artificielle d’être une boîte noire, avec de graves lacunes en terme d’explicabilité. Dans ce cas précis, lorsque l’intelligibilité n’est pas satisfaisante, l’on peut se demander si l’utilisation d’une IA entre en contradiction avec les principes de loyauté de la preuve et du contradictoire. On se limitera pour notre analyse à la matière civile.


Il convient d’abord de poser les bases du raisonnement. Tout d’abord, le principe de loyauté de la preuve irrigue le droit civil et atteste de la présence d’une certaine éthique : l’on ne saurait produire des preuves qui ont été obtenues de façon déloyale. Ce principe de loyauté est depuis peu limité par un autre principe, celui du droit à la preuve, puisque l’assemblée plénière de la Cour de cassation a jugé qu’il était possible, dans certains cas et sous certaines conditions, de se prévaloir d’une preuve obtenue de façon déloyale. Désormais la preuve déloyale n’est plus automatiquement irrecevable. Elle peut être recevable si elle est indispensable à l’exercice du droit à la preuve et si l’atteinte portée aux droits fondamentaux de la partie adverse est proportionnée au but poursuivi.

S’agissant du principe du contradictoire, l’article 15 du code de procédure civile prévoit que « Les parties doivent se faire connaître mutuellement en temps utile les moyens de fait sur lesquels elles fondent leurs prétentions, les éléments de preuve qu'elles produisent et les moyens de droit qu'elles invoquent, afin que chacune soit à même d'organiser sa défense ».

Le principe d’explicabilité se retrouve en filigrane dans différentes sources. Dans l’IA Act, il est présenté à l’article 13 et prévoit que les IA à haut risque sont développées de manière à garantir que leur fonctionnement est suffisamment transparent pour permettre aux déployeurs d’interpréter les résultats d’un système et de les utiliser de manière appropriée. L’article 15 du RGPD prévoit que les personnes dont les données personnelles sont utilisées a notamment le droit d’obtenir des informations relatives à l’existence d’une prise de décision automatisée, y compris un profilage, et, au moins en pareils cas, des informations utiles concernant la logique sous-jacente ainsi que l’importance et les conséquences prévues de ce traitement pour la personne concernée. 

L’intelligence artificielle peut se présenter comme un formidable outil pour récolter des preuves. L’examen de nombreux documents et le recoupement d’informations issues de cette masse sont des opérations qui sont aisément automatisables et qui permettent aux acteurs de se ménager des preuves utiles dans un procès. Ces pratiques pourraient faire l’objet d’une convention sur la preuve, telle que prévue à l’article 1356 du code civil. Cela n’enlève cependant rien au fait que lorsque sont en jeu des systèmes complexes, comme celui des réseaux de neurones profondes, les algorithmes qui gouvernent les systèmes d’intelligence artificielle peuvent dans bien des cas ne pas être expliqués ni compris, ce qui permet de douter de la parfaite efficacité de telles conventions.

La question qui se pose alors est en effet de savoir si une personne se prévalant de preuves récoltées d’une telle façon et qui est dans l’incapacité d’expliquer comment la preuve a été obtenue pourra s’en servir ou bien si elle se verra opposer la déloyauté de la preuve. 

Précisons tout d’abord qu’il convient de faire une distinction entre la preuve obtenue et le mode d’obtention de la preuve. En effet, la preuve obtenue peut être explicable et compréhensible, contrairement à son mode d’obtention. Ici, nous partons du principe que le résultat, la preuve qui sera produite, sera intelligible. En revanche, ce qui posera problème, c’est son mode d’obtention, qui ne pourra par hypothèse être décrypté.

On peut raisonner, en dehors de l’intelligence artificielle, à partir de l’hypothèse de preuves produites en justice mais dont la personne qui en excipe ne sait pas ou ne veut pas dire comment elle les a obtenues. Ce type de preuve doit-il être rejeté par les juges comme étant déloyal ou contraire au principe de contradictoire ? L’origine de la preuve doit-elle être justifiée par la personne qui s’en prévaut ?

Il est vrai qu’en ne révélant pas d’où provient la preuve, l’on favorise indirectement la production de preuves obtenues déloyalement. Ni la partie adverse, ni le juge ne pourront vérifier l’origine de la preuve et ce faisant ne seront pas à même de savoir si elle provient d’une origine illicite ou déloyale. L’inexplicabilité entraîne en quelque sorte la déloyauté, ou du moins une très grande suspicion à l’égard de ces éléments de preuve.

L’on pourrait tenter de faire un parallèle avec une partie qui souhaiterait se prévaloir de secret des affaires pour refuser de révéler la source de la preuve qu’elle souhaite invoquer. Il se pourrait d’ailleurs fréquemment que ce secret soit brandi par les personnes faisant usage de l’intelligence artificielle. Il est admis que juge doit effectuer une mise en balance entre le droit à la preuve et la protection des informations confidentielles. A titre d’exemple, la chambre commerciale, dans son arrêt du 5 février 2025 (pourvoi n° 23-10.953), précise les conditions dans lesquelles le droit à la preuve peut prévaloir sur la protection du secret des affaires. Elle rappelle qu’aux termes de l’article L. 151-8, 3° du Code de commerce, ce secret ne peut être opposé lorsqu’il est porté atteinte à des fins de protection d’un intérêt légitime, reconnu par le droit national ou le droit de l’Union européenne. En l'espèce, la Cour a estimé que la cour d'appel aurait dû rechercher si la production des documents était indispensable à l'exercice du droit à la preuve et si l'atteinte portée au secret des affaires était strictement proportionnée au but poursuivi. 

Lorsqu’est en jeu un problème d’explicabilité, le problème est toutefois quelque peu différent, puisque d’une part, c’est la partie qui invoque la preuve qui ne peut justifier de la façon dont elle a été obtenue, et d’autre part, il est difficile de considérer que cette partie bénéficie d’un « droit à l’inexplicabilité », d’autant plus que les textes précités tendent justement plutôt à favoriser l’explicabilité. Dans certains cas, le juge pourrait désigner un expert afin de déterminer la façon dont la preuve a été obtenue. Mais face à des modèles complexes, la révélation de l’origine de la preuve sera illusoire. On a alors plutôt le sentiment qu’une telle preuve devrait le plus souvent être écartée, d'autant plus qu'il faudrait aussi franchir l'épreuve du principe du contradictoire. Tout au plus la preuve ainsi produite pourrait être sauvée par l'application des règles issues de l’arrêt du 22 décembre 2023 : preuve indispensable à l’exercice du droit à la preuve et si l’atteinte portée aux droits fondamentaux de la partie adverse est proportionnée au but poursuivi. 

Dans l’avenir, il se pourrait que des systèmes d’intelligence artificielle ayant obtenu des résultats très efficaces soient certifiés d’une certaine autorité probatoire, malgré le fait que l’on ne puisse pas expliquer comment les résultats sont obtenus. L’inexplicabilité ne disqualifierait pas alors d’emblée la loyauté du mode de preuve. La mise en place de normes techniques attestant de la fiabilité d’un système pourrait dès lors venir au secours des preuves obtenues au moyen d’une IA. 


 

Droit de savoir, droit de ne pas savoir et intelligence artificielle 

Réfexions sur le droit de ne pas savoir à l’ère de la médecine computationnelle

 

Les droit de savoir et de ne pas savoir tirent leur origine dans l’article 10 de la Convention d’Oviedo et trouve sa principale source en droit français à l’article L. 1111-2, I du Code de la santé publique.

Le premier alinéa de cet article dispose que :

« Toute personne a le droit d'être informée sur son état de santé ». 

L’alinéa 4, quant à lui, prévoit que :

« La volonté d'une personne d'être tenue dans l'ignorance d'un diagnostic ou d'un pronostic doit être respectée, sauf lorsque des tiers sont exposés à un risque de transmission ».

En substance, il faut comprendre que toute personne a le droit de connaître toute information recueillie sur sa santé, mais que la volonté d'une personne de ne pas être informée doit être respectée, sous réserve d’un risque de transmission ou de l’intérêt du patient (art. 10, par. 3 de la Convention Oviedo, par exemple lorsque l’information permet de sauver la vie du patient). 

Ce texte a priori clair et qui implique des enjeux éthiques et philosophiques importants, doit être mis à l’épreuve des progrès technologiques, en particulier ceux procurés par l’intelligence artificielle. Grâce à elle, il est en effet possible de découvrir, de façon très précoce des pathologies ou des risques de pathologies, ce qui impacte et amplifie le droit d’être informé de son état de santé. Les progrès de la médecine dite prédictive peuvent alors venir heurter le souhait des personnes d’être tenu dans l’ignorance.

Ces nouvelles technologies viennent ainsi perturber la relation médicale entre le médecin son patient, et plus particulièrement les obligations d’information qui pèsent sur le médecin.

Notons tout d’abord que la loi n° 2021-1017 du 2 août 2021 relative à la bioéthique a introduit l'article L. 4001-3 dans le Code de la santé publique. Cet article impose aux professionnels de santé une obligation d'information lorsqu'ils utilisent des dispositifs médicaux intégrant de l'IA. De plus, ils doivent s'assurer que le patient est averti de l'interprétation qui en résulte. 

Notons aussi que le règlement européen sur l'IA, entré en vigueur en août 2024, classe les systèmes d'IA en fonction de leur niveau de risque. Les systèmes à haut risque, tels que ceux utilisés en santé, sont soumis à des obligations strictes en matière de transparence, de robustesse et de supervision humaine. 

En matière de santé, le médecin reste responsable de la décision médicale et ne peut déléguer entièrement cette responsabilité à un système algorithmique. Il doit conserver la maîtrise du recours à l’intelligence artificielle ainsi que de l’exploitation des données qu’elle produit (art L. 4001-3 CSP art R. 4127-70 CSP, art. 22 RGPD)

Surtout, l’intelligence artificielle utilisée dans le domaine médical pose des questions de consentement et de preuve du consentement. Le Code de la santé publique impose, de manière générale, la nécessité d’obtenir le consentement du patient préalablement à tout acte médical ou thérapeutique. L’article L 1111-4 prévoit en effet qu’«Aucun acte médical ni aucun traitement ne peut être pratiqué sans le consentement libre et éclairé de la personne et ce consentement peut être retiré à tout moment ». L’utilisation d’un dispositif d’IA à visée diagnostique ne constitue pas une exception à cette exigence. L’usage d’une IA, lorsqu’elle n’est pas purement auxiliaire mais influe sur une décision diagnostique ou thérapeutique, doit faire l’objet d’un consentement spécifique.

Pour schématiser, deux hypothèses se présentent donc :

- Le patient ne donne pas son consentement à l’utilisation d’une IA et par conséquent le risque de pathologie future ne sera pas décelé. En refusant l’emploi de l’IA, le patient sera dans une situation où il ne saura pas mais où la technologie aurait pu lui permettre de savoir.

Ce que l’on pourrait qualifier de droit de ne pas laisser produire une vérité sur soi — que l’on pourrait désigner comme une extension radicale du droit à ne pas savoir, appliqué en amont même de la production d’une connaissance médicale — n’est pas sans susciter des difficultés, puisque dans certaines situations, l’occultation de ces informations, inconnues du patient et du médecin, pourrait affecter les droits des tiers (on songe à des maladies transmissibles). 

- Le patient donne son consentement à l’utilisation d’une IA et celle-ci décèle un risque. Le patient peut-il refuser d’être informé des résultats IA ou son consentement initial recouvre-t-il en quelque sorte la délivrance de cette information ?

Il nous semble que la portée de ce consentement doit être nuancée : acquiescer à l’usage d’une IA ne doit pas emporter le consentement de connaître toutes les informations recueillies par elle. Le droit de ne pas savoir a été conçu pour des situations dans lesquelles un médecin propose au patient une information relative à un diagnostic ou un pronostic. Mais l’IA bouleverse ce cadre : elle peut découvrir de manière automatique et non sollicitée des facteurs de risque (par exemple, une prédisposition à une maladie rare, une corrélation comportementale avec des troubles cognitifs, ou des marqueurs génétiques incidentels). 

Dans cette dernière hypothèse, le patient pourra à notre sens faire usage de ce droit à ne pas savoir, sauf présence d’une des exceptions citées ci-dessus (danger grave pour un tiers ou prévention urgente et nécessaire).

Mais il convient aussi de prendre en compte un autre principe : l’obligation légale d’information prévue à l’article L. 1111-2 CSP :

« Toute personne a le droit d’être informée sur son état de santé. Cette information porte sur les investigations, traitements ou actions de prévention proposées, leur utilité, leur urgence éventuelle [...] ».

Rappelons aussi l’exigence d’un consentement libre et éclairé exposé à l’alinéa 3 de l’article L. 1111-4 CSP :

« Aucun acte médical ni aucun traitement ne peut être pratiqué sans le consentement libre et éclairé de la personne et ce consentement peut être retiré à tout moment ».

De ceci, il peut être déduit que :

Le médecin a une obligation positive d’informer dès lors qu’il existe une possibilité de traitement ou de prévention.

Cette information est jugée indispensable à la prise de décision du patient.

Le droit à ne pas savoir trouve ici ses limites : il ne peut s’exercer au détriment du devoir de soins.

Ainsi, lorsqu’un traitement ou une prévention est possible, l’intérêt du patient à recevoir l’information prime sur son droit à l’ignorer

Pour conclure, il est possible de percevoir une certaine incohérence : dans l’hypothèse où le patient choisit de ne pas recourir à l’IA, son droit à ne pas savoir sera parfaitement rempli, alors que dans lorsqu’il aura consenti à l’utilisation de l’IA, son droit à ne pas savoir sera primé par celui d’être informé de son état de santé lorsque la prévention ou le traitement sera possible. 

10 juin 2025



 



 



 


 

Bienvenue sur le blog de DTJ AI, votre référence en matière d'intelligence artificielle appliquée au secteur juridique. Ici, nous explorons les dernières tendances, les innovations technologiques et les meilleures pratiques pour les professionnels du droit. Nos articles sont conçus pour vous tenir informé des évolutions de la législation et des outils numériques qui transforment la manière dont nous pratiquons le droit. Au delà du caractère informatif, elles proposent d'ouvrir des pistes de réflexion. Leur prétention n'est pas d'afficher des vérités, mais de susciter l'intérêt et la curiosité des lecteurs Que vous soyez étudiant en droit, praticien ou simplement passionné par le sujet, notre blog vous offre des contenus divers et variés pour vous aider à naviguer dans un paysage juridique en constante évolution. Restez à jour avec nous et découvrez comment DTJ AI peut optimiser vos outils ou votre pratique grâce à l'intelligence artificielle.

©Droits d'auteur. Tous droits réservés.

Nous avons besoin de votre consentement pour charger les traductions

Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.