Document de référence · Ai2care SAS
Charte éthique de l'intelligence artificielle
Ai2care conçoit, développe et opère des systèmes d'intelligence artificielle au service de la santé. Nous traitons, avec le consentement explicite des personnes concernées, des données parmi les plus sensibles qui soient : les données de vie réelle de patients atteints de maladies chroniques complexes, captées au plus près de leur quotidien. Cette responsabilité impose une exigence : notre IA doit être digne de confiance — non par déclaration, mais par construction.
Objet et portée de la présente charte
La présente charte éthique formalise les valeurs, principes et engagements qui gouvernent l'ensemble des activités d'Ai2care impliquant des systèmes d'intelligence artificielle. Elle s'applique à tous les produits édités par la Société, à l'ensemble de ses collaborateurs, prestataires et partenaires, et couvre le cycle de vie complet des systèmes IA : conception, entraînement, déploiement, exploitation, supervision et mise hors service.
Elle prolonge et complète nos engagements réglementaires — notamment le Règlement général sur la protection des données (RGPD), le Règlement européen sur l'intelligence artificielle (AI Act — UE 2024/1689), le Code de la santé publique, la directive NIS2, les recommandations de la CNIL et de la Haute Autorité de Santé (HAS), ainsi que les principes de l'OCDE sur l'IA (2019) et la recommandation UNESCO sur l'éthique de l'IA (2021).
Elle est publique, opposable, et fait l'objet d'un contrôle interne annuel.
Nos quatre valeurs fondatrices
Nos principes et engagements opérationnels découlent de quatre valeurs non négociables, qui guident chacune de nos décisions — techniques, commerciales, organisationnelles.
Le patient, l'aidant et le soignant ne sont jamais réduits à des objets de calcul. La donnée de santé est le reflet d'une vie — elle mérite la même considération que la personne qui la confie.
Nos choix d'infrastructure, d'hébergement et de partenaires technologiques protègent la souveraineté française et européenne sur les données de santé. Aucune dépendance critique à un cloud public non souverain, aucun transfert de données sensibles hors Union européenne.
Nos modèles, ontologies et protocoles sont documentés, testés, auditables, versionnés. La confiance ne se décrète pas : elle se démontre, s'évalue et se publie.
Chaque utilisateur a le droit de savoir ce que fait notre IA, pourquoi elle le fait, et avec quelles limites. La boîte noire est un choix de conception que nous refusons.
Les sept principes opérationnels
Les principes suivants structurent concrètement la conception et l'exploitation de nos systèmes d'IA. À chacun correspondent des engagements mesurables, vérifiables et révisés annuellement.
Supervision humaine — par conception
Aucune décision clinique, thérapeutique ou organisationnelle susceptible d'affecter significativement une personne n'est prise de manière exclusivement automatisée par nos systèmes d'IA. Une validation humaine qualifiée est requise, documentée et traçable. Cette exigence dépasse les obligations de l'article 22 du RGPD et de l'article 14 de l'AI Act : nous en faisons un principe de conception.
Nos engagements :
- Chaque sortie d'un système d'IA produit par Ai2care est présentée comme une aide, jamais comme une prescription.
- Tout rapport clinique généré par nos produits porte une mention explicite « À valider par un professionnel de santé ».
- Le professionnel de santé conserve l'autorité finale sur toute interprétation et toute décision.
- Un mécanisme de contestation d'une sortie est offert à l'utilisateur, avec réponse motivée sous 30 jours.
Transparence et explicabilité
Nos utilisateurs ont le droit de comprendre. Nous nous engageons à expliquer, en langue naturelle accessible et dans le contexte d'usage, ce que font nos systèmes, sur quelles données ils s'appuient, et quelles sont leurs limites.
Nos engagements :
- Information claire dès la première interaction : « Vous échangez avec une intelligence artificielle » (AI Act art. 50).
- Publication, pour chaque produit, d'une « fiche de système d'IA » décrivant son périmètre, ses données d'entraînement, ses performances attendues, ses limites connues, son niveau de risque.
- Explicabilité opérationnelle : chaque repère, corrélation ou alerte produit par notre IA est accompagné d'une explication compréhensible par l'aidant, le patient ou le soignant.
- Engagement d'ouverture : documentation technique mise à disposition des autorités compétentes et, dans la mesure de la confidentialité commerciale, des partenaires académiques.
Qualité, robustesse et sécurité des systèmes
Un système d'IA en santé doit être fiable sur la durée et sécurisé par conception. Nous nous alignons sur les exigences de l'article 15 de l'AI Act (robustesse, précision, cybersécurité) et sur les standards d'ingénierie logicielle applicables au domaine sensible.
Nos engagements :
- Tests systématiques avant mise en production : tests unitaires, d'intégration, de régression, de charge, tests adversariaux.
- Mesure et publication d'indicateurs de performance (précision, rappel, taux d'erreur) par cohorte et par sous-population.
- Surveillance continue post-déploiement : dérive du modèle, dégradation des performances, détection d'incidents.
- Cybersécurité renforcée : chiffrement au repos et en transit, authentification forte, journalisation, démarche NIS2.
- Plan de continuité et de reprise d'activité testé annuellement.
Équité et lutte active contre les biais
Un modèle d'IA en santé ne doit pas reproduire, amplifier ni créer des inégalités d'accès ou de qualité de soin. Nous considérons la lutte contre les biais comme un impératif éthique et non comme une simple conformité.
Nos engagements :
- Analyse de représentativité des données d'entraînement par genre, âge, origine géographique, facteurs socio-économiques — et correction documentée lorsque nécessaire.
- Évaluation spécifique des performances sur les populations minoritaires ou vulnérables (patients mineurs, grands aidants, personnes en situation de handicap).
- Participation de représentants de patients et d'aidants à la revue éthique de nos produits.
- Publication annuelle d'un rapport d'évaluation d'équité.
Confidentialité, minimisation et sécurité des données
La donnée de santé est un bien fiduciaire. Nous ne collectons que ce qui est strictement nécessaire à la finalité déclarée, nous la protégeons au plus haut niveau, et nous la rendons accessible à la personne concernée à tout moment.
Nos engagements :
- Minimisation par défaut : aucun champ facultatif n'est collecté sans utilité documentée.
- Hébergement certifié HDS (Hébergeur de Données de Santé — art. L.1111-8 CSP) pour toute donnée de santé traitée par nos produits.
- Aucun transfert de données de santé hors Union européenne.
- Aucun usage commercial secondaire des données sans consentement renouvelé et spécifique, distinct du consentement initial au service.
- Pseudonymisation ou anonymisation préalable systématique pour toute finalité de recherche ou d'amélioration produit.
- Droit d'accès, de rectification, d'effacement et de portabilité exerçable en ligne en quelques clics.
Proportionnalité et finalité légitime
Nous développons des systèmes d'IA pour résoudre des problèmes réels et mesurables. Chaque fonctionnalité doit justifier d'un bénéfice clinique ou organisationnel établi, et d'une proportionnalité entre moyens mobilisés et finalité recherchée.
Nos engagements :
- Aucun usage de l'IA pour des finalités interdites par l'article 5 de l'AI Act (notation sociale, manipulation comportementale nuisible, surveillance biométrique non autorisée, profilage de vulnérabilité exploitante, etc.).
- Refus des « dark patterns » et mécaniques incitatives au sur-partage de données sensibles.
- Revue éthique systématique de toute nouvelle fonctionnalité avant mise en production.
- Abandon transparent d'une fonctionnalité dont le rapport bénéfice/risque se détériore.
Redevabilité et traçabilité
L'éthique ne se mesure pas à l'intention mais à la capacité à rendre des comptes. Nous assumons la responsabilité de nos systèmes et nous organisons activement les moyens de ce contrôle.
Nos engagements :
- Registre interne tenu à jour des systèmes d'IA opérés par Ai2care : périmètre, classification AI Act, responsable, indicateurs.
- Journalisation horodatée des décisions et interactions des systèmes d'IA, conservée selon les durées légales.
- Procédure formalisée de signalement d'un incident éthique, accessible aux utilisateurs et aux tiers (ethics@ai2care.ai).
- Publication d'un rapport annuel de transparence éthique : incidents recensés, mesures correctives, évolutions des systèmes.
- Coopération pleine et traçable avec la CNIL, la HAS, l'ANSSI et les autres autorités compétentes.
Gouvernance éthique d'Ai2care
La présente charte ne s'autorégule pas. Sa mise en œuvre repose sur une gouvernance pluridisciplinaire, formalisée et outillée.
| Instance | Composition | Rôle |
|---|---|---|
| Délégué à la protection des données (DPO) | Désigné en application de l'article 37 du RGPD ; indépendance garantie ; rattachement direct à la direction. | Supervision RGPD, analyses d'impact (AIPD), point de contact CNIL, formation interne. |
| Conseil scientifique | Médecins, chercheurs, épidémiologistes, spécialistes des nomenclatures (ILAE, DCI, DSM). | Caution scientifique des choix d'ontologie, validation des protocoles, publications. |
| Direction des opérations IA | CTO, responsables produit, responsables sécurité. | Application quotidienne des principes, indicateurs d'équité et de performance, traçabilité. |
Alignement réglementaire et normatif
Les engagements de la présente charte s'inscrivent dans le respect strict et, sur plusieurs dimensions, au-delà des exigences légales en vigueur :
- Règlement (UE) 2024/1689 — AI Act : classification, transparence, supervision humaine, qualité des données, documentation technique, gestion des risques.
- Règlement (UE) 2016/679 — RGPD, notamment articles 6, 9, 22, 25, 32, 35.
- Loi n° 78-17 du 6 janvier 1978 modifiée — « Informatique et Libertés ».
- Code de la santé publique, notamment article L.1111-8 (hébergement des données de santé — HDS).
- Directive (UE) 2022/2555 « NIS2 » — cybersécurité des entités importantes et essentielles.
- Règlement (UE) 2022/868 « Data Governance Act » — conditions de partage et d'altruisme des données.
- Règlement (UE) 2023/2854 « Data Act » — accès, partage et portabilité des données générées.
- Recommandations de la CNIL sur l'IA, les cookies et les données de santé.
- Cadre de la Haute Autorité de Santé (HAS) — Bonnes pratiques, grille d'évaluation des solutions numériques en santé.
- Principes OCDE sur l'IA (2019) et Recommandation UNESCO sur l'éthique de l'IA (2021).
Ai2care anticipe par ailleurs les exigences à venir de l'Espace européen des données de santé (European Health Data Space — EHDS) et intégrera, dès leur adoption définitive, les obligations d'interopérabilité et de partage secondaire qui en découleront.
Droits et garanties pour les parties prenantes
Pour les patients et les aidants
- Information claire, en langue naturelle, sur le fonctionnement et les limites des systèmes d'IA avec lesquels ils interagissent.
- Consentement libre, éclairé, spécifique et révocable à tout moment, sans conséquence sur la continuité du soin.
- Droit à l'explication d'une sortie de l'IA, dans un format accessible.
- Droit de contester une analyse produite par nos systèmes et d'obtenir une réponse motivée.
- Droit d'accès, de rectification, d'effacement, de portabilité et d'opposition exerçables en ligne.
- Confidentialité renforcée pour les mineurs : consentement parental, information adaptée à l'âge.
Pour les soignants
- Autonomie clinique préservée : nos systèmes informent la décision, ils ne la prennent pas.
- Transparence sur les méthodes : périmètre couvert, sources de données, limites connues, versions des modèles.
- Traçabilité complète des analyses présentées pour appuyer la décision clinique.
- Outils conçus pour réduire la charge cognitive, jamais pour la contraindre.
Pour les chercheurs et partenaires scientifiques
- Accès encadré, conditionné et documenté à des cohortes anonymisées, dans le cadre de méthodologies de référence CNIL (MR-004 et suivantes).
- Publication des choix d'ontologie et des protocoles de validation, ouverture à la relecture académique.
- Collaboration aux travaux d'harmonisation européenne (EHDS, sociétés savantes).
Pour les autorités de contrôle
- Coopération pleine, immédiate et documentée avec la CNIL, la HAS, l'ANSSI et toute autorité compétente.
- Registre des systèmes d'IA et documentation technique communicables sur demande motivée.
Pratiques interdites chez Ai2care
Au-delà des interdictions absolues de l'article 5 de l'AI Act, Ai2care s'interdit explicitement :
- Toute décision thérapeutique ou organisationnelle exclusivement automatisée, sans validation humaine qualifiée.
- Toute forme de scoring social, de catégorisation prédictive stigmatisante ou de profilage comportemental à des fins commerciales.
- L'usage de techniques subliminales, manipulatoires ou exploitant la vulnérabilité cognitive, émotionnelle ou économique d'une personne.
- La vente, la location ou le partage de données de santé identifiantes à des tiers — quel que soit le montant ou l'intérêt commercial.
- L'entraînement de modèles commerciaux sur des données de patients sans consentement renouvelé et explicite.
- Tout recours à des sous-traitants non conformes au RGPD, à la certification HDS ou aux standards de sécurité exigés.
- L'opacité volontaire sur un incident éthique, une dérive de performance ou une violation de données.
Contrôle, audits et amélioration continue
| Mécanisme | Fréquence | Responsable |
|---|---|---|
| Revue éthique des nouvelles fonctionnalités (go/no-go) | Avant chaque mise en production majeure | Comité scientifique et éthique |
| Analyse d'impact (AIPD — art. 35 RGPD) | Avant mise en production & mise à jour significative | DPO + direction produit |
| Audit interne de conformité éthique | Annuel | Direction des opérations IA |
| Audit externe indépendant | Tous les deux ans | Tiers spécialisé |
| Mesure et publication des indicateurs d'équité et de performance | Continu ; rapport annuel | CTO |
| Tests adversariaux et de robustesse | Semestriel | Équipe sécurité IA |
| Rapport annuel de transparence éthique (public) | Annuel | Direction générale |
Signalement et contact
Toute personne — utilisateur, collaborateur, partenaire, observateur externe — peut signaler un manquement à la présente charte, un incident éthique ou un risque identifié sur nos systèmes d'IA. Le signalement est confidentiel et fait l'objet d'un accusé de réception sous 5 jours ouvrés et d'une réponse motivée sous 30 jours.
- Contact éthique dédié : ethics@ai2care.ai
- Courrier : Ai2care — Comité éthique IA, 1 Rue des Champs, 25660 Saône, France.
Révision et publication
La présente charte est un document vivant. Elle est revue et, le cas échéant, actualisée au minimum une fois par an par le Comité éthique IA, ou à tout moment en cas d'évolution réglementaire majeure (AI Act, EHDS), de lancement d'une nouvelle catégorie de produit, ou d'événement justifiant un ajustement.
Chaque version est datée, numérotée et archivée. Les versions antérieures demeurent accessibles sur demande à des fins de traçabilité.
Version 1.0 · Date de publication : 21 avril 2026 · Prochaine révision prévue : avril 2027 (ou plus tôt si évolution réglementaire majeure)