1. Vue d'ensemble
Complair utilise l'IA pour accélérer le travail de conformité — classification des risques, rédaction de documents, suggestion de réponses aux questionnaires et un assistant de conformité intégré. Nous utilisons des modèles fondationnels tiers (principalement Claude d'Anthropic) dans le cadre de contrats commerciaux qui interdisent l'entraînement sur nos prompts. Nous ne possédons, n'ajustons ni n'entraînons aucun modèle d'IA.
Cette page est notre application volontaire des articles 13 (transparence envers les utilisateurs des systèmes à haut risque, appliquée comme bonne pratique bien que nos systèmes soient à risque limité) et 50 (obligations de transparence pour les systèmes à risque limité interagissant avec des humains) du règlement européen sur l'IA. C'est aussi la partie publique de notre registre IA interne.
2. Classification du risque (article 6)
Nous avons classé chaque fonctionnalité IA de Complair selon l'article 6 et l'annexe III du règlement européen sur l'IA. Aucune de nos fonctionnalités IA n'est à haut risque selon l'annexe III. Toutes les fonctionnalités IA actuelles relèvent du risque limité au titre de l'article 50, avec des obligations de transparence.
Justification résumée :
- Nous n'effectuons aucune des fonctions énumérées dans les catégories 1 à 8 de l'annexe III (identification biométrique, infrastructures critiques, évaluation pédagogique, scoring d'emploi, services essentiels, application de la loi, migration, justice).
- Nos fonctionnalités effectuent soit des tâches procédurales étroites (article 6(3)(a) — résumé, classification selon des critères prédéfinis), soit des tâches préparatoires à un examen humain (article 6(3)(d)).
- Nous n'effectuons pas de profilage de personnes physiques (article 6(3) deuxième alinéa). Notre classification opère sur des systèmes d'IA, et non sur des personnes physiques.
La justification complète de la classification, y compris la vérification annexe III pour chaque fonctionnalité, est disponible sur demande à privacy@complair.eu.
3. Fonctionnalités IA dans Complair
Chaque fonctionnalité alimentée par l'IA, son rôle et les données qu'elle voit.
| Fonctionnalité | Rôle | Données envoyées au modèle | Plan |
|---|---|---|---|
| Classifieur de risque IA | Classe un système d'IA selon l'article 6 + annexe III du règlement européen sur l'IA ; renvoie le niveau + la justification. | Nom du système, finalité, rôle, contexte de déploiement (saisis par l'utilisateur ; aucune donnée personnelle requise). | Tous les plans |
| Générateur de documents | Rédige des artefacts de conformité (registre des traitements, mentions de transparence, documentation technique). | Profil de l'entreprise du workspace, métadonnées du système IA, variables de modèle de document. | Growth+ |
| Assistant conformité | Chat intégré pour les questions de conformité, limité au contexte de votre workspace. | Question de l'utilisateur, enregistrements pertinents extraits du workspace, historique de la conversation. | Scale+ |
| Réponses suggérées au questionnaire | Suggère une réponse à une question de questionnaire acheteur à partir des réponses canoniques + contexte d'obligation. | Texte de la question, réponses canoniques extraites, obligation associée. | Scale+ |
Tout contenu généré par IA est étiqueté en tant que tel dans l'interface (obligation article 50).
4. Modèles utilisés
- Anthropic Claude (familles Sonnet, Haiku, Opus). Utilisé pour la classification, la rédaction et l'assistant. Accédé via l'API commerciale d'Anthropic. Anthropic n'entraîne pas ses modèles sur nos prompts au titre de leurs conditions commerciales.
- Repli sélectionnable par l'administrateur (OpenAI GPT, Google Gemini). Les administrateurs de workspace en plan Enterprise peuvent choisir un fournisseur alternatif. La même posture contractuelle « pas d'entraînement » s'applique — nous n'activons pas un modèle dont le contrat autoriserait l'entraînement sur nos prompts.
Tous les fournisseurs de modèles figurent dans notre liste des sous-traitants.
5. Flux de données
Ce que nous envoyons aux modèles d'IA, ce que nous n'envoyons pas, et ce que nous faisons de la réponse.
- Ce que nous envoyons. Uniquement les données nécessaires à la fonctionnalité concernée — généralement des prompts courts assemblés à partir des enregistrements de votre workspace (descriptions de systèmes IA, questions de questionnaire, modèles de génération de documents).
- Ce que nous n'envoyons pas. Mots de passe utilisateurs, clés d'API, journaux d'audit, données de facturation ou toute donnée non pertinente pour le prompt traité. Nous minimisons.
- Journalisation. Nous enregistrons le prompt, le contexte récupéré et la réponse pendant 90 jours pour le débogage, la détection d'abus et la conformité à l'article 12. Les champs sensibles sont nettoyés.
- Pas d'entraînement. Anthropic, OpenAI et Google Gemini interdisent contractuellement l'entraînement sur les prompts clients dans leurs API commerciales. Nous n'avons pas de modèles à entraîner.
- Conservation. Les fournisseurs de modèles conservent les prompts jusqu'à 30 jours pour la détection d'abus, puis les suppriment. Nous conservons nos propres logs pendant 90 jours.
6. Comment vous désinscrire
- Désactivation au niveau du workspace. Les administrateurs peuvent désactiver les fonctionnalités IA pour l'ensemble du workspace dans Paramètres → Fonctionnalités IA. Le produit reste utilisable ; les actions assistées par IA sont remplacées par des flux manuels.
- Désactivation par utilisateur. Les utilisateurs individuels peuvent désactiver les suggestions IA dans leurs préférences personnelles sans affecter le workspace.
- Désactivation par fournisseur. En plan Enterprise, les administrateurs peuvent choisir le fournisseur de modèle utilisé (Anthropic, OpenAI, Gemini) ou désactiver totalement l'utilisation de modèles tiers. Avec tous les fournisseurs désactivés, les fonctionnalités IA affichent un avis clair « IA désactivée ».
- Mention pour l'utilisateur final. Partout où Complair génère du contenu pour des utilisateurs finaux (par exemple les pages publiques de trust center), les portions générées par IA sont clairement étiquetées.
7. Nos obligations article 50 envers vous
- Divulgation de l'interaction IA. Nous indiquons aux utilisateurs au moment de l'interaction lorsqu'ils interagissent avec une IA plutôt qu'avec un humain (article 50(1)).
- Étiquetage du contenu généré par IA. Le texte généré par IA dans Complair est étiqueté visuellement dans l'interface (article 50(4)).
- Pas de deepfakes ni de manipulation. Complair ne génère pas de médias synthétiques de personnes physiques ni de contenu visant à manipuler le comportement. Les obligations d'étiquetage des deepfakes prévues à l'article 50(4) ne s'appliquent pas car nous ne générons pas ce type de contenu.
- Aménagements raisonnables. Les utilisateurs en situation de handicap peuvent demander un examen humain de toute sortie IA sans pénalité. Les obligations d'accessibilité de l'EAA s'appliquent.
8. Journal des modifications
Modifications des fonctionnalités IA, des modèles ou de la classification du risque, plus récentes en premier.
- 2026-05-04 — Première publication de la page de transparence IA. Toutes les fonctionnalités actuelles classées comme risque limité au titre de l'article 50.
Les modifications matérielles (nouvelle fonctionnalité, nouveau fournisseur de modèle, nouveau cas d'usage) sont notées ici dans les 5 jours ouvrés. Les clients en plan Enterprise reçoivent un préavis par e-mail de 30 jours.
9. Contact
Questions sur une fonctionnalité IA, l'usage d'un modèle, ou demande de la justification complète de la classification : privacy@complair.eu.
Liens connexes : Liste des sous-traitants · Vue d'ensemble sécurité · DPA.