1. Überblick
Complair nutzt KI, um Compliance-Arbeit zu beschleunigen — Risikoklassifizierung, Dokumentenerstellung, Vorschläge für Fragebogenantworten und einen In-Product-Compliance-Assistenten. Wir verwenden Drittanbieter-Foundation-Modelle (vorrangig Anthropics Claude) im Rahmen kommerzieller Verträge, die ein Training auf unseren Prompts ausschließen. Wir besitzen, optimieren oder trainieren kein eigenes KI-Modell.
Diese Seite ist unsere freiwillige Anwendung von EU AI Act Artikel 13 (Transparenz gegenüber Nutzern von Hochrisiko-Systemen, hier als Best Practice angewandt, obwohl unsere Systeme begrenztes Risiko aufweisen) und Artikel 50 (Transparenzpflichten für Systeme mit begrenztem Risiko, die mit Menschen interagieren). Sie ist gleichzeitig der öffentliche Teil unseres internen KI-Registers.
2. Risikoklassifizierung (Artikel 6)
Wir haben jede KI-Funktion in Complair gegenüber EU AI Act Artikel 6 und Anhang III klassifiziert. Keine unserer KI-Funktionen ist Hochrisiko nach Anhang III. Alle aktuellen KI-Funktionen gelten als begrenztes Risiko nach Artikel 50 mit Transparenzpflichten.
Begründung in Kurzform:
- Wir führen keine der in Anhang III Kategorien 1–8 aufgelisteten Funktionen aus (biometrische Identifizierung, kritische Infrastruktur, Bildungsbewertung, Beschäftigungs-Scoring, wesentliche Dienste, Strafverfolgung, Migration, Justiz).
- Unsere Funktionen führen entweder eng begrenzte Verfahrensaufgaben aus (Artikel 6(3)(a) — Zusammenfassung, Klassifizierung nach vordefinierten Kriterien) oder vorbereitende Aufgaben für menschliche Prüfung (Artikel 6(3)(d)).
- Wir betreiben kein Profiling natürlicher Personen (Artikel 6(3) Unterabsatz 2). Unsere Klassifizierung arbeitet auf KI-Systemen, nicht auf natürlichen Personen.
Die vollständige Klassifizierungsbegründung einschließlich der Anhang-III-Prüfung je Funktion ist auf Anfrage verfügbar unter privacy@complair.eu.
3. KI-Funktionen in Complair
Jede KI-gestützte Funktion, ihr Zweck und die Daten, die sie sieht.
| Funktion | Aufgabe | An das Modell gesendete Daten | Tarif |
|---|---|---|---|
| KI-Risikoklassifizierer | Klassifiziert ein KI-System gemäß EU AI Act Artikel 6 + Anhang III; gibt Risikostufe + Begründung zurück. | Systemname, Zweck, Rolle, Einsatzkontext (vom Nutzer eingegeben; keine personenbezogenen Daten erforderlich). | Alle Tarife |
| Dokumenten-Generator | Erstellt Compliance-Artefakte (Verzeichnis von Verarbeitungstätigkeiten, Transparenzhinweise, technische Dokumentation). | Workspace-Unternehmensprofil, KI-System-Metadaten, Dokumentvorlagen-Variablen. | Growth+ |
| Compliance-Assistent | In-Product-Chat für Compliance-Fragen, beschränkt auf Ihren Workspace-Kontext. | Nutzerfrage, abgerufene relevante Datensätze aus dem Workspace, Konversationsverlauf. | Scale+ |
| Vorgeschlagene Fragebogenantworten | Schlägt eine Antwort für eine Käufer-Fragebogenfrage auf Basis kanonischer Antworten + Pflichtenkontext vor. | Fragetext, abgerufene kanonische Antworten, zugeordnete Pflichten. | Scale+ |
Alle KI-generierten Inhalte werden in der Benutzeroberfläche entsprechend gekennzeichnet (Artikel-50-Pflicht).
4. Verwendete Modelle
- Anthropic Claude (Sonnet, Haiku, Opus). Verwendet für Klassifizierung, Erstellung und Assistent. Aufruf über die kommerzielle API von Anthropic. Anthropic trainiert keine Modelle mit unseren Prompts unter ihren kommerziellen Vertragsbedingungen.
- Vom Administrator wählbare Alternative (OpenAI GPT, Google Gemini). Workspace-Administratoren mit Enterprise-Tarif können einen alternativen Anbieter auswählen. Dieselbe vertragliche Trainings-Sperre gilt — wir aktivieren kein Modell, dessen Vertrag Training auf unseren Prompts erlaubt.
Alle Modellanbieter sind in unserer Liste der Unterauftragsverarbeiter aufgeführt.
5. Datenfluss
Was wir an KI-Modelle senden, was nicht und was wir mit der Antwort tun.
- Was wir senden. Nur die für die jeweilige Funktion benötigten Daten — typischerweise kurze Prompts, zusammengesetzt aus Ihren Workspace-Datensätzen (KI-System-Beschreibungen, Fragebogenfragen, Vorlagen für die Dokumentenerstellung).
- Was wir nicht senden. Nutzerpasswörter, API-Schlüssel, Audit-Protokolle, Abrechnungsdaten oder andere Daten, die für den verarbeiteten Prompt nicht relevant sind. Wir minimieren.
- Logging. Wir protokollieren den Prompt, den abgerufenen Kontext und die Antwort 90 Tage lang zur Fehlersuche, Missbrauchserkennung und Artikel-12-Compliance. Sensible Felder werden bereinigt.
- Kein Training. Anthropic, OpenAI und Google Gemini schließen in ihren kommerziellen APIs Training mit Kunden-Prompts vertraglich aus. Wir besitzen keine eigenen Modelle, die wir trainieren könnten.
- Aufbewahrung. Modellanbieter speichern Prompts bis zu 30 Tage zur Missbrauchserkennung und löschen sie dann. Wir bewahren unsere eigenen Logs 90 Tage auf.
6. So melden Sie sich ab
- Workspace-weite Deaktivierung. Administratoren können KI-Funktionen für den gesamten Workspace unter Einstellungen → KI-Funktionen deaktivieren. Das Produkt bleibt nutzbar; KI-gestützte Aktionen werden durch manuelle Abläufe ersetzt.
- Pro-Nutzer-Deaktivierung. Einzelne Nutzer können KI-Vorschläge in ihren persönlichen Einstellungen deaktivieren, ohne den Workspace zu beeinflussen.
- Anbieterweise Deaktivierung. Im Enterprise-Tarif können Administratoren wählen, welcher Modellanbieter verwendet wird (Anthropic, OpenAI, Gemini), oder die Nutzung aller Drittanbieter-Modelle vollständig deaktivieren. Bei Deaktivierung aller Anbieter zeigen KI-Funktionen einen klaren Hinweis „KI deaktiviert".
- Endnutzerhinweis. Wo immer Complair Inhalte für Endnutzer generiert (z. B. veröffentlichte Trust-Center-Seiten), werden KI-generierte Teile klar gekennzeichnet.
7. Unsere Artikel-50-Pflichten Ihnen gegenüber
- Offenlegung der KI-Interaktion. Wir teilen Nutzern am Interaktionspunkt mit, wenn sie mit KI statt mit einem Menschen interagieren (Artikel 50(1)).
- Kennzeichnung KI-generierter Inhalte. KI-generierter Text in Complair ist in der Benutzeroberfläche visuell gekennzeichnet (Artikel 50(4)).
- Keine Deepfakes oder Manipulation. Complair erzeugt keine synthetischen Medien natürlicher Personen oder Inhalte zur Verhaltensmanipulation. Artikel 50(4)-Deepfake-Kennzeichnungspflichten gelten nicht, weil wir den entsprechenden Inhaltstyp nicht generieren.
- Angemessene Vorkehrungen. Nutzer mit Behinderungen können ohne Nachteil eine menschliche Überprüfung jeder KI-Ausgabe verlangen. EAA-Barrierefreiheitspflichten gelten.
8. Änderungsprotokoll
Änderungen an KI-Funktionen, Modellen oder Risikoklassifizierung, neueste zuerst.
- 2026-05-04 — Erstveröffentlichung der KI-Transparenzseite. Alle aktuellen Funktionen klassifiziert als begrenztes Risiko nach Artikel 50.
Wesentliche Änderungen (neue Funktion, neuer Modellanbieter, neuer Anwendungsfall) werden hier innerhalb von 5 Geschäftstagen vermerkt. Kunden im Enterprise-Tarif erhalten 30 Tage im Voraus eine E-Mail-Benachrichtigung.
9. Kontakt
Fragen zu einer KI-Funktion, Modellnutzung oder Anfragen für die vollständige Klassifizierungsbegründung: privacy@complair.eu.
Verwandt: Liste der Unterauftragsverarbeiter · Sicherheitsübersicht · AVV.