1. Visión general
Complair utiliza IA para acelerar el trabajo de cumplimiento — clasificación de riesgos, redacción de documentos, sugerencias de respuestas a cuestionarios y un asistente de cumplimiento integrado. Usamos modelos fundacionales de terceros (principalmente Claude de Anthropic) bajo contratos comerciales que prohíben el entrenamiento con nuestros prompts. No poseemos, ajustamos ni entrenamos ningún modelo de IA.
Esta página es nuestra aplicación voluntaria de los artículos 13 (transparencia ante usuarios de sistemas de alto riesgo, aplicada como buena práctica aunque nuestros sistemas son de riesgo limitado) y 50 (obligaciones de transparencia para sistemas de riesgo limitado que interactúan con humanos) del Reglamento europeo de IA. También es la parte pública de nuestro registro interno de IA.
2. Clasificación del riesgo (artículo 6)
Hemos clasificado cada función de IA en Complair conforme al artículo 6 y al anexo III del Reglamento europeo de IA. Ninguna de nuestras funciones de IA es de alto riesgo según el anexo III. Todas las funciones de IA actuales se consideran de riesgo limitado conforme al artículo 50, con obligaciones de transparencia.
Razonamiento resumido:
- No realizamos ninguna de las funciones enumeradas en las categorías 1 a 8 del anexo III (identificación biométrica, infraestructuras críticas, evaluación educativa, scoring de empleo, servicios esenciales, aplicación de la ley, migración, justicia).
- Nuestras funciones realizan tareas procedimentales acotadas (artículo 6(3)(a) — resumen, clasificación por criterios predefinidos) o tareas preparatorias para revisión humana (artículo 6(3)(d)).
- No realizamos perfilado de personas físicas (artículo 6(3) párrafo segundo). Nuestra clasificación opera sobre sistemas de IA, no sobre personas físicas.
El razonamiento completo de la clasificación, incluido el recorrido por el anexo III para cada función, está disponible bajo solicitud en privacy@complair.eu.
3. Funciones de IA en Complair
Cada función impulsada por IA, qué hace y los datos que ve.
| Función | Tarea | Datos enviados al modelo | Plan |
|---|---|---|---|
| Clasificador de riesgo de IA | Clasifica un sistema de IA según el artículo 6 + anexo III; devuelve nivel + justificación. | Nombre del sistema, propósito, rol, contexto de despliegue (introducidos por el usuario; no se requieren datos personales). | Todos los planes |
| Generador de documentos | Redacta artefactos de cumplimiento (registro de tratamientos, avisos de transparencia, documentación técnica). | Perfil de la empresa del workspace, metadatos del sistema de IA, variables de plantilla de documento. | Growth+ |
| Asistente de cumplimiento | Chat en el producto para preguntas de cumplimiento, limitado al contexto de su workspace. | Pregunta del usuario, registros relevantes recuperados del workspace, historial de conversación. | Scale+ |
| Respuestas sugeridas al cuestionario | Sugiere una respuesta para una pregunta de cuestionario del comprador a partir de respuestas canónicas + contexto de obligación. | Texto de la pregunta, respuestas canónicas recuperadas, obligación asociada. | Scale+ |
Todo contenido generado por IA está etiquetado como tal en la interfaz (obligación del artículo 50).
4. Modelos que utilizamos
- Anthropic Claude (familias Sonnet, Haiku, Opus). Utilizado para clasificación, redacción y asistente. Acceso vía API comercial de Anthropic. Anthropic no entrena sus modelos con nuestros prompts bajo sus términos comerciales.
- Alternativa seleccionable por administrador (OpenAI GPT, Google Gemini). Los administradores de workspace en plan Enterprise pueden seleccionar un proveedor alternativo. Aplica la misma postura contractual de no-entrenamiento — no habilitamos un modelo cuyo contrato permita entrenamiento con nuestros prompts.
Todos los proveedores de modelos figuran en nuestra lista de subencargados del tratamiento.
5. Flujo de datos
Lo que enviamos a los modelos de IA, lo que no enviamos y lo que hacemos con la respuesta.
- Lo que enviamos. Solo los datos necesarios para la función específica — normalmente prompts breves construidos a partir de los registros de su workspace (descripciones de sistemas de IA, preguntas de cuestionarios, plantillas de generación de documentos).
- Lo que no enviamos. Contraseñas de usuario, claves de API, registros de auditoría, datos de facturación, ni cualquier dato no relevante para el prompt que se procesa. Minimizamos.
- Registro. Registramos el prompt, el contexto recuperado y la respuesta durante 90 días para depuración, detección de abuso y cumplimiento del artículo 12. Los campos sensibles se filtran.
- Sin entrenamiento. Anthropic, OpenAI y Google Gemini prohíben contractualmente el entrenamiento con prompts de cliente en sus APIs comerciales. No tenemos modelos propios que entrenar.
- Retención. Los proveedores de modelos retienen los prompts hasta 30 días para detección de abuso y luego los borran. Nosotros retenemos nuestros propios registros 90 días.
6. Cómo darse de baja
- Desactivación a nivel de workspace. Los administradores pueden desactivar las funciones de IA para todo el workspace en Configuración → Funciones de IA. El producto sigue siendo utilizable; las acciones asistidas por IA se reemplazan por flujos manuales.
- Desactivación por usuario. Cada usuario puede desactivar las sugerencias de IA en sus preferencias personales sin afectar al workspace.
- Desactivación por proveedor. En plan Enterprise, los administradores pueden elegir qué proveedor de modelo se usa (Anthropic, OpenAI, Gemini) o desactivar todo uso de modelos de terceros. Con todos los proveedores desactivados, las funciones de IA muestran un aviso claro de «IA desactivada».
- Aviso al usuario final. Donde Complair genera contenido para usuarios finales (por ejemplo, páginas públicas de trust center), las partes generadas por IA están claramente etiquetadas.
7. Nuestras obligaciones del artículo 50 hacia usted
- Divulgación de la interacción con IA. Indicamos a los usuarios en el momento de la interacción cuándo están interactuando con IA en lugar de con un humano (artículo 50(1)).
- Etiquetado del contenido generado por IA. El texto generado por IA en Complair está etiquetado visualmente en la interfaz (artículo 50(4)).
- Sin deepfakes ni manipulación. Complair no genera medios sintéticos de personas físicas ni contenido diseñado para manipular comportamiento. Las obligaciones de etiquetado de deepfakes del artículo 50(4) no aplican porque no generamos ese tipo de contenido.
- Adaptaciones razonables. Los usuarios con discapacidad pueden solicitar revisión humana de cualquier salida de IA sin penalización. Aplican las obligaciones de accesibilidad de la EAA.
8. Registro de cambios
Cambios en funciones de IA, modelos o clasificación de riesgo, más recientes primero.
- 2026-05-04 — Publicación inicial de la página de transparencia de IA. Todas las funciones actuales clasificadas como riesgo limitado conforme al artículo 50.
Los cambios materiales (nueva función, nuevo proveedor de modelo, nuevo caso de uso) se anotan aquí en un plazo de 5 días hábiles. Los clientes en plan Enterprise reciben aviso por correo electrónico con 30 días de antelación.
9. Contacto
Consultas sobre una función de IA, uso de modelos o solicitudes de la justificación completa de la clasificación: privacy@complair.eu.
Relacionados: Lista de subencargados · Resumen de seguridad · DPA.