Compromiso con el EU AI Act
Última actualización: 2 de enero de 2026
En aideal.dev, el Reglamento (UE) 2024/1689 sobre Inteligencia Artificial no es solo un requisito legal, sino el fundamento de nuestro negocio. Practicamos lo que predicamos.
1. Nuestra Misión: Democratizar el Compliance del AI Act
El EU AI Act establece requisitos estrictos para sistemas de IA de alto riesgo (Anexo III). Nuestro objetivo es hacer que el compliance sea accesible para empresas de todos los tamaños, proporcionando herramientas de autoevaluación técnica y conexión con expertos verificados.
2. Clasificación de Riesgo según Anexo III
aideal.dev ayuda a las organizaciones a clasificar sus sistemas de IA en:
Riesgo Inaceptable
Sistemas prohibidos (ej: social scoring, manipulación subliminal)
Alto Riesgo
Sistemas sujetos a requisitos estrictos (ej: identificación biométrica, gestión de infraestructura crítica)
Riesgo Limitado
Sistemas con obligaciones de transparencia (ej: chatbots, sistemas de recomendación)
Riesgo Mínimo
La mayoría de sistemas de IA (sin requisitos específicos)
3. Requisitos de Transparencia (Art. 52)
Cumplimos y facilitamos el cumplimiento de las obligaciones de transparencia:
- Divulgación de IA Generativa:
Si usas modelos de IA generativa (GPT, Claude, etc.), debes informar a los usuarios que el contenido es generado por IA.
- Deepfakes:
El contenido deepfake debe estar claramente etiquetado.
- Sistemas de Recomendación:
Los usuarios deben ser informados cuando interactúan con sistemas de IA.
4. Validación Profesional: El Eslabón Crítico
Aunque aideal.dev proporciona evaluaciones técnicas, el EU AI Act requiere validación profesional para sistemas de alto riesgo. Por eso:
- ❌No Somos Organismos Notificados: No certificamos compliance. Solo facilitamos la preparación técnica.
- ✅Marketplace de Expertos: Conectamos empresas con abogados, consultores y auditores especializados en AI Act.
- 🔒Double-Blind System: Tu información sensible permanece oculta hasta que apruebes un match con un profesional.
5. Cómo aideal.dev Cumple el AI Act (Internamente)
Aplicamos los mismos estándares que recomendamos:
Documentación Técnica
Mantenemos registros detallados de nuestro sistema de evaluación (algoritmos, datos de entrenamiento, lógica de clasificación de riesgos).
Human Oversight
Los resultados críticos (ej: clasificación de 'riesgo inaceptable') incluyen revisión humana.
Logs Inmutables
Todos los cambios en evaluaciones y matches se registran con timestamps y trazabilidad completa (Art. 12 - Record-Keeping).
Bias Mitigation
Nuestros algoritmos de clasificación se revisan periódicamente para detectar sesgos.
6. Recursos Oficiales
Para información oficial sobre el EU AI Act, consulta:
Contacto
Para preguntas sobre nuestro compromiso con el AI Act, contacta con nosotros en soporte@aideal.dev