El calendario del liderazgo empresarial en Europa tiene una fecha marcada en rojo: agosto de 2025. A partir de entonces, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) tendrá capacidad sancionadora sobre el uso indebido de tecnologías basadas en IA. Un paso firme hacia una gobernanza responsable de la innovación que exige a los CEOs y altos directivos mucho más que estar informados: deben estar preparados.
La supervisión de la IA en España entra en una nueva fase. Las sanciones podrán alcanzar los 35 millones de euros por infracciones graves, según recoge el nuevo marco legal europeo (Reglamento Europeo de IA, aprobado en 2024). AESIA —con sede en A Coruña y liderada por Ignasi Belda— no solo inspeccionará, sino que definirá un marco de gobernanza en el que cada decisión tecnológica deberá someterse a criterios éticos, jurídicos y sociales.
“El verdadero liderazgo no consiste en avanzar más rápido, sino en avanzar con sentido.”
La IA ya no es solo cosa del CTO
Durante años, hablar de IA en una empresa era asunto del departamento técnico. Hoy, esa conversación ha ascendido hasta el comité de dirección. Y con razón: el uso inadecuado de un sistema de IA no solo compromete la privacidad o los derechos de los usuarios, también puede erosionar la reputación corporativa, abrir grietas legales y traicionar los valores declarados de una marca.
“El cambio de paradigma no es tecnológico, es ético. Ya no basta con desarrollar soluciones funcionales, ahora deben ser justas, auditables y transparentes desde su diseño”, apunta Jordi Damià, CEO de LiceoTIC. “Especialmente las pymes, que no siempre cuentan con estructuras jurídicas o éticas internas, deben actuar con visión preventiva y transversal”.
Según el último informe de PwC y Microsoft sobre IA Responsable en las empresas (2024), solo un 38% de las organizaciones españolas ha implementado mecanismos formales de revisión ética en el desarrollo de algoritmos. Y más preocupante aún: solo un 21% considera que sus líderes están adecuadamente formados para tomar decisiones críticas sobre IA.
¿Dónde están los riesgos?
Los sistemas de IA de alto riesgo definidos por el reglamento europeo incluyen aplicaciones en recursos humanos, salud, finanzas, justicia, seguridad o educación. Herramientas que evalúan el desempeño de un empleado, que automatizan diagnósticos médicos o que asignan un crédito bancario deberán cumplir con requisitos estrictos de transparencia, supervisión humana y ausencia de sesgos.
AESIA ya ha empezado a difundir guías, formar a proveedores y crear canales de consulta directa para facilitar la adaptación, especialmente de startups y pymes. Además, ha confirmado que a partir de febrero de 2025 podrá inspeccionar prácticas prohibidas, y seis meses más tarde, multar su incumplimiento.
El liderazgo humanista como escudo
Este escenario no solo es un reto regulatorio: es una oportunidad para ejercer un liderazgo humanista, el que pone a la persona —y su dignidad— en el centro. “Una empresa verdaderamente ética no espera a que la regulen: lidera el cambio con responsabilidad y propósito”, recuerda la filósofa y experta en ética empresarial Adela Cortina.
Las competencias del nuevo CEO no solo se miden en visión estratégica, sino en su capacidad de:
- Preguntar lo incómodo: ¿Está sesgada nuestra IA? ¿Quién se responsabiliza de sus decisiones? ¿Puede explicarse cómo llegó a esa conclusión?
- Diseñar con equidad: Evitar tecnologías que discriminen, aunque resulten eficientes o rentables.
- Escuchar a los distintos: Incluir diversidad de voces en los comités de innovación, desde expertos en derechos digitales hasta representantes de colectivos vulnerables.
- Formar equipos conscientes: No basta con desarrollar software; hay que desarrollar consciencia.
¿Y ahora qué?
AESIA prevé contar con 80 personas empleadas en 2025, según datos del Ministerio para la Transformación Digital. Su sede definitiva, en el edificio La Terraza de A Coruña, será el epicentro de una nueva forma de entender la innovación: más centrada en el ser humano, más sensible a sus consecuencias y más exigente con sus líderes.
Es hora de que los CEOs pasen del discurso a la acción. Incorporar comités de ética, formar a sus equipos en IA responsable, y establecer protocolos internos de revisión algorítmica será tan importante como lanzar un nuevo producto.
Como recuerda el propio reglamento europeo en su considerando 5: “La inteligencia artificial debe ser un medio al servicio de las personas, y no un fin en sí mismo”.
La IA marca el futuro de las empresas, pero solo el liderazgo ético garantizará que ese futuro sea sostenible, justo y compartido.