Reportaje de Rubén Fernández-Costa O’Dogherty: Gobernanza inteligente humana y segura, explicada por las personas que protagonizan el cambio

Fundación Educacción
17 de noviembre de 2025
Compartir en:

Índice

En este número especial, entrevistamos a tres personas clave que ejercen su liderazgo en tres sectores estratégicos —educación, alimentación y macrodata—, que comparten su visión sobre cómo garantizar una gobernanza inteligente de las empresas e instituciones sin perder una perspectiva humana y segura.

Francisco Escalona es Chief Data and AI Officer de Carrefour España

Para el directivo del sector de la alimentación, la Gobernanza Inteligente “es la evolución natural de la gestión de datos. No es solo un conjunto de reglas y políticas —la gobernanza tradicional—, sino más bien la aplicación activa de la IA y el Machine Learning para automatizar, optimizar y hacer cumplir esas políticas de manera dinámica, en esencia, es usar la tecnología para gobernar la propia tecnología”.

“Ya está llegando”, explica el directivo, “pero su adopción generalizada y definitiva se dará en los próximos dos o tres años”. La necesidad es “imperiosa”, en su opinión, porque “el volumen de datos crece exponencialmente, los datos ya no son únicamente tabulados, sino que la IA utiliza gran cantidad de datos desestructurados y además los genera. Y hay que tener en cuenta las regulaciones como el GDPR o la Ley Europea de IA, que son cada vez más estrictas. Simplemente, con el crecimiento del volumen de datos y de su tipología, los métodos manuales van a llegar a ser insostenibles”.

La Gobernanza Inteligente debe garantizar, en su opinión, “primero, confianza y cumplimiento, porque asegura que solo los usuarios autorizados vean datos sensibles, crucial para nuestra prioridad de IA Responsable y Ética; en paralelo, velocidad de negocio, lo cual permitirá que los datos sean accesibles y fiables para la toma de decisiones, fomentando la Democratización del Dato sin sacrificar la seguridad”. 

“Más allá de si los datos son estructurados o no, generados por IA o no”, continúa, “tenemos una nueva gran preocupación: la Gobernanza de Algoritmos y las aplicaciones de IA. No se trata de gestionar el dato que entra como tal, sino de cómo los modelos de IA toman decisiones y de cómo se usan las aplicaciones de IA que se generan en el interior de cada empresa”.

En el sector retail, un buen ejemplo de aplicación de estas tecnologías explica, “pasa por la necesidad de repensar radicalmente los procesos que abordan los puntos de dolor históricos de cada sector. En retail, un ejemplo de punto de dolor que frustra al cliente y genera pérdidas es la disponibilidad del producto —el temido ‘agotado’ o ‘rotura de stock’. En lugar de limitarnos a optimizar el proceso de planning existente, la IA nos permite redefinir el proceso de disponibilidad a través de una visión holística que une la Excelencia Operativa con la satisfacción del Cliente, donde se incluyen tareas como puede ser el Monitoreo en Tiempo Real (incluyendo visión artificial) para predecir no solo la demanda futura, sino el riesgo de rotura en la próxima hora, disparando alertas al sistema de gestión de tareas que puede ir desde pedir una reposición a un empleado o generar una orden de resurtido”.

“Al final, aseguramos que el cliente encuentre lo que busca, lo cual es la base de la satisfacción y lealtad”, subraya. “La IA no parchea el problema; lo elimina a través de la redefinición del flujo de trabajo. Proyectándonos al futuro, la Gobernanza Inteligente es la base para lograr lo que yo llamo la Organización Adaptativa y Predictiva. Nos va a ayudar a organizaciones que tomar decisiones de manera autónoma”. 

En ciberseguridad, “se pasará a un modelo de confianza cero (Zero Trust) totalmente automatizado y contextual. La IA no solo detectará una amenaza, sino que autorreparará la brecha y reprogramará las defensas sin intervención humana. Todo ello asegurando el Cumplimiento Normativo y la capacidad de adaptación a ante un nuevo reglamento (por ejemplo, de privacidad o medioambiental). La IA analizará automáticamente todos los sistemas de datos y algoritmos, identificando y corrigiendo las vulnerabilidades de cumplimiento antes de que se conviertan en un riesgo legal o reputacional. Es decir que de manera autónoma la empresa se adapta a las amenazas externas, a las necesidades internas y al cumplimiento normativo”.

La clave por tanto sería “institucionalizar la IA Responsable y Ética como un pilar de la estrategia, no solo como una función de cumplimiento legal”. Esto se concreta en varios frentes: “primero, Gobernanza Humana y Técnica Conectada. La ética no puede ser solo un checklist. Debe haber comités multidisciplinares (con expertos en ética, legal, negocio y tecnología) que revisen los modelos de alto impacto”. Desde el punto de vista técnico, “necesitamos herramientas de Explicabilidad (XAI) que nos permitan entender por qué un modelo ha tomado una decisión, lo que es esencial para identificar y mitigar sesgos. También, “la Transparencia y Derecho a Explicación: en línea con la ley europea, debemos ser transparentes con el cliente sobre cómo usamos sus datos para personalizar su experiencia”. Y, en paralelo, el “Propósito del Algoritmo”, porque la mejor ética es aquella que está ligada a un impacto positivo real en el negocio y la sociedad”.

Carmen Reina es CEO de Dataquantum

Para la experta directora general del ámbito de la tecnología, la Gobernanza Inteligente se define como “la evolución de la gestión tradicional hacia un modelo basado en datos, inteligencia artificial y automatización ética”, explica. “Supone pasar de tomar decisiones reactivas a decisiones informadas, predictivas y colaborativas, para optimizar la gestión y mejorar la transparencia”.

Añade cómo “la Gobernanza Inteligente va más allá del dato; combina tecnología, ética y participación para transformar la toma de decisiones con principios de transparencia, equidad y supervisión humana constante, garantizando trazabilidad, ciberseguridad y sostenibilidad”. Un trabajo que consiste en “aplicar metodologías propias que integren auditorías algorítmicas avanzadas para garantizar la transparencia y confianza de los sistemas inteligentes”.

En un ejemplo de proyecto reciente en el sector energético de dataquantum, comparte la directiva, “logramos mejorar la eficiencia operativa en un 20% mediante soluciones predictivas basadas en IA, contando con certificaciones internacionales y estableciendo alianzas estratégicas que avalan la calidad y rigor de nuestra gobernanza tecnológica”. Otro ejemplo transformador que menciona sería “el uso de gemelos digitales en la gestión urbana y empresarial, que permiten simular escenarios en tiempo real anticipando decisiones críticas”. Por ejemplo, cita, “una ciudad inteligente puede prever el impacto medioambiental y de tráfico de una nueva línea de transporte antes de su implementación. En dataquantum hemos desarrollado modelos personalizados de gemelos digitales que han permitido a empresas industriales detectar anomalías y reducir tiempos muertos”.

También destaca “la aplicación en salud predictiva, donde análisis de IA anticipan picos de demanda hospitalaria y gestionan recursos, salvando vidas y optimizando costes. Nuestro equipo incluye por ello expertos con publicaciones académicas y colaboraciones en investigación, que aplican estos avances manteniendo un estricto enfoque ético y regulatorio. En el ámbito corporativo, por ejemplo, implementamos gobernanza basada en IA para detectar riesgos regulatorios y fraudes antes de que ocurran, facilitando auditorías ágiles y reduciendo errores humanos. Estas soluciones, validadas y auditadas éticamente, posicionan a dataquantum como referente en la integración de IA responsable y eficiente”.

Empresas como la suya “impulsamos el paradigma del Humano Exponencial, el cual fusiona inteligencia tecnológica con inteligencia emocional y ética”, comparte Carmen Reina, “realmente ampliando capacidades humanas en decisiones, creatividad y responsabilidad. Y traducimos este concepto en herramientas prácticas, como plataformas de gobernanza inteligente que disminuyen riesgos regulatorios y apoyan la toma de decisiones estratégicas con impacto mesurable”.

Además, apoyamos a las empresas en la transición normativa, facilitando el cumplimiento de estándares como la ISO 42001 para la gestión responsable de IA, anticipándonos a los retos regulatorios de España y Europa para mantener la competitividad y sostenibilidad tecnológica”.

Para la CEO, la clave se encuentra en “incorporar la ética desde el diseño, implementando auditorías constantes para evitar sesgos, promover la explicabilidad y garantizar responsabilidad y trazabilidad con rendición de cuentas humana real. Nuestro compromiso es que la ética no sea un control posterior, sino una base desde el código, los datos y la intención. Más allá de la tecnología, hay que promover un impacto social positivo participando en iniciativas que fomentan la inclusión digital y la transparencia, elevando a las organizaciones y a las personas para que la IA aumente nuestra humanidad y nos convierta en verdaderos Humanos Exponenciales”, concluye.

Dra. Sonia Díez es la presidenta de la Fundación EducAcción

Para la autora del libro El fin de la Educación tal y como la conocemos, recientemente publicado (Ed. Medialuna), lo más disruptivo no es la tecnología en sí, “sino la mentalidad con la que la incorporamos. Durante demasiado tiempo en educación hemos entendido la innovación como una sucesión de herramientas digitales; sin embargo, lo realmente transformador ocurre cuando la tecnología nos obliga a repensar la finalidad de una escuela, su forma de organizar el conocimiento y su relación con la vida”.

En los últimos años, trabaja en esa dirección, “explorando cómo las tecnologías emergentes pueden contribuir a una educación más humana, sostenible y con propósito. La IA, por ejemplo, nos está permitiendo imaginar centros capaces de aprender de sí mismos, de analizar sus impactos —ambientales, sociales y de gobernanza— y orientar sus decisiones hacia el bienestar de las personas y del planeta”.

“No se trata”, en sus propias palabras, “de automatizar tareas, sino de aumentar la conciencia institucional, de pasar de la información a la comprensión y del dato a la acción ética. En este sentido, estamos convencidos de que el sector educativo tiene un potencial de impacto transformador comparable al de la salud o la energía. Si educar es el proceso que más influye en la manera en que una sociedad piensa, produce y convive, entonces una educación sostenible es la infraestructura más estratégica del futuro”.

Desde hace años estudia “las buenas prácticas internacionales, visitando centros y proyectos que están en la vanguardia de su aplicación”. El pasado año por ejemplo en Silicon Valley, “pudimos observar de primera mano cómo algunas de las escuelas más innovadoras del mundo experimentan con modelos híbridos de inteligencia humana y artificial. Lo más valioso no son los éxitos, sino los errores aprendidos: el exceso de tecnificación, la falta de formación docente o la desconexión entre innovación y propósito: llevan unos dieciséis años de ventaja en el uso educativo de la IA, pero esa distancia no es necesariamente negativa, nos permite aprender de su recorrido y avanzar con más criterio, más sentido y menos ingenuidad”.

Para ella, hay muchos ejemplos inspiradores —“desde los modelos adaptativos de Singularity University o el programa AI for Education de UNESCO, hasta experiencias pioneras en Finlandia, Corea o Canadá”— que muestran que la tecnología “puede convertirse en un auténtico ecosistema de aprendizaje expandido, donde cada alumno, cada docente y cada centro aprenden en red. “Una Educación Inteligente no es una educación tecnológicamente avanzada, sino una educación capaz de aprender de sí misma. Implica un sistema que recoja datos, pero también emociones, relaciones y contextos; que mida lo que importa —bienestar, motivación, cooperación, impacto social— y no solo lo que es fácil medir”.


Desde esta perspectiva, los avances tecnológicos, bien integrados, podrían permitirnos alcanzar tres grandes logros: “primero, un aprendizaje verdaderamente personalizado, donde cada estudiante encuentre un itinerario que se adapte a su identidad, su propósito vital y su ritmo cognitivo”. Segundo, “centros educativos que aprenden, que usan los datos no para controlar, sino para mejorar su cultura organizacional, su coherencia interna y su impacto social. Un colegio inteligente será aquel que comprenda su papel como agente de cambio en la comunidad, no solo como transmisor de conocimientos”. Y también, “un nuevo contrato social de la educación, que reconcilie progreso y propósito.

La tecnología puede contribuir a democratizar el acceso al conocimiento, reducir brechas territoriales y ofrecer oportunidades de aprendizaje continuo a lo largo de toda la vida, integrando formación, trabajo y bienestar”.

Sin embargo, añade, para que todo esto ocurra, “la educación inteligente debe ser también ética, inclusiva y humanista. En el futuro no bastará con saber usar la tecnología: habrá que saber convivir con ella, discernir cuándo y para qué utilizarla, y mantener vivo el juicio moral y la conciencia crítica”.



El riesgo más evidente sería “confundir progreso tecnológico con progreso educativo. La historia reciente nos demuestra que digitalizar sin transformar el modelo mental conduce a la frustración”. Otro riesgo profundo sería “renunciar a la soberanía del juicio humano. La educación no puede delegar en los algoritmos la definición de lo que significa aprender, crecer o tener éxito y los docentes no deben convertirse en simples validadores de datos, sino en guías éticos y emocionales de los procesos de aprendizaje. Además, los resultados del Barómetro EducAcción muestran un sistema ya percibido por la ciudadanía como rígido, desmotivado y poco innovador. Ocho de cada diez españoles creen que las decisiones educativas responden a intereses políticos más que pedagógicos, y casi el 90% demanda una transformación profunda. Si la tecnología entra en un sistema así, sin acompañamiento cultural ni propósito compartido, no será una palanca de cambio, sino un acelerador del deterioro”.

La clave, subraya la experta, estaría en esa gobernanza inteligente educativa, “un modelo que combine conocimiento, ética y participación. En el ámbito educativo, eso significa diseñar un marco donde la IA esté subordinada a principios claros de justicia, equidad, transparencia y bien común. Primero, necesitamos propósito. Antes de preguntarnos qué puede hacer la IA, debemos preguntarnos qué queremos como humanos. La IA debe servir para liberar tiempo, reducir desigualdades y mejorar la calidad de la enseñanza, no para sustituir la relación educativa. Segundo, transparencia y trazabilidad. Cada algoritmo que intervenga en procesos de evaluación, orientación o selección educativa debería ser explicable, auditable y estar sujeto a rendición de cuentas. Y tercero, alfabetización ética y digital: no solo los alumnos, también los docentes, directivos y responsables públicos deben comprender el impacto social y moral. No se trata solo de enseñar a usar IA, sino de formar conciencia sobre sus límites, sesgos y responsabilidades. Y necesitamos una alianza global y multisectorial que ponga en diálogo ciencia, educación, empresa, política y sociedad civil. Iniciativas como la ED-Futures Alliance o el Observatorio EducAcción nacen precisamente con ese objetivo”.


Fuente: Cyber Lidera MGZN