00:16Dejemos que las máquinas hagan el trabajo, pero no nos olvidemos de ser humanos. Nos parece
00:20instrumentar el concepto de AI in the loop, porque las tecnologías, los algoritmos nos
00:25aceleran, nos multiplican, nos expanden como humanos. Pero es igualmente necesario considerar
00:31human in the loop, el humano, donde las decisiones deben estar respaldadas no solo por el sentido
00:37común, sino por el entorno regulatorio que nos envuelve. Creemos que es crítico abordar la
00:42inteligencia artificial desde la explicabilidad, la proporcionalidad, la transparencia, la coherencia
00:48estética y tecnológica, y para ello, trazar la arquitectura técnica y organizativa adecuada
00:54resulta absolutamente imperativo. No debemos olvidar, además, que la inteligencia artificial
00:58o cualquier otra tecnología emergente ya debería estar alineada con legislaciones como el Reglamento
01:04General de Protección de Datos, que justo este mes cumple 10 años. La recolección de la información
01:10y el tratamiento de datos, fundamentales, no nos olvidemos, para una buena IA, ya deben ser
01:14objeto de conversación y ejecución en cualquier entorno tecnológico, independientemente de si
01:20tenemos o no el RIA, el Reglamento de Inteligencia Artificial, la Acta Europea de Inteligencia
01:26Artificial o cualquier otra regulación relevante. Finalmente, creo que ante la incertidumbre del
01:32entorno, la certeza del conocimiento y la certificación. Acreditaciones profesionales que
01:38reconocen el conocimiento profundo para auditar, para asegurar, para robustecer la inteligencia
01:44artificial, como las que propone, por ejemplo, Isaka, con reconocimiento internacional, suponen,
01:49junto con la ISO 38507 y o la ISO 42001, pilares fundamentales de la confianza digital.
02:00Desde The Valley hablamos a diario con organizaciones que sienten la presión de adaptarse a un constante
02:06cambio y siempre les trasladamos que una adopción responsable de la inteligencia artificial no va
02:11solo de tecnología, va de personas y de cultura. Por eso nuestra misión es convertirnos en un
02:16parrón estratégico que les ayude a avanzar con criterio, integrando ética, regulación y confianza
02:22en el corazón de su transformación. Hoy insistimos mucho en que auditar la IA no es un ejercicio
02:28técnico, es un ejercicio de negocio. Implica trazabilidad, gobierno del dato y modelos explicables
02:34porque un sello de IA responsable no es solo reputación, es acceso al mercado, confianza del
02:40cliente y ventaja competitiva. La ética no es un discurso, se traduce en procesos muy
02:46concretos como diseñas, como válidas y como despliegas tecnología. Para una compañía, delegar
02:52en un socio experto el reskilling y upskilling de sus equipos supone ganar foco y tranquilidad.
02:58Acompañamos a sus profesionales con una formación práctica y muy aterrizada, capacitándolos no solo
03:03para usar herramientas sino para decidir mejor. Creamos espacios de aprendizaje continuo donde directivos,
03:09áreas técnicas y negocio hablan un mismo idioma. Así garantizamos que la IA se incorpora con
03:15seguridad y propósito, haciendo la innovación viable y escalable. Porque el futuro de la IA no se
03:22programa, se gobierna y las organizaciones que entienden esto lideran. Para sintetizar lo tratado
03:28hoy me gustaría quedarme con cuatro ideas clave, muy conectadas con cómo entendemos desde CERTIS el
03:32despliegue de soluciones de inteligencia artificial confiable. Primera, la ISO 42001 convierte principios
03:39en práctica. Marcos como esta ISO permiten trasladar conceptos como ética, control o
03:43supervisión humana a la operación real. Ayudan a saber qué IA utilizamos, para qué, con qué riesgos y
03:48bajo qué controles. Es la vía más sólida para industrializar una IA responsable, escalable y
03:53alineada con el negocio. Segunda, la normativa europea nos marca el rumbo. La legislación europea
03:58se aplica de forma progresiva pero con un mensaje inmediato. La IA en Europa debe ser responsable
04:03desde el diseño. Esperar a que todo sea obligatorio incrementa el riesgo y reduce nuestra capacidad
04:08de adaptación. Tercera, ética por diseño. La IA no se mide sólo por su eficacia sino por su impacto
04:14ético. Debe ser justa, explicable y respetuosa con las personas. Y cuarta, regulación e innovación
04:19se refuerzan mutuamente. Bien entendida la regulación ordena la innovación y ayuda a escalar
04:23soluciones confiables, proteger a la ciudadanía y construir tecnologías sostenibles. El verdadero reto y
04:30la gran oportunidad es desplegar soluciones de IA de forma estructural, confiable y sostenible.
04:35Es en ese proceso en donde desde Certis aportamos un valor diferencial.
04:42La conversación en torno a la IA, su regulación e implementación ha alcanzado un punto de inflexión
04:47con el IA Act, transformando la inteligencia artificial de un tema de innovación en un requisito
04:52operativo. Este cambio favorece a las empresas que ya estaban trabajando en esta implementación.
04:56En Happy Robot lo vemos cada día. Nuestros sistemas operan, responden y son controlados
05:01en entornos reales. La regulación, lejos de ser una barrera, proporciona un marco claro
05:06de trabajo y eleva los estándares de toda la industria. Al mismo tiempo, la confianza
05:10se está convirtiendo en el verdadero factor diferenciador. A medida que las capacidades
05:13de la IA se generalizan, lo que distingue a las empresas es cómo de responsable, transparente
05:18y fiable son sus sistemas. Aquí es donde surge el concepto de IA Consello. Soluciones diseñadas
05:23no solo para cumplir, sino para integrar desde el inicio la gobernanza, la trazabilidad
05:28y la supervisión humana. Los AI workers de Happy Robot reflejan esta evolución, operando
05:33a través de distintos canales, ejecutando tareas dentro de sistemas corporativos y potenciando
05:37a los equipos humanos en lugar de sustituirlos. Solo estamos viendo la punta de iceberg. La verdadera
05:42oportunidad reside en replantear procesos, mejorar sistemas y construir una nueva generación
05:47de IA que combine rendimiento con ética, regulación y confianza corporativa a largo plazo.