Saltar al reproductorSaltar al contenido principal
  • hace 17 horas

Categoría

🗞
Noticias
Transcripción
00:00En este bloque vamos a hablar de un tema muy interesante que ya está normalizado en nuestras vidas, en las
00:04empresas, en nuestra propia cotidianeidad,
00:06que tiene que ver con la inteligencia artificial, pero desde un punto de vista que no solemos hablar tanto,
00:11pero es demasiado e incluso más importante que lo que hablamos normalmente en términos de tendencias,
00:17la capacidad de la inteligencia artificial, que tanto empezamos a delegarle responsabilidades a esta herramienta
00:23y tiene que ver con la gobernanza y dentro de las empresas, dónde o qué tanto estipulamos esa gobernanza
00:30y finalmente quién toma o no las decisiones si es que algo sale mal, quién se hace cargo.
00:35Esto formaba parte de un tema que compartía con nosotros una profesional en el área,
00:39esto también lo compartimos en la versión digital en formato de columna de opinión.
00:43Para todo aquel que quiera ingresar a leerlo un poco puede hacerlo también, ingresa a nuestro segmento de Aves de
00:48Negocios,
00:49la carrera por la inteligencia artificial y el riesgo no gobernado, que es un poco el tema que vamos a
00:54conversar el día de hoy.
00:56Le agradecemos por su valioso tiempo a nuestra invitada en piso, ella es fundadora de SAS Consultoría
01:01y es experta en gobernanza, riesgo y responsabilidad empresarial en inteligencia artificial.
01:06Con nosotros en piso, Silvana Bertolucci en esta tarde. Silvana, ¿cómo te va? Muy buenas tardes.
01:10¿Qué tal? ¿Cómo estás, David? Un gusto estar aquí y un saludo a toda tu audiencia.
01:14Un placer, muchísimas gracias.
01:15Qué interesante tema que planteaste, Silvana. Hablamos mucho de la herramienta como tal que hoy evidentemente
01:21que más que menos el 95% de las empresas a nivel global ya utilizará y de forma cotidiana en
01:28todos sus procesos
01:29y es espectacular porque aumenta el rendimiento, aumenta la eficiencia, también tenemos mayor flujo, mayor tracción,
01:34es decir, todo muy lindo hasta que algo sale mal y ahí es quien se hace cargo del problema.
01:39Exactamente. Se habla mucho de velocidad, de ventaja competitiva, de abartar costos, todo eso está muy bien.
01:49Pero cuando pasa algo, si falla algo, ¿quién se hace cargo?
01:56Entonces, no estamos hablando de una persona física que dé la cara con nombre y apellido.
02:03Claro.
02:03Porque la responsabilidad es una estructura, no es una declaración o no es un rostro.
02:08No, un comunicado y ya está.
02:09Claro, yo me hago responsable, yo asumo, pero aquí cuando hablamos de gobernanza estamos hablando de reglas claras,
02:19de responsables definidos y de mecanismos de control y de validación.
02:24Claro.
02:25Entonces, está muy bien esta carrera por la inteligencia artificial, las personas y las empresas se están apurando,
02:35no quieren quedarse atrás, perfecto, pero muchas veces la velocidad significa pérdida de control.
02:42Claro.
02:43Entonces, la innovación debería estar sostenida por protocolos, por reglas y por trazabilidad sobre todo.
02:53Por supuesto. Y también tengo entendido que, bueno, esto se ve mucho en el ejercicio del día a día
02:57donde una empresa pensó afán de estar a la vanguardia, de apurarse y no quedarse rezagada,
03:02a diferencia de otras empresas rápidamente, es una inversión del último momento, compra esa herramienta digital,
03:07ese software, esa aplicación de inteligencia artificial, pero evidentemente todo ese marco normativo,
03:12todo ese reglamento, esa estructura que sostenga la aplicación y también en el caso de que algo salga mal,
03:18quien se hace cargo es lo que falta muchas veces ya, llegar a parachar sobre un mal flujo después.
03:22Claro, y mucha gente no quiere quedarse atrás, como vos decís.
03:27Y en su carrera, por eso el artículo es justamente la carrera por adoptar inteligencia artificial.
03:35El uso de la herramienta no se discute.
03:37Sí.
03:38Es súper útil, potencia, todo lo que quieras, pero también amplifica.
03:42Por supuesto.
03:42Y en el caso de las automatizaciones, por ejemplo, estamos hablando de algoritmos que deciden sin intervención humana.
03:55Entonces, ahí es donde yo hablo de una responsabilidad que se debe direccionar.
04:04Direccionar.
04:05Exacto.
04:06Porque antes la responsabilidad estaba en el gerente o estaba en el, no sé, en el jefe.
04:12Ahora no, ahora está en un algoritmo.
04:14Sí.
04:15Pero ¿y quién controla al algoritmo?
04:17¿Quién valida?
04:18¿Quién le está haciendo un seguimiento?
04:20¿De dónde salió esto?
04:23Porque sabemos que el humano es el que carga la información.
04:27Sí.
04:28Y si hay sesgos, esos sesgos se van amplificando.
04:32Claro.
04:32Y tardamos mucho en darnos cuenta.
04:34Cuando el sesgo se fue produciendo ya, se amplió muchísimo.
04:38Claro, o sea, cuando ya nos dimos cuenta, ya es tardísimo.
04:40Es tarde, es tarde.
04:41Entonces, lo que yo digo es que hay que anticiparse.
04:46Hay que anticiparse y hay que prevenir.
04:49Y es fácil.
04:51Muchas veces los empresarios y los usuarios de inteligencia artificial, por desconocimiento mismo,
04:57están tan felices con el resultado que le arroja a la IA.
05:04Que se quedan ahí.
05:07Entonces, vamos a utilizar el criterio.
05:10Porque cuando el algoritmo falla, no va a venir la máquina o el sistema a decir, fue mi culpa, yo
05:15fallé.
05:15Exacto.
05:16Es el humano.
05:18Es el humano.
05:19Es el humano que falló, que no siguió, que no respaldó el sistema en reglas claras.
05:26Por supuesto.
05:27Y cómo se logra resarcir todos los años también en ese proceso.
05:30Ahora, lo preocupante es, o sea, no es preocupante cuando lo usamos a la IA en procesos simples como mailing,
05:36por ejemplo, enviar mensajes de difusión, o call center.
05:39De todo esto, cuando usamos bots, por ejemplo, para direccionar consultas, hasta ahí todo es espectacular.
05:44No hay ningún, digamos, riesgo superior de que pasa algo grave.
05:47Pero qué pasa en la industria de la medicina, por ejemplo, en la industria alimenticia, o como compartías también dentro
05:53del artículo,
05:54en la industria del mundo de las aseguradoras, una póliza, cómo se gestiona.
05:57O sea, ahí ya entramos en mercados delicados donde claramente si algo sale mal, de nada sirve asumir que fue
06:03la IA o que fue buena parte del proceso.
06:05O sea, hay que tener un tipo de protocolo mucho más sólido y efectivo para esta clase de situaciones.
06:09Y, pero no solamente ahí.
06:11Porque cuando yo hablo de organizaciones me estoy refiriendo a empresas del sector privado, del sector público y universidades.
06:18Ok.
06:19Que prestan servicios y son corporaciones también.
06:22Claro.
06:23Y qué pasa con las universidades, qué pasa con los software antiplagio, por ejemplo,
06:27que tienen más de un 40% de falsos positivos o negativos.
06:31Y aquí en Paraguay, y yo conozco porque fui asesora de los estudiantes de posgrado que tuvieron este problema,
06:43la universidad había adquirido recién el Turnitin, le arrojó más del 70% de, como es, dijo que había plagio.
06:55Ok.
06:55Por más, había más del 70% de palabras que supuestamente estaban plagiadas.
07:02Ok.
07:03Entonces vienen ellos y me dicen, mira, pasó esto.
07:06Y le digo, no puede ser, verificamos todo, yo les asesoraba.
07:11Y vayan y hablen.
07:13La universidad ya le había devuelto la tesis.
07:18Sí.
07:19Tienen un plazo, tenían un plazo para defensa.
07:23Tenían que esperar al año que viene, pagar millones otra vez por la mesa.
07:28Y se van ellos y hablan y qué pasa, que no habían puesto los filtros.
07:35Entonces, hasta la palabra universidad se repetía y te daba como plagio.
07:41Ah, ok, mira.
07:42Y entonces, ¿quién es el responsable a él?
07:45Le vamos a culpar a Turnitin, pero ¿quién no activó los filtros?
07:49Y ¿quién tenía que hacer el seguimiento?
07:52¿Y qué pasa con el estudiante?
07:54Claro.
07:55Su carrera...
07:56¿Y cuánto tiempo perdieron? ¿Un año?
07:58Iban a perder un año.
07:59Iban a perder un año.
08:00Y entonces yo le dije, no, vamos a hablar y vamos a llegar a un acuerdo, vamos a demandar lo
08:07que sea.
08:08Pero se arregló bien, se arregló bien.
08:11Pero ese es un ejemplo nomás y cuento porque eso pasó acá.
08:15O sea, hay varios casos mediáticos y muchos otros que no son mediáticos y que la gente no sabe.
08:23Claro.
08:24Entonces la gente se lanza, yo adopto inteligencia artificial, estoy usando para mis trabajos, para mis investigaciones.
08:32Las universidades no tienen protocolos, no tienen comités de ética, no tienen un observatorio de inteligencia artificial.
08:42De hecho, no tienen un reglamento.
08:44Claro, el maestro apenas sabe cómo lidiar con todo eso.
08:46Lo sé porque yo doy charlas en universidades y yo hablo, antes de cada charla yo hago una encuesta y
08:54adapto las charlas a las respuestas de la encuesta.
08:58Entonces ocurrió también un hecho simpático, digamos, que yo di charlas.
09:05Los alumnos no tenían idea si podían usar o no inteligencia artificial como apoyo en sus investigaciones.
09:12Los docentes no sabían cómo detectar el uso de inteligencia artificial y decían, bueno, tenemos tú, ni yo le digo,
09:18no, pero no es seguro.
09:20Y a ojo, ¿y cómo a ojo?
09:22Y si escribe muy bien, ya es sospechoso.
09:29Pero no vamos a generalizar, hay personas que sí escriben bien y hay personas que sí hablan bien.
09:33Entonces, lo que hace falta es un protocolo, una entrevista de autoría.
09:41Si yo tengo sospecha de que vos, al tesista, me estás entregando un borrador de tesis que huele a inteligencia
09:49artificial, pido trazabilidad.
09:51A ver, mostrame las versiones de tu tesis.
09:54En la entrevista de autoría yo le pregunto, ¿de dónde sacaste esta respuesta?
09:59¿Por qué elegiste a esta autor y no al otro?
10:01O sea, hay formas de verificar.
10:04Pero, ¿qué pasa?
10:05El tesista no sabe si es que puede usar o no.
10:08Y usa, pero esconde.
10:10Claro.
10:11Entonces, las universidades ya están creando esos protocolos y se puede utilizar inteligencia artificial, pero solamente que hay que declarar.
10:20Por supuesto.
10:20Hay que declarar como cualquier otra bibliografía.
10:22Claro.
10:23Utilicé inteligencia artificial para tal cosa.
10:25Y acá es fácil.
10:28Lo que tiene que hacer la universidad es decir que esta universidad acepta que los alumnos utilicen la inteligencia artificial
10:37como herramienta de apoyo.
10:38Claro.
10:38Siempre y cuando la declaren y poner límites para qué se puede usar, para qué no se puede usar.
10:45Entonces, lo mismo pasa en cualquier empresa.
10:49Sí.
10:50Los empleados pueden utilizar hasta aquí, pero hacer un seguimiento.
10:56Los datos de clientes son datos sensibles.
10:58Claro.
10:59No solamente hablo de estudiantes, sino clientes de empresas.
11:02Entonces, ¿cómo manejan esos datos?
11:05Es importante eso, poner filtros y poner límites también de hasta dónde le permitimos a la gente manejar información sensible.
11:11Eso es la gobernanza.
11:12Definitivamente.
11:13Es muy, muy interesante esto, si lo van a ponerlo sobre la mesa, lastimosamente yo me quedo sin tiempo y
11:17muchas preguntas tengo que dejarlas en el tintero.
11:19Pero es importante que se hable más de esto, normalizarlo como lo habíamos mencionado también en su momento, que la
11:24gente tome más, digamos, conciencia, se empodere también con esta información, por supuesto, y empiece a mirar con ojo más
11:30crítico también la utilización de herramientas tecnológicas como esta.
11:33Agradecerte por tu tiempo, desearte muchísimos éxitos y como yo siempre lo digo, esperando que no sea la última entrevista.
11:38Dale. Muchísimas gracias por la invitación.
11:40Excelente.
11:41Espero verte pronto.
11:42Muchísimas gracias. Perfecto.
Comentarios

Recomendada