00:00Era una escuela en Córdoba y decíamos con las chicas antes de empezar el programa,
00:03la semana pasada otro caso y se van sumando.
00:06Cambia el escenario porque la semana pasada
00:08hablábamos de un chico en San Martín,
00:09menor de 15 años, inimputable,
00:11o sea, puede hacer lo que se le antoje,
00:13que no iba a pasar a terceros,
00:15o no iba a ir preso o no iba a tener ninguna causa.
00:17Pero ahora cambia la historia, Pamela,
00:18porque lo que está pasando es gravísimo.
00:21Acá no hablamos de una foto simulada.
00:23O sea, para que se den una idea,
00:25¿qué es la inteligencia artificial?
00:27Pongo la cara de una persona, utilizo la inteligencia artificial
00:32y puedo hacer que esa persona aparezca en la misma foto,
00:34pero desnuda.
00:36No fue lo que pasó en Córdoba.
00:37Una especie de trucar una foto pornográfica
00:39con la foto de una persona.
00:41Acá el caso de Córdoba es muchísimo más grave
00:44porque lo hizo, pero con videos pornográficos.
00:47O sea, le colocó la cara de alumnas de 14, 15 y 16 años
00:53a videos pornográficos con los nombres reales de las nenas.
00:58¿Qué pasó? Pasaron dos cosas.
01:00Las chicas están muy mal psicológicamente.
01:02Hay una causa en curso con, al menos por ahora, dos denuncias.
01:06El abogado es un abogado muy conocido en Córdoba,
01:07se llama José D'Antona.
01:09Yo hablé ayer con José y me dice que la cosa viene muy grave.
01:12El abogado de las víctimas.
01:13El abogado de las dos víctimas.
01:14Pero hablan de otros 20 casos
01:17que serían o se animarían a denunciar en las próximas horas.
01:21¿Quién es el denunciado?
01:23Un chico de 18 años.
01:24Es el colegio preuniversitario Manuel Belgrano en Córdoba.
01:27¿Qué hizo este chico?
01:29Desde la comodidad de su casa,
01:31utilizó con inteligencia artificial
01:34la cara de no ni siquiera compañeras,
01:37de alumnas de la escuela donde él va
01:40y las puso sobre videos de pornografía.
01:43Esos videos comenzaron a correr en redes sociales
01:46y en distintas páginas conocidas
01:48que tienen que ver con todo ese material pornográfico.
01:51Les puso el nombre real.
01:53¿Y las chicas cómo se dan cuenta de que estaban sus caras ahí?
01:56No sé.
01:57Empezaron a lloverle solicitudes de amistad en Instagram.
01:59Dios.
02:01Porque, claro, estaba el nombre, decía Carlos Salerno el video.
02:03Entonces, empezaron a buscar la foto
02:06y empezaron a lloverle solicitudes de personas de 35 años para arriba.
02:10Las chicas tenían 14 años, 15 años.
02:13Empezaron a hablar con sus papás.
02:15¿Cuándo se enteraron? ¿Cuándo se vieron?
02:18En realidad, lo que primero sospechan
02:20es por qué tantas solicitudes en Instagram.
02:23A partir de ahí, una alumna involucrada,
02:27que estalla en llanto y en crisis,
02:29le dice a la mamá y al papá,
02:31me vi en un video pornográfico.
02:34Está mi cara y está mi nombre.
02:37Claro, imaginate que el papá le dijo,
02:38¿cómo en un video pornográfico? ¿Vos te grabaste?
02:40Yo no me grabé.
02:42Ni siquiera tuve relaciones todavía.
02:44Imaginate el impacto para esa criatura,
02:46porque es una nena de 15 años.
02:48Entonces, a partir de ahí,
02:49toman contacto con José D'Antona, que es el abogado.
02:52José empieza a trabajar sobre la tipificación.
02:56¿Qué es una tipificación?
02:58Un acto, por ejemplo, violento.
02:59Yo te empujo acá en vivo y te golpeo.
03:02Es una causa por lesiones, lesiones graves.
03:04Si te lastimaste, feo.
03:06Acá, como es algo que tiene que ver
03:08con la inteligencia artificial, Pamela.
03:10Es lo que decíamos, cada vez hay más casos.
03:12No hay tipificación.
03:13Claro, no está legislado, cada uno hace lo que quiere.
03:15Exactamente.
03:16Pero esta persona es mayor de edad.
03:18Es mayor de edad.
03:19Y el abogado de las víctimas encuadró con el fiscal.
03:24Le dijo al doctor que las chicas tienen lesiones graves,
03:27psicológicas.
03:28Sí, claro.
03:29Gravísimas.
03:31Además, se da en un contexto de violencia de género.
03:33¿Cómo está tipificado eso?
03:34De tres a diez años de cárcel.
03:36Y el fiscal le dijo al abogado,
03:38¿sabe qué? Está bien encuadrado.
03:41Como esto no está tipificado en ningún lado
03:43y empezó a pasar hace muy poquito,
03:45lo vamos a encuadrar acá.
03:46Así que a este chico ahora le allanaron la casa.
03:49Sus papás estaban, imagínate, compungidos
03:52porque no sabían del accionar de un chico de 18 años
03:54que está por regresarse e ir a la universidad.
03:57Le secuestraron hasta la PlayStation.
03:58Se le llevaron teléfonos, computadoras, PlayStation.
04:01Le sacaron todo.
04:03Ahora van a apelitar y han encontrado pruebas.
04:05Está todo en la justicia.
04:06Bueno, justamente vamos a hablar con Hugo Sorbo.
04:09Él es abogado especialista en Derecho Informático.
04:12Y preguntarle a Hugo qué se hace con todo este material secuestrado.
04:16Hola, Hugo. Muy buenos días y muchas gracias.
04:19¿Qué tal? Buen día. ¿Cómo están?
04:22Estaba escuchando el resumen de Carlos Salerno.
04:25La verdad que es impecable esto, lo que dijo.
04:31Fíjate que el fiscal lo está imputando por lesiones graves,
04:36por violencia de género,
04:37y no por distribución de material de abuso sexual infantil.
04:41Correcto, Hugo.
04:42Sí, es correcto.
04:43Aunque entraría también, sería la sumatoria de todo también.
04:47Y no, porque si vos por ese lado, desde mi punto de vista,
04:50ahí está creado con inteligencia artificial.
04:52Pero si bien las nenas son menores de edad
04:56y si fuesen fotos reales, sí, te diría,
04:59entrarían dentro de la distribución de abuso sexual infantil,
05:03distribución de material de abuso sexual infantil,
05:06como está creado con inteligencia artificial,
05:07no hay legislación que esto lo contemple,
05:10diría que es discutible.
05:13Claro, podría la defensa...
05:15No entraría.
05:17¿Podría la defensa de esta persona decir no si no son ellas?
05:20Son fotos...
05:22Sí, si yo lo miro como abogado defensor,
05:24te digo que iría totalmente a que no es delito
05:28porque está creado con inteligencia artificial.
05:31Pero acá el fiscal estuvo muy bien con la querella
05:35porque lo imputa por lesiones graves
05:37y por violencia de género, con penas también muy elevadas.
05:44¿Puede llegar a prosperar, Hugo?
05:47¿Puede llegar a prosperar?
05:48Yo me imagino la cantidad de fake news y barbaridades
05:51que pueden afectar la vida cotidiana de las personas
05:54y quedan en la nada misma.
05:56Por supuesto que esto es una gravedad extrema.
05:58Te digo, Pamela, que sí puede prosperar,
06:00pero por la calificación del delito.
06:03El fiscal estuvo muy bien en calificarlo de este modo.
06:05¿Violencia de género?
06:06Sí, puede prosperar.
06:07Violencia de género y por lesiones graves.
06:09Claro que habrá que probar, obviamente,
06:11el daño psicológico que esto le ocasiona a las víctimas.
06:16Y vos me preguntás qué se puede encontrar en los dispositivos.
06:19En los dispositivos se puede encontrar todo.
06:21Todo lo que creó inclusive la inteligencia artificial.
06:24La ruta, la ruta del delito,
06:27la prueba de que él fue el que armó el video y lo distribuyó.
06:30¿Eso se puede encontrar en sus aparatos?
06:33Y con eso...
06:34Sí, se puede encontrar.
06:35Vos fijate que acá hay dos cuestiones importantes.
06:38Una que es el allanamiento y el secuestro del equipamiento.
06:42Dos, la confirmación de la dirección de IP
06:45del domicilio de esta persona.
06:48Entonces, ¿por qué lo allanan?
06:49Porque con la dirección de IP,
06:51como te dije en alguna oportunidad,
06:53es un número de documento.
06:55Es un número identificatorio de los dispositivos
06:58y es uno irreproducible, es uno solo.
07:02Entonces, ¿qué pasa?
07:03Allanan el lugar de acuerdo a la dirección de IP.
07:05Le secuestran el teléfono, la computadora o hasta la Play.
07:09Y probablemente,
07:10yo no sé qué es lo que encontraron en los dispositivos,
07:14pero probablemente encuentren el material en el dispositivo.
07:17Y si, además, se encuentra la distribución de este material,
07:20está prácticamente condenado.
07:23Pero de vuelta, por ley.
07:25Y sentar un precedente, ¿no?
07:26Y le van a probar con las primeras.
07:28Pero sentar un precedente,
07:29¿es tan importante sentar un precedente
07:31para que no se siga haciendo así, Julia?
07:33No, eso que decís, Pam, es superinteresante e importante.
07:35Que sienta, de alguna manera, esta carátula,
07:37alguna jurisprudencia para lo que podemos esperar,
07:40para lo que viene.
07:42Una lluvia de causas, porque esto está pasando en todos lados.
07:44Se han hecho mediáticas algunas causas, otras no.
07:46Y segundo, el hecho de que las lesiones sean psicológicas.
07:51¿Va a la pena máxima? ¿Cómo se evalúa?
07:53¿El conjunto de lesiones lo hace más grave
07:55o que ya sea un daño psicológico suficiente?
07:59Bueno, claramente lo va a analizar el juez
08:03qué pena le van a poner en caso que prueben el daño psicológico.
08:07Vos tenés ahí, por el delito este,
08:09estás hablando de una pena de entre tres y diez años.
08:12Tiene que ver si tiene antecedentes o si no tiene antecedentes.
08:15Tiene que ver un montón de factores.
08:18Trabaja la defensa.
08:19Pero faltarían lesiones, ¿no?
08:22No está tipificado esto.
08:24La verdad, lo que está pasando en el país con la tecnología,
08:26lo que decía Juli,
08:28es que la tecnología va diez pasos adelante del código penal.
08:30Porque hoy yo puedo montar la cara de cualquier persona,
08:32poner pornografía y si no tengo un abogado que sea piola,
08:35la verdad es que no pasa nada.
08:36Lo que yo digo es a los padres, a las madres,
08:39que con un teléfono celular,
08:41hoy los chicos de 11 para arriba tienen teléfono.
08:43Y la inteligencia artificial es una aplicación en el celular.
08:46Yo lo que les quiero decir es que hay que monitorear
08:50el teléfono de nuestros hijos e hijas.
08:52Porque no solamente por lo que reciben,
08:54sino por lo que se puede llegar a hacer.
08:56¿Ahora está de moda entre los chicos bajarse una aplicación?
08:59Pero por eso digo, la justicia tiene que legislar
09:02para que esto no se debe hacer.
09:04¿Por qué? Porque vas preso.
09:05¿Por qué un delito? Punto.
09:07¿Sabés qué está dando vuelta ahora y circulando?
09:09Tiene que legislar. El Congreso tiene que legislar.
09:11No está legislado todavía
09:12lo que son los delitos cometidos por inteligencia artificial.
09:14¿Cuánto van a esperar para hacerlo?
09:16Pero si no modifican el código penal con la baja de...
09:19Hay muchos proyectos de ley, ¿eh?
09:21Hay muchos proyectos de ley.
09:23Tenés el proyecto de baja de la edad en imputabilidad también.
09:27Pero duerme todo eso, ¿eh?
09:29Sí.
09:30La verdad que en el Congreso las causas duermen.
09:34Y digo las causas porque les llegan las causas
09:36a lo que está pasando para modificar las leyes y duermen.
09:38Lo que quiero decir que se ha puesto de moda en las escuelas,
09:41bajándole un tono a esto que es tan grave,
09:43es una aplicación que simula dar besos.
09:47¿Qué es esto? Es una aplicación
09:49que vos ponés la cara de alguien, la cara de A y la cara de B,
09:52y te simula un beso, te simula un beso apasionado.
09:57Y está pasando esto en las escuelas
09:59generando grooming y generando bullying.
10:01Quiero decir, lo que está pasando con la inteligencia artificial
10:04es gravísimo.
10:05Pero, Charly, Pame, lo estamos viendo.
10:08Hugo, también lo usan de manera humorística
10:11o como un chiste en las redes.
10:13Hemos visto en los últimos días a Messi, a Cristiano,
10:16tocando la guitarra,
10:18haciendo acciones que son tan reales los videos
10:20que realmente es muy difícil.
10:22Uno entiende que esos justos son truchos,
10:24pero, como decía Pame...
10:25¿Sabés qué pasa? Son reales.
10:28Son reales porque están creados con inteligencia artificial.
10:32Entonces, en el caso de estas chicas,
10:33el otro día, la semana pasada, hubo un caso similar
10:36en un colegio de la provincia de Buenos Aires, de San Martín,
10:39donde el chico tenía 15 años, hizo lo mismo.
10:42Ponía imágenes con la cara real de sus compañeras de colegio
10:46con cuerpos simulando ser material de abuso.
10:51Eso suena infantil.
10:52Y acá me preguntaban también,
10:53me decían, ¿pero es delito?
10:55No, desde mi punto de vista, no, por lo que comentamos.
10:57Pero fíjate que, en ese caso,
10:58el juez no fue por daño psicológico.
11:02O el fiscal no fue con la acusación de daño psicológico.
11:04Vamos a seguir atentos a lo que determine la justicia
11:07y que sea de manera...
11:08Seguimos de cerca.
11:09Y cuanto antes, para que esto sienta un precedente.
11:11Muchas gracias, Hugo, por su tiempo.
11:13Muchas gracias.
Comentarios