- hace 2 semanas
Qué tan segura es la inteligencia artificial cuando compartimos información con ella? En este nuevo episodio de ClickUp, conversamos con Martina López, especialista en seguridad informática de ESET Latinoamérica, para resolver todas las dudas sobre privacidad y ciberseguridad en el uso de ChatGPT y otras IA.
🔎 Algunos de los temas que abordaremos:
⚠️ Principales riesgos al compartir información con IA.
🚫 ¿Qué tipo de datos nunca deberías revelar?
🔐 ¿Cómo manejan la privacidad y la protección de datos estos modelos?
🎭 ¿Pueden los ciberdelincuentes aprovechar la IA para phishing o fraudes?
Suscríbete a nuestro canal: https://bit.ly/3o7WAMe
Encuentra noticias de Colombia y el mundo aquí: https://www.pulzo.com/
Nuestras redes sociales:
INSTAGRAM: https://www.instagram.com/pulzo_col/
TWITTER: https://twitter.com/pulzo
FACEBOOK: https://es-la.facebook.com/PULZO.COLOMBIA/
TIKTOK: https://www.tiktok.com/@pulzocolombia
Somos un medio digital que ofrece contenido sobre diversos temas.
Este video pertenece a PULZO y todos los derechos son reservados ©
🔎 Algunos de los temas que abordaremos:
⚠️ Principales riesgos al compartir información con IA.
🚫 ¿Qué tipo de datos nunca deberías revelar?
🔐 ¿Cómo manejan la privacidad y la protección de datos estos modelos?
🎭 ¿Pueden los ciberdelincuentes aprovechar la IA para phishing o fraudes?
Suscríbete a nuestro canal: https://bit.ly/3o7WAMe
Encuentra noticias de Colombia y el mundo aquí: https://www.pulzo.com/
Nuestras redes sociales:
INSTAGRAM: https://www.instagram.com/pulzo_col/
TWITTER: https://twitter.com/pulzo
FACEBOOK: https://es-la.facebook.com/PULZO.COLOMBIA/
TIKTOK: https://www.tiktok.com/@pulzocolombia
Somos un medio digital que ofrece contenido sobre diversos temas.
Este video pertenece a PULZO y todos los derechos son reservados ©
Categoría
🗞
NoticiasTranscripción
00:00Hola, muy buenos días y bienvenidos nuevamente a un capítulo de ClickUp.
00:23Hoy vamos a hablar, como siempre es recurrente de tecnología, pero esta vez enfocada en un tema
00:29que se ha vuelto muy importante en el mundo, que tiene mucha coyuntura, pero que también genera muchas preguntas.
00:38Y es la inteligencia artificial. ¿Qué información podemos compartir? ¿Hasta qué punto debemos compartir información sensible?
00:47¿Qué información debemos compartir? Pues son estos los temas que vamos a hablar hoy junto a una especialista en seguridad informática.
00:55Se trata de Martina López. Ella es especialista en seguridad informática de ESET Latinoamérica.
01:02Y pues junto a ella vamos a hablar sobre esa temática. Martina, muy buenos días y bienvenida a este espacio.
01:09¿Qué tal? Muy buenos días y muchas gracias por la invitación.
01:12Martina, empecemos desde en esta charla que vamos a tener el día de hoy.
01:17Empecemos hablando de inteligencia artificial, digamos de los múltiples lenguajes y modelos que hay de inteligencia artificial.
01:26Específicamente uno que se ha vuelto muy importante y es ChatGPT.
01:30¿Hasta qué punto es responsable compartir información con este tipo de modelos de inteligencia artificial?
01:37¿Y qué tan seguro es y cuáles son esos riesgos a los que nos tenemos que enfrentar día a día cuando interactuamos con estos modelos o estos lenguajes?
01:46Particularmente en el caso de ChatGPT, pero también sucede con otros modelos, existe una diferencia entre la información que compartimos en los chats, en las conversaciones y la información almacenada a nivel de nosotros como usuarios.
02:04Cuando nos registramos con una cuenta, ya sea en una aplicación que utilice un modelo de inteligencia artificial, en una aplicación de redes sociales, en una aplicación de videojuegos, por ejemplo,
02:18se almacenan cierta información del usuario desde los datos de uso, en qué momento se usa, cuánto lo usamos, nuestras preferencias, cómo almacenamos esa información,
02:28pero también, por supuesto, el agregado a aplicaciones como ChatGPT, en las cuales nosotros otorgamos información a partir de las conversaciones.
02:37Y esto, según la compañía, se almacenan, por supuesto, a nivel usuario, nada más y nada menos que para utilizar en otras conversaciones con el mismo usuario.
02:47Es decir, nosotros, cuando hablamos con ChatGPT o introducimos información de esa manera, no vamos a lograr que esa información tenga más alcance, más que para que el modelo luego pueda personalizar más las respuestas.
03:03Por supuesto que en esta segunda parte también vemos el control del usuario, ¿no? Cuánto dejamos nosotros como usuarios ver ante este tipo de aplicaciones.
03:12Martina, ¿qué tipo de información debo o no debo compartir con esta clase de modelos de inteligencia artificial, ChatGPT, Gemini, etcétera, etcétera, que se han vuelto muy, muy importantes actualmente y que, pues, ya su uso es muy recurrente?
03:30Hay que tener en cuenta que, si bien, como mencionábamos, este tipo de información se utiliza para entrenar el modelo para que nos responda a nosotros como usuarios, no que otras personas van a tener acceso a esa información,
03:44sigue estando en un registro en algún servidor de las compañías que están detrás de las aplicaciones.
03:50Con lo cual, cualquier tipo de información que no querramos que se haga pública en un caso de un incidente, desde información muy sensible, direcciones, datos gubernamentales,
04:02o por supuesto que más información de inicio de contraseñas, de usuarios, de redes y demás,
04:10pero también cualquier tipo de información que cada uno como persona decida que no quiera que se haga pública,
04:16en el caso que todavía no tenemos registro de tales incidentes, pero puede suceder, en el caso de que haya una incidencia de filtración de inversión,
04:27recordemos que el concepto de privacidad, si bien hay algunos delimitadores, todos sabemos que, por ejemplo, las direcciones de nuestros hogares son privados
04:34y nuestros nombres gubernamentales son públicos, la diferencia entre lo público y lo privado es un límite casi personal.
04:42Entonces, a partir de establecer nuestro límite personal, decidir qué cosas sí y qué cosas no, compartir efectivamente con una aplicación como esta.
04:52Martín, usted es especialista en seguridad informática, todos los días convive con ciberataques o con intentos de ataques a víctimas.
05:01¿Cuáles son esas técnicas que se están utilizando actualmente y que están relacionadas ya directamente con inteligencia artificial
05:09y que le sirven a los ciberdelincuentes para atrapar los datos, para estafar a las víctimas e incluso para robar información sensible?
05:16Aquí tenemos dos grandes grupos de ciberataques o de incidentes.
05:23En el primer lugar, aquellos que, en donde los cibercriminales utilizan como herramienta a los modelos de inteligencia artificial,
05:30ya sea para generar códigos maliciosos que tengan como objetivo robar información o hacer daño a las víctimas
05:37sin la necesidad de saber programar o desarrollar estas amenazas y, por otro lado, aquellas que se dedican o que utilizan estos ciberataques que utilizan
05:47a la inteligencia artificial como un tópico caliente o como un tópico de mucho interés.
05:52Por ejemplo, con correos electrónicos de phishing diciendo que el acceso a chat GPT ha sido bloqueado
05:59y que el usuario o la víctima debe ingresar un enlace y compartir sus credenciales para poder reactivar una cuenta,
06:06sea creando un sitio falso, suplantando la identidad de alguna de estas aplicaciones o modelos,
06:12que también se ha registrado esta tendencia, digamos, en usar un tema caliente para poder atraer víctimas
06:18con otras temáticas incluso fuera de lo que es inteligencia artificial.
06:23Pero resulta bastante atractivo para los cibercriminales, ya que se trata de un tema que está en tendencia,
06:29un tema que resulta de interés para la población y además de los cuales quizás se conoce poco
06:34de sus pormenores o de su interiorización, algo similar, muy similar a lo que vimos hace algunos años
06:41con el tema cripto. Si bien, por supuesto, ya tenemos algunos años de la mayor marea o la mayor ola
06:49de lo que fueron las criptomonedas, en su momento era un tema muy atractivo para los ciberatacantes
06:54por esta cuestión de ser un tema de interés y también un tema un poco técnico en materia tecnológica.
07:01Martina, usted toca un punto muy importante y es todo el tema relacionado con el phishing,
07:06pero ¿qué sucede, por ejemplo, con el tema de la ingeniería social?
07:11Un ataque también que es muy recurrente y que es efectuado por los ciberatacantes.
07:15¿Hasta qué punto con la inteligencia artificial esto se convierte también en una gran problemática
07:21y además se potencializa esa problemática?
07:24Es un punto de bastante interés y también de bastante conflicto, ya que, como todos sabemos,
07:33este tipo de aplicaciones de inteligencia artificial son generadoras y la generación puede ir desde
07:40una idea fantástica para poder resolver un problema, pasando por crear un correo electrónico
07:45con ciertas temáticas o con cierto nivel de informalidad, pero también está el lado B,
07:49por supuesto, de los ciberatacantes. Y el poder convencer estos modelos de generar,
07:54por ejemplo, un correo, de generar un mensaje, de generar un guión incluso para hacerlo mediante
07:59una llamada telefónica para poder convencer a una persona a realizar un ataque de ingeniería
08:04social efectivamente y terminar desplegando un ciberataque así.
08:08Si bien, por supuesto, las compañías ya saben de esto, ya están enteradas y de hecho aplicaciones
08:14como Gemini o JetGPT, hoy por hoy no permiten consultas directas en donde los motivos sean
08:20maliciosos. Sí es cierto que los atacantes han encontrado formas y las encuentran constantemente
08:26de poder pasear o evitar los controles básicos para poder realizar estas solicitudes y que estas
08:34resulten también herramientas para los fines maliciosos.
08:38Martina, una de las grandes preguntas que se hace mucha gente es dónde queda almacenada
08:45toda esta información y qué se hace cuando interactuamos con este tipo de modelos y lenguajes
08:52de inteligencia artificial, dónde queda almacenada, qué pasa con esa información, hasta qué punto
08:57esa información puede ser vulnerada o no, es segura, están servidores seguros, qué es lo que sucede
09:03en este aspecto particular.
09:08Hablando puntualmente de aplicaciones como ChatGPT o como Gemini también, ambas cuentan
09:13con una política de privacidad bastante clara en cuanto al uso de la información, en donde
09:18ambas mencionan que la información que compartimos, así como también los datos de nosotros como
09:23usuarios, quedan almacenadas en servidores en la nube propios de las compañías que están
09:29detrás, tanto de OpenAI como de Google en el caso de Gemini, protegidos con algoritmos
09:35descifrados genuinamente robustos, con un nivel de seguridad, digamos, garantizada y protegida,
09:41también un poco respaldada por la reputación de ambas organizaciones.
09:46Incluso con este tipo de protecciones, ya sabemos que todas las aseguraciones del lado de las
09:53compañías que se puedan tomar están tomadas, pero hay una suerte de mantra, una suerte de norma
09:59dentro del mundo de la ciberseguridad que reza que todo puede ser vulnerado, por más cuidados,
10:05quizás no es vulnerada la compañía, pero quizás somos vulnerados nosotros como usuarios y nuestros
10:11datos quedan descubiertos. Entonces, a partir de allí es, si bien los datos están asegurados,
10:16las compañías toman las medidas que tienen que tomar y se declaran de manera explícita los
10:21términos y condiciones que como usuarios, lamentablemente, tenemos que acostumbrar a leerlos,
10:26hay que tener en cuenta que aún así la información sigue estando en la web y que quizás podría, por
10:34motivos que pueden depender desde nosotros como usuarios hasta de la compañía, ser vulnerada en algún
10:39momento y de ahí el resguardo de cuidar qué información compartimos. Pero eso quiere decir
10:44que igual siempre va a existir un riesgo, aunque digamos esas compañías tienen un esquema de
10:51seguridad y de encriptación que asegura esta información, igual no está exenta de que haya
10:59una vulnerabilidad y una vulneración de información y data. Dentro de la seguridad de la información,
11:07más allá de estos casos puntuales y particulares, el riesgo existe, siempre se trata por supuesto de
11:12minimizar lo mayor posible, pero como mencionábamos, puede ser que la compañía tome las mejores
11:19aseguraciones, tenga los mejores algoritmos criptográficos y protege a sus servidores, pero quizás nosotros
11:25como usuarios caemos en una estafa o un ataque de phishing, entregamos sin querer nuestras credenciales y esa
11:31información queda descubierta. Entonces no es solamente el confiar, por supuesto, y en leer, como decíamos, los términos y
11:38condiciones, en saber que esa información está asegurada, sino también nosotros tomar cartas en el asunto y
11:43efectivamente sí, el tener en consideración que hay una posibilidad muy baja, por supuesto, por todo lo que
11:50mencionamos, de que pueda llegar a ocurrir un incidente y de allí tomar cartas en lo que efectivamente
11:56compartimos o dejamos de compartir. Martín, usted dice que hay que tomar cartas en el asunto y que igual
12:02también la seguridad depende de nosotros, entonces en este caso particular ya sabemos que tenemos seguridad
12:07por parte de una compañía y que es la que maneja y trabaja todo este tipo de lenguajes, pero también
12:13qué es lo que debería hacer el usuario para protegerse y para, digamos, marcar o establecer un, digamos, un esquema de
12:22seguridad mayor y eficaz y complementario a lo que ofrecen este tipo de compañías que manejan la inteligencia artificial.
12:31En primer lugar, tener cuidado con las comunicaciones, como ya mencionamos, suele ser de el interés
12:37cibercriminal en utilizar estos temas para enviar correos electrónicos maliciosos, mensajes en redes sociales
12:43también de calibre malicioso, para que caigamos en un ataque y entreguemos nuestras credenciales. En segundo lugar, y casi en la misma
12:49línea, el colocar contraseñas seguras, cuando hablamos de una contraseña segura, no hablamos quizás de una
12:55excesivamente larga, pero que no se repita en otras, en otros pares de credenciales, que tenga una combinación
13:03de números, caracteres especiales, mayúsculas, minúsculas, que tengamos un gestor de contraseñas para poder
13:10almacenarlas y no tener que andar repitiéndolas ni recordándolas. Y también estar atentos y atentas, por supuesto,
13:16cualquier tipo de alerta de inicio de sesión, cualquier movimiento sospechoso que tengamos dentro de nuestras
13:22cuentas, más allá de estos casos de modelos de inteligencia artificial.
13:26Martina, hablando también a profundidad del tema de inteligencia artificial, me gustaría que habláramos
13:34también de algo que sucede muy a menudo y es todo siempre es gratis. Sabemos que dentro de la seguridad
13:41informática nada es realmente gratis, pero, y digamos en el mundo de la data, encontramos muchas
13:50aplicaciones de inteligencia artificial y siempre queremos estar probando ese tipo de aplicaciones,
13:54pero generalmente digamos que el gancho es que son gratuitas. ¿Hasta qué punto eso, el acceder a
14:02aplicaciones gratuitas y más de este, digamos, de este tipo es responsable o no en cuanto a seguridad y
14:10qué nivel de riesgo tiene, digamos, un usuario potencial que está utilizando ese tipo de aplicaciones?
14:19Aquí debemos diferenciar en distintas categorías cuando hablamos de este tipo de aplicaciones. En primer lugar,
14:27existen aplicaciones que son gratuitas, pero existe la posibilidad de ser un usuario de pago con ciertas
14:32mejoras a nivel del uso de aplicativo y ciertas restricciones en el caso de los usuarios gratuitos, como es el caso
14:38de ChatGPT, a partir de allí es donde también mantienen a una muy buena, una muy grande en realidad base de usuarios
14:45gratuitos a partir de sus usuarios pagos. En segundo lugar, aquellas aplicaciones que pueden darse el lujo, por decirlo de alguna
14:52manera de ser gratuitas, porque tienen una compañía detrás que tiene otras aplicaciones y resultan ingresos a partir de otras fuentes, como es el caso de Gemini.
15:04Y en tercer lugar, existen las aplicaciones que son un poco menos conocidas, un poco menos populares, que utilizan la información de alguna manera para poder sacarle
15:15rédito a esta aplicación gratuita y de allí la importancia de poder establecer qué es lo que se hace con nuestra información.
15:22Por supuesto que la mayoría de aplicaciones tiene, como decíamos, explicitado qué tipo de información se comercializa, para anuncios, con qué fines también,
15:33si es solo la información del usuario, si es la información de los chats, quizás tengamos que tener un poco más de cuidado con las aplicaciones que utilizamos.
15:42Pero esto ya se va incluso de lo que es aplicaciones que utilizan inteligencia artificial.
15:48Esto sucede con todas las aplicaciones, digamos el caso de las redes sociales.
15:53La mayoría son gratuitas porque tenemos publicidades, porque nuestra información es comercializada para poder lanzar publicidades en otros sitios.
16:01Entonces, la advertencia, quizás el cuidado que tenemos que tomar como usuarios, también va en el uso de internet en general, más allá de estos casos.
16:09Pero entonces, para redondear la idea, si tú pagas con una aplicación, siendo así sea la misma aplicación de inteligencia artificial,
16:20si tendrías un esquema de seguridad un poco mayor o tenemos igual el mismo esquema de seguridad independientemente de que sea gratuita
16:26y sea ese gancho para que tú puedas acceder a una versión premium.
16:31General, cuando hablamos de los usuarios de pago, suelen incluir funcionalidades extra a nivel del uso de la aplicación,
16:42no de la seguridad por lo general.
16:45Es el acceso a un modelo más avanzado, la posibilidad de generar más contenido,
16:50por ejemplo, en el caso de ChatGPT, el no limitar la generación de imágenes, de audio,
16:55pero no suele estar relacionado con la seguridad o cómo se protege la información.
16:59Martina, desde ese mundo en el que vivimos y en el que todo el tiempo estás investigando,
17:07¿cómo podríamos o hasta qué punto podríamos decir que la inteligencia artificial también puede ser un arma de doble filo
17:15y también puede ser utilizada o es utilizada actualmente por ciberdelincuentes para otra clase de usos más delictivos?
17:24Lo es y un poco también por su naturaleza, ¿no?
17:30La idea de poder generar información, la idea de poder crear a partir de datos que este tipo de modelos ya conocen,
17:38a partir de los cuales son entrenados, es efectivamente un arma de doble filo,
17:43ya que por supuesto, como decíamos, se puede generar un programa para poder realizar archivos,
17:49no sé, por alguna necesidad corporativa que puede tener un usuario,
17:53pero también se puede generar un programa sin tener conocimientos de programación ni de amenaza particular
17:58para poder, por ejemplo, borrar esos mismos archivos y hacerlo para que sea lo más silencioso posible en un dispositivo.
18:05Entonces, si bien, por supuesto, las aplicaciones toman ciertos resguardos, ciertos recaudos,
18:12suelen tener también lo que son términos a nivel de comportamiento y a nivel de reglamento dentro de las aplicaciones,
18:20¿qué cosas se pueden hacer y qué cosas no?
18:23De hecho, en lo que son las aplicaciones más populares, como ChatGPT y Gemini,
18:29tienen sus disclaimers en cuanto a lo que son las políticas de qué es lo que pueden generar y qué es lo que no.
18:34Pero, lamentablemente, es importante entender que este tipo de funcionalidades existen,
18:40que los atacantes, al tener en cuenta que la industria cibercriminal genera millones y millones al año,
18:46van a estar interesados en utilizar este tipo de herramientas también a su favor.
18:51Martina, encontramos, digamos, una diversidad de modelos de inteligencia artificial.
18:57Gemini, tenemos OpenAI, tenemos DeepSeq.
19:02¿Cuáles son los que usted más recomienda, pero recomienda no solamente por su funcionalidad,
19:08sino también partiendo del esquema de seguridad?
19:12Más allá de los nombres, la importancia es verificar efectivamente qué es lo que sucede detrás de esa aplicación.
19:20Bueno, los casos de ChatGPT y Gemini generalmente son los más renombrados por tener compañías con reputación sólida por detrás
19:28y el que expliciten dentro de sus sitios web, dentro de lo que son sus documentaciones,
19:35qué tipo de algoritmos utilizan para respaldar, para resguardar, cómo se hacen,
19:40en cuánto se borra la información, cómo es su política de borrado de información,
19:44qué pasa cuando se elimina una cuenta y demás.
19:47Y, por supuesto, DeepSeq, con la reciente salida de la misma y su popularización,
19:53el hecho de ser una aplicación de código abierto,
19:56lo que implica que cualquier persona puede efectivamente leer cómo está hecho
19:59y el almacenamiento de datos a nivel local y no dentro de un servidor en la nube.
20:05Entonces, a partir de conocer la aplicación y también, por supuesto, qué queremos o qué necesitamos
20:12o qué deseamos nosotros como usuarios, es que vamos a poder elegir mejor un modelo o no.
20:18Pueden salir, pueden ser populares, pero lo importante es informarnos, ver cuáles son nuestras necesidades
20:24y, por supuesto, también tener un cierto filtro antes de colocar información,
20:29antes de publicar información que quizás no querramos que, si sucede, ojalá, no lo sé.
20:35Como decíamos, todavía no tenemos registro de ellos, una filtración de información.
20:42Me gustaría que recapitulemos un poco, ya finalizando esta entrevista, esta charla,
20:47y es cuáles entonces serían, de una forma rápida, los grandes retos a los que nos enfrentamos día a día
20:55y que todavía se enfrenta también la inteligencia artificial y estos modelos.
21:00En segundo lugar, cuáles entonces son esos riesgos a los que nos enfrentamos de una forma resumida
21:05y, finalmente, cuáles serían tus recomendaciones.
21:10Cuando hablamos de riesgo, en primer lugar, la lucha constante que tienen las organizaciones
21:16detrás de estos modelos para que los ciberatacantes no utilicen efectivamente como herramientas
21:22para sus ciberataques y también lo que enfrentamos los usuarios,
21:26que es la utilización de los ciberatacantes de esta temática para poder atraer a víctimas.
21:33Y en cuanto a qué podemos hacer a nivel de usuarios, en primer lugar, proteger nuestros accesos,
21:37ya sea con credenciales fuertes, doble factor de autenticación, un gestor de contraseñas
21:42para poder generar contraseñas fuertes y efectivamente utilizarlas.
21:47Y lo más importante es estar atentos o atentas ante comunicaciones, movimientos sospechosos,
21:52o incluso las últimas tendencias que utilizan los ciberatacantes para poder evitar efectivamente
21:57ser víctimas de cualquier tipo de estafa, engaño o ataque a nuestros equipos.
22:02Martina, antes de irme, una última pregunta y es, ¿cómo se encuentra Colombia,
22:08pero también particularmente la región, frente al uso y a la evolución de la inteligencia artificial,
22:16pero además frente a los ataques informáticos que se están realizando día a día
22:20a través de estos lenguajes y modelos de inteligencia artificial?
22:27Colombia, al ser uno de los países más desarrollados en materia industrial de la región,
22:33similares a lo que vemos en otros, como puede ser desde Chile, Argentina, Brasil, Uruguay y Perú también,
22:41es el inicio o la adopción inicial de este tipo de tecnologías,
22:46pero también, por supuesto, encontrando los primeros desafíos.
22:49Él, si las compañías desarrollan sus propios modelos o tienen un modelo de tercero,
22:54¿qué sucede con las actualizaciones que se vienen en materia de las leyes de protección de datos?
23:00Una tendencia que también está encaminándose en la región,
23:05cómo esto se conflictúa con el concepto de dato privado,
23:09el concepto de dónde encaja un modelo de inteligencia artificial,
23:13pero también, por supuesto, protegiendo ante la utilización de estas herramientas
23:19por parte de los cibercriminales.
23:21Entonces, el estar surgiendo apenas con estas tecnologías,
23:24todas las compañías que se ven interesados en adoptarlas como tales para todos los beneficios que conocemos,
23:31también lleva la contracarga de empezar a proteger también estos mismos
23:34para cualquier tipo de ciberataque a nivel corporativo,
23:38pero también a nivel usuario personal.
23:40Martina López, muchas gracias por estar con nosotros,
23:43experta en ciberseguridad de CED Latinoamérica,
23:46gracias por compartir toda esta información y dar esos consejos y hablarnos sobre estos riesgos
23:52a los que día a día nos enfrentamos más aún en una tendencia que sigue en crecimiento,
23:58que es la inteligencia artificial.
23:59Muchas gracias por estar en este nuevo capítulo de ClickUp.
24:03Muchísimas gracias.
24:05Un abrazo muy grande y espero que nos veamos muy pronto.
24:07Y a todos nuestros seguidores de Pulso.com
24:14les agradezco que estén con nosotros siguiendo día a día ClickUp
24:18y los espero ver en un próximo capítulo
24:21y recuerden que Pulso se escribe con Z.
24:23¡Gracias!
24:24¡Gracias!
24:25¡Gracias!
24:55¡Gracias!
Comentarios