- hace 11 horas
Aimar Bretos entrevista a Lluís Montoliu, investigador especializado en enfermedades raras. Fue pionero en la edición genética en España y acaba de publicar 'Impostores de la ciencia. Historias reales de fraude y engaño en la ciencia' (ed. Pinolia)En todo el mundo, más de 60 mil artículos científicos se han retirado por errores graves, fraude, plagio o por aportar datos no fiables. Pero, ¿por qué hay científicos dispuestos a cargarse su credibilidad inventándose un estudio? ¿Confían en que no les pillen? ¿Cómo es el proceso para que no se salgan con la suya? ¿Qué castigo tienen?
Categoría
🗞
NoticiasTranscripción
00:08En todo el mundo más de 60.000 artículos científicos se han retirado por errores graves,
00:13fraude, plagio o por aportar datos no fiables. ¿Por qué hay científicos dispuestos a cargarse
00:20su credibilidad inventándose un estudio? ¿Qué pasa, que confían en que no les pillen? ¿Cómo
00:26es el proceso para que no se salgan con la suya? ¿Qué castigo les espera si les pillan?
00:32Las respuestas las tiene Luis Montoliu. Muy buenas noches. Hola, buenas noches, Aymar. ¿Cómo estás?
00:37Luis Montoliu es investigador del CSIC, especializado en enfermedades raras, es
00:41vicedirector del Centro Nacional de Biotecnología, fue pionero en la edición genética en España y
00:46acaba de publicar Impostores de la ciencia, historias reales de fraude y engaño en la ciencia.
00:52La ha publicado con la editorial Pinolia. Luis, ¿hay mucho impostor de la ciencia? Me tiene
00:57loco este tema. Pues hay, los hay, los hay aquí y lo que creo que es importante que nuestros
01:04oyentes entiendan es que los científicos no somos extraterrestres. Somos hombres y mujeres
01:10como cualquier otro grupo y por lo tanto en nuestro colectivo también hay gente que quiere
01:16tomar atajos, que hay gente que quiere destacar, gente que quiere ser reconocida, gente que quiere
01:21subir en rankings, pero no hacerlo de la forma adecuada, ¿no? Gente que incumple los códigos
01:27deontológicos que también tenemos nosotros, que les llamamos códigos de buenas prácticas
01:31científicas, que yo me desgañito y voy viajando por todas las universidades del país intentando
01:37que al menos una vez los investigadores jóvenes oigan hablar de esto. Mucha gente me dice,
01:43pero si esto es sentido común. No, perdóname, esto no es sentido común. Esto es una disciplina,
01:47la integridad científica, que la tenemos que respetar, que la tenemos que aprender. Fíjate
01:53que lo que nosotros tenemos solamente es la credibilidad. La credibilidad y esto cuesta
01:59mucho de mantener y se pierde tan fácilmente.
02:01¿Y por qué alguien está dispuesto a poner en juego su credibilidad?
02:04Pues porque considera que es la manera que tiene para acceder a mayores fondos, fondos que
02:10dependen del currículum que tú puedas aportar, porque quiere ser reconocido, porque quiere
02:15tener un prestigio que quizá no ha obtenido por la vía natural, por muchas y variadas
02:20razones. Hay una presión brutal en la comunidad científica, habrás oído hablar del público
02:26o muere. Pues esto también, supongo que también influye. Lo importante es formarte en estas
02:35cosas. Que alguien te cuente que hay normas, que hay códigos, que hay un protocolo de comportamiento
02:42para relacionarnos entre investigadores. Y que no podemos publicar ni podemos inventarnos
02:49cosas, porque más allá de dispararnos en el pie, lo que estamos es comprometiendo las
02:54investigaciones futuras. Porque tú piensas que cada proyecto que yo preparo lo baso en
03:01investigaciones anteriores. Que yo confío que están hechas adecuadamente. Si estas investigaciones
03:07están inventadas, no solamente voy a perder tiempo, sino recursos. Y va a ser algo, un
03:13despropósito.
03:14Tú dices en el libro que las personas que se dedican a manipular, a fabricar o a copiar
03:19resultados, suelen hacerlo con inteligencia, de forma a veces muy elaborada y compleja.
03:24Ellos confían en que nadie se dé cuenta.
03:26Bueno, yo creo que esto es en parte patológico. Porque estudiando un buen número de casos,
03:32uno se da cuenta de que no suelen ser investigadores que hayan cometido un fraude una sola vez.
03:40Sino que son investigadores que, incluso desde pequeñitos, desde sus tesis doctorales, han
03:46cometido algún intento fraudulento. Pero luego han visto que les ha funcionado y han vuelto
03:51a intentarlo. Han subido la apuesta hasta que les pillan. En realidad son personas que en general
03:55suelen tener una inteligencia destacable, ¿no? Porque implica... Mantener una mentira
04:02siempre es complicado. Pero mantener muchas mentiras y, sobre todo, me estoy acordando
04:07del caso de una investigadora japonesa que tenía tres supervisores, tres jefes, para
04:11entendernos. Dos en dos ciudades distintas de Japón y un tercero en Boston. Pues mantenía
04:17tres líneas de discusión, tres argumentarios con estas personas en su cabeza y a cada uno
04:24le daba a entender los progresos que supuestamente hacía en los experimentos. Esto me parece un
04:31dispendio de energía. Si hubiera usado esa energía para hacer las cosas bien, pues hubiéramos
04:38progresado en el conocimiento, ¿no? Esta persona acabó siendo descubierta, ¿no? Y a veces
04:44se tarda más, a veces se tarda menos. Esta mujer se descubrió a los pocos meses, pero hemos
04:49tenido investigadores e investigaciones que han estado años hasta que no las hemos retractado.
04:55Bueno, 40 años. Cuentas en el libro que hay un señor que tardó 40 años en que descubriéramos
05:00que había metido ahí huesos de todo tipo de animales.
05:03Efectivamente. La famosa mandíbula de Pildon, del hombre de Pildon, que no era de ni hombre
05:08ni era de nada. Eran mezclas de diferentes primates que se inventaron el eslabón perdido
05:14entre los chimpancés y los humanos. Nada. Fraude. Absolutamente fraudulento.
05:20Había tratado los huesos para intentar.
05:23Claro, claro. Porque evidentemente estos gentes son científicos y por lo tanto saben
05:27qué es lo que hay que hacer para resultar convincentes. A mí me preocupa sobre todo,
05:33y por eso he destacado algunos ejemplos en esa orientación, aquello que afecta a nuestra
05:38salud. O sea, alguien que se permite el lujo de decir que las vacunas no son seguras y
05:44que están asociadas a un riesgo de desarrollar autismo en los niños. Esto es absolutamente
05:50impresentable. Esto es indefendible. Tú sabes el daño que ha causado en las familias que
05:55de buena fe han creído que eso era un peligro y ¿quién quiere hacer algo daño a sus hijos?
06:02Nadie.
06:02Ese vínculo de las vacunas con el autismo se publicó en The Lancet en 1998.
06:0798. Y tardamos un montón de años.
06:10Hasta 2010. O sea, 12 años.
06:1212 años.
06:12Y ojo, fue un periodista el que lo destapó. No fuisteis vosotros los científicos.
06:16Absolutamente.
06:17Fue un periodista del Insane de Internet.
06:18Y me levanto y aplaudo a este periodista. No fue el único caso que realmente fue el que
06:24persiguió y consultó y documentó en una serie de artículos. Pero fíjate, en 2010 este artículo fue retirado.
06:34Estamos en 2026 y siguen habiendo colectivos antivacunas que lo siguen citando. Es que esto está
06:40publicado. ¿Cómo va a estar publicado? Lo que pasa es que cuando se retira un artículo del registro
06:45científico no desaparece. Se le pone una marca de agua y dice este artículo está mal. Pero la gente
06:52que cita citando a lo que otros citaban, pues no se dan cuenta. Y esto perpetúa estos artículos que
06:58tienen una segunda vida cuando deberían desaparecer.
07:01Dentro de la comunidad científica no tenéis noticia de que eso pasa como para que alguien que está
07:08trabajando en ese campo tiene que ser el primero que sea consciente de que un estudio de ese campo
07:12ha sido rechazado.
07:13En la comunidad científica absolutamente esto es conocido y todos en general sabemos los artículos
07:19que han sido retractados. El problema es cuando fuera de la comunidad científica, acuérdate que los médicos,
07:26los profesores y los científicos, según la encuesta que cada dos años publica la FECID, la Fundación
07:33Española para la Ciencia y la Tecnología, somos los que tenemos mayor credibilidad, supuestamente,
07:38pero esa mayor credibilidad conlleva una responsabilidad. Entonces ahí cuando un científico
07:45pues dice cualquier tontería o se inventa cualquier cosa, el problema es que la gente se lo cree,
07:51no otros científicos que pueden dudar de eso, sino la gente de la calle, las asociaciones de pacientes,
07:56no hay nada mejor para inventarse algo que inventarse algo que la gente quiera leer.
08:02Por ejemplo, aquí alguien que dice, tienes un infarto de miocardio, malamente tienes una parte del corazón,
08:10pero yo te digo que hay unas células madre que van a regenerarte la parte del corazón que ha quedado
08:16afectada.
08:16Mentira. Pero claro, queremos leerlo esto, porque dices, ambra, estaría bien que si tuviera un infarto,
08:22pues volviera a recuperar la posición anterior. No es cierto. Y esto ha sucedido con cáncer, ha sucedido con SIDA.
08:30Hubo un tipo que dijo, tenemos la vacuna del SIDA. SIDA, por ejemplo, no sigue sin haber una vacuna.
08:34Hay un tratamiento de por vida, pero seguimos sin tener una vacuna.
08:38Este tipo dijo que tenía una vacuna y acabó siendo, en Estados Unidos, los comités de integridad científica pueden derivarlos
08:47al Departamento de Justicia.
08:49Este tipo acabó en la cárcel y acabó pagando una multa de 7 millones de dólares, cosa que no ocurre
08:54en Europa.
08:55Lo que pasa es que estos estudios, algunos, por ejemplo, el que hablábamos antes que vincula las vacunas con el
09:00autismo,
09:00ese término estuvo 12 años publicado y bien publicado en The Lancet. The Lancet, The New England Journal.
09:09Se pidieron disculpas, se pidieron disculpas.
09:10Sí, sí, ya, ya, claro.
09:11No, no, no, no pidieron disculpas.
09:13No, no pidieron disculpas.
09:13No, lo único que hicieron es que cuando finalmente abordaron la investigación en serio, pues tuvieron que retractarlo
09:20porque el Consejo General de Médicos británico le retiró la licencia a este señor. Este señor no puede.
09:26Pero lo que voy es, estas revistas que son las más prestigiosas del mundo, ¿cómo se la pueden colar?
09:31¿No tienen unos mecanismos de criba previa?
09:33Mira, esto es una pregunta que nos hacemos todos, pero yo creo que vuelve a ser, son temas muy golosos,
09:39son temas muy golosos que una revista grande dice, caramba, si no lo publico yo, lo voy a publicar otra,
09:45pero lo voy a publicar yo, pero quizá a veces se relajan en sus controles, en los filtros,
09:51y aparecen estos artículos publicados cuando no deberían serlo.
09:55Uno se pregunta, ¿pero cómo se les coló este artículo de la japonesa que te decía que tenía tres supervioses?
10:01Esta señora dijo que cualquier célula que tenemos en cultivo le pones un poquito de zumo de limón
10:06y la conviertes por arte de magia en una célula madre.
10:11Claro, esto explicado así parece, esto es el cuento de la capirucita, ¿cómo?
10:15¿Alguien se lo creyó? Pues esto se publicó en la revista Nature, en Nature, en una de las mayores revistas.
10:21Afortunadamente estuvo solamente cuatro meses hasta que se detectó el percal y se descubrió el pastel, pero coló.
10:28¿Hay decisiones respecto a la salud que han tomado gobiernos basadas en estudios que después se han demostrado falsos?
10:37Pues mira, sí, y hay uno de los ejemplos que explico que es un poquito como incluso hasta medio divertido
10:45dentro de la tragedia,
10:46que son investigadores suecos que investigaban el efecto de los microplásticos, ¿sabes?
10:52Los microplásticos, estas bolitas que están presentes en toda la naturaleza,
10:56que los peces las consumen creyendo que es comida y nosotros nos comemos los peces y nos comemos las bolitas.
11:02Bueno, pues evidentemente esto muy bueno no debe ser, ¿no?
11:05Lo que pasa es que cuesta demostrar que esto genere toxicidad o que sea, ¿no?
11:10Y estos dos investigadores suecos de la Universidad de Uppsala, pues dijeron que sí,
11:14que ellos habían demostrado con larvas de perca de un pez,
11:17que habían demostrado que crecían mal, que se alimentaban peor, que tenían una serie de alteraciones.
11:23Lo mismo de siempre.
11:24Quiero leer esto, quiero creer que esto es bueno, ¡pumba!
11:27Y lo publican en Science, en la revista Science.
11:31Bueno, tuvieron que ser retractados porque cometieron un error infantil.
11:35Bueno, esto es lo de las películas del crimen perfecto.
11:37No existe el crimen perfecto.
11:40Claro, era una chica joven, un investigador joven,
11:42que además de supuestamente hacer los experimentos que no hizo,
11:45documentaba su presencia en redes sociales.
11:48He llegado a esta isla, mira qué bien, voy a subirlo a Facebook, me voy de esta isla,
11:53mira qué bien, lo subo a Facebook.
11:54No le digas que le pillaron por las fotos de Facebook.
11:56Le pillaron por Facebook porque dijo en la revista, dijo,
12:00he estado tres semanas investigando, siguiendo la cronología de Facebook,
12:04apenas había estado de días, y resultó que había otras gentes en la isla
12:08que no la vieron trabajar ni investigar, con lo cual se inventó todos los datos.
12:12La pillaron por Facebook.
12:13Dios mío, ¿eh?
12:15Y esto dentro de la comunidad científica, ¿hay mucho corporativismo
12:20o la gente denuncia a su compañero que había estado haciendo trampas?
12:24Mira, el problema que tenemos que resolver, que no está resuelto,
12:28es el whistleblower en inglés, que es el chivato, ¿no?
12:33El delator, sí, quizás, porque quería quitarle comportamiento negativo, ¿no?
12:40Porque frecuentemente la persona que denuncia es una persona
12:43que acaba pues teniendo problemas, y eso que lo primero que tenemos que garantizar
12:48es la protección absoluta, ¿no?
12:49Yo he sido presidente del Comité de Ética del CSIC durante la pandemia,
12:54y nos llegaban casos, etcétera, y evidentemente hay que proteger a la persona que denuncia,
12:59hay que investigar, y cuidado.
13:01Una de las cosas que aprendes es que hay que escuchar a todo el mundo,
13:05tanto al denunciante como al denunciado, ¿no?
13:07No sería la primera ni la segunda vez que por cuitas personales
13:11alguien plantea o infama sobre un tercero o sobre un compañero
13:17cuando en realidad no existe tal manipulación ni tal fraude, ¿no?
13:22Por lo tanto, cuidado, que esto hay que investigarlo caso por caso
13:26y hay que tomárselo con mucho cuidado.
13:28¿Y la inteligencia artificial está sirviendo para detectar fraude
13:34o para facilitar y mejorar el fraude?
13:38Mira, la inteligencia artificial ha venido para quedarse y es una bendición,
13:42pero es terrible, es terrible la facilidad con la cual te permite inventarse cosas
13:48que están extraordinariamente bien hechas, ¿no?
13:52Por lo cual es muy difícil de detectar.
13:55Claro que hay rutinas de inteligencias artificiales que detectan otras cosas,
14:00pero resulta, esto es el cuento de nunca acabar,
14:02hay una inteligencia artificial, fíjate lo que son las cosas,
14:05que humaniza el resultado de otra inteligencia artificial
14:09para que sea todavía más difícil detectarla como inteligencia artificial.
14:13Toma ya, esto no sé dónde nos va a llevar.
14:16Yo creo que tenemos que trasladar, sobre todo a nuestros investigadores jóvenes,
14:23a mí me interesa mucho el tema de la formación,
14:26el darles las herramientas, el decirles cuáles son los riesgos y los peligros
14:31y en confiar que buenamente utilicen estas herramientas adecuadamente,
14:36porque es que si no, tenemos un montón de artículos directamente escritos
14:41desde la primera letra hasta la última por una inteligencia.
14:44No hay un ser humano. Y lo que es peor, uno de cada dos artículos,
14:49uno de cada dos artículos, cuando lo enviamos a publicar,
14:52que tiene que ser revisado por pares, quiere decir otros compañeros nuestros,
14:57resulta que se acaba siendo revisado por una inteligencia artificial.
15:01A mí me llega un artículo, pero como estoy humillado,
15:03porque tengo que ir a 25 a hablar con Aymar, pues no lo voy a evaluar,
15:07se lo paso a una inteligencia artificial,
15:09que me va a hacer un análisis más o menos adecuado,
15:12y el resultado de esa inteligencia lo mando a la revista.
15:16Uno de cada dos artículos es revisado por inteligencia.
15:20Y esto no ha hecho más que crecer.
15:22En noviembre del año pasado, en Internet, superamos los textos escritos
15:28por inteligencias artificiales a los textos escritos por seres humanos.
15:33Yo creo que no somos conscientes de la velocidad con la cual esto nos está atrapando,
15:38sobre todo en las especialidades científicas y técnicas como son la ciencia.
15:43Repito, es una bendición. Yo la utilizo y me ayuda un montón.
15:48Pero qué fácil es cruzar la línea roja.
15:52Yo espero, viendo que esto ha venido para quedarse efectivamente,
15:55y que ahora la generación de artículos es facilísima,
15:59se pueden hacer como churros porque no las haces tú,
16:01las haces Chavgepteo o la que sea,
16:02y los propios científicos tendréis que cambiar el modelo.
16:05Tenemos que refundar cómo nos evaluamos y cómo promovemos.
16:10No podéis premiar que se esté publicando todo el rato.
16:13Exactamente. El pilar fundamental que hemos tenido los científicos
16:17para analizar nuestro progreso eran los resultados que publicábamos.
16:21Si estos artículos ya dejan de ser producto de un grupo de investigadores
16:26o de seres humanos es un producto de la inteligencia artificial,
16:30pues vamos a tener que hacer, vamos a tener que inventar otro sistema.
16:34Es como hablando con mis compañeros de universidad,
16:37pues vamos a tener que hacer los exámenes orales.
16:40No te puedo pedir que me hagas un trabajo escrito
16:43porque se lo vas a pedir a Chavgepteo.
16:45Pues entonces lo que te voy a hacer es te voy a convocar
16:48y te voy a preguntar que me expliques lo que has hecho.
16:50Entonces ahí, digamos, va a ser lo cual va a plantear
16:54otra serie de retos logísticos y otras cosas.
16:56Pero tenemos que refundar cómo nos evaluamos los científicos.
17:01¿La justicia ordinaria en España qué puede hacer?
17:06Poco o nada.
17:08Porque este es otro de los problemas que tenemos en Europa.
17:12La justicia ordinaria, a no ser que lo que cometamos sea un delito,
17:17no va a entrar, no entiende de estos casos.
17:19Por ejemplo, a mí si me conceden una ayuda del Ministerio de Ciencia,
17:23100.000 euros, y cojo 50.000 euros, caso que pudiera, que no puedo,
17:28pero cojo los 50.000 euros, me los meten en el bolsillo,
17:31evidentemente esto estoy cometiendo un delito y voy a ser perseguido,
17:35voy a ser juzgado y puedo ir a la cárcel.
17:37Pero si estoy modificando una imagen,
17:40si estoy cambiando los números de una tabla,
17:42esto la justicia va a decir, esto es un tema técnico,
17:45busquen ustedes sus peritos y solucionen sus problemas.
17:48No vengan aquí con estas historias.
17:50Estos son temas técnicos que la justicia no entiende.
17:53Esto es lo que nos ocurre mayoritariamente en Europa.
17:55En Estados Unidos no.
17:57Estados Unidos tienen una oficina de integridad científica
18:00desde el año 89,
18:01que tiene contacto directo con la Secretaría de Justicia,
18:04con el Ministerio de Justicia.
18:06Aquí nuestra Oficina Nacional de Integridad Científica,
18:10que me gustaría que se llamara así,
18:12pero se llama Comité Español de Ética de la Investigación,
18:15lo cual nos da confusión,
18:17de lo cual soy y formo parte,
18:19se reestructuró en septiembre del 22.
18:21Del 22.
18:22O sea, compara 89 con 22.
18:24Acabamos de llegar.
18:26Acabamos de empezar.
18:28Y acuérdate también que nuestras acciones,
18:32lo que hacen los comités de integridad,
18:34son acciones consultivas.
18:35Nosotros emitimos informes, recomendaciones,
18:38y los elevamos a quien tiene la autoridad de la institución.
18:41Pero no son vinculantes.
18:42Claro, claro que no son vinculantes.
18:43El rector o rectora,
18:44el presidente o presidenta del organismo público de investigación,
18:48es el que va a decidir si toma cartas en el asunto,
18:51si lo mete en un cajón o qué es lo que hace.
18:52Esto es la cultura de qué es lo que pasa.
18:59El trasladar que no puede salir gratis a hacer esto.
19:03Porque una persona a la que se le pilla trampeando estudios,
19:07queda ya marcada para siempre,
19:08no recibe más fondos públicos.
19:09Mira, a nivel personal,
19:12a nivel personal es un golpe fuerte,
19:16porque rápidamente esto se trasciende en la comunidad científica
19:20y la pérdida de prestigio es evidente.
19:22Lo que sucede es que,
19:24sobre todo cuando la ciencia está basada,
19:26como aquí en España,
19:28en los organismos públicos de investigación,
19:30en funcionarios,
19:31cuesta mucho esa persona desvincularlo de la institución de nuevo,
19:35porque tenemos que presentar ante la justicia un delito.
19:39Y esto no se consideran delitos.
19:41Estas son actuaciones propias,
19:43impropias de este gremio,
19:46pero que el juez nos dice que las resolvamos nosotros.
19:51Y entonces lo que pasa es que seguramente durante un tiempo
19:55esta persona va a perder financiación,
19:58va a no conseguir,
20:00se le van a quitar algunos proyectos,
20:02seguramente va a tener que retirar algunos artículos,
20:04pero en general, mal que bien,
20:07pues bastantes se reenganchan al cabo del tiempo
20:10y vuelven a seguir trabajando.
20:13Con lo cual uno podría pensar que sale gratis lo de...
20:17Y no es exactamente así,
20:19porque evidentemente el choque y la pérdida de prestigio es evidente,
20:23pero no tenemos las herramientas para penalizar o para sancionar,
20:28como tienen otros países.
20:29No estoy pidiendo que las tengamos,
20:31estoy pidiendo que reflexionemos
20:33si las debemos tener,
20:35porque es que si no,
20:37alguien valora,
20:38vamos a ver,
20:39voy a hacer todo esto para subir en los rankings.
20:42En el caso de que me pillen,
20:43¿qué me va a pasar?
20:44¿Que voy a perder dos años de proyecto?
20:46Pues igual me compensa, ¿no?
20:48Espero que nadie nos oiga.
20:49Después de tantos años,
20:50Luis,
20:51¿a ti te pita algo?
20:52Cuando ves un estudio y dices,
20:53uff,
20:54Pues mira,
20:55pues mira,
20:56algunos sí y otros no.
20:59Otros están muy bien hechos,
21:00¿no?
21:01A mí me metieron un gol,
21:02a mí me metieron un gol
21:03y te lo digo clarísimamente,
21:05en 2005 organizamos un congreso en Valencia
21:08e invitamos a la figura científica del momento,
21:11que era un coreano,
21:13un coreano del sur de Seúl,
21:15que había supuestamente clonado embriones humanos
21:18y derivado células madre pluripotentes.
21:20Algo que venía,
21:22acuérdate de la oveja de Oli,
21:24en el año 97,
21:25pues unos pocos años después
21:27lo consiguió este cunón embriones,
21:28o supuestamente lo consiguió.
21:30Y nos lo creímos.
21:31Le compramos todo el paquete.
21:33Y tú lo invitaste.
21:34Lo invitamos.
21:35Y cuando tú invitas una personalidad
21:37de estas características,
21:38lo más frecuente es que tengas que enviarle
21:40tres o cuatro mails,
21:41porque te ignora, ¿no?
21:43Me respondió a los 30 minutos.
21:44Yo debería haber reaccionado a eso,
21:46porque esto no es normal.
21:47El tipo quería venir,
21:49pero el tipo vino con un séquito.
21:51O sea,
21:51vino con un grupo de gente
21:52que se movía a su alrededor,
21:54¿no?
21:54Era una cosa curiosa.
21:55Y tú ahí empezaste,
21:56yo te he leído que tú empezaste a sospechar
21:58cuando él no contestaba
21:59las preguntas técnicas.
22:00Claro,
22:01porque él explicó
22:03lo supuestamente bueno y bonito
22:05que había hecho,
22:06pero esto es lo que habíamos leído
22:07todos en el artículo.
22:09Y cuando llegaron las preguntas
22:10de verdad,
22:12pues le dijo a uno de los del séquito
22:14que subiera a responder.
22:15Esto es absolutamente inadecuado.
22:17Esto es inaceptable, ¿no?
22:18Y efectivamente pocos meses después
22:20se descubrió el pastel.
22:22En este caso se descubrió,
22:23fíjate por qué se descubrió.
22:24Él estaba usando supuestamente
22:26óvulos de mujeres,
22:27pero involucró a sus propias becarias,
22:30a sus propias personas
22:31con las cuales tiene una relación jerárquica
22:34y las combinó a que donaran óvulos
22:36y les dijo que les iba a gratificar.
22:38No las gratificó.
22:40Y una de ellas dijo,
22:41te vas a enterar.
22:42Y levantó la alfombra.
22:43Y así se conoció el pescado.
22:45¿Qué sentiste?
22:46Pues yo me sentí muy decepcionado
22:48y me sentí que me habían engañado.
22:52Me habían engañado.
22:53Y de hecho,
22:54desde entonces,
22:55casi que tengo un piloto
22:57siempre abierto de duda.
23:00El escepticismo
23:01que nunca nos tiene que dejar
23:02a los científicos.
23:03La duda constante.
23:05Sobre todo cuando los resultados
23:07salen muy bien.
23:07Mira,
23:08cuando empezamos a trabajar con CRISPR
23:10y salieron todos los experimentos,
23:12no nos los creíamos.
23:13No puede ser.
23:13No puede ser que los experimentos salgan.
23:16Porque los experimentos
23:16generalmente no salen.
23:18Y lo volvimos a repetir
23:20y se confirmó.
23:22Pero probablemente
23:23lo podríamos haber confirmado antes.
23:25Pero teníamos esa duda,
23:27ese temor de
23:27¿estaremos metiendo la pata?
23:29Luis Montoliu,
23:31impostores de la ciencia,
23:32historias reales de fraude
23:34y engaño en la ciencia,
23:35Editorial Pinolia.
23:36Luis,
23:37mil gracias.
23:38Buenas noches.
23:38Buenas noches.
23:39Para no perderte ningún episodio,
23:42síguenos en la aplicación
23:43o la web de la SER,
23:44Podium Podcast
23:45o tu plataforma de audio favorita.
23:47no perderte ningún episodio,
23:47ni la verdad.
Comentarios