Los mayores fraudes científicos de la historia.

En los últimos 50 años, más de 2.200 artículos han sido retirados al ser considerados fraudulentos por la comunidad científica. 

fraude cientifico - Búsqueda de Google

Pedro Gargantilla, médico internista del Hospital de El Escorial (Madrid) y autor de varios libros de divulgación. nos revela en este artículo que aquí reproducimos, algunos de los mayores fraudes científicos de la historia. 

La ciencia es el gran icono del progreso y avanza, como diría Isaac Newton, sobre hombros de gigante. Pero para que haya solidez deben existir buenos cimientos y es una obligación de todos perseguir el fraude científico.

El engaño es un arte y, desgraciadamente, también existe en el ámbito científico. Hay estudios que se visten con el traje del éxito cuando realmente no lo son. Hay autores a los que no les tiembla el pulso en plagiar a compañeros, otros que acallan los resultados que no salieron como se esperaba o, simplemente, hay autores que falsean datos.

Es cierto que no todo es lo mismo, pero en estos tres supuestos la ciencia se mueve en las aguas pantanosas del engaño. Nuestro Diccionario de la Academia Española define como fraude una acción contraria a la verdad y a la rectitud que perjudica a la persona contra quien se comete, en este caso, contra la comunidad científica y, por ende, contra la humanidad.

Impudicia científica

El hombre de Piltdown, uno de los mayores fraudes científicos

Uno de los fraudes más sonados de la Historia fue el Hombre de Piltdown, un supuesto hallazgo paleontológico al que se atribuyó -durante cuatro largas décadas- el honor de ser el eslabón perdido de la evolución humana. Los científicos probaron que los restos tenían menos de 50.000 años de antigüedad y que el cráneo y la mandíbula procedían de dos especies diferentes (un cráneo humano y fragmentos de mandíbula de un simio, probablemente un orangután). Todo el conjunto había sido manipulado con el fin de provocar el engaño.

 Cien años después, un grupo de investigadores británicos emplea la última tecnología para intentar esclarecer el enigma. Aunque Charles Dawson (arqueólogo aficionado que, junto con el eminente paleontólogo Smith Woodward, del Museo Británico, presentó los restos en Londres) es el principal sospechoso, el número de implicados pudo ser mucho mayor, incluyendo a Woodward, Martin Hinton, el conservador del museo, el sacerdote jesuita Teulhard de Chardin e incluso el famoso escritor Arthur Conan Doyle.

En 1911 el estadístico y genético R.A. Fisher sugirió que los resultados obtenidos por Gregor Mendel, el padre de la genética, eran demasiado ajustados a lo esperado y señaló que, quizás,  alteró a sabiendas los datos obtenidos en sus famosos cruzamientos de diferentes variedades de la planta del guisante, para recoger sólo los que avalaban las ideas preconcebidas que ya tenía.

Más artístico y original fue el fraude de William Summerlin, un investigador que sombreó con manchas negras la piel de unos ratones para demostrar su éxito en los trasplantes cutáneos de animales.

Muchas manzanas podridas

Yoshitaka Fujii – Manzanas Podridas
Yoshitaka Fujii

Si hiciéramos un Guinness de los Records de la «engañología» -un término acuñado por Federico di Trocchio-, nos encontraríamos en la primera posición a un médico anestesista japonés: Yoshitaka Fujii, el investigador con más artículos científicos retirados de la historia moderna. Actualmente la base de datos de Retraction Watch contiene de él 172 artículos etiquetados como retirados y 7 con notificación de expresión de “en cuarentena”. Fue la Sociedad Japonesa de Anestesia la primera en detectar ciertas irregularidades en sus publicaciones, que iban desde la falsedad de datos estadísticos hasta la invención de pacientes inexistentes.

El científico nipón desplazó a otro anestesista, en este caso teutón, a la segunda posición. Joachim Boldt falseó datos en más de noventa publicaciones, además de no contar con las preceptivas aprobaciones de los comités éticos para realizar sus estudios.

A estos dos grandes genios del fraude les siguen Yoshihiro Sato Diederik Stapel, con 59 y 58 publicaciones retiradas, respectivamente.

En el año 2005 Martinson publicó un artículo en la prestigiosa revista «Nature» en el que sostenía que el 11% de los investigadores encuestados había admitido realizar prácticas de investigación «cuestionables» en algún momento de su carrera. Siete años después, la revista «PNAS» publicaba un artículo en el que se señalaba que el fraude científico lejos de disminuir, se ha multiplicado por diez desde 1975 y que la gran mayoría de los trabajos que han sido retirados se deben a engaños intencionados.

En algunos casos es muy complicado combatir los fraudes porque han calado hondo en la sociedad y tienen decenas de miles de seguidores por todo el mundo. Esto ha sucedido, por ejemplo, con la publicación del gastroenterólogo británico Andrew Wakefield, que en 1998 vinculaba la vacunación triple vírica –que protege frente a las paperas, sarampión y la rubeola- con la aparición de autismo.

Aunque actualmente está más que demostrado que Wakefield no sólo manipuló los datos sino que también falseó la información para recibir una compensación económica, hoy son muchos los que siguen actuando de altavoces de esta ignominia científica.

El mayor escándalo de la ciencia española

En 2017 se destapó el mayor fraude dentro de la ciencia española, salpicando a multitud de estamentos de la investigación mundial: a algunos de los mejores centros científicos de España y de EE UU, a prestigiosas revistas científicas, a investigadores internacionales de primera fila e incluso al Consejo Europeo de Investigación, dedicado a impulsar la excelencia en la ciencia europea.

Susana González: El mayor escándalo de la ciencia española se vuelve mundial | Ciencia | EL PAÍS

La protagonista es la bióloga Susana González, despedida de manera fulminante el 29 de febrero de 2016 después de que su organismo, el Centro Nacional de Investigaciones Cardiovasculares (CNIC), detectara un reguero de sospechosas “irregularidades” en sus trabajos destinados a curar corazones de personas enfermas. Desde entonces, tres prestigiosas revistas científicas —NatureNature Communications y Cell Cycle— han retractado cuatro de los estudios que González publicó en ellas entre 2006 y 2015.

Pero las presuntas trampas de la bióloga española comenzaron mucho antes. La revista de la Sociedad de Microbiología de EE UU, Molecular and Cellular Biology, ha anunciado la retirada de un quinto estudio, publicado por González en 2003, cuando era una prometedora investigadora en el Centro Oncológico Memorial Sloan Kettering de Nueva York. “Expertos en tecnologías digitales nos han informado de que algunos de los datos publicados en este estudio fueron muy probablemente manipulados digitalmente”, sostiene ahora la revista.

Esta quinta retractación sugiere que Susana González cometió graves irregularidades, como la presunta invención de experimentos nunca realizados, entre 2003 y 2015, sin que absolutamente nadie diera la voz de alarma. Además de en el CNIC de Madrid y en el Memorial Sloan Kettering de Nueva York, González también trabajó en ese periodo en el Centro Nacional de Investigaciones Oncológicas (CNIO), uno de los mejores del mundo, también con sede en Madrid. Tres antiguos compañeros de la bióloga en ese campus madrileño, ajenos entre sí, afirman que “todo el mundo” allí conocía las irregularidades. Era un secreto a voces.

Sensores y Edge AI.

Escrito y publicado en el blog de Juan M. Corchado

En la edición del mes de febrero  de la revista Global Corporate Venturing CVG, tuve la oportunidad de participar y ofrecer mi opinión sobre los usos y aportaciones de la inteligencia artificialmachine learning y el Internet of things.

Como sabemos, ya hay muchas plataformas informáticas de vanguardia desarrolladas por grandes empresas, que permiten la integración de gateways con enlaces inteligentes y la aplicación de IA en problemas complejos sin tener un gran conocimiento.

Con herramientas como Deepint.net el uso de esta tecnología se está multiplicando exponencialmente; no en vano, el interés en estas nuevas tecnologías queda pantente cuando en enero, Apple invirtió algo más de 200 millones de dólares en la adquisición y compra del Allen Institute for Artificial Intelligence, fundando Xnor.ai, compañía centrada en el equipamiento de dispositivos de bajo consumo integrando machine learning y tecnología de reconocimiento de imágenes.

Otros ejemplos de éxito son la incorporación de microchips con tecnología IA en sensores propiedad de AlStorm, la implicación clara y determinada de fabricación de sensores de imágenes por parte de TowerJazz o la colaboración entre el proveedor de cocinas Meyer y el fabricante de semiconductores Linear Dimension.

Nuestras previsiones son trabajar en la integración de tecnología IA en sensores en cerca del 50% de los proyectos relacionados con el Internet of things promovidos por Grupo de Investigación BISITE y AIR Institute.

Un pequeño resumen de la publicación y espero podáis leer el artículo completo. https://globalcorporateventuring.com/product/february-2020/ 

Relación entre masa y luz en vacíos cósmicos.

Los vacíos cósmicos tienen entornos cuyas propiedades están en buen acuerdo con los modelos, son relativamente simples y con luz emitida que se escala linealmente con la masa.

Y Fang, N Hamaus, B Jain, … Dark Energy Survey year 1 results: the relationship between mass and light around cosmic voids. Monthly Notices of the Royal Astronomical Society, Volume 490, Issue 3, December 2019, Pages 3573–3587. https://doi.org/10.1093/mnras/stz2805.

Esta es la conclusión del artículo científico, publicado en Monthly Notices of the Royal Astronomical Society, que analiza la primera publicación de datos del DES (Dark Energy Survey), con el objetivo de describir la relación entre la masa y la luz alrededor de los vacíos cósmicos. [ACCEDER AL ARTICULO]

¿Cuáles son los perfiles de masa y galaxia de los vacíos cósmicos?

Estos vacíos cósmicos ocupan la mayor parte del volumen del universo. A diferencia de los cúmulos de galaxias y otras estructuras densas que se ven fuertemente afectadas por los efectos gravitacionales, sin mencionar los procesos asociados con la formación de galaxias, estos vacíos son las regiones más densas del universo y tienen una dinámica relativamente simple. Esto los hace sondas particularmente sencillas para restringir parámetros cosmológicos.

Los científicos usan modelos estadísticos para analizar tanto la distribución en 2-D de las galaxias como su distribución en 3-D, esta última obtenida al calcular distancias de galaxias desde sus desplazamientos al rojo determinados fotométricamente. En el nuevo estudio, encontraron que los dos métodos coinciden bien entre sí, y con modelos en los que la física de los entornos vacíos es muy simple, y en los que la cantidad de luz emitida se escala directamente con la masa.

Los huecos en el espacio intergaláctico con diámetros entre aproximadamente cien y seiscientos millones de años luz se ajustan lo suficientemente bien como para permitir que las pruebas de la relación masa-luz sean mejores al diez por ciento. Con futuras observaciones, las estadísticas mejoradas deberían permitir nuevas pruebas de consistencia útiles de gravedad y relatividad general y escenarios de materia oscura, informa el Centro Harvard-Smithsonian para Astrofísica (CfA).

Nuevos efectos cuánticos en la antimateria

Ahmadi, M., Alves, B.X.R., Baker, C.J. et al. Investigation of the fine structure of antihydrogen. Nature 578, 375–380 (2020). https://doi.org/10.1038/s41586-020-2006-5. DESCARGAR

La colaboración científica ALPHA del Laboratorio Europeo de Física de Partículas (CERN) ha realizado las primeras mediciones en el antihidrógeno de ciertos efectos cuánticos, como el llamado efecto Lamb. Las medidas son consistentes con la teoría y las propiedades del hidrógeno ‘normal’, subrayando las simetrías entre la materia y la antimateria.

Trabajando con antihidrógeno, la contraparte de antimateria del hidrógeno, científicos del experimento ALPHA del CERN informan esta semana en la revista Nature que han logrado medir ciertos efectos cuánticos por primera vez en estos ‘antiátomos’.

Los efectos, relacionados con la estructura fina y una pequeña diferencia en los niveles energéticos del hidrógeno conocido como efecto Lamb, se sabe que se producen en la materia. Con estudios como este se intentan encontrar diferencias entre el comportamiento de la materia y la antimateria, pero todavía no se han observado.

De momento, los resultados muestran que las mediciones son consistentes con las propiedades y predicciones teóricas de los efectos en el hidrógeno ‘normal’, además de servir para allanar el camino para tomar medidas cada vez más precisas de estos valores. “Encontrar cualquier diferencia entre las dos formas de materia sacudiría los cimientos del modelo estándar de física de partículas, y estas nuevas mediciones exploran aspectos de la interacción de la antimateria, como el efecto Lamb, que siempre hemos querido abordar”, dice el investigador Jeffrey Hangst, portavoz del experimento ALPHA. “Lo siguiente en nuestra lista será enfriar grandes muestras de antihidrógeno usando técnicas de enfriamiento láser de última generación –adelanta–. Estos métodos transformarán los estudios de antimateria y permitirán realizar comparaciones de alta precisión sin precedentes entre la materia y la antimateria”.

VER ARTICULO COMPLETO EN SINC

 

Una prueba en el nexo de la matemática pura y los algoritmos pone la «rareza cuántica» en un nivel completamente nuevo.

Un investigador ha escrito que un nuevo resultado matemático relacionado con el entrelazamiento cuántico ha sacudido su convicción básica de que «la naturaleza es, en algún vago sentido, fundamentalmente finita».

Albert Einstein dijo que la mecánica cuántica tenía que permitir que dos objetos se afectasen en su comportamiento mutua e instantáneamente, a través de vastas distancias, y que a esto lo llamó «fantasmagórica acción a distancia». Bastantes años después de su muerte, los experimentos lo confirmaron, pero hasta el día de hoy sigue sin estar exactamente claro cuánta coordinación permite la naturaleza entre objetos distantes. Ahora, cinco investigadores dicen que han resuelto un problema teórico que muestra que la respuesta es, en principio, incognoscible.

Su artículo, de 165 páginas de largo, ha salido en el repositorio de prepublicaciones arXiv; todavía no ha sido revisado por pares. Si se validan sus resultados, habrá resuelto  un número de problemas interrelacionados de matemáticas puras, mecánica cuántica y teoría de la complejidad (una rama de la ciencia de la computación). En particular, da la respuesta de un problema matemático que llevaba sin resolver más de 40 años.

En el artículo está una prueba de un teorema de la teoría de la complejidad, la teoría que trata de la eficacia de los algoritmos. Estudios anteriores habían demostrado que se trata de un problema equivalente a esa fantasmagórica acción a distancia, conocida también como entrelazamiento cuántico. El teorema tiene que ver con un problema de la teoría de juegos:

A dos jugadores que forman equipo les es factible coordinar sus acciones mediante el entrelazamiento cuántico pese a que les está vedado hablarse entre sí, y de ese modo ambos pueden «ganar» mucho más a menudo que sin el entrelazamiento cuántico. Pero a los dos les es intrínsecamente imposible calcular una estrategia óptima, como muestran los autores. Significa que es imposible calcular cuánta coordinación podrían alcanzar en teoría. «No hay algoritmo que te vaya a decir cuál es la máxima violación que se puede obtener en mecánica cuántica», afirma Thomas Vidick, uno de los autores, del Instituto de Tecnología de California, en Pasadena, «Lo asombroso es que la teoría de la complejidad cuántica haya sido la clave de la prueba», dice Toby Cubitt, del University College de Londres.

Rápidamente se corrió la voz por las redes sociales en cuanto apareció el artículo el 14 de enero. Cundió la emoción. «Me parecía que podría convertirse en una de esas cuestiones de la teoría de la complejidad que quizá tardasen cien años en tener respuesta»tuiteó Joseph Fitzsimons, director de Horizon Quantum Computing, una nueva empresa de Singapur. Otro físico, Mateus Araújo, de la Academia Austriaca de Ciencias, en Viena, comentaba expresivamente la sensación que le había causado. y decía: «no se me habría pasado por la cabeza que fuera a ver este problema resuelto en los días que me quedasen por vivir».

Propiedades observables

Por lo que se refiere a las matemáticas puras, el problema se conocía como Problema de la inmersión de Connes, por el matemático Alain Connes, ganador de la medalla Fields. Es un problema de la teoría de operadores, rama de las matemáticas que a su vez surgió de los intentos de proporcionar fundamentos a la mecánica cuántica en la década de 1930. Los operadores son matrices de números que pueden tener un número finito o infinito de filas y columnas. Desempeñan un papel crucial en la teoría cuántica, donde cada operador codifica una propiedad observable de un objeto físico. En un artículo de 1976 Connes, utilizando el lenguaje de los operadores, se preguntaba si los sistemas cuánticos con infinitas variables medibles podían tener como aproximación sistemas más simples, con un número finito de esas variables.

Pero según el artículo de Vidick y sus colaboradores la respuesta es no: hay, en principio, sistemas cuánticos que no pueden tener como aproximación otros «finitos». Según un trabajo del físico Boris Tsirelson, que reformuló el problema, esto quiere decir además que resulta imposible calcular la cantidad de correlación que dos sistemas así pueden exhibir a través del espacio cuando están entrelazados.

Campos dispares

La prueba ha sorprendido a muchos especialistas. «Estaba seguro de que el problema de Tsirelson tenía una respuesta positiva», escribió Araújo en sus comentarios, y añadía que el resultado sacudía su convicción básica de que «la naturaleza es, en algún vago sentido, fundamentalmente finita».

Pero apenas si se han empezado a comprender las consecuencias del resultado. El entrelazamiento cuántico está en el núcleo mismo de los nacientes campos de la computación cuántica y de las comunicaciones cuánticas, y podría valer para construir redes superseguras. En particular, medir la cantidad de correlación entre objetos entrelazados a lo largo de un sistema de comunicaciones puede aportar la prueba de que está a salvo del fisgoneo. Pero los resultados probablemente no tienen consecuencias tecnológicas, mantiene Wehner, ya que todas las aplicaciones usan sistemas cuánticos «finitos». De hecho, podría resultar difícil siquiera sea concebir un experimento que ponga a prueba la rareza cuántica en un sistema intrínsecamente «infinito», dice.

La confluencia de la teoría de la complejidad, la información cuántica y las matemáticas significa que hay muy pocos investigadores que puedan captar todas las facetas del artículo. El propio Connes le ha dicho a Nature que no está cualificado para hacer un comentario. Pero añadió que le sorprendía cuántas ramificaciones tenía. «Es asombroso que el problema ahonde tanto. ¡Nunca me lo habría imaginado!».


Davide Castelvecchi / Nature News. Artículo traducido y adaptado por Investigación y Ciencia con permiso de Nature Research Group.

Se pide acceso libre y gratuito a todas las investigaciones relacionadas con los coronavirus.

A dozen national science advisers ask publishers to make all coronavirus research available for AI by Alan Boyle on March 13, 2020 at 9:53 am

Ver completo

Las principales editoriales científicas del mundo, como Science and Nature, tradicionalmente cobran por el acceso a sus revistas de primera categoría. Pero  en una carta emitida hoy, los asesores científicos de la Casa Blanca y otros 11 gobiernos nacionales están pidiendo a los editores de todo el mundo que brinden acceso libre y gratuito a todas las investigaciones relacionadas con los coronavirus.

Si se responde a la declaración, todas las investigaciones relacionadas con COVID-19, el virus SARS-CoV-2 que causa la enfermedad, así como otros coronavirus, se pondrían a disposición abierta en una forma que permita la minería de datos habilitada para IA. Ello es fundamental para el Instituto Allen de Inteligencia Artificial de Seattle y su motor de búsqueda académica Semantic Scholar.

Los firmantes de la carta representan a Estados Unidos, así como a Australia, Brasil, Gran Bretaña, Canadá, Alemania, India, Italia, Japón, Nueva Zelanda, Singapur y Corea del Sur. Aunque ya muchos editores están proporcionando acceso abierto a la investigación de coronavirus, pero no siempre en forma legible por máquina.

FUENTE: Universoabierto.org

Almacenar desechos nucleares de alto nivel

almacenar desechos nucleares - Búsqueda de Google

Guo, X., Gin, S., Lei, P. et al. Self-accelerated corrosion of nuclear waste forms at material interfacesNat. Mater. 19, 310–316 (2020). https://doi.org/10.1038/s41563-019-0579-x. ACCEDER AL ARTICULO

Los materiales que Estados Unidos y otros países planean usar para almacenar desechos nucleares de alto nivel probablemente se degradarán más rápido de lo se pensaba  hasta ahora.

La razón última es la forma en que interactúan esos materiales, según una nueva investigación publicada en la revista ‘Nature Materials’, que recomienda buscar nuevos modelos de almacenamiento más seguros. Los hallazgos muestran que la corrosión de los materiales de almacenamiento de desechos nucleares se acelera debido a los cambios en la química de la solución de esos desechos nucleares, y por la forma en que los materiales interactúan entre sí.

“Esto indica que los modelos actuales pueden no ser suficientes para mantener estos desechos almacenados de manera segura –advierte Xiaolei Guo, autor principal del estudio y subdirector del Centro de Desempeño y Diseño de Formularios y Contenedores de Desechos Nucleares del Estado de Ohio, integrado en el Colegio de Ingeniería de la Universidad de Ohio–. Y muestra que necesitamos desarrollar un nuevo modelo para almacenar desechos nucleares”.

La investigación del equipo se centró en el almacenamiento de materiales para desechos nucleares de alto nivel, principalmente desechos de defensa, el legado de la producción de armas nucleares del pasado, un desecho altamente radiactivo. Mientras que algunos tipos de desechos tienen una vida media de aproximadamente 30 años, otros, por ejemplo, el plutonio, tienen una vida media que puede ser de decenas de miles de años.

Estados Unidos actualmente no tiene un sitio de disposición para esos desechos y, según la Oficina de Responsabilidad General de Estados Unidos, generalmente se almacena cerca de las plantas donde se produce. Se ha propuesto un sitio permanente en Yucca Mountain, en Nevada, aunque los planes se han paralizado. Igualmente, países de todo el mundo han debatido la mejor manera de lidiar con los desechos nucleares y solo uno, Finlandia, ha comenzado la construcción de un depósito a largo plazo para residuos nucleares de alto nivel.

En este estudio, los investigadores encontraron que cuando se exponen a un ambiente acuoso, el vidrio y la cerámica interactúan con el acero inoxidable para acelerar la corrosión, especialmente de los materiales de vidrio y cerámica que contienen desechos nucleares. El estudio midió cualitativamente la diferencia entre la corrosión acelerada y la corrosión natural de los materiales de almacenamiento. Guo lo llamó “severo”.