ALDR

Malas prácticas generalizadas y
un fallo informático han puesto
en entredicho 15 años de
investigaciones
respecto al cerebro.
Por la doctora Verónica
Gutiérrez Portillo

A día de hoy la imagen a través de resonancia magnética funcional (fMRI, por sus siglas en inglés), es el método más extendido para estudiar el esfuerzo que realiza una región determinada del cerebro cuando se le asigna una tarea. La fMRI detecta cuál o cuáles son las zonas que están reclamando más energía del flujo sanguíneo gracias al oxígeno (O2)que este transporta. El resultado de este examen son esos mapas en 3D de la materia gris a través de zonas iluminadas.

Actualmente, un equipo de científicos encabezados por Anders Eklund ha acusado que muchas de esas zonas pueden haberse iluminado erróneamente por un fallo del software y el escaso rigor de algunos médicos.

Eklund y su equipo en su estudio, publicado por Proceedings of the National Academic of Sciences (Actas de la Academia Nacional de Ciencias), tomaron 500 imágenes del cerebro en reposo, mismas que se utilizan como punto de partida para ver si a partir de ahí el cerebro hace algo.

Los expertos usaron los programas más comunes para realizar tres millones de lecturas de esos cerebros en reposo. Lo que esperaban encontrar era un 5% de falsos positivos no obstante, en algunos casos dieron hasta con un 70% de situaciones en los que el programa iluminaba una región en la que no pasaba nada, dependiendo de los parámetros.

Estos programas dividen el cerebro humano en 100.000 voxels, que son como los píxeles de una foto en versión tridimensional. El software interpreta las indicaciones de la resonancia magnética e indica en cuáles habría actividad, a partir de un umbral que en muchos casos ha sido más laxo de lo que debiera, propiciando falsos positivos.

Asimismo, los autores de la revisión analizaron 241 estudios y hallaron que en el 40% no se habían aplicado las correcciones de software necesarias para asegurarse, lo que agravó el problema de los falsos positivos.

El revuelo ha sido enorme en el campo de la neuroimagen, aunque desde luego se está matizando la dimensión del problema. En un principio, Eklund y sus colegas cuestionaban la validez de unos 40.000 estudios. Ahora, han anunciado una corrección: Thomas Nichols, otro de los autores del estudio, calcula que son únicamente unos 3.500 trabajos los que serían papel mojado.

Aunque realmente es imposible saber cuáles son y cuántos con exactitud. Hay tres lustros de ciencia con una sombra de duda sobre ellos.

En numerosas ocasiones se había denunciado que algunas de estas resonancias carecían de fortaleza estadística y que se estaban sobrevalorando.

De hecho, el director del Departamento de Neuroimagen de la Fundación CIEN (Centro de Investigación de Enfermedades Neurológicas), Brian Strange, se lamenta: “Esto ya se sabía. Hace 20 años que se había alertado de este problema. Y encima, se ha ido haciendo más y más laxo el trabajo en este campo, con los resultados que ahora vemos”. Y considera que lo que denuncia el estudio “tiene todo el sentido y es muy bueno que se advierta de este peligro”.

Por otra parte, el doctor Santiago Canals, líder del grupo del Consejo Superior de Investigaciones Científicas (CSIC) del Instituto de Neurociencia (CSIC-UMH) de San Juan Alicante (España), considera que es “sorprendente” que un paquete de software tan consagrado y popular tuviese un error sin detectar durante 15 años, como puso de manifiesto el estudio. Cabe aclarar, que su grupo utiliza un programa propio.

Canals advierte de que muchos científicos se han acercado al mundo de la neuroimagen desde otros campos sin conocer bien el proceso que estaban realizando.

ClariNet