Confluencia Ciencias

A principios del recién estrenado siglo XXI, y aun cursando la carrera de Biología, di mis primeros pasos como científico en el Departamento de Citología e Histología de la Universidad Autónoma de Madrid. Fue entonces cuando empecé a descubrir, con bastante sorpresa, que algunas de las cosas que -se supone- aprendes en la carrera se usan en el día a día de tu investigación. Una de estas cosas era la estadística. Esa asignatura que nunca llegué a entender era vital para definir esa “p” que, casi siempre menor de 0,05, acompaña a todo resultado científico que se precie. La T de Student y la ANOVA daban el barniz significativo a mis experimentos por entonces. ¡Los biólogos valemos para todo!

No fue hasta unos años después, cuando aterricé en el Hospital Universitario La Paz de Madrid a emprender mi tercer intento de realizar un trabajo merecedor de la tesis doctoral, cuando entendí la importancia de la estadística en las investigaciones con una pata clínica, gracias a un curso de fundamentos de estadística que organiza la Unidad de Bioestadística semestralmente en el Hospital. Regresiones de Cox, curvas de Kaplan y Meier, test no paramétricos, coeficientes de correlación y concordancia…; la cosa se iba complicando.

Como grupo de investigación en el Hospital nos dedicamos a generar perfiles moleculares con utilidad en la práctica clínica. Los oncólogos identifican una necesidad en su práctica diaria, como un grupo de pacientes que son diagnosticados igual pero que al recibir el mismo fármaco responden de diferente manera. Entonces nosotros, biólogos y químicos, analizamos una muestra de esos pacientes, generalmente una porción de su tumor, midiendo muchas moléculas -AND, ARN, proteínas o metabolitos (ver la entrada sobre Ómicas publicado por Mario Toubes) e intentamos identificar una firma o perfil, compuesto de unas pocas moléculas, que sea capaz de predecir qué paciente va a responder adecuadamente a ese tratamiento. Trabajar con datos “ómicos” tiene sus peajes. Obviando las dificultades técnicas, muchas y muy diversas, manejar todos estos datos hace necesario usar otras técnicas matemáticas diferentes (boostrap, clustering, SAM, support vector machines, etc.). Además, hay que tener en cuenta el elevado número de variables, que hacen que nuestra p de 0,05 empiece a no ser suficiente. La corregimos, la ponderamos, la ajustamos, empezamos a llamarla q. Aquí ya estaba perdido. Menos mal que hay programas que lo hacen todo por ti.

Para terminar de rizar el rizo, algunos análisis tardan horas, días e incluso semanas de ordenador. Alguien entonces habla de procesamiento en paralelo y encuentras otra disciplina en la que te considerabas diestro y de repente te vuelves analfabeto: la informática (o bioinformática, que parece menos difícil).

Los avances tecnológicos en el análisis de biomoléculas que han acontecido este siglo, junto a la secuenciación del genoma humano ha dado lugar al nacimiento de la Biología de Sistemas, basada en la unión de la bioinformática, la biología, la estadística y la potencia de las tecnologías ómicas. Muchos confiamos en que esto suponga una revolución en medicina: entender los procesos biológicos que subyacen a las enfermedades, integrar toda la información disponible y comprender el funcionamiento de las células, los tejidos, los organismos. Esto no me lo enseñaron en la carrera.

En Biomedica Molecular Medicine, la pregunta de partida la formulan los médicos; para procesar las muestras están técnicos de laboratorio, biólogos y químicos; los datos los generan expertos en ómicas; los matemáticos, ayudados por los bioinformáticos, analizan los datos y generan propuestas, que de nuevo los biólogos y químicos evaluamos y procesamos, y se las contamos a los médicos, a ver si dan respuesta a sus preguntas. La confluencia de las ciencias, la medicina del siglo XXI.

Original: Pulse – LinkedIn