LA IMPORTANCIA DEL MÉTODO CIENTÍFICO


Adrián Ruiz-Villalba


Investigador contratado, Departamento de Biología Celular, Genética y Fisiología, Universidad de Málaga


Por «método» se entiende «orden», «proceso con el que se busca un fin». Por tanto, es clave a la hora de abordar un tema de investigación científica.
Pero para ser conscientes de lo realmente importante que es la elección de un buen método científico, al igual que su precisión, su definición y, en función de eso, la interpretación que nosotros daremos del resultado, sólo hemos de analizar la evolución del método científico desde un punto de vista histórico. De forma paralela, han ido evolucionando el desarrollo tecnológico, el grado de profundidad del conocimiento y la evolución del método científico. Esto se pone de manifiesto especialmente en la neurociencia.
Podemos empezar por la época pre-aristotélica de la ciencia. Sobre el siglo V a. C., Empédocles y Demócrito, con sus teorías de las partículas vitales, diferenciaban ya el cerebro del resto del cuerpo; las partículas cerebrales eran esféricas, rápidas, claras y muy numerosas, propias del raciocinio; otras, menos abundantes, dirigían las emociones en el corazón; y unas más gruesas eran responsables de la lujuria. Posteriormente, Platón habla de la parte racional y responsable del comportamiento de la psique, la cabeza, y sitúa a la médula espinal como la unión geométrica entre cuerpo y alma.
Estas teorías son las predominantes antes de la llegada de Aristóteles, grande entre los más grandes. Este autor, con influencia de Anaxímenes (s. VI a. C.), adapta el concepto de psique al de vital pneuma (o principio vital), responsable de la vida como tal, y se le comienza a dar especial interés a la forma de los órganos, como responsable de la función que desempeña.
Los estudios realizados por Aristóteles no se renuevan hasta la llegada de Descartes, quedando restos de sus conceptos y términos hoy día.
Cabe destacar de la época post-aristotélica de los siglos II y III d. C. a Galeno y sus estudiantes. A este autor, influido por Erisístrato (304-255 a. C.), podemos atribuirle la recuperación de un término que llegará a nuestros días desde la época pre-aristotélica. Según este autor, la vital pneuma se transforma en psychic pneuma en el cerebro, permitiéndole ejecutar su función como centro de percepciones, transfiriendo ese flujo mediante nervios. Galeno, uno de los grandes históricos en este campo, habla de forma precisa y brillante de un «flujo de potencia», característico de la psychic pneuma, que será responsable de estimular a los nervios para realizar su función, generando sensaciones o acciones motoras, según fuese su causa final. Este autor del siglo II merece ser recordado por ser el primero que habla de «nervios sensibles» y «acciones motoras», además de mencionar transportes de «algo» desde el sistema nervioso hasta la periferia.
Entramos en los siglos XVI-XVII, donde destacamos a Descartes, con su teoría corpuscular. Según esta teoría, las partículas de la sangre se transformaban en corpúsculos en el cerebro, a los que llamó «espíritus animales», que recorren el cuerpo a través de «tubos nerviosos» (adheridos a las fibras que los constituyen), hasta llegar a su órgano destino, al cual estimula. Descartes destacaba que esta señal se transmite a sitios específicos (especificidad de la señal), mediante un sistema de válvulas, poros y conductos.
Hasta ese momento se habían conseguido establecer algunas nociones principales sobre el funcionamiento y la comunicación del sistema nervioso con el resto del cuerpo (en especial, los músculos), recurriendo exclusivamente a métodos macroscópicos. En función de sus observaciones, dudas, intuición y buenas revisiones bibliográficas, los autores de esta época consiguen grandes progresos teóricos a partir de escasos recursos técnicos. Autores posteriores, como Borelli o Croone desarrollan aproximaciones experimentales sobre la teoría corpuscular, dándole mayor rigor científico. Pero no es hasta la llegada de Fontana (1730-1805) cuando aparece el verdadero rigor científico. Gracias al desarrollo del microscopio de Leeuwenhoek, Fontana puede sacar más partido de las disecciones: es capaz de describir el nervio como un cilindro de cilindros, llenos de granos que permiten una rápida transmisión de la señal hacia su destino específico.
El siglo XVIII va a sufrir un avance experimental importante, que permite marcar un antes y un después en la era de la neurociencia; un nombre: Luigi Galvani. Situémonos: a principios de siglo, el peso de la teoría corpuscular de Descartes está presente en todo el desarrollo científico; por ejemplo, Boerhaave publica la primera figura de unión neuromuscular de la historia, asentando la idea de continuidad de flujo en el sistema nervioso.
En un trabajo publicado en 1738, Swammerdam demostró que no existe flujo de líquido real entre los nervios y los músculos, con unos experimentos curiosísimos sobre contracción muscular por punzamiento nervioso y de tendones, y de transmisión de agua del nervio hacia el músculo a través de los vasos.
Durante el siglo XVII se había progresado mucho en el estudio de la electricidad y en el siglo XVIII ya existían en los laboratorios aparatos capaces de generar electricidad estática. Así, cuando un colaborador de Galvani tocó, por azar, un nervio del músculo de la rana de un experimento cercano al de Galvani, éste vio cómo el músculo de la rana se contrajo. Su curiosidad le llevó a estudiar el fenómeno mediante el uso de una metodología brillante: Galvani prueba la conductividad animal de la corriente eléctrica. Pero no será hasta los experimentos de von Humbolt (1769-1859) cuando se asiente la idea de la existencia de un flujo real de corriente eléctrica como transmisión nerviosa. Gracias a los experimentos de Galvani y a las revisiones bibliográficas al respecto de von Humbolt, se comienza a abordar el estudio sobre el sistema nervioso de forma más precisa y acorde con los instrumentos de la época. Por ello, Galvani es considerado padre de la fisiología del sistema nervioso.
Entramos en el siglo XIX con nuevos y revolucionarios conceptos a investigar en la naciente fisiología del sistema nervioso. Se produce un avance instrumental considerable en la electricidad, con autores como Schweigger (galvanómetro, 1820) o Nobili (anula el efecto magnético de la Tierra, 1825). Este tipo de avances son inmediatamente aplicados al estudio de la electrofisiología: Matteucci descubre la transmisión de la corriente entre cortes de tejidos; du Bois-Reymond, con su hipótesis molecular, descubre una relación directa entre los tiempos de llegada y mantenimiento del estímulo y sus efectos sobre las células musculares; Müller, y sus estudios sobre la velocidad infinita de la transmisión de la señal nerviosa, cambia el enfoque del sistema nervioso hacia la transmisión de la señal; y Helmhotz, en 1849, mide la velocidad de la transmisión nerviosa (30,8 m/s), haciendo más accesible aún los estudios sobre el sistema nervioso.
Conociéndose la velocidad, pero ignorando cómo se produce, Bernstein (1868), recurre al recién establecido concepto de difusión molecular de Nerst para la producción de potenciales de acción como cambio en la permeabilidad de la membrana neuronal al ión potasio. Pero no todo el avance en neurociencia se produce a nivel de electrofisiología. Paralelamente, se formalizan estudios muy serios sobre anatomía del sistema nervioso gracias a los avances en las técnicas de fijación de muestras, corte y tinción tisular.
A partir de mediados del siglo XIX, empezaron a fusionarse diferentes tipos de estudio, dando muy buenos resultados:
1852: Kölliker relaciona las células nerviosas musculares con el asta dorsal de la médula espinal.
1862: Kühne habla de las terminaciones nerviosas y su implicación en la transmisión de la señal.
1863: Krause habla del acúmulo de corriente en las terminaciones nerviosas, transmitida por sustancias que contraen el músculo.
Todo este tipo de hipótesis no se podían demostrar debido a la baja capacidad de resolución de los métodos y técnicas histológicas de la época. Sin embargo, el interés por el circuito de transmisión de la señal nerviosa lleva a autores como Deiters o Auerbach a rescatar de la bibliografía temas infravalorados como la continuidad o no del sistema nervioso. Ello se debió a problemas con los métodos de tinción: las tinciones más modernas de la época requerían de sales de plata, dando resultados contradictorios. La técnica más problemática y útil al mismo tiempo fue la ideada por Camillo Golgi en 1886. La técnica consiste en el uso de bicromato potásico y nitrato de plata para teñir neuronas. Esta técnica permitía ver las células nerviosas al completo, pero al azar, de tal forma que diferentes autores veían resultados contradictorios. Resurge la controversia sobre la continuidad según la teoría corpuscular de Descartes y Borelli.
No es hasta Ramón y Cajal (1852-1934) cuando se dilucida la verdad acerca de la continuidad del sistema nervioso. Con estudios muy serios sobre la degeneración neuronal y con experimentos que buscaban contradecir a otros autores de la época, Santiago Ramón y Cajal demuestra la independencia de la célula nerviosa con su «teoría neuronal». El gran mérito de Ramón y Cajal fue abordar el problema desde un punto de vista inequívoco de una forma precisa y el luchar por su hipótesis realizando experimentos que refutaban las hipótesis alternativas que iban surgiendo. Además de en este tipo de estudios, las ideas de Ramón y Cajal hicieron progresos en otros ámbitos de los estudios en neurociencia, como en el estudio del comportamiento.
Con los trabajos sobre la conexión neuronal de autores como Jackson, Wernicke, Sherrington (introduce el concepto de la sinapsis) y Ramón y Cajal, y las ideas globales de regionalización del cerebro, se llega a dilucidar cómo las interconexiones por vías específicas son las responsables de unas funciones también específicas. Cabe destacar aquí a dos autores: Wernicke y Brodman. Wernicke, mediante autopsias poco definitorias y una fuerte base bibliográfica, fue capaz de esquematizar diferentes regiones de asociación del cerebro, mediante un simple método hipotético-deductivo. Brodmann, basándose en estudios de Wernicke, desarrolla un mapa citoarquitectónico basado en la estructuración de las células y la disposición de éstas en el cerebro, por el que lo regionaliza en 52 áreas distintas. Este mapa se usa actualmente.
En estudios del comportamiento, los métodos macroscópicos han sido los más usados:
- Lashley, con estudios sobre aprendizaje, regionaliza el cerebro de rata.
- Adrian, Marshall y Bard, en los años 30, analizan cómo los diferentes estímulos táctiles en los gatos generan una actividad eléctrica en diferentes partes del cerebro.
- Penfield y Ojemann, en los años 50, hacen estudios in vivo sobre humanos, con el uso de electrodos y cirugía cerebral.
En los últimos 50 años, se han producido avances extraordinarios, fomentados por el espectacular avance tecnológico y por la capacidad de aplicar estos avances a otras disciplinas científicas. Los soportes informáticos han sido la clave de este progreso sin precedentes.
Podemos destacar la importancia del método científico en la investigación y cómo el progreso de la tecnología, y su aplicación, afecta directamente al progreso en investigación científica. Pero es la mente del investigador, en último término, la que lleva a éste a la elección de unos u otros y al desarrollo de otros nuevos, que permitan que la ciencia vaya progresando. Otro factor importantísimo, y actualmente subestimado, es la necesidad de combinar métodos científicos de diferentes disciplinas, para generar interpretaciones más contenciosas y útiles de los resultados obtenidos. La interdisciplinariedad ha sido la herramienta clave en los pasos más importantes del avance científico a lo largo de toda la historia de la ciencia. Miremos al pasado y aprendamos de él. Para saber más, véase la revisión The early history of the synapse: From Plato to Sherrington, de Max R. Bennett en Brain Research Bulletin, vol. 50, n.º 2, pp. 95-118 (1999).