La metodología científica

La ciencia es un modo de conocimiento formulado en un lenguaje riguroso y elaborado de acuerdo con una metodología adecuada, de tal forma que lo que la distingue de cualquier otra forma de saber es, sobre todo, la posesión de un método específico de investigación. El saber ordinario, por el contrario, constituye una forma de expresión que contiene un conocimiento impreciso y relativo de las cosas, que se presenta de manera asistemática y sin ningún grado de objetividad.

La historia del pensamiento y la historia de las ciencias suponen, en este sentido, una tentativa por determinar cuál es la manera adecuada de abordar el fenómeno del saber y cómo marcar las distancias entre el conocimiento basado en una metodología y el saber ordinario, que se halla desprovisto de ella.

Por otra parte, la consideración de un método que satisfaga las exigencias más apremiantes de la investigación científica supone la confrontación de dos vías: la que va desde la razón y la lógica hasta los hechos, y la que va desde los casos particulares hasta el establecimiento de unas leyes generales.

El concepto de método

Desde un punto de vista etimológico, el concepto de método procede del término griego hodós, que quiere decir «camino», «senda».

Con él se hacía referencia a las vías o a los procedimientos que había que tomar o considerar para alcanzar un fin, una meta o un objetivo que se determinaba de antemano.

Parménides y otros pensadores antiguos ya habían hablado de las vías adecuadas para acceder al conocimiento objetivo y verdadero del ser, de lo que hay. Pero fue René Descartes (1596-1650), en el siglo xvii, el que estableció el auténtico sentido de la metodología moderna de una forma sistemática y ortodoxa.

Según el pensador racionalista francés, un método se define como el conjunto de reglas que permiten alcanzar el conocimiento verdadero. Lo realmente interesante de la propuesta de Descartes es que su concepción del método es universal, no pretende centrarse en la aplicación de unas reglas específicas dentro de una disciplina concreta, sino que describe unas normas y unas vías completamente generales, que valen tanto para las matemáticas como para la metafísica.

No obstante, en la actualidad lo más usual es que cada tipo de ciencia busque su propio método. Así, según la tradición occidental de la Edad Moderna, previa al establecimiento de las ciencias experimentales, para estudiar un objeto material, físico, el método que se debía emplear era el inductivo; por el contrario, si se trataba de las ciencias formales y lo que se quería abordar era la estructura de un fenómeno o de una verdad cualquiera, debía emplearse la deducción.

Esto no significaba que los científicos no se apoyasen en ambos métodos para dirigir sus investigaciones; bien al contrario, a partir de los experimentos de Galileo Galilei era habitual que la aplicación del proceso inductivo fuera precedida de una serie de deducciones a partir de unas hipótesis.

El método deductivo

El método deductivo consiste en un razonamiento que permite derivar de una o varias oraciones o proposiciones (conocidas como «premisas») otra oración o proposición (conocida como «conclusión»), que es su consecuencia lógica.

Las premisas suelen describir algún tipo de relación o atributo universal, en su sentido más general, mientras que la conclusión determina la verdad de un caso particular que está integrado dentro de las premisas.

Así, a grandes rasgos, se puede afirmar que la estructura básica de las deducciones constituye el tránsito desde lo universal o lo general hasta lo particular, lo que supone, en cierta medida, la inversión del método inductivo, que va desde lo particular hasta lo general.

Un ejemplo característico de deducción es el siguiente: si se parte de la premisa según la cual «todos los hombres son mortales» y se considera que «Sócrates es un hombre», se deduce que «Sócrates es mortal».

Tabla 1. Para el pensamiento tradicional, la deducción y la inducción se corresponden con las dos formas de ciencia más generales: las formales, entre las que se incluyen las matemáticas o la geometría, y las experimentales o positivas, como la física o la biología. Posteriormente, el método hipotético-deductivo puso en duda esta clasificación.

El método deductivo es elemental dentro del mundo de las ciencias formales y empíricas, de tal modo que ya fue estudiado por los primeros filósofos de la historia del pensamiento y la ciencia.

La primera expresión ejemplar del método deductivo y de la axiomática se encuentra en los Elementos de Euclides, donde se explica la totalidad de la geometría a partir de una serie de definiciones, postulados y axiomas. En la imagen, fragmento de la célebre Escuela de Atenas, de Rafael Sanzio, que ilustra a un grupo de geómetras griegos.

El método deductivo en la Grecia antigua. Dos fueron los autores clásicos que mejor supieron dar cuenta del método deductivo: Aristóteles y Euclides.

La deducción en Aristóteles. Aristóteles (384-322 a.C.) representa la formulación más ortodoxa y genuina del método deductivo, que aparece emparentado en su obra con la axiología y que es propuesto como el método científico ideal.

En contra de lo que posteriormente sostuvieron los pensadores de la Edad Moderna y los científicos experimentales, Aristóteles sostenía que el saber debe intentar demostrar todos sus supuestos antes de enfrentarse a la experiencia, de tal forma que sus principios deben ser autodemostrables e independientes.

Según el filósofo de Estagira, para establecer una ciencia lo primero que hay que hacer es instaurar sus principios elementales, sus supuestos axiológicos. Luego sólo hay que definir el contenido preciso de los elementos y derivar de ellos las consecuencias pertinentes.

Por tanto, la ciencia para Aristóteles sólo está integrada por axiomas, que son verdades indemostrables tomadas como principios, y por una serie de postulados derivados de aquéllos.

El pensador griego partía además de uno de los prejuicios más elementales dentro del mundo de la ciencia, y es que existe una especie de correspondencia entre el mundo de la lógica y el mundo material, de tal modo que las relaciones lógicas son idénticas a las ontológicas. Por ello, cuando se describe la estructura de un enunciado cualquiera lo que se está haciendo es describir el mundo mismo, y la relación existente entre un sujeto y un predicado es igual a la que se puede observar entre una sustancia y sus atributos.

La deducción en Euclides. Euclides (330-275 a.C.), que desarrolló su obra poco después de la muerte de Aristóteles, constituye la primera expresión práctica y sistemática del método deductivo, hasta tal punto que sus Elementos son considerados como un hito dentro de la historia de la ciencia y el saber.

Según Euclides, la validez y la consistencia de la geometría debía demostrarse a partir de tres elementos fundamentales: las definiciones, los postulados y los axiomas.

Las definiciones, como su propio nombre indica, sólo eran breves descripciones de la naturaleza de los principales objetos geométricos, como la línea o el punto (este último fue definido como «lo que no tiene partes»).

Los postulados consistían en proposiciones que no se podían demostrar y cuyo sentido no era del todo evidente, como el célebre quinto postulado de los Elementos:

  • «Por un punto exterior a una recta sólo puede trazarse una paralela a dicha recta».

Por último, los axiomas constituían verdades que, como los postulados, tampoco eran demostrables, con la diferencia de que sí eran evidentes y podían referirse a verdades más generales que no se circunscribían sólo al mundo de la geometría. Un ejemplo es el siguiente axioma:

  • «Cosas iguales a la misma cosa son iguales entre sí».

Los Elementos de Euclides hacen una distinción entre las definiciones, que describen objetos; los postulados, que son enunciados indemostrables y no necesariamente evidentes, y los axiomas, que son verdades indemostrables, evidentes y completamente generales.

Para Euclides, a partir de la combinación lógica de las definiciones, los postulados y los axiomas era posible establecer y deducir el funcionamiento de toda la geometría. Esta idea sedujo a un gran número de científicos y pensadores de la Edad Moderna, pero también contó con un buen número de críticas por parte de los científicos experimentales.

La deducción y la axiomática en la Edad Moderna. Si la Edad Media se dedicó a aplicar los principios de la metafísica y la física aristotélica al nuevo paradigma escolástico, la Edad Moderna se encontró ante la necesidad de coordinar los principios teóricos de la obra de Aristóteles con la irrupción de una «nueva ciencia» que se caracterizaba, a grandes rasgos, por su carácter experimental.

Esto hizo que naciesen ciertas reservas hacia la coherencia del método deductivo aristotélico, que, si bien fascinaba a la mayor parte de los pensadores y científicos, también generaba dudas cuando se valoraba que ni el propio Aristóteles había sido fiel a sus principios.

En un principio, los grandes físicos y filósofos de la Edad Moderna hicieron suyo, desde las perspectivas de la época, el método axiomático, como puede apreciarse en De motu locali, de Galileo Galilei, o en el establecimiento de las leyes de la nueva dinámica, a cargo de Isaac Newton.

Con su axiología, Aristóteles pretendía explicar la naturaleza del mundo, no sólo su funcionamiento, mientras que Newton y sus contemporáneos empleaban únicamente el método deductivo para demostrar que sus experimentos y teorías eran válidos y describían perfectamente lo que sucedía en el mundo de la experiencia.

En lo que se refiere a los Elementos de Euclides, éstos fueron sumamente útiles para el establecimiento de nuevos modelos explicativos de la realidad, como el de Baruch de Spinoza, pero tampoco fueron interpretados con completa fidelidad.

Así, la Edad Moderna apreció la suma utilidad de la vieja metodología clásica en la elaboración de nuevas teorías que funcionasen y sirviesen para describir cuál sería el comportamiento de la naturaleza bajo unas condiciones y unos experimentos muy concretos; pero también olvidó la tentativa de llevar a cabo una expresión de la esencia de la realidad a partir de unos cuantos enunciados axiomáticos.

Los grandes científicos modernos, como Isaac Newton (representado en la imagen en un retrato de sir James Thornhill), se basaron en la axiomática de Euclides para establecer sus propios principios. Sin embargo, las ciencias experimentales no fueron tan rigurosas como el geómetra griego, y tampoco pretendieron conocer la esencia de las cosas, sino sólo su comportamiento.

No en vano, la geometría euclidiana pronto dio paso a otras formas de geometría difíciles de intuir, que trazaban nuevas relaciones entre los elementos y que se movían a través de otras dimensiones.

Esto demostraba, como más tarde sostendría David Hilbert en el siglo xx, que los sistemas axiomáticos no tenían por qué fundamentar su validez en su correspondencia con la realidad, y que éstos se establecían arbitrariamente.

Por tanto, la Edad Moderna demostró que lo importante del método deductivo es que a partir de un juego de referencias y axiomas se puede dotar de una base teórica a una realidad práctica que funciona por sí misma.

La axiomática contemporánea. La axiomática contemporánea ha hecho suyas estas afirmaciones que empezaron a insinuarse en la modernidad, y presume que los axiomas no tienen por qué basarse en ninguna clase de evidencia.

Según David Hilbert (1862-1943), los sistemas axiomáticos sólo son juegos que representan unas relaciones formales bajo unas circunstancias concretas que vienen contenidas en las definiciones del sistema. Sin embargo, el sistema axiomático no dice nada a propósito de su interpretación, por lo que las verdades postuladas pueden ser aplicadas a realidades muy distintas y pueden además ser articuladas con otros sistemas y leyes, dando lugar a realidades diferentes.

En consecuencia, la axiomática sólo constituye un modelo formal que puede ser aplicado o no, que puede resultar útil para esclarecer un hecho o una verdad pero que también puede realizarse para ejercitar la razón o para dar lugar a una estructura bella, como señaló Albert Einstein.

En el año 1687, Isaac Newton publicó las tres leyes del movimiento, que atañen tanto a los cuerpos terrestres como a los cuerpos celestes, estableciendo así una axiomática elemental del movimiento.

Un ejemplo de esta arbitrariedad interpretativa de los axiomas se halla en la «novela geométrica» de Edwin A. Abbott Planilandia. En ella, una sociedad integrada por figuras geométricas bidimensionales se enfrenta al enigma de la posible existencia de una tercera dimensión.

A partir de una axiología (la geometría euclidiana), Abbott describe la sociedad de su época, haciendo corresponder a los hombres con triángulos, a los sacerdotes con círculos y a lo sobrenatural con lo tridimensional.

Así, el novelista interpreta la axiología para hacer una crítica a la sociedad machista de su época (las mujeres se caracterizan por tener un ángulo inferior al de los hombres, lo que denota menos inteligencia) y propone la existencia de otros planos geométricos, de otras axiologías, con la aparición de una esfera.

Tabla 2. La axiomática moderna definió cómo debe ser un sistema axiomático a partir de una serie de normas y requisitos. Entre ellos destacan la completitud, la decibilidad y la independencia.

Sin embargo, esto no quiere decir que para la axiomática de la época contemporánea las axiologías no deban estar sujetas a una serie de normas concretas y precisas; bien al contrario, éstas tienen que atenerse a la coordinación de unos elementos fundamentales y deben cumplir unos determinados requisitos mínimos.

En primer lugar, un sistema axiomático debe consistir en una colección que contenga todas las aseveraciones que se puedan deducir lógicamente de unas primeras verdades incuestionables, que son los axiomas.

En segundo lugar, estos axiomas deben estar constituidos por unos símbolos primitivos, por un alfabeto propio, y por unas relaciones elementales, descritas a través de unas reglas de formulación.

Los sistemas axiomáticos deben cumplir además tres requisitos fundamentales: el de la decibilidad, el de la completitud y el de la independencia.

Decibilidad. Un sistema axiológico debe ser decible, o sea, tiene que ofrecer la opción de saber, en un número finito de pasos, si un elemento pertenece o no al sistema axiomático. De lo contrario, el sistema axiomático sería completamente inútil, ya que no se podría interpretar, deducir ni desarrollar.

Completitud. La completitud de un sistema axiológico quiere decir que el conjunto de axiomas que lo integran ha de permitir demostrar todos los teoremas del sistema. En otras palabras: cualquier proposición expresada en los términos del sistema será tal que ella o su negación podrá ser demostrada como teorema.

Independencia. Por último, un sistema axiomático debe ser independiente, en el sentido en que ningún axioma ha de poder derivarse como teorema a partir de otros axiomas.

El gran sueño de las matemáticas modernas y contemporáneas ha sido el de demostrar lógicamente que el sistema numérico constituye un sistema axiomático completo. Sin embargo, el matemático Kurt Gödel (1906-1978) acabó con esta tentativa emprendida por autores como el propio Hilbert al demostrar que los sistemas axiomáticos numéricos son siempre incompletos.

El teorema de Gödel, que es elemental dentro de la historia de la metodología y la lógica, demuestra que siempre existe al menos un enunciado que no es decible, cuya pertenencia o no al sistema axiomático de los números no puede ser demostrada.

Además, Gödel también revela que es imposible demostrar la consistencia interna de un sistema dado desde el seno del propio sistema, lo que supone que siempre hay que «salirse» de una axiomática y entrar en otra para mostrar su coherencia.

El método inductivo

La formulación original del método inductivo se encuentra en la obra de Aristóteles, quien lo definió como el proceso que va desde lo particular hasta lo universal, oponiéndolo así a la deducción y al silogismo.

El pensador griego criticó la inducción cuando se intentaba aplicar al mundo de las ciencias, ya que consideraba que la deducción era el único método válido; sin embargo, la Edad Moderna vino a restablecer el valor de la inducción gracias al afianzamiento de la nueva ciencia de Francis Bacon (1561-1626).

A grandes rasgos, la inducción es un método bastante sencillo que se aplica no sólo en el mundo de la ciencia, sino también en el ámbito del saber ordinario. Consiste en observar una serie de hechos aislados y particulares para deducir a partir de ellos una ley general, que luego permita deducir a su vez el comportamiento futuro de los objetos estudiados.

Por ejemplo, si se quisiera establecer por inducción una ley acerca del comportamiento de los gansos, bastaría con observar todos los gansos posibles, señalar semejanzas y pautas, y luego crear un enunciado que describiera las leyes generales. De esta forma, según las teorías más ingenuas, el método inductivo consta de tres momentos:

  • En primer lugar se procede a la contemplación de los casos relevantes y objetivos para la constitución de la teoría, intentando no partir de ninguna clase de prejuicio y tratando además de observar casos semejantes en circunstancias distintas, con el fin de no sesgar demasiado las observaciones.

  • Luego se procede a clasificar y a comparar los resultados de las observaciones, de tal modo que se puedan establecer unas leyes que describan el comportamiento general de los hechos semejantes observados.

  • En tercer y último lugar, se toman las generalizaciones resultantes y se deducen de ellas leyes que puedan servir para realizar predicciones acerca del comportamiento de los objetos estudiados.

El inductivismo «ingenuo» está considerado actualmente como un método inoperante. Se suele objetar contra él que no existen los datos puros que pretenden los inductivistas clásicos y que las generalizaciones no son lógicas, ya que son incompletas.

El valor de una ciencia que siga esta forma de inducción es muy dudoso, ya que el método así comprendido está lleno de inexactitudes y prejuicios.

Así, cabe plantearse si realmente existen hechos objetivos, que un observador pueda contemplar sin entrometer su propia subjetividad. Parece evidente que desde el momento en el que se elige la contemplación o el análisis de unos hechos u objetos, éstos ya no son objetivos, se separan del curso natural de lo que sucede y se cargan de teoría y subjetividad.

Como si se tratase de El jardín de las delicias, de El Bosco, la realidad está llena de matices, hechos y objetos que se dan de manera unánime. Llamar «objetivo» a cualquiera de esos hechos, tal y como pretenden los inductivistas, supone no ser fiel a la realidad, implica fijar la mirada en un aspecto del cuadro a partir de un interés concreto o una teoría determinada, olvidando un gran número de estímulos.

La percepción humana se caracteriza precisamente por la selección de estímulos, de tal forma que sólo se consideran aquellos que son útiles para un fin cualquiera. Como señaló Jean Piaget (1896-1980), desde que un individuo nace aprende a ver de una determinada manera, lo que implica que su percepción de la realidad está condicionada por la cultura en la que nace y por sus necesidades existenciales reales y concretas. En consecuencia, no existen los hechos objetivos, que siempre están cargados de perspectivismo, interés y teoría.

La afirmación anterior puede sustentarse en acontecimientos cotidianos. Por ejemplo, cuando se produce el descubrimiento de un resto arqueológico, éste no resulta significativo hasta que no es integrado dentro de un cuerpo teórico preexistente. Otro ejemplo: la percepción que un mexicano tiene de la nieve es completamente distinta de la que tiene un esquimal, puesto que, para el segundo, la nieve forma una parte elemental de su vida, mientras que para el primero sólo supone un accidente que no guarda ninguna connotación existencial.

Cuando se trata de la ciencia, los objetos adquieren sentido sólo en virtud de las teorías ya existentes, de los paradigmas dominantes, que hacen que algunas cosas sean significativas y otras no. La inducción parte además de otro prejuicio elemental, que ha sido objeto de severas críticas por parte de científicos y teóricos de las más diversas épocas y circunstancias: desde un punto de vista lógico, el método inductivo supone que de unos hechos particulares se puede deducir una teoría general.

Dicha deducción se advierte como errónea, pues, por definición, las leyes tienen que contener todos los casos posibles, no sólo unos pocos, y la observación directa de todos los casos posibles no es viable. Si se quiere estudiar de forma científica el comportamiento de los gansos no bastará con contemplar cien, ni mil, ni dos millones; habría que conocer todos los casos existentes –e incluso los que se dieron en el pasado o se puedan dar en el futuro– para hacer una generalización que sea científicamente válida. La imposibilidad de llevar esto a cabo indica las claras limitaciones del método de la observación.

Las críticas al método inductivo. Aunque a lo largo de la Edad Moderna se pueden encontrar ejemplos de autores que intentaron validar determinadas teorías a partir de la inducción, lo más habitual es toparse con un sinfín de críticas certeras e ingeniosas contra el método.

Las más relevantes desde un punto de vista filosófico son las llevadas a cabo por el pensador empirista David Hume (1711-1776), en el siglo xviii, y las de Karl Popper (1902-1994), ya en la pasada centuria, dentro de la filosofía de la ciencia y circunscritas al método hipotético-deductivo.

La crítica de Hume contra la inducción parte de una teoría más general que ataca directamente al principio de causalidad, que era de vital importancia para la ciencia experimental moderna y para los filósofos racionalistas, como Leibniz.

Según el pensador inglés, las ciencias y la filosofía dogmática de la Edad Moderna parten de un presupuesto fundamental, y es que la ley de causalidad existe, por sí misma, en la naturaleza, de tal manera que no se trata de una categoría lógica, sino de una realidad ontológica.

Así, los científicos y los racionalistas consideraban que el saber consistía en hallar las causas que originan los fenómenos. Sin embargo, según Hume, la ley de causalidad, que es la se encarga de establecer las leyes que describen el comportamiento ordinario de la realidad, sólo es fruto de la fe humana, no de la lógica o de la naturaleza misma.

Las leyes naturales sólo existen en la mente, y son el resultado del hábito. Cuando un individuo observa cómo determinados fenómenos se repiten con regularidad en unas circunstancias concretas, termina considerando que esa regularidad debe ser tomada como una ley y que la naturaleza siempre se comportará de la misma forma.

Sin embargo, para el empirista no existe ninguna certeza que asegure que las cosas siempre van a suceder de la misma manera. La naturaleza es un misterio, y si el hombre establece pautas a partir de la visión habitual de unos comportamientos es porque se halla desprotegido en la existencia y necesita agarrarse a alguna clase de seguridad.

En consecuencia, si el principio de causalidad sólo es una costumbre, la inducción carece de sentido, ya que el que se observen unos casos particulares no implica que se pueda establecer una ley general.

A pesar de la radicalidad de esta crítica, Hume consideraba que el principio de causalidad y la fe en la inducción eran sumamente útiles en la vida ordinaria. Así, sería imposible dar un solo paso en la vida si no se contase con que las cosas vayan a comportarse de una forma regular.

El método hipotético-deductivo

Si los filósofos modernos trataron de defender la validez del método deductivo o del método inductivo, los científicos fueron los que finalmente propusieron un tercer método que se ajustaba mucho mejor a las necesidades de las ciencias experimentales y al verdadero comportamiento de la realidad.

El método hipotético-deductivo fue creado por Galileo Galilei (1564-1642), quien se inspiró en la obra de Euclides y en los principios de Arquímedes y mostró su validez con ejemplos prácticos, no con discusiones o tratados especulativos. Su éxito fue tal que rápidamente se convirtió en el método ortodoxo dentro de la praxis científica, y ha llegado hasta la actualidad como un ejemplo de rigor y precisión científicos.

La obra de Galileo Galilei, cuya tumba aparece en la imagen, supone una nueva comprensión del método científico. Ya no se trata de considerar por un lado la razón y por el otro la experiencia. El nuevo método experimental aúna lo racional y lo empírico, dando lugar al método hipotético-deductivo.

A grandes rasgos, el método hipotético-deductivo sigue una vía intermedia entre la inducción y la deducción, y toma de cada metodología lo más valioso. Emplea la deducción a partir de unos axiomas o hipótesis, así como la contrastación directa con la experiencia, que muestra la validez o la falsedad de las consecuencias derivadas de la hipótesis.

El punto de partida del método se halla en la experiencia, pero no en la experiencia ingenua y caótica de la que hablaban los inductivistas, sino en una experiencia matizada, filtrada por las matemáticas y ordenada a partir de unos ideales.

El método hipotético-deductivo parte de la existencia de unas teorías científicas y un problema que hay que resolver, al que se opone una hipótesis de la que se deducen unas consecuencias contrastables empíricamente.

Así, se experimenta con la realidad a partir de unos supuestos o hipótesis que pretenden adelantarse a lo que sucederá, manipulando la naturaleza con instrumentos y artilugios que sirven para llevar a cabo diversas formas de medición.

También es posible realizar el método hipotético-deductivo sin llegar a operar directamente sobre la realidad. Los experimentos mentales permiten calcular o deducir lo que sucederá a partir de unos presupuestos o de unos datos que ya se poseen de anteriores mediciones.

En cualquier caso, Galileo Galilei no era tanto un teórico de la ciencia como un científico experimental, por lo que la mejor forma de comprender el alcance y el significado del método hipotético-deductivo pasa por estudiar los trabajos de Karl Popper. El método de Popper, especialmente apropiado para las ciencias empíricas, apareció expuesto en La lógica de la investigación científica, obra de 1934 que supuso una auténtica revolución en el mundo de la filosofía.

Para Popper, las actividades científicas parten del reconocimiento de la existencia de un problema, el cual surge de una teoría ya existente que por diversos motivos entra en crisis y ya no es capaz de ser coherente con los hechos. En consecuencia, según el pensador británico, jamás se parte de los hechos puros, relevantes u objetivos, sino de la consideración teórica del mundo.

A continuación se plantea una hipótesis, una solución provisional que constituye una tentativa de explicar el problema. Estas hipótesis son predicciones que dicen qué es lo que puede suceder si se introducen cambios en un fenómeno, si se modifica la teoría existente.

Por último, se deducen las consecuencias de las hipótesis y se contrastan tanto con las teorías existentes como con la realidad, viendo si efectivamente se soluciona el problema y si la nueva teoría aporta alguna clase de novedad.

En el caso de que la hipótesis sea contrastada con éxito y se corresponda con la realidad, solucione el problema planteado o sea capaz de predecir lo que va a suceder, se acepta dentro de la provisionalidad.

En el caso de que la contrastación demuestre que la hipótesis es errónea, se intentan buscar nuevas vías y se aprovecha lo que la hipótesis errónea haya podido poner al descubierto.

En consecuencia, para Popper el hecho de que una hipótesis haya sido contrastada de forma favorable no significa que ésta sea cierta en absoluto; sólo quiere decir que es válida de forma temporal, mientras no genere otro problema que la invalide.

Esto supone una inversión radical de los presupuestos del inductivismo, ya que el camino descrito por el método hipotético-deductivo va desde la teoría hacia los hechos, y no al revés.

El problema de la contrastación

La contrastación, que no es sino la puesta a prueba de una hipótesis, desempeña un papel fundamental dentro del método hipotético-deductivo. Como las leyes científicas describen realidades universales, que corresponden a todos los casos posibles, para contrastarlas hay que derivar de ellas consecuencias que puedan ser enfrentadas a la realidad, a los casos concretos.

No obstante, al llevar a cabo la contrastación de una hipótesis el científico se encuentra siempre con un problema elemental: no es posible comprobar la verdad de todos los casos posibles que se derivan de una ley general. Es decir, si se crea una ley acerca del comportamiento de los gansos, es completamente imposible comprobar si todos los gansos existentes, habidos y por haber, se ajustan a la ley que describe su comportamiento. Siempre quedará algún caso que no se ha verificado, siempre se escapará algún matiz que no es comprobable de forma exhaustiva y directa. En consecuencia, las leyes se caracterizan porque siempre tratan de ir más allá de la experiencia, de lo que se puede comprobar.

En este contexto, el pensador neopositivista Rudolf Carnap (1891-1970) concluyó que las verdades que se establecen a través del método hipotético-deductivo sólo son provisionales, lo que es científicamente suficiente mientras no venga otra teoría o algún hecho a acabar con su validez.

Las deficiencias de la contrastación llevaron a Popper a desarrollar lo que se conoce como la teoría de la falsación, fundamental en historia de la filosofía de la ciencia. La contrastación, en este caso, no debe tratar de buscar casos particulares y ejemplos que ayuden a sostener la validez de una teoría, sino de hallar todos aquellos casos que demuestren que una hipótesis es falsa.

De este modo, el método hipotético-deductivo no debe buscar la verdad, sino la falsedad de lo que propone; y una teoría es más fuerte cuantas más refutaciones y falsaciones sea capaz de aguantar.

El propio Popper afirma en sus Conjeturas y refutaciones:

  • «Una buena teoría es aquella que permite ser refutada, que ofrece la suficiente cantidad de deducciones y ejemplos prácticos para que pueda ser puesta a prueba con facilidad».

En consecuencia, una teoría que no puede ser refutada, que sólo se basa en casos extremos y circunstanciales que la avalan, es una mala teoría.

Desde este punto de vista, las afirmaciones teológicas, religiosas o metafísicas no son científicas, ya que no posibilitan ninguna forma de falsación; lo que demuestra que el falsacionismo es un criterio de demarcación que resulta muy útil para distinguir las hipótesis científicas de aquellas teorías que no lo son.

Ahora bien, como ya señaló Immanuel Kant o como posteriormente remarcó Ludwig Wittgenstein, el hecho de que un enunciado no sea científico y no se pueda confrontar con la realidad no quiere decir que sea algo inútil. La metafísica o la religión son formas de expresión tan susceptibles de transformar el mundo como una buena hipótesis o una teoría válida.

¿Infalibilidad del método?

Los pensadores de la Edad Moderna creían que las teorías se podían elaborar de forma mecánica, siguiendo unas reglas determinadas de carácter universal y unos métodos infalibles. Sin embargo, las ciencias modernas y contemporáneas han venido a demostrar que no hay método perfecto y que, en muchas ocasiones, las teorías nacen a partir del azar.

Por ejemplo, August Kekulé, un afamado químico alemán decimonónico, relata cómo durante mucho tiempo intentó sin éxito hallar una fórmula que diese cuenta de la estructura de la molécula de benceno, hasta que, una tarde de 1865, encontró una solución a su problema mientras dormitaba frente a la chimenea.

Contemplando las llamas, le pareció ver átomos que danzaban serpenteando. De repente, una de las serpientes se asió la cola y formó un anillo para luego girar ante él. Kekulé despertó de golpe: se le había ocurrido la idea de representar la estructura molecular del benceno mediante un anillo hexagonal. El resto de la noche la pasó extrayendo las consecuencias de esta hipótesis.

Esto demuestra que, a pesar de que los métodos científicos posean un valor indudable, buena parte de los grandes descubrimientos son resultado de la espontaneidad. Lo que no son en absoluto azarosos son los problemas que origina el desarrollo de nuevas teorías, ya que éstas surgen siempre a partir de un cuerpo axiomático y científico ya existente. Tampoco es azarosa la contrastación de los resultados de las hipótesis, que debe seguir los parámetros descritos por Popper en La lógica de la investigación científica, ya comentada.

Uno de los autores que mejor ha tratado esta relación entre los descubrimientos científicos y el azar es Paul Feyerabend (1924-1994), quien en su obra Tratado contra el método. Esquema de una teoría anarquista del conocimiento describe casos que demuestran cómo las hipótesis se suelen establecer de las formas más inesperadas.

En resumen, la historia de los métodos de la ciencia supone una travesía a lo largo de las más diversas concepciones de la labor científica, que parten del amor por la rigidez de la deducción y la precisión matemáticas, continúan por los derroteros improbables de la inducción y terminan por rendirse a la evidencia del azar.

No en vano, el siglo xx supuso el reconocimiento de la parte más humana de la ciencia, lo que suscitó el estudio no ya sólo de los métodos, sino también de las condiciones en las que trabajaban los científicos o sus relaciones con otros ámbitos del saber y de la existencia.

Análisis de textos

René Descartes: –Reglas para la dirección del espíritu

Así pues, entiendo por método reglas ciertas y fáciles, mediante las cuales el que las observe exactamente no tomará nunca nada falso por verdadero, y, no empleando inútilmente ningún esfuerzo de la mente, sino aumentando siempre gradualmente su ciencia, llegará al conocimiento verdadero de todo aquello de que es capaz.

Texto 1. La obra de René Descartes, con su Discurso del método o sus Reglas para la dirección del espíritu, constituye uno de los paradigmas de la metodología científica. En ella expresa con claridad y precisión la naturaleza del método universal del conocimiento.

David Hume: –Investigación sobre el entendimiento humano

Todas las inferencias sacadas de la experiencia suponen, como su fundamento, que el futuro semejará al pasado y que los poderes similares se unirán a similares cualidades sensibles. Si existiera alguna sospecha de que el curso de la naturaleza pudiera cambiar y que el pasado no sirviera de regla para el futuro, toda experiencia resultaría inútil y no podría dar origen a inferencia o conclusión alguna. Por lo tanto, es imposible que argumentos sacados de la experiencia puedan probar la semejanza del pasado con el futuro, ya que todos los argumentos semejantes están fundados en la suposición de tal semejanza. Aun admitiendo que el curso de las cosas siempre ha sido regular, este solo hecho, sin ningún argumento o inferencia nueva, no prueba que para lo futuro continuará así.

Texto 2. David Hume llevó a cabo, en el siglo xviii, la crítica más devastadora y coherente de su época contra el método inductivo. Para el pensador empirista, la regularidad que los inductivistas presuponen en el comportamiento de la naturaleza es un mero prejuicio.

Karl Popper: –La lógica de la investigación científica

Pues éstos [los enunciados universales] no son jamás deducibles de enunciados singulares, pero sí pueden estar en contradicción con estos últimos. En consecuencia, por medio de inferencias puramente deductivas (valiéndose del modus tollens de la lógica clásica) es posible argüir de la verdad de enunciados singulares la falsedad de enunciados universales.

Texto 3. Para Karl Popper, desde el punto de vista lógico la falsación es correcta, mientras que la verificación siempre se muestra insuficiente. En consecuencia, tiene más valor el error que el acierto.

Paul Feyerabend: –Tratado contra el método. Esquema de una teoría anarquista del conocimiento–

La idea de un método que contenga principios firmes, inalterables y absolutamente obligatorios que rijan el quehacer científico tropieza con dificultades considerables al ser confrontada con los resultados de la investigación histórica. Descubrimos entonces que no hay una sola regla, por plausible que sea, y por firmemente basada que esté en la epistemología, que no sea infringida en una ocasión u otra. Resulta evidente que esas infracciones no son sucesos accidentales, que no son consecuencia de una falta de conocimiento o de atención que pudiera haberse evitado. Por el contrario, vemos que son necesarias para el progreso.

Texto 4. Paul Feyerabend, conocido filósofo de la ciencia, publicó en 1975 un libro cuyo título es sugerente a propósito de la labor científica: Tratado contra el método. Esquema de una teoría anarquista del conocimiento. En él describe cómo el científico parte en muchas ocasiones del azar para realizar sus descubrimientos.

El pavo inductivista, movido por un elogiable afán científico, hizo cuidadosas observaciones acerca de la hora en que se le daba de comer, y, como buen inductivista, las realizó en diversas circunstancias (los miércoles y los jueves, con calor o con frío, en días lluviosos o soleados). Por fin, la víspera de Navidad realizó, con todas las garantías inductivistas, su generalización definitiva: «se da de comer a los pavos a las 9 de la mañana, sean cuales sean las circunstancias». Pero, lamentablemente, esa mañana no fue alimentado, sino degollado.

Cuadro 1. Bertrand Russell, con su peculiar sentido del humor, concibió la «historia del pavo inductivista» descrita en el cuadro con el fin de ridiculizar y criticar el método inductivo. Según el pensador inglés, la inducción se basa en una regularidad natural que no se puede probar.