POPPER, KUHN, LAKATOS
Echeverría, Javier (1989): Introducción a la Metodología de la Ciencia. Barcelona: Barcanova. (Capítulos 3, 4 y 5, pp. 75-148)
3. EL FALSACIONISMO POPPERIANO
3.1. Introducción
Karl R. Popper es uno de los filósofos de la ciencia más importantes
del siglo xx. En su juventud estuvo en contacto con el Círculo de Viena,
aunque sin adherirse a sus tesis fundamentales. Su crítica del inductivismo,
su afirmación de que la observación siempre está impregnada
de teoría y el establecimiento de un nuevo criterio de demarcación
científica (la falsabilidad), le han llevado a ser uno de los primeros
críticos influyentes del positivismo lógico en su primera versión,
si bien compartió puntos básicos de la concepción heredada.
Su influencia ha sido muy grande, y no sólo entre los epistemólogos,
sino también entre numerosos científicos. Sin embargo, tardó
en ejercerse. "Lógica de la investigación científica"
(Logik der Forschung) fue publicada en 1934, cuando el Círculo de Viena
estaba en pleno auge. Y aun sin pasar inadvertida, lo cierto es que sólo
a partir de la edición inglesa de 1959 (The Logic of Scientific Discovery),
completada con una serie de apéndices respecto de la edición original,
comenzó a tener la enorme repercusión que la ha convertido en
una de las obras clave en la filosofía de la ciencia de nuestro siglo.
Previamente había escrito, entre 1930 y 1932, Die Beiden Grundprobleme
der Erkenntnistheorie, que no fue publicada hasta 1979, por T. Eggers. Sus primeros
títulos de gran impacto fueron "La miseria del historicismo"
(en 1957, aunque en 1944-1945 ya había aparecido en la revista Económica)
y "La sociedad abierta y sus enemigos" (1945). Otras obras célebres,
y de mayor interés para la metodología científica, son
Conjeturas y Refutaciones (1962) y Conocimiento Objetivo (1972), donde Popper
expone con mayor detalle su teoría del conocimiento y sus discutidas
tesis sobre el tercer mundo.
Asimismo tiene gran importancia el Post Scriptum a la Lógica la investigación
científica. En principio fue concebido para ser añadido a la edición
inglesa de 1959 de dicha obra, para lo cual Popper trabajó intensamente
desde 1951 a 1956. A la postre, algunos de dichos apéndices cobraron
entidad propia, decidiendo Popper publicarlos en un volumen separado, que bajo
el título Postcript: After Twenty Years llegó a estar en galeradas
en 1956-1957. Pero una serie de problemas de salud le impidieron terminar la
labor de corrección de pruebas, y la obra no se publicó hasta
1983. Está formado por tres volúmenes, que han sido editados separadamente,
aunque su redacción fue conjunta, y en su inmensa mayoría está
fechada en 1962. Los tres han sido traducidos al castellano, bajo los títulos
de Realismo y objetivo de la ciencia, El universo abierto y Teoría cuántica
y el cisma en física, al igual que otras obras de Popper, entre las cuales
han de ser mencionadas Búsqueda sin término: una autobiografía
intelectual y El yo y su cerebro, esta última en colaboración
con John Eccles. Pese a esta tardía publicación de muchos de sus
escritos, la influencia de los mismos fue grande a través de los alumnos
y discípulos de Popper, quien es autor asimismo de numerosos artículos
en revistas especializadas. Su pensamiento se difundió sobre todo en
la década de los cincuenta y de los sesenta en los Estados Unidos, y
a continuación en el resto del mundo, llegando a constituirse en referencial
para la mayoría de los epistemólogos.
Popper siempre ha mantenido esencialmente sus posturas iniciales, en las que
consideraba que el punto de partida para la reflexión filosófica
sobre la ciencia eran las teorías científicas, así como
su contrastación negativa con la experiencia, por la vía de la
falsación. Dichas teorías siempre son conjeturas sobre el mundo,
y no instrumentos de análisis del mismo ni generalizaciones en base a
datos empíricos. La actividad del científico debe ser crítica,
tratando de refutar las teorías vigentes en cada momento y contribuyendo
de esta manera al progreso científico, que tiene lugar por integración
y mejora del conocimiento anterior. El propio Popper ha dado el nombre de realismo
crítico al conjunto de sus tesis básicas y bajo dicha rúbrica
se han agrupado numerosos autores que, sin constituirse propiamente en escuela,
sí han experimentado a profunda influencia de Sir Karl R. Popper. Algunos
de sus discípulos, como Lakatos, han acabado separándose de algunas
de las ideas del maestro, en particular por lo que hace al carácter normativo
y ahistoricista que debería tener la filosofía de la ciencia.
La polémica de Popper con Kuhn (véase el capítulo 4) es
clave en este sentido.
En cualquier caso, y pese a la influencia retardada de muchos de sus escritos
fundamentales, la figura de Popper resulta imprescindible para comprender el
desarrollo de la epistemología en el siglo XX, incluidas las posturas
de sus críticos.
3.2. Las teorías científicas
La principal novedad que introdujo Popper en la metodología científica
estriba en la importancia atribuida a las teorías. Para Aristóteles
la reflexión sobre la ciencia debía empezar por la búsqueda
de los principios propios a cada ciencia, es decir, de los términos máximamente
universales que eran objeto de dicha disciplina. Para el empirismo lógico
el fundamento del saber científico eran las proposiciones protocolares,
en la medida en que expresan hechos elementales.
Popper se centrará en un tipo diferente de construcción, cuya
estructura no es simple ni inmediata: las teorías científicas.
"Las ciencias empíricas -afirma Popper- son sistemas de teorías;
y la lógica del conocimiento científico, por tanto, puede describirse
como una teoría de teorías." La filosofía de la ciencia,
por tanto, queda planteada como una disciplina metateórica, o metacientífica
(como se dirá posteriormente), cuyos objetos principales de reflexión
son las teorías científicas, y no las ideas, ni los universales,
ni los hechos más simples y elementales. Esta tesis popperiana, cuya
influencia en las investigaciones posteriores ha sido muy grande, puede rastrearse
en autores que le precedieron, como el convencionalista Duhem. Pero lo cierto
es que, a partir de la Lógica de la investigación científica,
dicha tesis ha pasado a ser patrimonio común de las distintas escuelas,
por lo cual ha de ser considerada como propiamente popperiana.
Popper utiliza asimismo una metáfora que ha hecho fortuna:
Las teorías son redes que lanzamos para apresar aquello que llamamos
"el mundo": para racionalizarlo, explicarlo y dominarlo. Y tratamos
de que la malla sea cada vez más fina.
La razón científica funciona pues a base de construir sistemas
peculiares de conocimiento del mundo, al objeto de poder explicar los fenómenos
(y no sólo describirlos), y lo que es más, con la meta final de
dominar la naturaleza, lo cual equivale en muchos casos a transformarla. La
ciencia no es un saber inerte o pasivo con respecto a su objeto. En la tarea
del científico cabe rastrear una voluntad de dominar la naturaleza, particularmente
clara en el caso de la tecnología que de la ciencia se deriva. Y el instrumento
principal para llevar a cabo esa labor son las teorías, que por lo mismo
han de ser el punto de partida de la reflexión metodológica sobre
la ciencia. Popper, sin embargo, no es un instrumentalista, como veremos más
adelante. Ya en 1934 criticó explícitamente el instrumentalismo
de Mach, Wittgenstein y Schlick y, en el Post Scriptum, el de Berkeley.
Hay cuatro modos de contrastar una teoría. Cabe, en primer lugar, estudiar
la coherencia interna de la misma, investigando las diversas consecuencias que
pueden derivarse de ella y viendo si son contradictorias o no. Asimismo puede
estudiarse si una teoría es empírica o no, en virtud de su forma
lógica: Popper, en la estela del Círculo de Viena en este punto,
admite en Lógica de la investigación científica que puede
haber teorías puramente tautológicas, que corresponderían
a las ciencias no empíricas, como la lógica y las matemáticas.
En tercer lugar, unas teorías pueden ser comparadas con otras, al objeto
de averiguar si la nueva teoría comporta algún adelanto científico
respecto de la anterior. Por último, una teoría se contrasta al
aplicar empíricamente las consecuencias que se derivan de ella. La contrastación
teoría/experiencia no es, por tanto, sino uno de los procedimientos metodológicos
destinados a evaluar el interés de una teoría científica.
Con Popper aparece ya uno de los temas que será más estudiado
posteriormente: la evaluación de una teoría relativamente a otra.
Sin embargo, él se centrará fundamentalmente en el cuarto tipo
de contrastación, introduciendo el criterio de falsación de una
teoría por medio de la experiencia.
Otra aportación popperiana, retomada después por Hanson y otros
muchos, estriba en la crítica a la que somete al concepto de experiencia
directa e inmediata, que sin duda era una de las nociones básicas del
atomismo lógico. Ya en 1935, Popper critica las teorías de la
ciencia que suponen que ésta se construye a partir de experiencias que
van siendo ordenadas y recopiladas. En 1972, al publicar su Objective Knowledge,
su pensamiento al respecto resulta mucho más claro y tajante. Todo un
parágrafo está consagrado a desarrollar la tesis de que "todo
conocimiento -incluso las observaciones- está impregnado de teoría
(Theory-lmpregnated). No hay tábula rasa alguna en el ser humano. Siempre
se parte de algún conocimiento previo; en último término,
Popper admite la existencia de disposiciones innatas en el conocimiento humano.
Resulta interesante mencionar el aspecto genético que en Popper adquiere
esta tesis clásica:
Si no fuese absurdo hacer este tipo de estimaciones, diría que el 99,9%
del conocimiento de un organismo es heredado o innato y sólo una décima
parte consiste en modificaciones de dicho conocimiento innato.
Estas disposiciones innatas, por consiguiente, están impregnadas de teoría,
entendiendo el término "teoría" en un sentido amplio.
Los órganos sensoriales, en particular, incorporan genéticamente
teorías anticipatorias. No hay ningún tipo de percepción
que sea inmediata o simple; todas están previamente influidas por esas
teorías subyacentes.
En realidad, y como ya hemos visto, este tipo de tesis ya habían sido
defendidas por Hanson en su obra Patrones de descubrimiento de 1958, al afirmar
que "la visión está cargada de teoría" y remitir
dicha tesis a Pierre Duhem como precedente, así como a la psicología
de la Gestalt y al Wittgenstein de las Investigaciones filosóficas. La
tesis de la inconmensurabilidad entre teorías, defendida por Kuhn y por
Feyerabend, ha acabado de centrar el debate filosófico en torno a esta
cuestión. La relevancia otorgada por Popper a las teorías, frente
a la concepción inicial del Círculo de Viena, que centraba su
análisis en las proposiciones y en los términos, ha contribuido
en gran medida a provocar este giro radical en la epistemología científica
del siglo XX.
Popper se mostró de acuerdo con la concepción heredada en que,
de ser posible, las teorías deberían de estar axiomatizadas. Pero,
a diferencia de los neopositivistas, siempre insistió en la universalidad
de las leyes científicas, así como de muchos de sus enunciados
y conceptos. Ello es una condición necesaria para que se puedan hacer
predicciones, y asimismo para que la ciencia cumpla su función explicativa
que, si ya no ha de serlo en base al principio esencialista de causalidad, sí
lo puede ser por medio del principio metodológico de causalidad, que
como ya hemos visto, Popper propugnó contra el neopositivismo y el instrumentalismo.
Sin embargo, las teorías son conjeturas, hipótesis generales que
permiten explicar los fenómenos. Nunca son verdaderas, pero sí
pueden ser falsadas, lo cual debe llevar al científico a rechazarlas,
como veremos a continuación.
3.3. El problema de la inducción
La segunda gran divergencia entre Popper y el Círculo de Viena, y en
concreto con Rudolf Carnap, con el que polemizó al respecto, así
como con Reichenbach, se refiere al papel de la inducción dentro de la
metodología científica. Ya en la Lógica de la investigación
científica alude a ello, pero posteriormente ha vuelto varias veces sobre
el tema. Nos limitaremos aquí a la exposición de los argumentos
iniciales.
Popper considera que una inferencia es inductiva cuando pasa de enunciados singulares
(o particulares) a enunciados universales, tales como hipótesis, leyes
o teorías. El problema de la inducción consiste en indagar si
las inferencias inductivas están lógicamente justificadas, y bajo
qué condiciones lo están. Para ello, afirma Popper, habría
que formular alguna ley lógica que fundamentase dichas inferencias: el
principio de inducción. Pero, a diferencia de otras leyes lógicas,
Popper afirma que dicho principio de inducción no puede ser una ley lógica,
en el sentido de la lógica formal del siglo XX, es decir, una tautología
o un enunciado analítico. Habría de ser un enunciado sintético
y, desde luego, un enunciado universal.
Y aquí surge el problema: ¿cómo sabemos que dicho enunciado
universal, fuese el que fuese, sería verdadero?
Si intentamos afirmar que sabemos por experiencia que es verdadero, reaparecen
de nuevo justamente los mismos problemas que motivaron su introducción:
para justificarlo tenemos que utilizar inferencias inductivas; para justificar
éstas hemos de suponer un principio de inducción de orden superior,
y así sucesivamente. Por tanto, cae por su base el intento de fundamentar
el principio de inducción en la experiencia, ya que lleva inevitablemente
a una regresión infinita.
Este círculo vicioso, que constituye la médula del problema de
la inducción, ya había sido advertido por Hume en su Treatise
of Human Nature. Numerosos autores se han ocupado de la cuestión tanto
para aclararlo como para profundizar en él o tratar de solucionarlo.
Muy resumidamente, y simplificando, podría ser expuesto así:
Supongamos que queremos inferir, a partir de n observaciones según las
cuales "el agua hierve a 100 grados centígrados" un enunciado
universal al respecto, mediante el cual se asevera que también en el
experimento n+l el agua hervirá a los 100 grados. Esa diferencia sólo
es válida en el caso concreto del agua si admitimos un principio de inducción
más general, que por ejemplo podría aseverar: efectuadas n observaciones
de un fenómeno X, y habiendo advertido en todas ellas (para un n suficientemente
grande) que se produce el acontecimiento Y, podemos concluir que X ® Y.
Ahora bien: ¿cómo podemos estar seguros de que este principio
más general es válido? Lo más que puede ocurrir es que
hayamos observado que, en cierto número finito de ocasiones, ha resultado
válido en todo tipo de acontecimientos empíricos. Mas de ello
no podemos concluir que es universalmente válido, pues de hacerlo estaríamos
presuponiendo ya la inferencia inductiva para fundamentar el propio principio
de inducción, siendo así que dicho principio había sido
formulado al objeto de justificar las inferencias inductivas.
Kant trató de resolver el problema afirmando que el principio de inducción
era válido a priori. Dicha solución no resulta satisfactoria para
Popper, quien optará por una solución muy diferente:
Yo seguiría afirmando que es superfluo todo principio de inducción
y que lleva forzosamente a incoherencias lógicas.
Para Popper, la metodología científica es esencialmente deductiva,
y no inductiva. Dada una teoría T, deducimos consecuencias de la misma,
c1, c2, ..., cn. Dichas consecuencias han de ser contrastables empíricamente,
pero entendiendo dicha contrastación como posibilidad de refutación
de la teoría T si los datos empíricos no coinciden con las predicciones
ci emanadas de T: nunca como verificación de la teoría T. Vemos
así que la afirmación popperiana de las teorías científicas
como las auténticas unidades de partida de la metodología científica
es coherente con su crítica del inductivismo, en la medida en que esta
concepción metodológica haría depender a las teorías
de los hechos observados, y no al revés. Popper se remite a Liebig y
a Duhem como antecesores de estas tesis antiinductivistas. Pero en su caso dichas
tesis van a complementarse con una nueva aportación metodológica,
que será objeto del siguiente apartado.
3.4. La falsabilidad como criterio de demarcación
El problema de la demarcación entre ciencia y metafísica (Abgrenzungskriterium)
es considerado por Popper, como por el Círculo de Viena, como una cuestión
capital para la filosofía de la ciencia. Pese a esta común perspectiva,
en la que se muestra la incidencia que sobre su pensamiento tuvieron los debates
de los atomistas lógicos, la solución propuesta por Popper será
muy diferente. Popper rechaza la inducción como criterio de demarcación
precisamente porque no considera que sea un criterio satisfactorio. Y se remite
a Kant como al autor en el que el problema de la demarcación adquirió
una importancia prioritaria. La solución de los positivistas le parece
naturalista, mientras que para Popper dicho problema no es exclusivo de las
ciencias naturales. Si aceptásemos las propuestas de Wittgenstein o de
los vieneses, afirma Popper, partes muy importantes de la ciencia (como las
leyes científicas) habrían de ser consideradas como extracientíficas,
al no proceder de observaciones repetidas que inductivamente han dado lugar
a enunciados universales . De ahí que el criterio neopositivista de demarcación,
basado en la verificación o en la confirmación, pero de hecho
sustentado en el método inductivo como marca de la cientificidad, ha
de ser radicalmente modificado.
Para Popper la ciencia no es nunca un sistema de enunciados ciertos e irrevocablemente
verdaderos, sino todo lo contrario. La ciencia nunca alcanza la verdad, sino
que se aproxima a ella proponiendo sistemas hipotéticos complejos (las
teorías científicas) que permiten explicar más o menos
fenómenos empíricos, pero nunca todos los hechos que se pueden
presentar en una disciplina determinada y en un momento histórico dado
como base empírica de dicha ciencia. Los científicos deducen,
a partir de dichos sistemas hipotéticos, consecuencias que coinciden
en mayor o menor grado con la experiencia. Pero las teorías científicas
nunca son categóricas, sino conjeturales. La función de la empiria
consiste en refutarlas, o en el mejor de los casos en corroborarlas en un cierto
grado, pero no en ratificar ni en confirmar las teorías.
Surge así el nuevo criterio de demarcación entre ciencia y no
ciencia: una teoría es científica si puede ser falsada por medio
de la experiencia (en el caso de las teorías empíricas) o por
medio de su contradictoriedad interna (en el caso de las teorías lógicas
y matemáticas). Para Popper, "las teorías no son nunca verificables
empíricamente", pero sí han de ser contrastables con ella.
En lugar de elegir un criterio positivo de contrastación, hay que tomar
uno negativo:
No exigiré que un sistema científico pueda ser seleccionado, de
una vez para siempre, en un sentido positivo; pero sí que sea susceptible
de selección en un sentido negativo por medio de contrastes o pruebas
empíricas: ha de ser posible refutar por la experiencia un sistema científico
empírico.
La posibilidad de mostrar la falsedad de una teoría científica
mediante la experiencia, por ejemplo a través de las predicciones que
deductivamente se derivan de ella, es el signo distintivo del saber científico
frente a otro tipo de saberes. Esta falsabilidad es un criterio de demarcación,
pero no de sentido. Aquello que no versa sobre la experiencia ni es falsable
por ella puede perfectamente tener sentido, pero sin ser científico.
Popper no reprocha a la metafísica clásica, ni en general a la
religión, o a la poesía, o al arte su ausencia de sentido, como
sí hicieran Carnap y el Círculo de Viena. Él afirma incluso
que la metafísica puede tener valor para la ciencia empírica.
Lo que ocurre es que, entre aquellos enunciados empíricos que tienen
sentido (por ejemplo, "surgirá una bola de fuego del cielo"
y "aparecerá el cometa Halley el año 1986) el primero no
es falsable y el segundo sí; en esa medida, sólo el segundo es
un enunciado científico.
Popper propone la falsabilidad como criterio de demarcación basado en
una asimetría lógica entre la verificabilidad y la falsabilidad.
Un enunciado universal nunca es deductible a partir de los enunciados singulares,
por muchos que éstos sean, como ya vimos en el análisis popperiano
del problema de la inducción; pero, en cambio, un enunciado singular
sí puede contradecir un enunciado universal, y por lo tanto refutarlo.
En consecuencia, por medio de inferencias puramente deductivas (valiéndose
del modus tollens de la lógica clásica) es posible argüir
de la verdad de enunciados singulares la falsedad de enunciados universales.
La relación metodológica adecuada entre teoría y experiencia
es pues la tentativa de falsación. Un enunciado universal del tipo "todos
los hombres son mortales" no puede nunca ser comprobado experimentalmente
por muchos que fuesen los casos singulares en los que, en efecto, se certificase
que también este individuo singular había muerto. En cambio, es
muy fácil refutar dicho enunciado por la vía de la experiencia.
Bastaría mostrar (incluso observacionalmente) que un determinado hombre
no ha muerto -por ejemplo, tras varios siglos de existencia- para que el enunciado
universal quedase, si no plenamente refutado, sí puesto seriamente en
cuestión. En esa medida, dicho enunciado puede ser plenamente aceptable
en una disciplina científica como la biología por su enorme contrastabilidad
con la experiencia. Y otro tanto cabría decir de enunciados científicos
más especializados, como los enunciados de leyes, que normalmente son
proposiciones universales que se refieren a la experiencia, y que por consiguiente
pueden ser falsados con facilidad con sólo un contraejemplo fáctico
que se encuentre. Por el contrario, otro tipo de afirmaciones nunca podrían
ser refutadas experimentalmente, o cuando menos sólo serian falsables
con grandes dificultades y de forma dudosa. La facilidad para la falsación
empírica caracteriza el saber científico, y por lo mismo cabe
distinguir grados de contrastabilidad en unas u otras teorías.
La regla lógica fundamental en las ciencias empíricas pasa a ser
el modus tollens, cuya forma de expresión es la siguiente:
[(p ® q) . ~ q] ® ~ p
Para demostrar que una proposición p es falsa, basta demostrar deductivamente
su contradictoria, ~p. Y, a su vez, para ello puede seguirse la vía indirecta
(paralela desde el punto de vista deductivo a la clásica reductio ad
absurdum) de examinar alguna de las consecuencias, q, que se derivan de la proposición
p. Si conseguimos demostrar:
por un lado p ® q
y por otro ~ q
podemos concluir ~ p
con lo cual hemos logrado nuestro objetivo de refutar p: la hipótesis
p ha de ser eliminada (quitada, tollere) porque si la admitimos, dado que de
ella se deduce q y q es falsa (por ejemplo, porque comprobamos empíricamente
que no ocurre q) llegamos a un absurdo; luego hemos de aceptar la falsedad de
p, en virtud de que de lo verdadero nunca se deduce lo falso.
Vemos pues que Popper conjuga su tesis de la estructura deductiva de las ciencias
empíricas con la contrastación teoría/empiria en base a
esta regla deductiva que es el modus tollendo tollens, y que sería de
continua aplicación en el razonamiento experimental. Por el contrario,
la verificación y el modus ponens no tienen aplicación en las
ciencias experimentales en el caso de los enunciados universales. La asimetría
entre enunciados universales y singulares, desde el punto de vista de las propiedades
lógicas del condicional, es la tesis que sustenta el criterio popperiano
de falsabilidad.
Obsérvese que, como ya sucedió en el caso del Círculo de
Viena, Popper no exige una falsación ya efectuada para atribuir carácter
científico a una proposición, sino la falsabilidad en principio.
Una teoría auténticamente científica es la que no sólo
se limita a presentar sus hipótesis y sus consecuencias, sino que además
delimita los distintos modos en los que dichas consecuencias podrían
ser refutadas experimentalmente. La metafísica clásica no se ha
preocupado nunca de este aspecto, limitándose a enunciar y a argumentar
sus tesis, pero sin sugerir los medios concretos mediante los cuales dichas
teorías podrían ser contrastadas con la experiencia. En cambio,
la ciencia sí lo ha hecho, en mayor o menor medida, y por eso la falsabilidad
es un criterio adecuado de demarcación.
3.5. Grados de corroboración de una teoría
El talante del científico ha de ser crítico: su actitud epistémica
debe ser la tentativa de refutar las conjeturas que van siendo presentadas para
explicar los fenómenos empíricos. Si de una teoría se deriva
un conjunto de consecuencias y, a su vez, somos capaces de formular una serie
de enunciados contradictorios con dichas consecuencias, poseemos una serie de
falsadores potenciales de dicha teoría. Para que una teoría sea
falsable ha de prohibir, como mínimo, un acontecimiento empírico.
Dicho acontecimiento puede ser descrito por medio de términos mediante
diversos enunciados básicos singulares, que Popper llama homotípicos
para subrayar que se refieren a un mismo evento empírico. Dichos enunciados
son posibles falsadores de la teoría y el científico experimental
ha de ingeniarse para elaborar experimentos que permitan dilucidar la verdad
o la falsedad de dichos falsadores.
Podríamos decir que si la clase de los posibles falsadores de una teoría
es "mayor" que la correspondiente de otra, la primera teoría
tendrá más ocasiones de ser refutada por la experiencia; por tanto,
comparada con la segunda teoría podrá decirse que aquélla
es "falsable en mayor grado". Lo cual significa asimismo que la primera
teoría dice más acerca del mundo de la experiencia que la segunda,
ya que excluye una clase mayor de enunciados básicos.
Este pasaje de la Lógica de la investigación científica
muestra la idea que subyace al tratamiento que Popper propone de la noción
positivista de contenido de contenido empírico de una teoría.
Es posible establecer gradaciones en el contenido empírico de las diversas
teorías, y por tanto introducir cierto "índice de cientificidad",
pero por vía negativa, en base a los falsadores de cada teoría.
Si, dada una teoría T, los enunciados básicos prohibidos por ella
van aumentando, en la medida en que cada vez hace más predicciones y
sobre ámbitos de fenómenos más amplios, dicha teoría
será progresivamente más fácil de falsar. Para Popper,
el objetivo principal de la ciencia estriba en construir teorías de este
tipo: fácilmente falsables, y por consiguiente con mayor contenido empírico.
Las mallas de las teorías científicas, retomando la metáfora
antes mencionada, han de ser cada vez más finas, en el sentido de que
su grado de falsabilidad es cada vez mayor.
Formalizar la noción de grado de falsabilidad de una teoría, sin
embargo, presenta dificultades. En efecto, las clases de los posibles falsadores
son infinitas, y por tanto ese "aumento" de los enunciados básicos
incompatibles con una teoría ha de ser tratado cuidadosamente. En la
Lógica de la investigación científica, Popper propone hasta
tres soluciones a esta dificultad; el número cardinal de una clase, el
concepto de dimensión y la relación de subclasificación.
Finalmente opta por esta última posibilidad, formulándola de la
manera siguiente para el caso más sencillo, que es el de los enunciados
científicos:
se dice que un enunciado x es "falsable en mayor grado" o "más
contrastable" que el enunciado y -o, en símbolos, que Fsb(x) >
Fsb(y) cuando y solamente cuando la clase de los posibles falsadores de x incluye
a la clase de los posibles falsadores de y como una subclase propia suya.
Así pues, la teoría de conjuntos, y en concreto la relación
de inclusión, viene a ser el recurso utilizado para definir la noción
de grado de contrastación. A partir de ello, Popper introduce la noción
de probabilidad lógica, que es diferente de la probabilidad numérica
que surgió de la teoría de juegos de azar y que se utiliza en
estadística. La probabilidad lógica de un enunciado es complementaria
con su grado de falsabilidad. Puesto que, basándonos en la relación
de subclasificación, podemos comparar el grado de falsabilidad de dos
enunciados, también podemos afirmar que uno es más probable lógicamente
que el otro, cuando tiene un menor grado de falsabilidad. Una teoría
que no es falsable de ninguna manera, porque no prohibe ningún acontecimiento
empírico, tiene un grado de falsabilidad igual a 0 y, por tanto, su probabilidad
lógica es 1; y viceversa, las teorías o los enunciados científicos
más falsables son los menos probables lógicamente. Lo cual no
quiere decir que este último tipo de enunciados o de teorías no
sean científicos, sino todo lo contrario. Las teorías que tienen
probabilidad lógica 1 no dan ninguna información sobre la empiria:
las teorías empíricamente preferibles, en el sentido de que son
plenamente científicas, son aquellas cuyo contenido empírico es
muy alto, y por consiguiente su probabilidad lógica muy baja. El contenido
empírico de una teoría equivale a su grado de falsabilidad, al
menos desde el punto de vista de la comparación relativa de unas teorías
con otras.
En obras posteriores Popper ha vuelto sobre esta cuestión, que tiene
gran importancia dentro de su teoría de la ciencia. En Lógica
de la investigación científica Popper había usado el término
Bewahrungsgrad, traducido por Carnap en su Testability and Meaning como grado
de confirmación de una teoría. La caracterización lógica
de dicha noción dio lugar a una amplia polémica, en la que intervinieron
Tichy, Grunbaum, Kemeny, Miller y los propios Carnap y Popper. Por parte de
este último, siempre se mantuvo la tesis de que el grado en que una teoría
ha resistido a las contrastaciones no tiene por qué satisfacer las reglas
del cálculo de probabilidades, tesis ésta que había sido
implícitamente aceptada por numerosos epistemólogos. Por eso Popper
introdujo en Conjeturas y Refutaciones (y también en el Post Scriptum)
la nueva denominación de grado de corroboración, que tiene la
ventaja de no poseer connotaciones verificacionistas. Intuitivamente, una teoría
posee mayor grado de corroboración cuando ha resistido más críticas
y contrastaciones más severas, y no cuando ha sido "más verificada".
Para medir dicho grado hay que recurrir al contenido de la misma y para ello
a su improbabilidad lógica: así, la teoría de Einstein
implica más contrastaciones posibles que la de Newton, y por tanto posee
mayor contenido y mayor poder explicativo. Al contrastar una teoría T,
siempre poseemos una información básica previa e, con respecto
a la cual se produce la contrastación. La actitud crítica o falsacionista
tiende a maximizar dicha información, a diferencia de la actitud verificacionista.
Cuanto mayor sea la improbabilidad del falsador potencial, tanto mayor será
el apoyo que la teoría reciba, caso de que la teoría T resista
dicha falsación, ya que su contenido empírico habrá aumentado
considerablemente. Por el contrario, si se produce una constatación de
algo plausible y probable el contenido empírico de la teoría no
aumenta. Para Popper sólo han de contar las contrastaciones severas,
es decir las más improbables con respecto a la información que
poseemos. La predicción de Adams y de Leverrier, que llevó al
descubrimiento del planeta Neptuno, era sumamente improbable; precisamente por
ello supuso un fuerte apoyo a la teoría de Newton, que era la única
que permitía la predicción de un hecho tan improbable estadísticamente.
Este tipo de ejemplos representa para Popper el paradigma de la actitud crítica
de los científicos y la medida del grado de corroboración.
De ahí que, si la probabilidad de un suceso a es p(a), se defina el grado
de contrastabilidad de a, Ct, (a) como:
Ct(a) = 1 - p (a)
Ct(a) mide así el contenido, el cual debe aumentar en cada contrastación
que la teoría o la hipótesis supere. Si concebimos b como tentativa
de refutar a, la severidad mayor o menor de la contrastación puede ser
a su vez medida mediante la improbabilidad de b, que a su vez depende de Ct(b).
Si llamamos, entonces, C(a, b) al grado de corroboración de a mediante
b, hemos de exigir, por una parte, que C(a, b) sea menor o a lo sumo igual que
Ct(a), y por otra que C(a, b) aumente con Ct(b). Popper propuso en un primer
momento la definición siguiente de C(a, b):
y en una segunda fase de su investigación, en la que añadió
la información básica c de la que se dispone en el momento de
la contrastación de a mediante b, definió el grado de corroboración
de la manera siguiente:
donde se usa la noción p(b, a), o verosimilitud de a con respecto a b,
propuesta por Fisher.
El estudio del grado de corroboración confluía así con
las investigaciones popperianas en torno a la noción de verosimilitud,
a las que nos referiremos en 3.8.
Mas independientemente de los detalles técnicos ligados a este problema
del grado de corroboración, así como a la polémica suscitada
por el mismo, sí cabe señalar que, mediante esas contrastaciones
severas, los científicos llevan a cabo un proceso racional de aproximación
a la verdad, aumentando de forma progresiva el contenido empírico de
las teorías. Para ello seleccionan una serie de problemas, proponen conjeturas
para solucionarlos, someten dichas conjeturas a contrastaciones severas y aumentan
así el grado de corroboración de las teorías. Lo cual no
obsta para que cualquier teoría, por alto que sea su grado de contrastación
y de corroboración siempre pueda ser refutada: el modus tollens pasa
a ser un órgano de la crítica racional, y no del razonamiento
categórico.
Con respecto al progreso científico, Popper mantiene tesis evolucionistas
llegando a defender incluso un cierto esquema neodarwinista según el
cual son las mejores teorías las que van siendo seleccionadas a lo largo
de la historia de la ciencia por medio de esta metodología falsacionista.
Los experimentos cruciales desempeñan un papel fundamental al respecto.
Esta noción del progreso científico ha sido muy criticada por
autores como Nagel y Bunge, así como por otros muchos epistemólogos
a cuyas críticas nos referiremos explícitamente en el capítulo
5.
3.6. La tesis del tercer mundo
En su obra Conocimiento objetivo, Popper propone la siguiente distinción:
Sin tomar las palabras 'mundo' o 'universo' muy en serio, podemos distinguir
los siguientes tres mundos o universos: primero, el mundo de los objetos físicos
o de los estados físicos; segundo, el mundo de los estados de conciencia
o de los estados mentales, o quizá de las disposiciones conductuales
para actuar; y tercero, el mundo de los contenidos objetivos del pensamiento,
especialmente del pensamiento científico y poético y de las obras
de arte.
Las leyes y teorías científicas, en particular, pertenecerían
a este tercer mundo, que el propio Popper pone en relación con la teoría
platónica de las ideas y con la teoría hegeliana del espíritu
objetivo, si bien para diferenciarse netamente de ambos filósofos. Por
el contrario, tanto Bolzano como Frege son aceptados como precedentes directos
de esta tesis popperiana. Al afirmar la existencia objetiva de este tercer mundo,
Popper se va a manifestar contrario a toda forma de convencionalismo, así
como a las concepciones que consideran los conceptos, las leyes y las teorías
científicas como entidades lingüísticas, como estados mentales
subjetivos o como disposiciones para la acción.
La metodología de la ciencia adquiere con ello una vertiente ontológica:
¿qué tipo de entidad poseen las construcciones creadas por los
científicos a lo largo de la historia, y sobre las cuales reflexionan
en este siglo los metodólogos y los filósofos de la ciencia? La
tesis popperiana del tercer mundo tiene al menos el mérito de haber abierto
esta discusión, devolviendo a la teoría de la ciencia toda su
envergadura conceptual, que había salido bastante malparada tras las
simplificaciones neopositivistas. Por otra parte, el debate abierto por Popper
ha sido amplio y de gran interés, por lo cual conviene detenerse un momento
en la presentación que Popper hace de su tesis.
El punto de partida de la misma es la distinción entre teoría
del conocimiento y epistemología. Para Popper, la teoría del conocimiento
tradicional, y concretamente la tradición empirista de Locke, Berkeley,
Hume y Russell, ha centrado su análisis en el conocimiento subjetivo,
ligado al individuo. La epistemología, por el contrario, debe ocuparse
del conocimiento científico, que él concibe sin sujeto. La tesis
del tercer mundo, y por consiguiente de la existencia objetiva de las teorías
científicas, va ligada a su propuesta de una epistemología sin
sujeto. En lugar de centrarse en las creencias del científico o en la
singularidad de sus invenciones, el epistemólogo debe investigar los
problemas, las conjeturas, los libros, las revistas científicas, etc.
La ilustración popperiana de dicho tercer mundo son las librerías
y las bibliotecas, así como los laboratorios y los experimentos científicos
que tienen lugar en ellos. La epistemología subjetivista es irrelevante,
y además, así como una epistemología objetivista que estudie
e investigue ese tercer mundo puede aportar muchísima luz al estudio
del segundo, el de los estados mentales o de conciencia, la influencia recíproca
no es cierta. Aunque nosotros actuemos continuamente sobre ese tercer mundo,
modificándolo y corrigiéndolo, es sin embargo considerablemente
autónomo. En apoyo de sus tesis Popper ofrece una argumentación
biológica. No sólo hay que estudiar las conductas o los actos
de producción de los seres animales, incluidos los hombres, sino que
debemos investigar también las estructuras conforme a las cuales dichas
acciones tienen lugar, incluidas las estructuras materiales del cuerpo animal.
Y, lo que es más, debemos estudiar el efecto de retroacción (feedback
relation) que las propiedades de las estructuras producen sobre la conducta
de los animales. Lo que está en cuestión, por consiguiente, es
la existencia independiente y objetiva de las estructuras mismas, por ejemplo
neuronales o genéticas, que serían los objetos por excelencia
de ese tercer mundo. Por supuesto, también en las acciones humanas, incluidas
las obras de arte, cabe discernir ese tipo de entidades. Pero el tercer mundo
no sólo surge de las acciones humanas. Un libro de logaritmos, dice Popper,
puede haber sido escrito por un ordenador, y sin embargo expresa determinadas
estructuras pertinentes en ese tercer mundo. En el caso de las matemáticas
, es claro que Popper se aproxima a lo que tradicionalmente se ha llamado platonismo,
por lo que se refiere a la existencia de los objetos matemáticos.
Miguel Ángel Quintanilla , comentando estos pasajes de la obra de Popper,
afirma:
La teoría del tercer mundo no sólo supone una concepción
formalista cuyo complemento habría de ser una ideología individualista,
sino que el formalismo se presenta aquí como una auténtica metafísica
idealista de estilo platónico.
Pero las teorías popperianas sobre la ciencia también han sido
adscritas, siguiendo en esto las afirmaciones del propio Popper, a una concepción
realista. Así, Rivadulla habla del realismo conjetural de Popper y califica
su epistemología asimismo como realista. También la escuela de
Helsinki (Tuomela, Niiniluoto, etc.) ha revitalizado las tesis realistas de
Popper, por lo cual habremos de detenernos en este punto, resumiendo lo esencial
del debate.
3.7. El realismo crítico
Popper siempre se ha manifestado en contra de la teoría subjetivista
del conocimiento, cuya versión más radical era la solipsista del
Aufbau de Carnap. Mas la objetividad de la ciencia no ha de estar fundamentada
en un lenguaje fisicalista, o en una base empírica observacional. La
ciencia es producto de acciones humanas, y como tal un objeto social:
Podemos considerar el conocimiento objetivo -la ciencia- como una institución
social, o un conjunto o estructura de instituciones sociales.
Aunque el conocimiento y la investigación propia de los individuos tenga
sin duda su importancia, lo cierto es que la ciencia surge a partir de la cooperación
y de la competición institucionalizada de los científicos. El
tercer mundo descrito en el apartado precedente sería el ámbito
ontológico en donde se depositan las objetivaciones de la investigación
científica, y muy en particular aquellas que han tenido una repercusión
efectiva sobre la sociedad de la que surgieron. El mismo aprendizaje del conocimiento
científico ha de ser visto desde esta perspectiva: no como una repetición
de experiencias, que inductivamente proporcionarían a cada sujeto individual
los enunciados y las leyes científicas generales, sino como un proceso
de prueba y error que cada científico asimila en algunos ejemplos característicos,
a partir de los cuales asume o no las teorías vigentes socialmente en
su tiempo.
Popper es, pues, un realista, pero sin que ello conlleve una reducción
fisicalista de toda objetividad científica. Su oposición al empirismo
de Bacon, Hume, Mill y Russell no radica en la confrontación de éstos
con el idealismo, punto en el que Popper también coincide, sino en la
epistemología subjetivista que, unida al empirismo, les llevaba a afirmar
que "todo conocimiento se deriva de la experiencia de los sentidos".
Por el contrario, para Popper el problema epistemológico básico
no es el del origen de las ideas, sino el de la verdad de las teorías.
Y para estudiarlo hay que partir de teorías ya constituidas, producidas
por momentos anteriores en el desarrollo social, que a continuación son
contrastadas con la experiencia. Ésta desempeña una función
negativa y crítica; nunca engendra las teorías. Las observaciones
siempre presuponen un conocimiento disposicional previo, que no sólo
proviene de la estructura de nuestros órganos sensoriales, sino también
del contexto teórico y de las informaciones básicas a partir de
las cuales se despliega la investigación científica. La ciencia
es sistemática porque siempre procede conforme a conjeturas y a problemas
previamente enunciados, que para el sujeto individual son innatos y objetivos,
porque como tales le vienen dados en su proceso de aprendizaje. Se aprende también
de la experiencia, pero sobre todo cuando ésta es usada críticamente,
como contrastación de las hipótesis y de las teorías vigentes.
Surge así lo que Popper llama el realismo crítico. Frente al racionalismo
clásico, desde Platón hasta Leibniz, pasando por Descartes, que
caracterizaba a la ciencia por la posesión de un método que podía
conducirnos al descubrimiento de la verdad, Popper afirma tajantemente:
1) No existe método para descubrir una teoría científica.
2) No existe método para cerciorarse de la verdad de una hipótesis
científica, es decir, no existe método de verificación.
3) No existe método para averiguar si una hipótesis es "probable"
o probablemente verdadera.
Sin embargo, ello no le impide definirse como un racionalista. Lo que ocurre
es que, para él, la función de la razón es crítica
y negativa. Las teorías científicas se distinguen de los mitos
únicamente porque pueden criticarse, e incluso porque buena parte de
los científicos se dedican a esa labor crítica recurriendo para
ello a la experiencia, pero también a los esquemas lógicos de
pensamiento que, como el modus tollens, posibilitan el ejercicio de ese tipo
de razón. La epistemología no ha de ser justificacionista en el
sentido tradicional del término. Nuestras creencias y nuestras teorías
sobre la realidad no se pueden justificar positivamente, porque de una u otra
forma sean verdaderas. Pero sí cabe dar razones de por qué preferimos
una teoría a otras: porque constituye una aproximación más
cercana a la verdad, e incluso porque podemos tener razones para conjeturar
que sea verdadera, aunque sólo sea para poder investigarla más
a fondo, procediendo a su falsación eventual. Nuestras preferencias científicas
sólo se justifican críticamente, y en relación al estado
actual de la cuestión. En el fondo, no se trata ni siquiera de justificar
las teorías racionalmente, sino de elaborar una epistemología
que permita definir el concepto de preferencia racional entre teorías
y entre hipótesis:
El problema epistemológico de Hurne -el problema de dar razones positivas,
o el problema de la justificación- puede ser reemplazado por el problema
totalmente distinto de explicar -dar razones críticas- por qué
preferimos una teoría a otra (o a todas las demás que conocemos)
y finalmente por el problema de la discusión crítica de las hipótesis
para descubrir cuál de ellas es, comparativamente, la que hay que preferir.
La verdad continúa siendo el objetivo de la ciencia, pero por la vía
negativa: buscamos razones para rechazar lo que hasta ahora había sido
considerado verdadero y sólo aceptamos las teorías que, pese a
las más severas contrastaciones, todavía no han sido falsadas.
Sólo se aprende y se incrementa el conocimiento por medio de la crítica
racional.
Esta metodología o epistemología popperiana se completa con una
posición ontológica realista: pero su afirmación del realismo
metafísico resulta mucho más prudente y matizada que sus tesis
epistemológicas. Para Popper, hay razones a favor del realismo metafísico,
pero también razones en contra. A su juicio priman las primeras, y por
eso se ha considerado durante toda su vida un realista; pero ello no equivale
a decir que sus tesis ontológicas sean afirmadas con la misma radicalidad
y claridad que sus tesis epistemológicas.
Para Popper, la teoría de que todo el mundo es un sueño mío
(solipsismo extremo) o la teoría hegeliana de que todo el mundo es un
despliegue de la idea son irrefutables; y por eso mismo han de ser rechazadas.
"La irrefutabilidad no es una virtud, sino un vicio", afirma explícitamente.
El realismo popperiano parte en cambio del hecho de que, desde un principio,
nos movemos en el terreno de la intersubjetividad, lo cual es totalmente contrario
al solipsismo y al subjetivismo científicos. Podría entonces pensarse
que las teorías científicas, al ser productos sociales, son simples
convenciones o instrumentos útiles. Pero Popper también va a someter
al instrumentalismo a una aguda crítica. Él acepta, desde luego,
que las teorías científicas son instrumentos útiles, pero
no sólo eso: además son conjeturas sobre la realidad. La ciencia
tiene un objetivo, que es la explicación. Se trata de buscar explicaciones
satisfactorias de los explicanda, y para ello el explanans debe de cumplir una
serie de condiciones:
En primer lugar, debe entrañar lógicamente al explicandum. En
segundo lugar, el explicans tiene que ser verdadero, aunque, en general, no
se sabrá que es verdadero, en cualquier caso no debe saberse que es falso,
ni siquiera después del examen más crítico... Para que
el explicans no sea ad hoc tiene que ser más rico en contenido: debe
de tener una variedad de consecuencias contrastables que sean diferentes del
explicandum.
La concepción popperiana de la explicación científica se
inscribe en la tradición de la concepción heredada: una explicación
es satisfactoria cuando se formula en términos de leyes universales y
condiciones iniciales contrastables y falsables. Cuanto mayor sea el grado de
corroboración de las leyes y de las hipótesis, tanto más
satisfactoria resulta la explicación. Ello nos lleva a buscar teorías
cuyo contenido sea cada vez más rico. Y aunque no existan, según
Popper, explicaciones últimas, que son propias de concepciones esencialistas
contra las cuales también está Popper, sí cabe defender
un esencialismo modificado, basado en afirmar que toda explicación tendrá
tarde o temprano una explicación mejor y más universal, en rechazar
las preguntas del tipo "¿qué es?", y en dejar de caracterizar
a cada individuo por el conjunto de sus notas o propiedades esenciales. La postura
de Popper es más próxima en esto a la de Platón: las leyes
de la naturaleza serían descripciones conjeturables de las propiedades
estructurales ocultas en la naturaleza, y que se trata de descubrir. Las leyes
o teorías deben ser, por lo mismo, universales; deben formular aserciones
sobre todas las regiones espaciotemporales del mundo; y deben versar sobre propiedades
estructurales relacionales del mundo.
Popper es consciente de que esta postura realista también está
sujeta a crítica, y él mismo proporciona argumentos en contra
de la misma. Pero cabria decir que es la preferible entre las diversas metateorías
existentes en torno al conocimiento científico (subjetivismo, empirismo,
positivismo, idealismo, esencialismo, instrumentalismo, etc.).
3.8. La verosimilitud
Preferimos una teoría a otra, en última instancia, porque es más
verosímil: porque se aproxima más a la verdad, aunque nunca vayamos
a poder demostrar de ninguna teoría que es verdadera. El aumento del
contenido empírico de las teorías, y el hecho de que las nuevas
teorías hayan de poder explicar también lo que las precedentes
explicaban, llevan a Popper a concebir el progreso científico como una
paulatina aproximación a la verdad:
Podemos explicar el método científico y buena parte de la historia
de la ciencia como el proceso racional de aproximación a la verdad.
Sin embargo, Popper se va a encontrar con grandes dificultades a la hora de
definir de manera precisa el concepto de verosimilitud, máxime teniendo
en cuenta su rechazo del inductivismo. Su idea inicial es sencilla: la verosimilitud
de una proposición depende de la cantidad de verdades y de falsedades
que dicha proposición implica. Y otro tanto cabe decir respecto de las
teorías. De ahí que tanto en Conjeturas y refutaciones como en
Conocimtento objetivo proponga la siguiente caracterización de la mayor
o menor verosimilitud entre dos teorías:
Intuitivamente hablando, una teoría Tl tiene mayor verosimilitud que
otra teoría T2 si y sólo si:
1) sus contenidos de verdad o falsedad (o sus medidas) son comparables, y además
2) o bien el contenido de verdad, pero no el de falsedad, de Tl es mayor que
el de T2; o bien
3) el contenido de verdad de T, no es mayor que el de T2, pero sí su
contenido de falsedad.
Esta definición ha sido criticada desde diversas perspectivas. En primer
lugar, no sería válida para el caso en que hubiera teorías
inconmensurables, como afirmarán Kuhn y Feyerabend. En segundo lugar,
y como ha señalado Tichy, se presupone implícitamente que los
respectivos contenidos de verdad y de falsedad de T2 están incluidos
como subconjuntos en los de T1. Y, además, tal y como ha hecho ver Newton-Smith,
la definición falla en el caso en que el cierre deductivo de una teoría
(es decir, el conjunto de proposiciones que puedan derivarse de sus axiomas
o postulados) sea infinito, ya que entonces estaríamos comparando dos
conjuntos infinitos: lo cual sucede prácticamente en todas las teorías
físicas interesantes, de las cuales puede suponerse que conllevan consecuencias
(verdaderas o falsas) para todos y cada uno de los puntos del continuo espacio-temporal,
y para las cuales, por tanto, el cierre deductivo es un conjunto infinito de
proposiciones, independientemente de que dichas teorías sean verdaderas
o falsas.
Tichy, Miller y Grünbaum han profundizado más en sus críticas,
mostrando que, de acuerdo con las concepciones popperianas, y partiendo de sus
propias definiciones de la verosimilitud, ocurre que las teorías que
poseen un elevado contenido de verdad también tienen un alto contenido
de falsedad. Por lo cual la determinación cuantitativa de las verosimilitudes
respectivas no resulta decisoria. Rivadulla, que ha estudiado ampliamente el
debate, incluidas las sucesivas mejoras propuestas por Popper, concluye que
"la comparación de la verosimilitud de dos teorías falsas
no es viable".
Sin embargo, para el realismo científico que acepte las tesis deductivistas
de Popper, así como su criterio de demarcación falsacionista,
proporcionar una adecuada definición de la noción de verosimilitud
resulta imprescindible, si se quiere mantener la tesis central de que la investigación
científica constituye un proceso de aproximación progresiva a
la verdad. De ahí que tanto los autores recién mencionados como
algunos de los principales epistemólogos de la escuela de Finlandia,
agrupados en torno a la figura de Hintikka, se hayan ocupado ampliamente de
esta cuestión.
No vamos aquí a entrar en los detalles técnicos de sus propuestas,
que excederían del nivel en el que se enmarca la presente obra. Nos limitaremos,
por tanto, a describir brevemente el sentido de su tentativa.
Para Niiniluoto, "deberíamos de encontrar alguna forma de relativizar
la noción de verosimilitud al poder de expresión de las teorías".
No se trata, pues, de definir la verosimilitud como la aproximación a
una verdad general: ninguna teoría científica toma a la totalidad
de la realidad como su ámbito de investigación por mucho que sus
leyes y sus enunciados sean universales. De ahí que el propio Niiniluoto
plantee el problema de la verosimilitud en términos muy distintos, tratando
de definir en primer lugar la mayor o menor distancia a la verdad de determinados
enunciados de un lenguaje L de primer orden. Se retoma así una propuesta
de Tichy en 1974, que había sido criticada por Miller y por el propio
Niiniluoto. En el caso de este último, se recurrirá a la teoría
de Hintikka de las componentes o constituyentes de una teoría.
Lo cierto es que las propuestas popperianas han dado origen a lo que se llama
el problema lógico de la verosimilitud que ha pasado a ser uno de los
más importantes en la filosofia de la ciencia de los últimos años.
Ello implica ya un cambio considerable con respecto al verificacionismo del
Círculo de Viena y de la concepción heredada. Laudan, defensor
del concepto de programa de investigación, que centra el progreso científico
en la resolución de problemas, y no en la paulatina aproximación
a la verdad, había indicado en 1979 que "nadie ha sido capaz de
decir ni siquiera qué debe entenderse por "más cerca de la
verdad", por no hablar de ofrecer criterios para determinar cómo
se podría medir esa proximidad". Esta deficiencia ha sido subsanada
por los epistemólogos finlandeses, lo cual no equivale a decir que el
problema haya sido resuelto. Sí es cierto que las concepciones realistas
de Popper, así como su interés por la noción de verosimilitud
en tanto que característica epistemológica de las teorías
científicas, y del progreso como búsqueda de la verdad, han seguido
suscitando investigaciones y estudios, a veces altamente complejos.
Ocurre, sin embargo, que también en esos años comenzaron a aparecer
historiadores y filósofos de la ciencia que aportaban nuevos problemas
a la epistemología científica que desbordaban el marco del debate
entre el falsacionismo popperiano y el verificacionismo positivista, e incluso
la caracterización de las teorías como sistemas formales con sus
vocabularios (teórico y observacional) y sus axiomas. Todo lo cual tiene
su incidencia en el problema de la verosimilitud, ya que éste está
concebido y ha sido tratado en términos de la previa reducción
de las teorías a sistemas formales; y, desde luego, tomaba siempre como
términos de comparación a teorías conmensurables entre
sí . De ahí que antes de retomar la cuestión de la verosimilitud
en el marco de los métodos inductivos y probabilitarios, convenga detenerse
en estas nuevas aportaciones que van a suponer un giro radical en la problemática
de la filosofía de la ciencia en el siglo XX.
4. PARADIGMAS Y REVOLUCIONES CIENTÍFICAS
4.1. Introducción
Al igual que la Lógica de la investigación científica de
Popper en 1935, la publicación en 1962 de la obra de Thomas S. Kuhn,
La estructura de las revoluciones científicas, marca una nueva etapa
en la filosofía de la ciencia del siglo XX. Como en el caso de Popper,
la influencia de este libro no fue inmediata. En 1963 Popper publicó
su segunda gran obra sobre metodología científica, Conjeturas
y refutaciones, que marcó el auge principal de las concepciones popperianas,
junto con la traducción inglesa en 1959 de su obra clásica de
1935. La célebre polémica Popper-Kuhn, mantenida en el Coloquio
Internacional sobre Filosofía de la Ciencia celebrado en Londres en 1965,
permaneció desconocida para el gran público hasta 1970, cuando
Lakatos y Musgrave la dieron a conocer en una obra traducida en 1975 al castellano
con el título La crítica y el desarrollo del conocimiento. La
coincidencia básica entre las ideas de Lakatos y las de Kuhn, así
como la revisión de la obra de Kuhn llevada a cabo por Stegmuller en
l973, acercando sus aportaciones a las de la concepción estructural,
supusieron la definitiva difusión de la obra kuhniana, que ya estaba
siendo discutida ampliamente por los especialistas.
Pese a este retraso en la imposición de La estructura de las revoluciones
científicas como un clásico de la metodología científica,
su influencia ha sido muy grande. Fue traducida al castellano en 1971, si bien
la edición más aconsejable es la de 1975 (y posteriores), al incluir
el Post scriptum de 1969, en el cual Kuhn responde a algunos de sus críticos.
Asimismo es importante el escrito traducido al castellano con el título
Segundos pensamientos sobre paradigmas, en el cual Kuhn matiza sus posiciones
iniciales sobre los paradigmas, profundizando en las nociones de comunidad científica
y de matriz disciplinar. Aparte las obras de Kuhn de carácter netamente
histórico, imprescindibles para conocer con detalle sus estudios historiográficos
sobre la ciencia, su obra de 1977, La tensión esencial, en la que se
recopilan diversos artículos publicados en revistas especializadas, completa
su reflexión metodológica.
Kuhn ha introducido en la teoría de la ciencia diversos conceptos que
son de común aplicación hoy en día: paradigmas, ciencia
normal, anomalías, crisis, revoluciones científicas, comunidades
científicas, etc., y sobre todo ha subrayado la enorme importancia de
los estudios minuciosos sobre historia de la ciencia como algo previo y necesario
para la elaboración de una concepción filosófica de la
ciencia. Su reproche fundamental a Popper estribará en la visión
continuista y acumulativa del progreso científico que éste defendió;
por el contrario, para Kuhn la ciencia avanza a base de crisis y rupturas, que
implican cambios radicales en la concepción del mundo, y a las cuales
llamará revoluciones científicas. La tesis de la inconmensurabilidad
de los paradigmas, posteriormente radicalizada por su discípulo Feyerabend,
ha dado lugar a una importante discusión que todavía continúa.
Independientemente del carácter un tanto impreciso de algunos de sus
conceptos, y de su constante autorreivindicación como historiador de
la ciencia, y no como filósofo de la ciencia (Kuhn es físico por
su formación, interesado posteriormente en la historia de la física,
y sólo más tarde en la metodología general de la ciencia),
lo cierto es que sus aportaciones han supuesto un revulsivo para la teoría
de la ciencia en este último tercio del siglo XX y que su influencia
aún se mantiene viva.
4.2. Los paradigmas científicos
El término 'paradigma' ha sido utilizado por los gramáticos para
designar los diversos tipos de declinación de una palabra o de conjugación
de un verbo: dentro de un núcleo común, que es la raíz,
existen en las lenguas diversas variantes que caracterizan un paradigma (por
ejemplo, la primera declinación o conjugación del latín),
y que se distinguen entre sí por los respectivos sufijos o flexiones.
Dicho concepto fue utilizado en teoría de la ciencia por primera vez
por Ch. Lichtenberg (1742-1799) y en nuestro siglo por Wittgenstein en sus Philosophische
Untersuchungen. Kuhn lo presenta en el capítulo III de La estructura
de las revoluciones científicas como "un modelo o patrón
aceptado" por los científicos de una determinada época, que
normalmente ha llegado a ser vigente tras imponerse a otros paradigmas rivales.
Una determinada rama del saber pasa a ser una disciplina científica precisamente
cuando surge y triunfa un paradigma. Ejemplos de paradigmas científicos
serían el análisis aristotélico del movimiento de los cuerpos,
el cálculo ptolomaico de las posiciones planetarias, la revolución
copernicana, la mecánica de Newton, la teoría química de
Lavoisier, la matematización maxwelliana del electromagnetismo, la teoría
einsteiniana de la relatividad, y muchos otros, acaso menos famosos, pero cuya
delimitación en la historia de la ciencia sería el objetivo principal,
a fin de evitar estudios históricos basados exclusivamente en la acumulación
de datos, hechos y descubrimientos. Los libros de texto utilizados para la formación
de los nuevos científicos suelen constituir expresiones más o
menos adecuadas de dichos paradigmas, sobre todo en los dos últimos siglos.
En la etapa de sus estudios los científicos se han familiarizado con
determinados lenguajes y técnicas cuya eficacia para resolver determinados
problemas ha marcado profundamente su modo de considerar los fenómenos,
adscribiéndoles al paradigma vigente en la comunidad científica
de su época. Las tesis doctorales, con la profunda impronta que dejan
en la formación de los investigadores, así como los primeros trabajos
de experimentación, han tenido lugar en ese mismo ámbito teórico.
Todo ello origina una serie de creencias y hábitos intelectuales comunes
a numerosos científicos, que por ello mismo forman una comunidad. Puede
haber, por supuesto, paradigmas y comunidades rivales, con las correspondientes
pugnas por el poder académico y científico. La ciencia vigente
en un momento dado implica la constitución y el afianzamiento de uno
de esos paradigmas.
La noción kuhniana de paradigma, tal y como es formulada en 1962, fue
considerada como sugerente, pero también criticada por su vaguedad por
autores como Shapere, Toulmin y Mastermann. Esta última distinguió
hasta 21 sentidos diferentes en la utilización kuhniana del término,
agrupables en tres grandes grupos:
1) Aspecto filosófico (o metafísico) del paradigma, que daría
la imagen del mundo y los elementos básicos de creencia de los científicos
sobre lo que sea la realidad: sería el caso del atomismo del mecanicismo,
de la matematización de la realidad, del fenomenalismo, etc.
2) Aspecto sociológico del paradigma, ligado a la estructura y a las
relaciones internas y externas de la comunidad de científicos que detentan
un mismo paradigma: un paradigma conlleva un aspecto institucional, tanto nacional
como internacionalmente (sociedades científicas, apoyo a determinadas
líneas de investigación publicaciones periódicas, manuales
utilizados en la docencia universitaria, congresos, academias, etc.) que permite
discernirlo con respecto a otros paradigmas rivales.
3) Aspecto propiamente científico del paradigma, ligado a los problemas
ya resueltos y a los principales ejemplos que son explicados gracias a la utilización
del paradigma. Mastermann califica este tercer aspecto como paradigmas construidos.
La noción kuhniana de paradigma fue criticada también por su sociologismo,
implícito en 1962 Y claramente afirmado a partir de los Segundos pensamientos
de 1969-1970, cuando Kuhn responde a sus opositores precisando dicha noción:
un paradigma es aquello que los miembros de una comunidad científica,
y sólo ellos, comparten; y a la inversa, es la posesión de un
paradigma común lo que constituye a un grupo de personas en una comunidad
científica, grupo que de otro modo estaría formado por miembros
inconexos.
Según Kuhn, la sociología de la ciencia habría desarrollado
métodos empíricos para identificar estas comunidades, y consiguientemente
los paradigmas existentes en un momento histórico dado: los científicos
adscritos a un mismo paradigma están ligados por elementos comunes durante
su período de aprendizaje, se sienten responsables del logro de determinados
objetivos en la investigación, colaboran en equipos, se comunican entre
sí, han leído básicamente la misma literatura, reciben
y escriben en las mismas revistas, asisten a determinados congresos, pertenecen
a las mismas sociedades, se envían para consulta mutua previamente sus
prepublicaciones, se citan los unos a los otros, etc. La polivocidad de la noción
de paradigma puede ser corregida mediante esta delimitación precisa de
las comunidades científicas a partir del momento en que paradigma y comunidad
científica vienen a ser nociones que se definen mutuamente. Muchos filósofos
de la ciencia, sin embargo, no están de acuerdo con esta reducción
sociológica de un concepto que, en la filosofía kuhniana de la
ciencia, seguiría siendo fundamental, y de ahí que la concepción
estructural, aun partiendo de posiciones muy diferentes, como veremos, haya
dado un nuevo impulso a las teorías kuhnianas. Tal y como el propio Kuhn
reconoce, el formalismo propuesto por Sneed para la reconstrucción de
las teorías científicas ofrece un nuevo instrumental de análisis
de la ciencia, en el que los conceptos básicos de Kuhn tienen cabida.
4.3. Ciencia normal y revoluciones científicas
En la etapa precientífica, los hechos son recopilados de manera bastante
fortuita, precisamente por carecer de un criterio que permita seleccionarlos.
La observación y la experimentación casual, así como los
datos provenientes de la artesanía, constituyen esa primera amalgama
a la que todavía no se le puede llamar ciencia. Plinio y las historias
naturales baconianas del siglo XVII son ejemplos citados por Kuhn de esta fase
de la investigación. En ellas se yuxtaponen hechos que luego serán
relevantes junto con algunos sin importancia, así como otros demasiado
complejos para poder integrarlos en una teoría en esa etapa histórica.
En esas recopilaciones se omiten, por supuesto, numerosos datos que posteriormente
serán considerados como importantes.
Con respecto a esos hechos van surgiendo interpretaciones diferentes, provenientes
sea de la metafísica, de la religión o de otras ciencias. Lo sorprendente
será la desaparición de todo ese cúmulo de creencias dispersas,
precisamente en el momento de la constitución de un paradigma. Éste
surge normalmente por el triunfo de una de las escuelas anteriores, la cual
se centra en el estudio de una parte pequeña de los datos recopilados:
Kuhn pone como ejemplo a los creadores de la teoría de la electricidad.
Pero lo importante es que, tras la constitución de un paradigma, la investigación
cambia radicalmente: sólo algunos experimentos y fenómenos son
interesantes, pero éstos han de ser investigados sistemáticamente,
y no al azar. La investigación comienza a ser dirigida (caso de Franklin),
y paralelamente a ello los demás investigadores comienzan a interesarse
progresivamente por dicha escuela, hasta el punto de que las demás decaen.
"El nuevo paradigma -dice Kuhn- supone una definición nueva y más
rígida del campo". Éste se desglosa de otros ámbitos
de conocimiento, con los que pudo estar antes en contacto directo, y tiende
a constituirse como disciplina especial y diferenciada. Surgen revistas, sociedades,
cátedras y departamentos universitarios que cultivan esa nueva área
de especialización. El paradigma se asienta progresivamente, comienza
a obtener resultados que retroalimentan la investigación y acaba convirtiéndose
en ciencia vigente.
La etapa precientífica y la constitución de un paradigma dan origen
a lo que Kuhn llama una etapa de ciencia normal. Al distinguir esta fase histórica
Kuhn encontrará argumentos poderosos contra la metodología falsacionista
de Popper, que incluso han sido aceptados parcialmente por éste. En efecto,
durante la etapa de ciencia normal el científico no es crítico
ni intenta refutar las teorías científicas vigentes. Kuhn define
la etapa de ciencia normal de la manera siguiente:
Ciencia normal significa investigación basada firmemente en una o más
realizaciones científicas pasadas, realizaciones que alguna comunidad
científica particular reconoce, durante cierto tiempo, como fundamento
para su práctica posterior.
Dichas realizaciones son relatadas en los libros de texto ad usum, o si no en
obras clásicas como la Física de Aristóteles, los Elementos
de Euclides, el Almagesto de Ptolomeo, los Principia y la Óptica de Newton,
la Electricidçd de Franklin, el Tratado de química de Lavoisier
o la Geología de Lyell, cada una de las cuales dio origen a una auténtica
disciplina científica, normalmente por desglose respecto de un saber
previo. Así explicitado el paradigma, la investigación tomará
esas obras o manuales como base para las indagaciones ulteriores: se tratarán
de resolver los problemas no solucionados todavía en esas obras clásicas,
se generalizarán dichos problemas, se trasladarán a nuevos campos
no previstos por los creadores del paradigma, etc. Las teorías contrapuestas
al paradigma vigente quedarán arrumbadas como simples curiosidades históricas,
o bien como errores a evitar. Hay muchos fenómenos y datos recopilados
en la etapa precientífica que ni siquiera deben ser investigados:
Las operaciones de limpieza son las que ocupan a la mayoría de los científicos
durante todas sus carreras. Constituyen lo que aquí llamo ciencia normal.
Examinada de cerca tanto históricamente como en el laboratorio contemporáneo,
esa empresa parece ser un intento de obligar a la naturaleza a que encaje dentro
de los límites preestablecidos y relativamente inflexibles que proporciona
el paradigma.
Durante esta fase los científicos no buscan nuevas teorías, y
ni siquiera nuevos fenómenos. La ciencia normal investiga zonas muy pequeñas,
pero con gran minuciosidad. La tarea principal estriba en articular y organizar
cada vez mejor, en forma de teoría, los resultados que se han ido obteniendo.
La comunidad científica correspondiente selecciona los hechos que le
interesan, que Kuhn clasifica en tres grupos: los que el paradigma ya ha mostrado
que son particularmente reveladores, las predicciones derivadas del paradigma
que todavía no han sido ratificadas empíricamente y, por último,
los experimentos que permiten articular mejor el paradigma e ir resolviendo
sus dificultades residuales. La determinación precisa de constantes físicas
(como la de la gravitación universal, el número de Avogadro o
el coeficiente de Joule) es uno de los ejemplos más característicos
de este tercer tipo de investigaciones empíricas en la fase de ciencia
normal, que para Kuhn es el más importante de los tres y el que permite
justificar la idea de progreso científico ligado al paradigma: enunciar
leyes cuantitativas que precisen matemáticamente las leyes básicas
puede ser otro ejemplo.
Asimismo la ciencia normal consagra una buena parte de sus esfuerzos a la resolución
de puzzles, es decir, problemas que podrían tener solución en
principio, conforme a los criterios de cuestiones plausibles que siempre establece
un paradigma. Estos enigmas o puzzles pueden no ser importantes. Las etapas
de ciencia normal se caracterizan precisamente porque en ellas se puede dedicar
muchísimo tiempo y esfuerzo a la tentativa de solucionar problemas de
escasa relevancia, pero con mucho sentido dentro del paradigma.
En cualquier caso, en toda etapa de ciencia normal existen numerosas anomalías,
es decir hechos que de ninguna manera son explicables en el marco conceptual
del paradigma y que incluso lo contradicen. Los ejemplos históricos que
proporciona Kuhn al respecto son muchos:
El estado de la astronomía de Ptolomeo era un escándalo, antes
de la propuesta de Copérnico. La nueva teoría de Newton sobre
la luz y el color tuvo su origen en el descubrimiento de que ninguna de las
teorías existentes antes del paradigma explicaban la longitud del espectro,
y la teoría de las ondas, que reemplazó a la de Newton, surgió
del interés cada vez mayor por las anomalías en la relación
de los efectos de difracción y polarización con la teoría
de Newton.
La existencia de anomalías puede ser conocida durante mucho tiempo sin
que por ello el paradigma vigente se venga abajo. En ese sentido, Kuhn no puede
estar de acuerdo con el falsacionismo popperiano, a la vista de los múltiples
ejemplos en los que se muestra que hechos contradictorios con una determinada
teoría no conllevan su refutación ni su falsación efectiva.
Pero conforme dichas anomalías se van revelando cada vez más insalvables,
y conforme se multiplican en número y en diversidad de ámbitos
donde se producen, el paradigma va entrando en crisis. Se inaugura con ello
una nueva etapa en el desarrollo histórico de un paradigma, que acabará
dando lugar a una revolución científica que hará triunfar
un nuevo paradigma.
¿Cómo se producen estos procesos de cambio científico,
según Kuhn? Nunca es una simple anomalía la que derriba un paradigma
vigente. Confrontados a una dificultad irreductible, los científicos
"inventarán numerosas articulaciones y modificaciones ad hoc de
su teoría para eliminar cualquier conflicto aparente". Las leyes
básicas de la teoría que caracteriza a un paradigma suelen convertirse,
para sus defensores, en una especie de tautologías, no refutables por
muchas observaciones que se hagan. El paradigma no podrá ser rechazado
-afirma Kuhn- mientras no surja otro rival de él. Una vez que un ámbito
de saber ha comenzado a funcionar científicamente, mediante paradigmas,
ya no puede dejar de hacerlo. De ahí que los científicos en las
épocas de crisis de un paradigma comiencen a hacer surgir nuevas hipótesis
y nuevas teorías, entrándose con ello en la etapa llamada de proliferación
de teorías. El paradigma en crisis engendra en su decadencia una multiplicidad
de salidas posibles contrarias a algunos de sus postulados fundamentales:
La transición de un paradigma en crisis a otro nuevo del que pueda surgir
una nueva tradición de ciencia normal está lejos de ser un procedimiento
de acumulación, al que se llegue por medio de una articulación
o una ampliación del antiguo paradigma. Es más bien una reconstrucción
del campo a partir de nuevos fundamentos, reconstrucción que cambia algunas
de las generalizaciones teóricas más elementales del campo, así
como también muchos de los métodos y aplicaciones del paradigma.
La sustitución de un paradigma implica una revolución científica.
Y lo que es clave en relación a la polémica Kuhn/Popper, el nuevo
paradigma será incompatible en algunos aspectos fundamentales con el
anterior.
Las revoluciones científicas se inician con un sentimiento creciente,
a menudo restringido a una estrecha subdivisión de la comunidad científica,
de que un paradigma existente ha dejado de funcionar adecuadamente en la exploración
de un aspecto de la naturaleza.
Esto da lugar a la aparición de nuevas sociedades y publicaciones científicas,
que entran en pugna institucional con los defensores del paradigma tradicional.
El paralelismo con las revoluciones políticas es explícito en
Kuhn, y por eso concibe los procesos de cambio científico como auténticas
revoluciones en la disciplina correspondiente. Conforme, de entre las muchas
teorías opositoras al paradigma anterior, se va decantando una que aglutina
esa oposición y logra mejores resultados experimentales o institucionales
en la lucha contra la ciencia vigente, el nuevo paradigma se va implantando
progresivamente: los libros de texto anteriores son reemplazados por otros nuevos,
los viejos instrumentos de laboratorio caen en desuso. La historia de la ciencia
va recogiendo todos esos documentos resultantes de la pugna entre comunidades
científicas por imponer un nuevo paradigma o derribar el anterior.
Esta concepción kuhniana de la historia de la ciencia resulta ser cíclica.
En efecto, el paradigma emergente reproduce en forma diferente el ciclo del
anterior, entrándose al poco tiempo de la revolución científica
en una nueva etapa de ciencia normal, con las mismas características
generales antes vistas, si bien esta vez nucleada en torno a un nuevo paradigma.
4.4. Las Matrices Disciplinarias
Antes de abordar las consecuencias derivadas de las propuestas kuhnianas para
investigar la historia de la ciencia conviene que nos detengamos en los perfeccionamientos
ulteriores que él mismo introdujo en sus teorías, y concretamente
en la propia noción de paradigma, que va a ser reemplazada, por lo menos
a nivel técnico, por la de matriz disciplinaria. Cierto es que ello no
ha impedido que el término 'paradigma' siga siendo de común uso
en la metodología científica.
Una matriz disciplinaria posee tres tipos de componentes: generalizaciones simbólicas,
modelos y ejemplares.
Las generalizaciones simbólicas serían características
distintivas del lenguaje usado por cada comunidad científica, y en particular
por aquellas componentes formales o fácilmente formalizables de dicho
lenguaje: las figuras de la geometría euclídea, las ecuaciones
cartesianas, el lenguaje infinitesimal, el análisis matemático,
el cálculo tensorial, la estadística o los símbolos de
la tabla de los elementos químicos, por ejemplo. Cada paradigma posee,
si se ha desarrollado como tal, su propio utillaje conceptual y operatorio.
Los modelos poseen una vertiente ontológica y otra heurística.
Interpretar, por ejemplo, los fenómenos térmicos desde el paradigma
cinemático implica afirmar que el calor de un cuerpo es la energía
cinética de sus partículas constituyentes; de ahí la vertiente
ontológica inherente a la adscripción de un paradigma a un determinado
modelo. Por otra parte, al interpretar un sistema físico (por ejemplo,
un circuito eléctrico) desde un determinado paradigma (como el de un
sistema hidrodinámico) se posibilitan nuevas hipótesis y líneas
de investigación que caracterizan la heurística de un determinado
paradigma. Estos ejemplos puestos por Kuhn en sus Segundos pensamientos sobre
paradigmas ilustran al menos la segunda componente de una matriz disciplinaria,
que retoma en buena medida los aspectos filosóficos u ontológicos
ya distinguidos anteriormente en un paradigma. Por supuesto, al adscribir un
fenómeno a un determinado modelo ontológico-científico
o a otro, la heurística correspondiente se modifica radicalmente.
En cuanto a los ejemplares, son soluciones de problemas concretos, a partir
de las cuales (y por impacto de su efectividad) se puede explicar científicamente
un fenómeno y convencer a los neófitos de la importancia del paradigma.
Los ejercicios y los ejemplos propuestos a la teoría en los libros de
textos se corresponden bastante bien con lo que Kuhn llama ejemplares de una
matriz disciplinaria.
Una matriz disciplinaria concreta puede contar con otras componentes, pero al
menos ha de poseer objetivaciones de las tres anteriores. Entre los científicos
adscritos a un mismo paradigma existe un compromiso de aceptación de
las generalizaciones simbólicas, de los modelos y de los ejemplares correspondientes.
Hablan el mismo lenguaje, utilizan los mismos instrumentos de laboratorio, interpretan
los fenómenos en el mismo marco ontológico y, desde luego, han
tenido y reproducen cara a sus alumnos y al público la misma formación
en lo que respecta a la selección de los problemas más característicos
resueltos por la teoría que ellos defienden.
Esta redefinición de las teorías kuhnianas tampoco ha estado exenta
de críticas, pero en general cabe señalar que la nueva terminología
propuesta por Kuhn no ha llegado a imponerse ni a desplazar a la expuesta en
La estructura de las revoluciones científicas. Dejando de lado, por lo
tanto, las matizaciones ulteriores al pensamiento de Kuhn que se podrían
introducir a partir de sus nuevas obras, podemos volver sobre su marco descriptivo
de la historia de las teorías científicas, que al cabo ha sido
el que ha producido un considerable impacto en la filosofía de la ciencia
actual, en buena medida por su oposición al progreso científico
por acumulación y falsación que propusiera Popper.
4.5. Inconmensurabilidad entre paradigmas
Hemos visto que Kuhn criticaba no sólo la concepción acumulativa
del progreso científico, proponiendo una nueva visión discontinuista
de la historia de la ciencia, sino también el falsacionismo popperiano.
Una teoría científica nunca es refutada ni dejada de lado exclusivamente
por haber sido falsada empíricamente:
Una teoría científica se declara inválida sólo cuando
se dispone de un candidato alternativo para que ocupe su lugar [...]. La decisión
de rechazar un paradigma es siempre, simultáneamente, la decisión
de aceptar otro, y el juicio que conduce a esta decisión involucra la
comparación de ambos paradigmas con la naturaleza y la comparación
entre ellos.
El estudio de las revoluciones científicas implica, por consiguiente,
no sólo centrarse en las anomalías que van surgiendo respecto
del paradigma anterior, sino también en la emergencia del nuevo paradigma,
en su relación con los datos empíricos, y sobre todo en su relación
con el otro paradigma.
En este punto Kuhn va a introducir una de las tesis que mayor debate ha suscitado
de entre todas las propuestas por él en La estructura de las revoluciones
científicas: la inconmensurabilidad entre los paradigmas rivales. Kuhn
va a analizar el proceso de revolución científica por analogía
con los cambios de visión. Según señala K. Bayertz, en
Kuhn cabe distinguir tres tipos de diferencias entre un paradigma y su rival:
1) Diferentes problemas por resolver e, incluso, diferentes concepciones y definiciones
de la ciencia de la que se ocupan.
2) Diferencias conceptuales entre ambos paradigmas, ligadas al diferente lenguaje
teórico y a la distinta interpretación ontológica de los
datos analizados.
3) Diferente visión del mundo, en el sentido de que dos defensores de
distintos paradigmas no perciben lo mismo.
La importancia de estas tesis para la metodología científica es
indudable, pues atacan el principal dogma del positivismo: la existencia de
una base empírica (observacional, sensorial) común a todos los
científicos. Kuhn, por el contrario, compara una revolución científica
con un cambio en la visión del mundo. Los científicos que defienden
el viejo y el nuevo paradigma poseen concepciones diferentes de lo que es la
disciplina científica de la que se ocupan (o cuando menos de los problemas
que debe afrontar), utilizan conceptos teóricos distintos, hasta el punto
de que aunque los términos usados fuesen los mismos (por ejemplo, el
término "masa" para un newtoniano y para un einsteiniano),
ha habido un cambio de significado al insertarse dicho término en un
o u otro paradigma; y, por último, y lo que es más importante,
las propias percepciones que se tienen del mundo son distintas.
En apoyo de estas tesis Kuhn proporciona numerosos ejemplos extraídos
de la historia de la ciencia. El descubrimiento científico, por ejemplo
en el caso del oxígeno por parte de Lavoisier, no tiene lugar en el momento
en que (con Priestley) dicho gas es liberado en forma pura: Priestley aún
percibía dicho gas como desflogistizado, y por tanto estaba inmerso en
el paradigma del flogisto. El propio Lavoisier tardó en poseer una percepción
de dicho gas conforme al nuevo paradigma. Kuhn concluye que un descubrimiento
científico no es acontecimiento de un día, sino que, al menos
en los casos de revoluciones científicas, puede ser muy bien reinterpretado
como descubrimiento fundamental a posteriori, en el momento en que el nuevo
paradigma permite reinterpretar qué hechos son importantes y significativos
y cuáles no.
"Las diferencias entre paradigmas sucesivos son necesarias e irreconciliables",
afirma Kuhn, y pueden ser tanto sustanciales (u ontológicas: la luz como
corpúsculos o como ondas), como epistemológicas (concepciones
respectivas de la ciencia, heurística, metodología), como perceptuales.
La aceptación de un nuevo paradigma por parte de la comunidad científica
frecuentemente modifica el concepto mismo de la ciencia correspondiente, y lo
que es más,
cuando cambian los paradigmas, el mundo mismo cambia con ellos,
lo cual implica un cambio incluso en la percepción de los fenómenos:
durante las revoluciones, los científicos ven cosas nuevas y diferentes
al mirar con instrumentos conocidos y en lugares en los que ya habían
buscado antes,
por lo cual,
en tiempos de revolución, cuando la tradición científica
normal cambia, la percepción que el científico tiene de su medio
ambiente debe ser reeducada; en algunas situaciones en las que se ha familiarizado
debe aprender a ver una forma (Gestalt) nueva.
Las teorías de Hanson sobre la percepción de los científicos,
así como las investigaciones de la psicología de la Gestalt, son
repetidamente invocadas por Kuhn en apoyo de sus tesis sobre las revoluciones
científicas y la inconmensurabilidad de los paradigmas sucesivos, y ello
tanto en La estructura de las revoluciones científicas como en sus Segundos
pensamientos sobre paradigmas. Kuhn no cree en los datos sensoriales por su
inmediatez para el conocimiento científico, ni mucho menos en su capacidad
para dilucidar, en tanto que base empírica estable, entre dos paradigmas
rivales. El problema principal de los procesos de cambio científico es
el de la incompatibilidad entre las respectivas concepciones, así como
la inexistencia de una experiencia neutra y objetiva que actuaría como
juez de paz entre las teorías rivales, dando la razón a quien
más la tuviese. Todo ello ha dado lugar a que sobre Kuhn hayan caído
acusaciones de irracionalismo a la hora de explicar los procesos de cambio científico,
abriéndose con ello un amplio debate entre los filósofos de la
ciencia poskuhnianos.
Dentro de dicha polémica Feyerabend, inicialmente discípulo de
Kuhn, ha mantenido tesis muy radicales. Aportando en apoyo de las misma un amplio
material procedente de sus estudios históricos, Feyerabend ha mantenido
las tesis siguientes:
1) Existen sistemas de pensamiento (acción, percepción) que son
inconmensurables.
2) El desarrollo de la percepción y del pensamiento en el individuo pasa
por etapas que son inconmensurables entre sí.
3) Existen teorías científicas que son mutuamente inconmensurables
aunque en apariencia se ocupen del "mismo objeto". No todas las teorías
rivales tienen esa propiedad y aquellas que tienen la propiedad sólo
la tienen mientras sean interpretadas de una forma especial, por ejemplo, sin
hacer referencia a un "lenguaje de observación independiente".
Entre dos teorías hay cambios ontológicos, cambios conceptuales
y cambios perceptivos. En particular, uno de los casos más sutiles es
el del cambio de significado de un mismo término teórico, cuestión
ésta que ha dado lugar a amplios debates sobre la paradoja del cambio
de significado. No existe un lenguaje observacional estable y previamente existente;
cada paradigma, o cada teoría, selecciona qué hechos son relevantes
y cuáles ni siquiera son científicamente pertinentes. Puesto que
las respectivas selecciones son heterogéneas en el caso de paradigmas
opuestos, la experiencia no puede servir para resolver la contraposición
entre teorías rivales. Con ello, Kuhn y sus discípulos asestaron
un duro golpe al empirismo lógico.
4.6. Filosofía de la ciencia e historia de la ciencia
Una de las principales aportaciones de Kuhn a la metodología científica
estriba en su insistencia en la importancia de los estudios históricos
minuciosos como etapa previa a la elaboración de teorías generales
sobre la ciencia o sobre cada disciplina científica. Aunque dicha tesis
pueda parecer trivial, lo cierto es que, salvo honrosas excepciones (entre las
cuales Lovejoy y Koyré, como también Metzger, fueron muy importantes
para el propio Kuhn), la historia de la ciencia ha sido una disciplina muy poco
desarrollada hasta hace unos años. Antiguamente algunos grandes autores
escribían artículos biográficos o proporcionaban referencias
históricas para ilustrar sus propios trabajos; así ocurrió
con Lagrange, Priestley y Delambre, al igual que con la célebre obra
de Montucla. A finales del siglo XIX científicos como Kopp, en química,
Poggendorff, en física, Sachs, en botánica, Zittel y Geikie, en
geología, o Klein, en matemáticas, elaboraron estudios importantes,
que hoy en día constituyen una referencia obligada. Esta primera tradición
historiográfica, la de la historia escrita por científicos, suele
limitarse sin embargo a ilustrar con ejemplos y antecedentes históricos
la ciencia contemporánea a cada uno de ellos.
Una segunda tradición historiográfica tenía objetivos más
explícitamente filosóficos. Ya el propio Francis Bacon, como luego
Condorcet y Comte, subrayaron el interés que tiene el conocimiento de
la génesis y del aprendizaje de los conceptos científicos básicos.
Pero la historia de la ciencia estaba más que nada al servicio de la
ilustración de tesis filosóficas generales sobre la ciencia, como
sucede explícitamente en el caso de Whewell, Mach o Duhem, con lo cual
los resultados de la investigación histórica presentaban una serie
de insuficiencias, quedándose a veces la tentativa a un nivel meramente
programático.
La nueva historiografía de la ciencia, que es la que le interesa a Kuhn,
surge con autores como Alexandre Koyré, quien investiga épocas
históricas anteriores profundizando en el modo de pensar de entonces,
y tratando de comprender las investigaciones y los debates correspondientes
en su propio contexto, y no por referencia a la ciencia actual. Ya no se trata
de ilustrar ni de introducir los métodos científicos contemporáneos
a base de una presentación de los mismos bajo la advocación de
algunas ilustres figuras del pasado, sino de profundizar en la época
estudiada independientemente de que muchas de sus figuras, ideas y resultados
no tengan la menor relevancia para la ciencia actual.
Basándose en este cambio conceptual en la historiografía de la
ciencia, ésta ha comenzado a constituirse en distintos países
como disciplina independiente, separada por una parte de la historia de la filosofía,
pero también de las facultades de historia, en la medida en que dichos
estudios requieren de un contacto estrecho con las facultades de ciencias. Este
fenómeno le parece a Kuhn muy importante, hasta el punto de que él
mismo ha trabajado durante varios años en un programa de historia y filosofía
de la ciencia en la Universidad de Princeton, en el que colaboraban historiadores,
científicos y filósofos, si bien desde perspectivas y programas
netamente diferenciados. Kuhn es partidario de mantener esa estructura, de tal
manera que los estudios históricos sean previos a la formación
de los filósofos y metodólogos de la ciencia. Otra gran novedad
del siglo XX, que mantiene la misma tendencia, consiste en las elaboraciones
de historias generales de la ciencia, y no ya sólo de disciplinas concretas,
como ocurrió hasta el siglo XIX. Ello da lugar a que los historiadores
requieran de una formación especial, que ya no se restringe a una sola
especialidad.
La función metodológica de la historia de la ciencia queda perfectamente
ilustrada en las criticas que el propio Kuhn hace a Popper. Frente a concepciones
sistemáticas o puramente normativas de la ciencia, como por ejemplo el
criterio de demarcación basado en la falsabilidad, Kuhn propone que se
hagan estudios empíricos previos para ver cómo se ha producido
el cambio científico a lo largo de la historia: basándose en ello
afirmará que el progreso científico no es acumulativo, así
como que una teoria no es dejada de lado por refutación empírica
o por algún experimento crucial, sino únicamente cuando ha surgido
frente a ella un nuevo paradigma que está en condiciones de sustituirla
como nueva ciencia normal. En su polémica con Popper de 1965, Kuhn da
por aceptadas por parte de Popper varias de sus tesis en La estructura de las
revoluciones científicas: hay revoluciones científicas y la ciencia
no progresa por acumulación, no hay observación científica
sin teoria que la impregne, las teorías científicas son explicativas
y versan sobre objetos reales, etc. La obra de Popper, Conjeturas y refutaciones,
matizaba en efecto algunas de las posiciones demasiado rígidas de su
obra de juventud, la Lógica de la investigación científica.
Sin embargo, para Kuhn seguía privilegiando excesivamente los momentos
de cambio y de revolución científica a la hora de insistir en
el talante falsador o refutador propio de los científicos. La historia
de la ciencia, en cambio, muestra que numerosísimos científicos
en las más diversas disciplinas jamás han considerado sus teorías
como conjeturas y mucho menos han intentado falsarlas experimentalmente. Las
etapas de ciencia normal nos muestran a un tipo de científico muy diferente
al científico crítico concebido por Popper; sin embargo, también
esas etapas han de ser estudiadas por los historiadores, e incluidas en la reflexión
de los metodólogos. Hacer una historia o una metodología de la
ciencia basada sólo en los momentos estelares de la misma (las grandes
revoluciones, las grandes teorías) supone perder de vista aspectos que
sólo pueden ser claros para quienes investigan minuciosamente las diversas
épocas históricas, desprovistos de perjuicios metodológicos
previos.
La historia de la ciencia se convierte así en un complemento imprescindible
para la reflexión metodológica; y no cabe duda de que, al menos
en este punto, las tesis de Kuhn han triunfado plenamente desde los años
setenta. Surge, sin embargo, un nuevo problema: ¿qué es la observación
de los datos históricos? ¿Acaso cabe recaer en la ingenuidad del
empirismo lógico de Viena, pensando que los estudios de historia empírica
pueden engendrar teorías explicativas, y no ya sólo descriptivas,
de cada etapa histórica? Kuhn, ciertamente, no piensa así, pero
sus tesis han dado a su vez pábulo a un cierto tipo de estudios históricos
que acumulan una gran cantidad de datos, pero sin que en muchos casos lleguen
a ser pertinentes para las fases ulteriores de la investigación histórica.
Una última variable del problema, sobre la que volveremos también
en capítulos ulteriores, estriba en la distinción entre historia
interna y externa. La historia externa trataría de las actividades de
los científicos en tanto grupo social dentro de una cultura determinada.
En cambio, la historia interna se centraría exclusivamente en el desarrollo
de las ideas, experimentos e investigaciones de los científicos prescindiendo
de esas mediaciones exteriores, sobre la base de que lo importante en filosofía
de la ciencia consiste en analizar el cambio científico, entendiendo
por tal los cambios conceptuales, heurísticos, metodológicos y
ontológicos. Para Kuhn, aun aceptando el interés de la historia
externa, puede hacerse perfectamente una historia de la ciencia exclusivamente
interna:
Comparados con otros profesionales y con otras empresas creativas, los practicantes
de una ciencia madura están aislados en realidad del medio cultural en
el cual viven sus vidas profesionales.
En cualquier caso, y pese a precisiones adicionales que podrían hacerse,
la obra de Kuhn señala un viraje importante de la metodología
de la ciencia: a partir de ella el papel de los estudios históricos adquiere
gran relevancia.
5. LOS PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA
5.1. Introducción
Imre Lakatos fue un filósofo húngaro muy influido en su juventud
por Hegel, que, a partir de los 40 años de edad, dio un acentuado viraje
que le llevó hacia posiciones popperianas. En 1970-1971 afirmó
que "las ideas de Popper constituyen el desarrollo filosófico más
importante del siglo XX", poniendo su figura al nivel de las de Hume, Kant
y Whewell. Sin embargo, criticó las divulgaciones que se habían
hecho de las ideas de Popper por parte de Ayer, Medawar, Nagel y otros, que
para Lakatos suponen un falsacionismo dogmático que no existe en absoluto
en el autor de la Lógica de la investigación científica.
El falsacionismo de Popper es, por el contrario, metodológico, y Lakatos
cree que todavía es mejorable por el falsacionismo metodológico
refinado, que será su propuesta principal en filosofía de la ciencia.
Una teoría nunca es refutada por la observación ni por un experimento
crucial sino, como bien había señalado Kuhn, por otra teoría
rival. Los científicos abandonan una teoría por otra en función
del mayor contenido empírico de la segunda, caracterizado por el descubrimiento
y la corroboración de algunos hechos nuevos y sorprendentes, pero asimismo
en función de su mayor potencial heurístico. Ello da lugar a que
las teorías hayan de ser evaluadas en la historia en función del
programa de investigación en el que se insertan, y no aisladamente en
confrontación con la experiencia.
Lakatos aceptó varias de las tesis de Kuhn, como la existencia de anomalías
para toda teoría científica y la importancia de la historia de
la ciencia para la epistemología. Al respecto acuñó, por
una parte, la distinción entre el centro firme de una teoría (no
falsable empíricamente) y su cinturón protector, así como
las nociones de historia interna y externa de una teoría. Muy interesado
en la filosofía de las matemáticas, insistió en la importancia
de la lógica del descubrimiento científico, más que la
de la justificación ulterior de los resultados obtenidos. Al respecto,
las conjeturas y las pruebas, sucesivamente modificadas, son indispensables
para comprender el desarrollo de las matemáticas, en oposición
a una filosofía formalista de las matemáticas, que las considera
en función del método euclídeo, y no como ciencias cuasi-empíricas,
como sostendrá Lakatos.
Muerto prematuramente a los 51 años (el 2 de febrero de 1974), buena
parte de sus escritos han sido publicados por sus discípulos, como John
Worrall, Elie Zahar, Gregory Currie, etc. La mayor parte de ellos están
traducidos al castellano, en particular en los tres volúmenes siguientes,
publicados por Alianza Editorial: Pruebas y refutaciones, La metodología
de los programas de investigación científica y Matemáticas,
ciencia y epistemología, si bien también están disponibles
otros volúmenes, como La crítica y el desarrollo del conocimiento
(1970), de Lakatos y Musgrave (eds.) (que recoge las ponencias del Coloquio
de Londres de 1965, con las críticas de Lakatos a Kuhn), editado por
Grijalbo, su Historia de la ciencia y sus reconstrucciones racionales (Tecnos)
(que incluye las réplicas de Feigl, Hall, Kortge y Kuhn a las propuestas
de Lakatos), así como el artículo "La crítica y la
metodología de programas científicos de investigación",
editado por Cuadernos Teorema.
5.2. El falsacionismo metodológico refinado
Ya en su artículo de 1968 (Teorema, 1982) Lakatos tomaba como punto de
partida las críticas de Kuhn a Popper, señalando que el autor
de La estructura de las revoluciones científicas había atacado
sobre todo a un Popper que en realidad nunca existió en las obras de
Popper, aunque sí en las de algunos de sus divulgadores e intérpretes.
Como ejemplo prototípico de dicho falsacionismo dogmático cuya
tesis básica estriba en que la ciencia no puede probar, pero sí
refutar empíricamente una teoría, Lakatos cita la afirmación
de Medawar: "La ciencia puede realizar con certeza lógica completa
la recusación de lo que es falso".
Por el contrario, Lakatos distingue el falsacionismo metodológico, en
dos versiones distintas, a las que denomina Popper1 y Popper2. Aunque en sus
propios escritos Lakatos ha oscilado un tanto sobre la atribución de
una postura u otra a su maestro, cabe resumir sus tesis diciendo que el falsacionismo
metodológico ingenuo (Popper1) sería la posición más
característica de Sir Karl, sobre todo en La miseria del historicismo
y en la Sociedad abierta. En otros escritos de Popper se encuentran ideas claves
para el falsacionismo refinado, pero en realidad ésta es una propuesta
que corresponde al propio Lakatos, siendo su aportación más propia
al debate sobre metodología iniciado a partir de la obra de Kuhn.
La versión estándar del popperianismo establecía que la
ciencia avanza por medio de "conjeturas audaces depuradas por duras refutaciones".
Dichas falsaciones se llevan a cabo por medio de enunciados observacionales,
o proposiciones básicas, a las cuales Popper denominó falsadores
potenciales de una teoría. Éstos vienen caracterizados sintácticamente,
por su forma lógica, como enunciados existenciales espacio-temporalmente
singulares, del tipo "hay un planeta en la región espacio-temporal
k". Pero también son discernibles pragmáticamente: el valor
de verdad de los falsadores potenciales ha de ser decidible por medio de algún
procedimiento experimental posible y aceptado en el momento histórico
en que tenga lugar la falsación. Si hay conflicto entre una teoría
y una falsación empírica de este tipo, la teoría debe ser
abandonada.
Lakatos, en cambio, afirma que "no podemos probar las teorías y
tampoco podemos refutarlas" por procedimientos exclusivamente empíricos,
y ello basándose en dos motivos. Primero, porque como ya afirmara Hanson,
"no hay demarcación natural (psicológica) entre las proposiciones
observacionales y las proposiciones teóricas".ó Segundo,
porque "ninguna proposición fáctica puede nunca ser probada
mediante un experimento" debido a su vez a que toda prueba conlleva una
deducción lógica, y las proposiciones sólo pueden derivarse
a partir de otras proposiciones, y no de hechos. Ambos argumentos, el lógico
y el psicológico, permiten a Lakatos desterrar definitivamente las tesis
empiristas de la comprobación o de la refutación de teorías
por medio de la experiencia.
Consecuentemente con ello, Lakatos y sus discípulos también atacaron
el concepto popperiano de refutación de una teoría por medio de
un experimentum crucis, analizando detalladamente, entre otros, los clásicos
ejemplos del experimento de MichelsonMorley, los experimentos Lummer-Pringsheim
y la observación de Chadwick en 1914 de la decadencia de rayos beta.
Lakatos concluye que "los experimentos cruciales no existen, al menos si
nos referimos a experimentos que pueden destruir instantáneamente a un
programa de investigación". Sí cabe, en cambio, que cuando
una teoría ya ha sido sustituida por otra, retrospectivamente se le atribuya
a algún experimento el haber refutado a la primera y corroborado a la
segunda. Pero el abandono de la teoría "refutada" nunca depende
exclusivamente de un solo experimento.
Al objeto de introducir su falsacionismo retinado, Lakatos va a mantener una
tesis aparentemente sorprendente para la tradición empirista: "Las
teorías más admiradas no prohiben ningún acontecimiento
observable". Parecería que estamos en las antípodas de los
falsadores potenciales de Popper, pero lo que en realidad pretende Lakatos es
proponer una distinción fundamental en sus tesis metodológicas:
la de centro firme y cinturón protector de una teoría. Para ello
expone un ejemplo imaginario de investigación científica, que
merece la pena reproducir en su totalidad:
La historia se refiere a un caso imaginario de conducta anómala de un
planeta. Un físico de la era preeinsteiniana combina la mecánica
de Newton y su ley de gravitación (N) con las condiciones iniciales aceptadas
(I) y calcula mediante ellas la ruta de un pequeño planeta que acaba
de descubrirse, p. Pero el planeta se desvía de la ruta prevista. ¿Considera
nuestro físico que la desviación estaba prohibida por la teoría
de Newton y que, por ello, una vez confirmada tal ruta, queda refutada la teoría
N? No. Sugiere que debe existir un planeta hasta ahora desconocido, p', que
perturba la ruta de p. Calcula la masa, órbita, etc., de ese planeta
hipotético y pide a un astrónomo experimental que contraste su
hipótesis. El planeta p' es tan pequeño que ni los mayores telescopios
existentes podrían observarlo: el astrónomo experimental solicita
una ayuda a la investigación para construir uno aún mayor. Tres
años después el nuevo telescopio ya está disponible. Si
se descubriera el planeta desconocido p', ello sería proclamado como
una nueva victoria de la ciencia newtoniana. Pero no sucede así. ¿Abandona
nuestro científico la teoría de Newton y sus ideas sobre el planeta
perturbador? No. Sugiere que una nube de polvo cósmico nos oculta el
planeta. Calcula la situación y propiedades de la nube y solicita una
ayuda a la investigación para enviar un satélite con objeto de
contrastar sus cálculos. Si los instrumentos del satélite (probablemente
nuevos, fundamentados en una teoría poco contrastada) registraran la
existencia de la nube conjeturada, el resultado sería pregonado como
una gran victoria de la ciencia newtoniana. Pero no se descubre la nube. ¿Abandona
nuestro científico la teoría de Newton junto con la idea del planeta
perturbador y la de la nube que lo oculta? No. Sugiere que existe un campo magnético
en esa región del universo que inutilizó los instrumentos del
satélite. Se envía un nuevo satélite. Si se encontrara
el campo magnético los newtonianos celebrarían una victoria sensacional.
Pero ello no sucede. ¿Se considera este hecho una refutación de
la ciencia newtoniana? No. O bien se propone otra ingeniosa hipótesis
auxiliar o bien... Toda la historia queda enterrada en los polvorientos volúmenes
de las revistas y nunca vuelve a ser mencionada.
Una teoría, por sí misma, jamás prohibe ningún acontecimiento
empírico, porque siempre hay otros factores que pueden tener influencia
sobre él: basta proponer la correspondiente hipótesis ad hoc,
según la cual ese tercer factor hace fallar a la teoría, para
que ésta quede preservada de la refutación por medio de datos
observacionales. Las estratagemas convencionalistas, como las llamó Popper,
salvan a la teoría de la falsación por vía experimental.
Esto conecta con el debate en torno a lo que se ha llamado tesis Duhem-Quine,
la cual es enunciada por Quine en los términos siguientes: "Se puede
mantener la verdad de cualquier enunciado, suceda lo que suceda, si realizamos
ajustes lo bastante drásticos en otras partes del sistema... Y al contrario,
por las mismas razones ningún enunciado es inmune a la revisión".
Los medios para ello son múltiples: se puede introducir un nuevo concepto,
o una sutil distinción; se pueden modificar las definiciones de los términos
involucrados en la proposición a salvar; se pueden proponer hipótesis
auxiliares; se pueden cambiar las condiciones iniciales del problema... Lakatos
analiza en varias de sus obras esta amplia variedad de recursos, que finalmente
confluirán en la noción de cinturón protector de una teoría,
y precisamente por ello defiende el criterio ligado al falsacionismo refinado:
cualquier parte del conjunto de la ciencia puede, efectivamente, ser modificada
y reemplazada, pero con la condición de que dicho cambio suponga un progreso
científico, es decir que conduzca al descubrimiento de hechos nuevos.
Las estratagemas que sólo sirven para salvar las teorías aceptadas,
sin que el usarlas dé lugar a nuevos conocimientos factuales, no son
aceptables para el falsacionismo de Lakatos.
La tesis central de dicho falsacionismo estriba en que una teoría nunca
puede ser falsada por la observación ni por experimento alguno, pero
sí por otra teoría: "ningún experimento, informe experimental,
enunciado observacional o hipótesis falsadora de bajo nivel bien corroborada
puede originar por sí mismo la falsación. No hay falsación
sin la emergencia de una teoría mejor". Conforme había señalado
Kuhn al hablar de dos paradigmas rivales como paso previo a toda revolución
científica, Lakatos va a intentar sintetizar el falsacionismo popperiano
con dicha aportación kuhniana al afirmar que sí puede haber falsación
de una teoría, pero sólo por medio de una estructura teórica
compleja interesante, que previamente ha de estar constituida en sus partes
principales. Para explicar los procesos de cambio científico, el problema
metodológico que hay que resolver no es la contraposición teoría/
experiencia, sino los criterios de evaluación entre teorías rivales,
huyendo del psicologismo, del sociologismo o del irracionalismo que apuntaban
en Kuhn, para proponer un criterio racional de elección por parte de
los científicos, y general para todas las ciencias y comunidades científicas.
Y al respecto Lakatos tiene una propuesta clara, mediante la cual va a precisar
definitivamente la diferencia entre los dos tipos de falsacionismo: el de Popper
y el que el propio Lakatos, inspirándose en Popper y mejorándolo,
va a defender en el resto de sus obras:
El falsacionismo refinado difiere del ingenuo tanto en sus reglas de aceptación
(o criterio de demarcación) como en sus reglas de falsación o
eliminación.
Para el falsacionista ingenuo cualquier teoría que pueda interpretarse
como experimentalmente falsable es "aceptable" o "científica".
Para el falsacionismo refinado una teoría es "aceptable" o
"científica" sólo si tiene un exceso de contenido empírico
corroborado con relación a su predecesora (o rival). Esta condición
puede descomponerse en dos apartados: que la nueva teoría tenga exceso
de contenido empírico (aceptabilidad1) y que una parte de ese exceso
de contenido resulte verificado (aceptabilidad2). El primer requisito puede
confirmarse inmediatamente mediante un análisis lógico a priori;
el segundo sólo puede contrastarse empíricamente y ello puede
requerir un tiempo indefinido.
Para el falsacionista ingenuo una teoría es falsada por un enunciado
observacional ("reforzado") que entra en conflicto con ella (o que
decide interpretar como si entrara en conflicto con ella). Para el falsacionismo
refinado, una teoria cientifica T queda falsada si y sólo si otra teoría
T' ha sido propuesta y tiene las siguientes características:
1) T' tiene un exceso de contenido empírico con relación a T;
esto es, predice hechos nuevos, improbables o incluso excluidos por T.
2) T' explica el éxito previo de T; esto es, todo el contenido no refutado
de T está incluido (dentro de los límites del error observacional)
en el contenido de T'.
3) Una parte del exceso de contenido de T' resulta corroborado.
Lakatos, por consiguiente, se mantiene dentro de la tradición del empirismo,
si bien en su criterio de demarcación, que supone una postura radicalmente
nueva en la filosofía de la ciencia del siglo XX, apunta una posibilidad
para comparar entre sí teorías rivales no empíricas: por
ejemplo lógicas, o matemáticas. Pero la experiencia ni prueba
ni refuta las teorías. Una teoría, en tanto conjetura que es,
siempre acabará siendo sustituida por otra; pero no por cualquiera de
entre todas las que proliferaron en la fase de crisis del paradigma, por decirlo
en términos de Kuhn; sino por aquella que, en primer lugar, incluya lo
fundamental de la anterior, pero que además la supere, entendiendo por
tal el establecimiento de nuevas predicciones empíricas que puedan resultar
incluso sorprendentes para los defensores de la teoría anterior, pero
que luego se ven confirmadas experimentalmente. Lo factual sigue desempeñando
una función primordial como criterio de demarcación: sólo
es científico aquello que predice hechos nuevos, hasta entonces desconocidos.
Pero por sí mismo no refuta a una teoría: simplemente orienta
la elección de los científicos en favor de una u otra teoría,
siempre bajo el supuesto de que ya había dos, como mínimo, en
contraposición.
Con lo cual Lakatos se pronuncia, con cierta impronta hegeliana, sobre dos temas
esenciales en la filosofía de la ciencia en el siglo XX: la demarcación
entre ciencia y no ciencia y el cambio científico, manteniendo la componente
pragmática (elección racional de una teoría u otra), pero
a la vez un criterio puramente epistemológico de cientificidad: la predicción
de hechos nuevos.
5.3. Los programas de investigación científica
La utilización de las hipótesis ad hoc, con las cuales los científicos
conseguían salvar sus teorías de las refutaciones mediante la
experiencia, ha sido conocida y criticada desde hace siglos. Moliere, en ejemplo
citado por Lakatos, ridiculizó en su Malade imaginaire a los médicos
que explicaban que el opio produce sueño a causa de una supuesta virtus
dormitiva en dicha sustancia. Se trata, tanto para el convencionalista Duhem
como para el falsacionista Popper, de proporcionar reglas metodológicas
generales para impedir ese tipo de ardides antifalsacionistas. Pero no todo
este tipo de ajustes de las teorías para que no sean contradichas por
la empiria son ilegítimos. Hay algunos que producen nuevos descubrimientos,
y que, por consiguiente, han de ser considerados como admisibles. Los científicos
que defienden una teoría siempre tratan de preservar al centro firme
de la misma de la refutación, construyendo en torno al mismo un cinturón
protector de hipótesis auxiliares, cambios de significado de los términos,
etc. Esta actitud, que en algunos casos puede ser perfectamente racional, permite
explicar asimismo la existencia de anomalías, subrayada por Kuhn, que
pese a contradecir la teoría no dan lugar a que sus preconizadores la
abandonen.
Pero entonces, concluye Lakatos, una teoría no puede ser evaluada independientemente
de los resultados que este tipo de recursos contra la falsación ocasionen:
Cualquier teoría científica debe ser evaluada en conjunción
con sus hipótesis auxiliares, condiciones iniciales, etc., y especialmente
en unión de sus predecesoras, de forma que se pueda apreciar la clase
de cambio que la originó. Por tanto, lo que evaluamos es una serie de
teorías, y no las teorías aisladas.
Esto trae consigo una consecuencia fundamental para la teoría de la ciencia.
Las unidades básicas para el análisis epistemológico ya
no son las teorías, ni mucho menos su confrontación con la experiencia,
sino las sucesiones de teorías, es decir los programas de investigación
científica. Cada teoría conlleva un desarrollo, un despliegue,
suscitado como mínimo por las tentativas de salvarla de la refutación;
con lo cual lo que debe ser valorado es toda esa evolución, que a veces
puede llevar consigo profundos cambios en la propia teoría o, si se prefiere,
la aparición de teorías nuevas que, procediendo genéticamente
de las anteriores, las mejoran o las modifican, de manera sustancial, por lo
que llegan a diferenciarse netamente de sus predecesoras. El falsacionismo metodológico
refinado, precisamente por afirmar que la contraposición tiene lugar
entre dos teorías, entre las cuales los científicos adoptan la
que posee un mayor contenido empírico, lleva forzosamente a la noción
de programa de investigación, que es definida por Lakatos en los términos
siguientes:
Tenemos una serie de teorías, Tl, T2, T3... en la que cada teoría
se obtiene añadiendo cláusulas auxiliares, o mediante representaciones
semánticas de la teoría previa con objeto de acomodar alguna anomalía,
y de forma que cada teoría tenga, al menos, tanto contenido como el contenido
no refutado de sus predecesoras. Digamos que una serie tal de teorías
es teóricamente progresiva (o que constituye un cambio de la problemática
teóricamente progresivo) si cada nueva teoría tiene algún
exceso de contenido empírico con respecto a su predecesora; esto es,
si predice algún hecho nuevo e inesperado hasta entonces. Digamos que
una serie de teoría teóricamente progresiva es también
empíricamente progresiva (o que constituye un cambio de la problemática
empíricamente progresivo) si una parte de ese exceso de contenido empírico
resulta, además, corroborado; esto es, si cada nueva teoría induce
el descubrimiento real de algún hecho nuevo. Por fin, llamaremos progresivo
a un cambio de la problemática si es progresivo teórica y empíricamente,
y regresivo si no lo es.
"Aceptamos" los cambios de problemáticas como científicos
sólo si, por lo menos son teóricamente progresivos; si no lo son,
los rechazamos como pseudocientíficos.
Hay que estudiar la historia de la ciencia en función de estos nuevos
criterios, localizando en cada momento los programas de investigación
progresivos, que engendran nuevos conocimientos, y distinguiéndolos de
los regresivos. Por supuesto que un mismo programa puede ser progresivo durante
una primera etapa histórica y luego estancarse: incluso es lo que tarde
o temprano les sucede a todos ellos. Conforme afirmara Popper en este sentido,
pero también Kuhn, para Lakatos toda teoría científica
y todo programa de investigación están destinados a ser abandonados
y sustituidos por concepciones opuestas a ellos, que predicen hechos insospechables
para el programa antiguo. Los conceptos de ciencia normal (pero nunca como algo
estático, sino en continuo progreso), de crisis del paradigma (cuando
las hipótesis auxiliares o las propuestas semánticas dejan de
producir nuevos descubrimientos) y de revolución científica quedan
englobados en el marco epistemológico del falsacionismo refinado. Y en
este sentido, Lakatos puede pretender haber intentado una síntesis entre
Kuhn y Popper, con cierto ribete hegeliano.
Pero la nueva noción de programa de investigación engendra a su
vez dos importantes consecuencias para la filosofía de la ciencia. La
primera consiste en la íntima relación que se establece entre
las nociones de ciencia y progreso. Si la preferencia racional de los científicos
por una teoría u otra, o por un programa y otro rival, depende del mayor
contenido empírico, entonces la elección entre dos teorías
rivales siempre debe orientarse en favor de aquella que suponga un mayor progreso
para la ciencia: "El carácter empírico (o científico)
y el progreso teórico están inseparablemente relacionados".
Lakatos menciona explícitamente a Leibniz como el predecesor de esta
tesis que, según él, fue aceptada por la generalidad de los científicos.
La demarcación entre ciencia y no ciencia no depende tanto de la falsación,
experimental de las hipótesis, ni por supuesto de su confirmación,
cuanto, exclusivamente, de lo que engendran desde el punto de vista de las novedades
empíricas. Mientras un programa de investigación vaya dando lugar
a nuevos descubrimientos, por muchas anomalías que le afecten, siempre
será aceptado por los científicos. Únicamente cuando se
anquilosa y se estanca comenzarán los investigadores a fijarse con mayor
insistencia en dichas anomalías.
En segundo lugar, la predicción y ulterior corroboración de algunos
hechos nuevos pasa a ser el objetivo principal de las ciencias empíricas.
Las teorías y los programas de investigación deben ser evaluadas
en función de su contenido fáctico, pero entendiendo éste
como producción de novedades, y en particular de predicciones que sean
prácticamente imposibles de hacer desde el programa de investigación
rival. La inconmensurabilidad kuhniana adquiere aquí una nueva versión.
El descubrimiento y la predicción de hechos nuevos y sorprendentes para
los científicos anteriores es la marca principal de una revolución
científica, de la sustitución de un programa de investigación
por otro rival. Aunque no en los términos de Lakatos concepciones parecidas
pueden encontrarse en Claude Bernard, él célebre médico
francés autor de la Introduction a l'étude de la médécine
expérimentale (1865), al que Lakatos no menciona. En dicha obra puede
leerse:
Las teorías no son más que hipótesis verificadas mediante
un número más o menos considerable de hechos. Aquellas que han
sido verificadas por el mayor número de hechos son las mejores; mas no
por ello son las definitivas, sino que nunca hay que creer en ellas de una manera
absoluta.
Y si bien para Lakatos las posturas de Bernard serían las de un falsacionista
ingenuo, que continuamente insiste en que si un hecho está en contradicción
con una teoría hay que abandonar la teoría, la insistencia en
la función del descubrimiento de hechos nuevos como criterio de racionalidad
científica puede encontrarse en Bernard, igual que en Leibniz o en otros
teóricos de la ciencia anteriores al siglo XX.
5.4. Heurística positiva y negativa
Un programa de investigación científica no sólo va a estar
caracterizado por el contenido empírico que posea en un momento dado,
sino también por su potencial heurístico, noción que en
buena medida fue propuesta a Lakatos por sus discípulos (Zahar, Worrall),
y que ha pasado a convertirse en una de las más características
concepciones lakatosianas, al par que una de las más criticadas por sus
adversarios. La heurística de un programa de investigación, en
principio, consiste en un conjunto de técnicas para la solución
de problemas científicos. Si mencionamos el ejemplo de la mecánica
de Nevvton, que Lakatos ha escogido para explicar muchas veces su metodología,
resulta que el centro firme del programa newtoniano estaría formado por
las tres leyes del movimiento, y como tal no puede ser falsado, porque los newtonianos
habían elaborado un gran cinturón de hipótesis auxiliares
para protegerlo: la óptica geométrica, la teoría de la
refracción atmosférica, etc., que en cualquier caso permitían
descartar las anomalías que se hubiesen obtenido por observación.
La heurística del programa, en cambio, está caracterizada básicamente
-según Lakatos- por el cálculo diferencial, la teoría de
la convergencia y las ecuaciones diferenciales e integrales. El programa newtoniano
no sólo está definido por la mecánica o por la óptica,
sino también por el utillaje matemático utilizado, el cual por
sí mismo proporciona una serie de cuestiones para resolver dentro del
propio programa de investigación, y como rasgo distintivo del mismo,
que no se encuentra en los programas rivales.
Pero desde un punto de vista más general, la heurística se constituye
por medio de una serie de reglas metodológicas, algunas de las cuales
pueden ser muy generales, e incluso estrictamente filosóficas, como en
el caso del mecanicismo cartesiano, Lakatos distingue dos tipos de reglas: unas
positivas y otras negativas. La heurística negativa nos dice qué
tipo de rutas de investigación deben evitarse. La heurística positiva,
en cambio, cuáles deben seguirse. La primera impide que se le aplique
el modus tollens al centro firme del programa, aconsejando prescindir de las
anomalías en las investigaciones. La heurística positiva impide
que el científico se pierda en el océano de anomalías dándole
una serie de tareas a resolver que suponen -o pueden suponer, si la investigación
tiene éxito- otras tantas ampliaciones y desarrollos del programa.
Veamos ambos tipos de heurística en el ejemplo del programa newtoniano.
Cuando emergió ase encontraba inmerso en un océano de anomalías
y en contradicción con las teorías observacionales que apoyaban
a tales anomalías"; pero ello no afectó para nada al centro
irrefutable del programa, por decisión metodológica de sus defensores.
Bastaba con trabajar en el cinturón protector, modificando las hipótesis
auxiliares que subyacían a las observaciones o contraejemplos, o cambiando
las condiciones iniciales, para que el programa siguiese adelante sin preocuparse
por la aprueba empírica" que sus adversarios argüían
en su contra. La historia imaginaria del comportamiento de un científico
newtoniano, referida en 5.2, muestra bien de qué manera se pueden construir
ingeniosas hipótesis al objeto de que el núcleo del programa no
sea afectado. Los newtonianos, incluso, tuvieron la habilidad de ir destruyendo
las propias teorías observacionales que subyacían a los "contraejemplos",
transformando cada dificultad en una nueva victoria de su programa, como señaló
el mismo Laplace. Pero en general ello no es necesario. La heurística
negativa de un programa de investigación no sólo puede estar caracterizada
por la construcción de ese cinturón protector o escudo contra
las anomalías, sino incluso por prescindir pura y simplemente de ellas.
Son fenómenos que no merece la pena estudiar, o al menos que todavía
no se está en condiciones de investigar: pero por muy corroborados que
estén observacionalmente, las teorías no se ven afectadas en lo
esencial por ellos.
Esto está relacionado con la existencia de una heurística positiva
en el programa de investigación, como subraya Lakatos:
Pocos científicos teóricos implicados en un programa de investigación
se ocupan excesivamente de las "refutaciones". Mantienen una política
de investigación a largo plazo que anticipa esas refutaciones. Esta política
de investigación, u orden de investigación, queda establecida,
con mayor o menor detalle, en la heurística positiva del programa de
investigación.
Esto puede hacerse, por ejemplo, enumerando una secuencia de modelos crecientemente
complicados y que simulan la realidad, los cuales han de ser investigados uno
por uno en orden creciente, pero sin pasar al siguiente, ni mucho menos a la
contrastación empírica, antes de que los problemas teóricos
no hayan quedado básicamente resueltos en los modelos más simplificados.
La heurística positiva hace concentrarse al científico en dichos
ámbitos de investigación, ignorando los contraejemplos "reales"
o los "datos" disponibles. Veámoslo de nuevo en el caso de
Newton:
En principio, Newton elaboró su programa para un sistema planetario con
un punto fijo que representaba el Sol y un único punto que representaba
a un planeta. A partir de este modelo derivó su ley del inverso del cuadrado
para la elipse de Kepler. Pero este modelo contradecía la tercera ley
de la dinámica de Newton y por ello tuvo que ser sustituido por otro
en que tanto el Sol como el planeta giraban alrededor de su centro de gravedad
común. Este cambio no fue motivado por ninguna observación (en
este caso los datos no sugerían "anomalía") sino por
una dificultad teórica para desarrollar el programa. Posteriormente elaboró
el programa para un número mayor de planetas y como si sólo existiesen
fuerzas heliocéntricas y no interplanetarias. Después, trabajó
en el supuesto de que los planetas y el Sol eran bolas de masa y no puntos.
De nuevo, este cambio no se debió a la observación de una anomalía.
La densidad infinita quedaba excluida por una teoría venerable (no sistematizada).
Por esta razón los planetas tenían que ser expandidos. Este cambio
implicó dificultades matemáticas importantes, absorbió
el trabajo de Newton y retrasó la publicación de los Principia
durante más de una década. Tras haber solucionado este rompecabezas,
comenzó a trabajar en las "bolas giratorias y sus oscilaciones".
Después admitió las fuerzas interplanetarias y comenzó
a trabajar sobre las perturbaciones. Llegado a este punto empezó a interesarse
con más intensidad por los hechos. Muchos de ellos quedaban perfectamente
explicados (cualitativamente) por el modelo, pero sucedía lo contrario
con muchos otros. Fue entonces cuando comenzó a trabajar sobre planetas
combados y no redondos, etc.
Como puede observarse, la heurística positiva posee una fuerte componente
teórica, y puede prescindir ampliamente de la contrastación con
la experiencia en tanto el programa de resolución de cuestiones teóricas
no haya sido ejecutado, o al menos mientras no haya producido progresos teóricos
claros. Lejos de procederse mediante el esquema simple de hipótesis y
comprobación (o refutación empírica), un programa de investigación
posee su propia dinámica, como dirán los estructuralistas, y ello
independientemente de cuestiones subjetivas o colectivas ligadas a los creadores
y defensores de dicho programa o a sus adversarios. Cabe incluso cierto grado
de programación previa de los pasos que caracterizan a dicha heurística
positiva, según Lakatos. Punto éste que le ha sido muy criticado,
entre otros por Newton-Smith, que considera esta hipótesis de una heurística
positiva precisa como algo incompatible con las posturas realistas que, por
otra parte, Lakatos también defiende.
La heurística va a desempeñar un papel muy importante para le
evaluación entre dos teorías rivales, en particular cuando éstas
son observacionalmente equivalentes. Puesto que Elie Zahar ha dedicado especial
atención a este tema, en lo que sigue nos atendremos al ejemplo por él
estudiado, referente a la contraposición a principios de este siglo entre
los programas de investigación de Einstein y de Lorentz.
Para Elie Zahar, tanto Lorentz como Einstein desarrollaron auténticos
programas de investigación que, siendo diferentes, tenían también
núcleos comunes, contrariamente a lo afirmado por Feyerabend, quien ha
polemizado con Zahar sobre este punto. El centro firme del programa de Lorentz
estaba constituido por las ecuaciones de Maxwell para campos electromagnéticos,
por las leyes newtonianas del movimiento y por la transformación de Galileo,
más la ecuación que suele ser denominada fuerza de Lorentz. La
heurística del programa estaría constituida por el principio metafísico
de que todos los fenómenos físicos están gobernados por
acciones que se transmiten a través del éter. En el desarrollo
de dicho programa pueden distinguirse hasta tres teorías sucesivas, cada
una de las cuales supone un progreso respecto de la teoría precedente;
entre ellas la teoría de las fuerzas moleculares y la teoría de
correspondencia de estados. Pues bien, según Zahar, en 1905 esta teoría
era observacionalmente equivalente a la teoría de la relatividad einsteiniana
en dicha fecha: es decir, que una y otra podían explicar los mismos fenómenos
empíricos, aunque fuesen contradictorias entre si No había mayor
contenido empírico en ninguna de las dos, y no lo hubo hasta 1915, año
en que Einstein explicó por medio de su teoría la precesión
del perihelio de Mercurio, que era imposible de explicar en términos
newtoniano-lorentzianos. Y sin embargo, varios científicos relevantes
prefirieron ya desde 1905 la teoría de Einstein a la de Lorentz: así
Planck, Klein y Minkowski, entre otros. El propio Lorentz acepta ya públicamente
la teoría de la relatividad en 1914, y privadamente a partir de 1908,
prácticamente. ¿Por qué dichas preferencias por una y otra,
siendo así que eran observacionalmente equivalentes, y por tanto ninguna
excedía a la otra por el contenido empírico?
En función de sus heurísticas respectivas -dirá Zahar-
y en concreto por las distintas concepciones ontológicas de ambos con
respecto a la física. Lorentz afirmaba la existencia de un éter
infinito e inmóvil en el que la carga electromagnética está
distribuida de manera continua. Los electrones serían regiones esféricas
del éter en las que la carga no es nula. La carga total, al igual que
la cantidad de movimiento de Descartes, permanece constante, pero el movimiento
de los electrones crea un campo luminoso que atraviesa el espacio a la velocidad
constante c. Lorentz llegó incluso a afirmar que el electrón no
tiene masa material, sino electromagnética. En resumen: Lorentz proponía
dicha teoría del electrón como algo intermedio entre éter
y materia, con lo cual lograba explicar electromagnéticamente la interacción
existente entre éter y partículas, definida precisamente por la
ecuación de la fuerza de Lorentz. Pero toda su construcción se
basaba en la existencia del éter, cuyas propiedades analizaba por medio
de las ecuaciones de Maxwell.
Einstein, en cambio, rompe con las ideas del éter y del espacio y tiempo
absolutos: cada acontecimiento puede ser referido mediante cuatro coordenadas
(t, x, y, z) a cualquier sistema de referencia inercial, y no ya a uno privilegiado
que permaneciese inmóvil con respecto al éter, como en el caso
de Lorentz (y de Newton). Y esta concepción ontológica diferente
del espacio y del tiempo, que Einstein había adoptado ya desde su juventud
por influencia de su maestro Ostwald, va a dar lugar a una heurística
muy diferente. Según Zahar, habría dos reglas heurísticas
fundamentales para Einstein:
1) Las teorías deben de satisfacer el requisito de coherencia interna,
y por lo tanto la ciencia debe presentarse como una representación coherente,
unificada, armónica, simple y organizadamente compacta del mundo. El
aparato matemático usado por una teoría encarna estas características
de simplicidad y de complejidad, y por tanto constituye un criterio para preferir
una teoría a otra. Si se quiere, en último término hay
motivos estéticos importantes en la heurística einsteiniana, caracterizados
por la exigencia de no barroquismo: hay que usar un número mínimo
de conceptos y relaciones primitivas.
2) La segunda regla heurística einsteiniana tiene que ver con su convicción
de que Dios no juega a los dados, y que por lo mismo no hay accidentes en la
naturaleza. En concreto, los fenómenos naturales en los que se muestra
algún tipo de simetría responden siempre a algún principio
de simetría más profundo y de mayor envergadura conceptual, que
debe mostrarse en las teorías. Por ejemplo: la simetría entre
los movimientos de una magneto hacia el conductor, y del conductor hacia la
magneto, ha de ser explicada por la teoría en base a un mismo aparato
matemático (con la simetría correspondiente, en su caso), cosa
que no sucedía en las teorías de Lorentz.
Tras un estudio muy detallado de este episodio histórico, Zahar concluye
que los científicos de la época prefirieron el programa de Einstein
al de Lorentz porque, pese a ser observacionalmente equivalente, era heurísticamente
superior, en el sentido de que la aplicación de las reglas básicas
de su heurística positiva conseguía formular problemas nuevos,
que en el marco de las teorías de Lorentz no tenían sentido. Y
aunque dichas conjeturas (muchas de ellas sorprendentes e inesperadas) sólo
encontraron alguna corroboración experimental varios años después,
el mayor potencial heurístico de las teorías de Einstein inclinó
la balanza a favor de su programa de investigación. Aunque no la comunidad
científica alemana en su conjunto, sí figuras de enorme prestigio
e influencia prefirieron por motivos heurísticos un programa a otro,
pese a que no poseyera un mayor contenido empírico. Y para Zahar esta
elección fue perfectamente racional, no tanto por los resultados ulteriores,
cuanto porque la heurística es una componente esencial de todo programa
de investigación, junto con su contenido empírico. Este ejemplo,
así como otros posteriormente desarrollados por los discípulos
de Lakatos, ilustra bastante bien la noción de potencial heurístico
de un programa de investigación, que en muchos casos ha resultado decisiva
en la historia para que los científicos optaran por una u otra teoría,
entre dos contrapuestas.
5.5. Historia interna e historia externa
Desde el punto de vista de las relaciones entre la filosofía de la ciencia
y la historia de la ciencia, Lakatos continúa la obra de Kuhn, destacando
la importancia de los estudios históricos minuciosos y llevándolos
efectivamente a cabo junto con sus discípulos. Parafraseando a Kant,
Lakatos afirma que "la filosofía de la ciencia sin la historia de
la ciencia es vacía; la historia de la ciencia sin la filosofía
de la ciencia es ciega".
La metodología científica puede proporcionar a los historiadores
criterios normativos y definitorios sobre lo que es una teoría, sobre
su estructuración interna y acerca de las reglas para la evaluación
de las teorías, de tal manera que la investigación en los archivos
y documentos esté orientada teóricamente y no sea puramente empírica
y descriptiva; pero a su vez el normativismo y los criterios epistemológicos
propuestos por los filósofos de la ciencia deben de ser confrontados
con los datos históricos ofrecidos por los historiadores. De alguna manera,
la historia de la ciencia es la base o el contenido empírico de la filosofía
de la ciencia.
Para Lakatos la historia de la ciencia, al objeto de hacerla inteligible y no
simplemente descriptiva, ha de ser reconstruida racionalmente Aparte de los
factores sociales, psicológicos, etc., que ciertamente influyen en la
ciencia (a lo cual Lakatos da el nombre de historia externa), el epistemólogo
ha de preocuparse también de la reconstrucción racional de la
historia de la ciencia, estudiando las teorías en su evolución
y en sus modificaciones y contraposiciones en función de factores internos
a las propias teorías. Surge así la historia interna de la ciencia,
sobre la cual puede haber, a su vez, concepciones contrapuestas. La interrelación
entre historia y filosofía de la ciencia culmina con la elaboración
de dicha historia interna, que debe ser complementada con la historia externa,
en la que se puede insistir más en los factores ajenos a la propia comunidad
científica: condiciones económicas y sociales, situación
política, características individuales de los científicos,
etc. En general, Lakatos atribuye un mayor peso a las concepciones internalistas
que autores como Bernal, partidarios de explicar la evolución de la ciencia
en función de los cambios económicos, sociales y tecnológicos
habidos en las distintas etapas históricas.
Pero incluso en relación a la historia interna las posiciones pueden
ser muy distintas. Lakatos las sintetiza en cuatro: inductivistas, convencionalistas,
falsacionistas y, por último, su propia metodología de los programas
de investigación. Estas cuatro concepciones son normativas, y permiten
reconstruir la historia interna conforme a criterios diversos. Todas ellas han
de ser, en cualquier caso, complementadas con teorías externas empíricas
para explicar los factores residuales no racionales. Ninguna de las cuatro agota,
por consiguiente, el trabajo de la historia de la ciencia:
La historia de la ciencia es siempre más rica que su reconstrucción
racional, Pero la reconstrucción racional o historia interna es primaria,
la historia externa sólo secundaria, ya que los problemas más
importantes de la historia externa son definidos por la historia interna.
Según los inductivistas, la historia interna se basaría en una
serie de descubrimientos de hechos firmes, así como en las posteriores
generalizaciones inductivas. Para los convencionalistas habría también
descubrimientos factuales, completados luego por sistemas de organización
de los mismos en torno a unas u otras nociones, definiciones y axiomas (sistemas
de casillas, dice Lakatos), cuyas modificaciones también han de se r
estudiadas en dicha historia interna. La historia interna de los falsacionistas
está articulada, en cambio, en torno a una serie de conjeturas audaces,
que van aumentando en contenido empírico las unas sobre las otras, y
sobre todo en torno a los sucesivos experimentos cruciales que han ido refutando
una tras otra a dichas conjeturas generales, o teorías "La metodología
de programas de investigación, por último, enfatiza la rivalidad
prolongada, teórica y empírica, de programas mayores de investigación,
problemáticas estancadas y progresivas, y la victoria, lentamente conseguida,
de un programa sobre otro."
La historia interna, se quiera o no, depende por lo tanto de las diferentes
filosofías, que siempre subyacen al trabajo del historiador. No es lo
mismo buscar en los documentos y archivos una serie de experimentos cruciales,
los cambios de las axiomatizaciones y presentaciones de las teorías al
objeto de lograr mayor simplicidad en su presentación, o los programas
de investigación rivales, con sus correspondientes heurísticas.
El historiador siempre es selectivo. Para que, además, logre una reconstrucción
racional de los hechos históricos, ha de llegar a proponer una versión
radicalmente modificada de los mismos. Eso sí, con el apoyo documental
oportuno, que Lakatos acostumbra poner en notas a pie de página, mientras
la historia de la ciencia propiamente dicha sería la versión reconstruida
de dichos documentos. El inductivismo es utópico y el convencionalismo
y el falsacionismo simple son insuficientes. En cualquier caso, "una historia
sin ningún 'sesgo' teórico es imposible". De ahí que
una historiografía de la ciencia que haga abstracción de los debates
teóricos habidos en la filosofía de la ciencia en el siglo XX
sea, a juicio de Lakatos, inadecuada. Historiadores y filósofos de la
ciencia han de trabajar conjuntamente, aunque sus cometidos sean diversos.