LA EPISTEMOLOGÍA Y SUS DESARROLLOS RECIENTES

Claudio Gutiérrez book


PROPÓSITOS:

Introducción

La epistemología, conocida también como gnoseología o teoría del conocimiento, es una parte de la filosofía, como la ética o la lógica. A diferencia de estas disciplinas, que son eminentemente normativas (se interesan por las reglas del comportamiento moral o del razonamiento correcto), la epistemología es especulativa; es decir, se interesa por entender el conocimiento en sí mismo, como es, no como debería ser. Además de ser parte de la filosofía, la epistemología es la parte más importante de la teoría de la ciencia, disciplina intelectual que también incluye otros estudios que tienen a la ciencia por objeto, como la historia o la sociología de la ciencia. De cualquier forma que la veamos, es una disciplina eminentemente abstracta, o por lo menos lo ha sido hasta ahora, en el sentido de que sus principios se reconocen y aclaran por reflexión y no por experimentación u observación. Su objetivo es aclarar las condiciones en que es posible el conocimiento humano, así como los límites dentro de los cuales puede darse; en otras palabras, juzga sobre su validez y sobre su alcance. Tiene que ver tanto con el conocimiento que asociamos con la sensibilidad (normalmente llamado "conocimiento empírico") como con las dotes asociaciativas del intelecto (normalmente llamadas "conocimiento racional").

Debemos hacer varias aclaraciones terminológicas. Ante todo, es importante no confundir la epistemología, cuya etimología griega nos la presenta como "tratado del conocimiento" o "tratado de la ciencia" (los griegos no hacían la diferencia moderna entre esos dos conceptos con su palabra episteme), con otras dos disciplinas importantes que también se interesan por el conocer: la lógica (que ya mencionamos como disciplina filosófica normativa) y la psicología (disciplina científica eminentemente experimental). La lógica estudia específicamente el razonamiento y se interesa por establecer las condiciones formales del conocimiento. La psicología por su parte examina al ser cognoscente en su condición psicofísica, y estudia los mecanismos que hacen posible el funcionamiento intelectual de las distintas especies animales, muy en especial el Homo sapiens. La epistemología, en cambio, se preocupa por la clarificación del conocimiento como relación bipolar entre un sujeto y un objeto, y, en particular, por la dilucidación de la correspondencia entre el pensamiento y la realidad a la que este se refiere NOTA 1.

Dentro de la propia filosofía, la epistemología encuentra su hermana gemela en la disciplina conocida de ordinario como "filosofía de la mente" o "antropología filosófica". En esta disciplina, de lo que se trata es de presentar hipótesis plausibles sobre los temas de la conciencia, de la relación entre los fenómenos físicos y los fenómenos mentales, y en general sobre las condiciones que hacen posible la existencia de seres con "vida mental". Esta disciplina tiene una larga historia en la tradición occidental, remontándose por lo menos a las especulaciones de los sofistas griegos y de Sócrates. A lo largo de la historia de la filosofía ha dado lugar a las más acerbas luchas intelecutales, pues de lo que se trata es nada menos que de dirimir la cuestión de la naturaleza del ser humano en cuanto tal, en oposición a los otros animales. En estas polémicas, si descontamos los infinitos matices producidos por los distintos autores, la contienda esencial estriba en la oposición entre dos tendencias muy diferentes: el dualismo, que predica una distinción esencial entre los fenómenos biológicos y los fenómenos intelectuales; y el materialismo, que, por el contrario, considera todos esos fenómenos como de una misma naturaleza.

La teoría de la ciencia de este siglo es uno de los períodos más fascinantes de la historia del pensamiento, durante el cual se suceden consecutivamente dos etapas perfectamente distinguibles, en que los filósofos realizan un trabajo intelectual bastante diferente. La primera etapa corresponde a la labor de filósofos fundamentalmente formalistas, cuya preocupación principal es la estructura lógica de los enunciados de la ciencia. Contiene dos subetapas perfectamente discernibles. En la primera, dominan los filósofos neopositivistas, cuyo mayor logro fue introducir la lógica simbólica en el discurso de la teoría de la ciencia. El representante más sobresaliente de esta corriente es Rudolf Carnap ( CARNAP 37) y su tema capital es la "lógica de la confirmación". En los años cuarenta se desarrolla una nueva filosofía formalista, que se aparta del positivismo sin abandonar el énfasis en la estructura lógica de los enunciados y su tratamiento riguroso, representada por Karl Popper ( POPPER 62) y sus seguidores. Rechaza la posibilidad de una lógica de la confirmación (o lógica inductiva) e insiste en cambio en una lógica de la refutación: la aceptación científica depende del temple que muestren las teorías frente al intento concertado de demostrar que son falsas.

En los años sesenta se introduce una etapa completamente diferente, con la obra de Thomas Kuhn ( KUHN 62), quien sustituye como centro de interés filosófico la estructura lógica de los enunciados por las vicisitudes históricas de la ciencia. Introduce la noción de "paradigma científico", a saber: un logro científico de gran importancia que cambia la manera de hacer ciencia de los practicantes de una disciplina.

En los años recientes, la labor de los epistemólogos se ha concentrado sobre todo en tratar de separar el trigo de la cizaña en el producto de muchos decenios de extraordinaria creatividad en el campo. Autores como Lakatos ( LAKATOS 70), Laudan ( LAUDAN 84) o Stegmüller ( STEGMÜLLER 76) son menos originales que Carnap, Popper o Kuhn, pero realizan una extraordinaria labor de evaluación de la obra realizada por la filosofía de la ciencia de este siglo y proponen síntesis o reelaboraciones mayores de profundidad e importancia, tal vez más cercanas a la verdad que las doctrinas mejor delineadas y provocativas de aquellos tres grandes.

Explicación de textos

Ideas recientes de filosofía de la ciencia

Ejercicio de lectura

Para mejor entender el comentario que sigue, recomendamos la lectura del artículo de Thomas R. Grimes (GRIMES 90), o la selección del mismo traducida al español incluida en nuestra Antología ( GUTIÉRREZ 93b).

Comentario

El trabajo de Thomas R. Grimes es un ejemplo de la filosofía de la ciencia que asociamos con el movimiento neopositivista o positivista lógico. Coincide con el punto de vista que otorga al método hipotético-deductivo la mayor importancia en la aceptación –o rechazo– de una teoría. Este método, formulado por la tradición neopositivista, nos describe la actividad del científico como consistente en dos partes fundamentales: la explicación del fenómeno observado mediante una hipótesis de la cual pueda ser deducida rigurosamente la descripción de ese fenómeno, en primer lugar. Y en segundo lugar, la deducción de otros fenómenos relacionados, a partir de la misma hipótesis; esos fenómenos deben ser distintos del que sirvió de base para elaborar la hipótesis. Esta nueva deducción se puede denominar predicción, pues, independientemente de si ocurre antes o después en el tiempo, se deduce antes de que comprobemos experimentalmente que el fenómeno se da efectivamente en la realidad. Cuando realizamos la comprobación respectiva, y verificamos que el fenómeno predicho es real, decimos que la hipótesis ha sido confirmada por el cumplimiento de la respectiva predicción.

Siendo tan reciente este artículo, representa un planteamiento neopositivista tardío que está muy consciente de las dificultades lógicas que se han esgrimido contra este enfoque epistemológico a lo largo de las últimas décadas. Al mismo tiempo, Grimes trata de subrayar "el elemento básico de verdad" que subyace en este enfoque, a saber, la idea de que "una hipótesis se confirma sobre la base de sus consecuencias observacionales"; el autor insiste en que ese mérito es suficiente para que tratemos de salvar el enfoque.

El artículo presenta algunos importantes intentos de modificar la versión original de esta tesis epistemológica, mediante ajustes en su respectiva teoría lógica. Muestra cómo estos intentos, que complican la teoría, no la salvan totalmente de dificultades. Finalmente, recomienda una vuelta a la versión original, cuyos defectos el autor está convencido de que no son suficientes para descartarla. En el fondo, pues, y a pesar de su aparición tardía, este trabajo tiene un carácter conservador, pues revierte a las posiciones originales defendidas originalmente por los positivistas lógicos.

Grimes comienza por presentarnos el método hipotético-deductivo en su forma más cruda. Abarca solo dos condiciones:

    (H-D 1)    e confirma h si

      1. (1) e es verdad, y
      2. (2) h implica lógicamente a e, esto es, h |- e,

donde h es una hipótesis cualquiera (por ejemplo, "todos los cisnes son blancos") y e es una proposición que puede servir de evidencia o prueba empírica de que tal hipótesis sea verdadera (por ejemplo, "el cisne del Parque Bolívar es blanco"). Se considera que la hipótesis queda confirmada (en una cierta medida) si

  1. tenemos razones para aceptar la evidencia como verdadera y
  2. el enunciado que representa a esa evidencia puede deducirse lógicamente de la hipótesis que queremos confirmar (en otras palabras, la evidencia puede considerarse como conclusión de un razonamiento que tiene como única premisa a la hipótesis).

Es de advertir aquí que cuando decimos "e confirma h" no estamos diciendo que de e se puede deducir h. En realidad, es justamente lo contrario: de h se puede deducir e. Confirmar no quiere decir declarar verdadero: solamente agregar una cierta medida de verosimilitud a la convicción de que algo es verdadero. En este caso, cada cisne blanco que encontremos nos inclinará un poco más a creer que todos los cisnes son blancos; pero pudiera suceder que algún cisne resultara ser de otro color (¡de hecho muchos cisnes son negros!). Pero en todo caso, de acuerdo con esta explicación ingenua del método hipotético-deductivo, basta que se cumplan las dos condiciones dichas para que la hipótesis incremente su grado de confirmación al presentarse la evidencia que las cumple. El autor se hace eco de quienes han señalado dificultades técnicas obvias en esta explicación del método hipotético-deductivo, en particular el hecho de que e (una proposición que pretendemos sea confirmadora de nuestra hipótesis) es capaz de confirmar cualquier hipótesis que sea ella misma incoherente. ¿Por qué sería esto así? Porque de acuerdo con la explicación dada (H-D 1) para que nuestra evidencia sea confirmadora basta que sea verdadera ella misma (supongamos que efectivamente lo sea) y que sea deducible de la hipótesis. ¡Pero cualquier proposición incoherente sirve para probar cualquier cosa, de acuerdo con las leyes de la lógica! Demostrar esto nos tomará un poquito de tiempo, pero el asunto es importante y muy interesante, de modo que vale la pena detenernos a considerarlo.

En primer lugar tenemos que aclarar qué sea una proposición incoherente. Una proposición incoherente (o inconsistente, como también se dice) es una proposición que al mismo tiempo afirma algo y lo niega. Tomemos como ejemplo de proposición incoherente la siguiente: "todos los cisnes son blancos y algunos cisnes no son blancos". Es una proposición incoherente porque su primera parte afirma una cosa y la segunda niega exactamente la misma cosa (recuérdese que "algunos cisnes no son blancos" es equivalente a "no es el caso que todos los cisnes son blancos"). Supongamos ahora que queremos confirmar esa proposición incoherente. Supongamos también que nuestra pieza de evidencia, "el cisne del Parque Bolívar es blanco" es verdadera. Con esto quedaría cumplida la condición (1) de (H-D 1). Ahora debemos demostrar que la condición (2) también se cumple, es decir, que h |- e, o sea, que la hipótesis puede servir de premisa para demostrar el enunciado de la evidencia. Para ello debemos mostrar que, suponiendo h vamos a tener que aceptar e.

Una manera de mostrar que la hipótesis incoherente h implica a una evidencia cualquiera e es parar mentes en lo que significamos por "implicación lógica", a saber, que no es posible aceptar la conclusión como falsa cuando todas las premisas son verdaderas. Esto es lo único que exigimos para decir que un conjunto de premisas implica una conclusión. Pues bien, en el caso de que hsea incoherente, por la definición misma de "incoherente", no puede ser verdadera. Entonces, nunca se dará el caso de que todas las premisas sean verdaderas, de donde se sigue que h implica e, pues nunca se dará que las premisas sean verdaderas y la conclusión falsa. Porque para que una proposición implique a otra lo único que la lógica exige es que la conclusión no sea falsa cuando todas las premisas son verdaderas –la lógica no exige nada para el caso de que las premisas sean falsas: la conclusión queda en libertad, por así decirlo, de ser verdadera o falsa–. Estamos seguros de que los lectores no familiarizados con la lógica quedarán muy insatisfechos con considerar una implicación válida por la curiosa razón de que las premisas no pueden ser todas verdaderas; pero exactamente eso es lo que significamos por "implicación lógica".

Todo el que quiera adentrarse en el reino hirsuto de la lógica debe acostumbrarse a esta clase de paradojas, que en ese reino se dan por doquier; por la simple razón de que es un reino muy pobre y las paradojas nos surgen porque nuestra mente lleva mucho equipaje consigo, de cosas que en realidad a la lógica no le interesan en absoluto. Ahí solo rigen principios ultra sencillos, como lo que es, es, y lo que no es, no es. A todos los que hemos estudiado lógica nos han chocado al principio estas paradojas. Pero al final, terminamos por acostumbrarnos, y aplicamos las reglas tales como son, sin poner en la escueta demostración nada de la riqueza de pensamiento que llevamos en nosotros mismos.

Todavía podrían los lectores no familiarizados con la lógica decirnos que si la lógica es tan diferente del sentido común, no deberíamos practicarla, sino más bien tratar de usar el sentido común (en la medida en que lo tengamos) o tratar de adquirirlo (si carecemos de él). Aquí hay una paradoja bien grande. Resulta que la lógica se usa porque ha resultado ser muy eficiente, muy productiva de resultados útiles, a pesar de su falta de sentido intuitivo. En cambio, el sentido común, tan cercano a nuestra intuición, nos pone constantemente en dificultades. En efecto, el sentido común, o sabiduría popular (como también se le llama) está llena de contradicciones, que no nos permiten orientarnos en la solución de problemas. Esa sabiduría popular suele trasmitirse por refranes como "No todo lo que relumbra es oro" (que nos enseña a desconfiar de las apariencias) o "Si algo camina como pato y grazna como pato es un pato" (que nos enseña a confiar en las apariencias).

Con dos recomendaciones sobre la misma materia en sentidos opuestos, es difícil decidir cómo actuar. Podríamos decir que hay que analizar cada caso, pero la sabiduría popular también nos dice que no hay que analizar nada, "que hay razones que el corazón no comprende". En fin: cuando la humanidad decidió buscar una base firme para construir su conocimiento, se apartó del sentido común y fundó la ciencia; y la ciencia se basa en el método científico, que a su vez hace uso esencial de la lógica. De ahí que en definitiva sea mejor acostumbrarnos a las paradojas que la introducción de la lógica formal plantea al pensamiento humano.

Volvamos ahora al problema de que el método hipotético-deductivo, definido según su versión original, nos permitiría confirmar cualquier cosa. Esa dificultad fue resuelta por algunos filósofos positivistas estableciendo una condición adicional para explicar ese método; a saber: que la hipótesis que queramos confirmar debe ser por sí misma coherente. Sin embargo, este remiendo no resolvió todos los problemas para esa explicación: muchas otras cuestiones y problemas surgieron en relación a la explicación así modificada. Una de las que más ha preocupado a los filósofos, y que Grimes nos recuerda, es el hecho de que normalmente una hipótesis no implica por sí sola ningún material evidencial que consista en una tesis de observación sobre el mundo: "Por el contrario, típicamente es solo cuando una hipótesis está anidada en una gran red de hipótesis auxiliares y presupuestos de fondo que una pieza evidencial particular puede en efecto ser derivada".

Un ejemplo puede servir para aclarar este asunto: tomemos como nuestra hipótesis "la tierra es redonda" y como nuestra evidencia "el casco de la Santa María desapareció en el horizonte antes que sus velas". Por más clara que parezca esta confirmación, depende crucialmente –entre otras cosas– de una premisa implícita sumamente importante, a saber, "los rayos de luz se propagan en línea recta". Si por el contrario, las trayectorias de los rayos de luz correspondieran a arcos de círculos cuyos centros estuvieran por encima de nuestras cabezas, la hipótesis "la tierra es plana" podría quedar confirmada por la misma pieza de evidencia. En el ejemplo de los cisnes, "el cisne del Parque Bolívar es blanco" confirma "todos los cisnes son blancos" solamente en el entendido de que es falso que los encargados del zoológico pintan los animales todas las mañanas del primer color que se les ocurre.

Este problema llevó a los filósofos de la ciencia a sugerir la relativización del método hipotético-deductivo, de modo que una hipótesis se diga confirmada, no por sí misma, sino siempre en relación a alguna teoría particular más amplia que se suponga vigente. Este arreglo de la explicación del método hipotético-deductivo, sin embargo, no fue suficiente; surgieron nuevas dudas y nuevas modificaciones correctivas para la explicación, hasta el punto de que la explicación llegó a ser enormemente larga y tan complicada que resultaba más oscura que aquello que se quería explicar. De ahí que Grimes haya querido volver a la presentación original que, a pesar de sus problemas, considera más adecuada para transmitir la intuición original de los adherentes al método; a saber, que la evidencia empírica tiene algo que ver en el asentimiento que damos a nuestras hipótesis.

Así pues, para Grimes (H-D 1) está muy cerca de ser una formalización adecuada de lo que entendemos por confirmación. No obstante, el mismo autor insiste en hacer algunos cambios para eliminar casos anómalos, en primer lugar exigir que h y la negación de e sean coherentes NOTA 2. Además, exige limitar la clase de implicación que debe existir entre h y e, a fin de evitar que puedan darse confirmaciones espúreas basadas en el hecho de que, según las reglas de la lógica, si tengo como verdadera una proposición debo aceptar como tal cualquier otra de forma disyuntiva, uno de cuyos elementos sea la proposición original. Por ejemplo, no queremos que "o el cisne del Parque Bolívar es blanco o mi perro es negro" confirme "todos los cisnes son blancos", cuando tanto el cisne del Parque Bolívar como mi perro son negros; en esa situación, e sería verdadera y sería una consecuencia de h, pero no querríamos considerarla confirmada de esa manera tan extraña.

A pesar de la buena voluntad de Grimes y otros como él, no podemos tener seguridad de que, al igual como ha sucedido en los últimos tres decenios, no se sigan encontrando defectos a los esquemas de explicación de la idea básica de confirmación que sirve de fundamento al método hipotético-deductivo. De toda esta discusión probablemente le quedará al lector la idea de que, incluso con la mejor intención, parece una misión imposible lograr una concepción clara del término "confirmación", tan apreciado por los filósofos positivistas-lógicos. La razón profunda de esta imposibilidad puede percibirse al adentrarnos en el análisis del "problema de la inducción" realizado por el filósofo inglés Karl Popper. Ello por cuanto el concepto de confirmación está esencialmente ligado al punto de vista de que la inducción es un método correcto de asentar la verdad de una proposición. Pero un análisis como el de Popper (o de David Hume, mucho antes que él) lleva a pensar que el intento de construir una lógica de la inducción o de la confirmación (que en el fondo serían equivalentes) no está menos descaminado que el intento de encontrar la cuadratura del círculo.

Ejercicio de lectura

Para mejor entender el comentario que sigue, recomendamos leer la obra de Karl Popper La lógica de la investigación científica (POPPER 62), o una selección de la misma incluida en la Antología.

Comentario

Karl R. Popper introduce en la epistemología una noción importante que estaba ausente en la filosofía de la ciencia de los positivistas lógicos: la idea de regla metodológica de carácter convencional. Nos explica así ese concepto: "Consideramos las reglas metodológicas como convenciones: las podríamos describir diciendo que son las reglas del juego de la ciencia empírica. Difieren de las reglas de la lógica pura al estilo de como lo hacen las reglas del ajedrez, que pocos considerarían ser una parte de la lógica pura: teniendo en cuenta que ésta regula las transformaciones de las fórmulas lingüísticas, el resultado de un estudio de las reglas del ajedrez podría llamarse quizá la lógica del ajedrez; pero difícilmente lógica, sin más (análogamente, el resultado de un estudio de las reglas del juego de la ciencia –esto es, de la investigación científica– podría denominarse la lógica de la investigación científica )".

Esta noción va directamente en contra de la empresa positivista, que pretende fundamentar una lógica inductiva (que sería tan pura lógica como la lógica deductiva); asociamos esta empresa sobre todo con la obra de Carnap, quien prácticamente dedicó su vida entera al intento de desarrollar esa supuesta parte esencial de la lógica. En esto Carnap estaba desoyendo el claro consejo de David Hume, que mucho tiempo antes había aclarado, con contundentes análisis, que el llamado problema de la inducción no podía resolverse ( HUME 70).

El problema de la inducción consiste básicamente en lo siguiente: nuestros sentidos nos permiten conocer situaciones particulares o hechos concretos que se dan en el mundo exterior. Si algunos de esos hechos se repiten, tenemos la tendencia a creer que son resultado de una ley universal y necesaria. Por ejemplo, vemos salir el sol por el este todas las mañanas y tenemos absoluta confianza en que ese fenómeno podremos seguir observándolo mientras tengamos conciencia (por supuesto, si nos mantenemos a una distancia prudencial sobre la superficie de la tierra entre los dos círculos polares, y estamos bien de la vista, etc.). Pero casos como el de los cisnes blancos y negros, que comentamos antes, nos demuestran a las claras que la simple asociación de dos características (la salida del sol y un ciclo de veinticuatro horas; la apariencia de un cisne y el color blanco) no basta para postular una relación necesaria y constante entre ellas.

No obstante esto, Carnap (junto con muchos otros filósofos de su misma orientación) llegó a creer que era posible formular de una manera racional las condiciones que permiten separar las asociaciones fortuitas (como la del color de los cisnes) de las asociaciones legítimas (como la de la salida reiterada del sol en ciclos de veinticuatro horas). Para ello recurrió a una elaboración minuciosa del concepto de confirmación, poniéndolo en relación con el concepto de probabilidad. Su "lógica inductiva" no pudo terminarla nunca, porque una y otra vez surgieron grietas en su razonamiento, que hubo de tratar de resolver con alguna complicación ulterior de la teoría, de manera muy parecida a como Grimes trata de salvar la explicación lógica del método hipotético- deductivo. Es de admirar la obra portentosa de este gran autor, que nadie puede criticar en su honestidad y rigor. Pero su fracaso es el mayor homenaje que alguien pudiera hacer al genio de Hume, que de una manera sucinta y sin casi ningún aparato formal declaró contundentemente la futilidad del intento de fundamentar lógicamente la inducción.

Karl Popper formula la lección, clarísima, que debemos sacar de esta experiencia histórica de la filosofía de la ciencia: simplemente no hay –ni puede haber– una lógica inductiva o una parte inductiva de la lógica. Toda la lógica, por definición, es y debe ser deductiva. ¿Qué nos queda, entonces, como método de las ciencias que evidentemente no son deductivas? Los matemáticos, por su parte, pueden permanecer tranquilos: el método deductivo les basta para su trabajo. Pero, ¿qué decir de los físicos, los biólogos, los químicos, los sociólogos, y todos los otros practicantes de las llamadas ciencias empíricas o experimentales?

Es aquí donde se puede apreciar el valor de la propuesta de Popper con su introducción de "reglas metodológicas". Como él nos lo explica, no son leyes de la lógica, son simples convenciones, o acuerdos, adoptadas por los científicos para poder realizar su trabajo. Nos conviene examinar algunas de ellas para comprender mejor de lo que se trata:

Pero además de estas reglas, bastante específicas, existe una "regla de reglas", la regla suprema del juego de la ciencia, a saber:

Por "falsación" entiende Popper la demostración de que una hipótesis es falsa, mediante el recurso de mostrar al menos un caso en contrario. Así como es posible definir el ajedrez por medio de sus reglas propias, la ciencia empírica puede definirse por medio de sus propias reglas metodológicas. Y la regla suprema sirve de norma para asegurar la calidad de las demás reglas, determinando su aceptación o posible rechazo. Fundamentalmente, esta superregla nos asegura que siempre podremos distinguir al método científico de cualquier otro método, que podremos siempre separar la ciencia de la no ciencia (la superchería o pseudociencia, la ignorancia, la autosatisfacción intelectual de deseos, etc.).

El texto de Popper corresponde a una posición todavía dentro de la corriente formalista lógica; es decir, todavía su filosofía de la ciencia se basa en el análisis de la estructura lógica de sus enunciados –no en la historia de cómo fueron concebidos y desarrollados, por ejemplo–. Pero reacciona en forma intensa contra la posición neopositivista. Básicamente lo que rechaza de esa posición es la idea epistemológica de que podemos llegar a confirmar la verdad de una hipótesis o teoría gracias a su repetida verificación. Con argumentos estrictamente lógicos, basados en el contraste entre el modus ponendo ponens y el modus tollendo tollens NOTA 3, muestra cómo cualquier cantidad de observaciones confirmadoras de una hipótesis no bastaría para hacérnosla aceptar como verdadera, mientras que una sola observación refutadora bastaría para hacérnosla abandonar como falsa. Examinando el tema a fondo, llega a ratificar la imposibilidad de tener una lógica inductiva, ya demostrada por el filósofo David Hume.

Con motivo de toda su argumentación, el autor realiza una elucidación de términos importantes para la filosofía de la ciencia, especialmente los de enunciados universales y enunciados existenciales. Los primeros son lo que hacen afirmaciones contundentes sobre todo el universo: "Todos los hombres son mortales", por ejemplo, significa que si examinamos cualquier rincón del universo y tenemos suerte de encontrar un hombre, estaremos seguros de que ese ser que encontramos es mortal. Un enunciado existencial, en cambio, es algo como "Existen hombres calvos". Ahí lo que estamos diciendo es que en alguna parte del universo podríamos encontrar algo que fuera hombre y que fuera calvo. Hechas estas distinciones, cabe preguntarse de qué tipo son los enunciados de la ciencia.

En relación con esta importante cuestión, debemos señalar, en primer lugar, que los enunciados empíricos que dan sustento a la ciencia son de carácter existencial. Son los enunciados llamados protocolarios, porque normalmente los investigadores los consignan en sus libros de laboratorio o de campo que se suelen identificar con el calificativo de protocolos. Son, por ejemplo, enunciados del tipo de "el 21 de enero de 1993 se detectó en una placa fotográfica de mi laboratorio la trayectoria tal y cual de la partícula x o z". Las hipótesis o teorías de las ciencias naturales, en cambio, tienen una estructura lógica de enunciados universales: "Todos los A son B".

Ahora bien, los enunciados de ese carácter tienen la característica de ser equivalentes a negaciones de enunciados existenciales. "Todos los A son B" es equivalente a "No existe un A que no sea B". De ahí que los enunciados de las hipótesis científicas puedan expresarse como negaciones de enunciados existenciales o enunciados de inexistencia –enunciados de "no hay"–. Así, la ley de la conservación de la energía, que en una de sus partes diría originalmente "Toda energía se se degrada con la ejecución de un trabajo" puede expresarse del modo siguiente: "No se da ningún caso en que al final del trabajo tengamos energía de tan alto nivel como teníamos al principio" que es una manera de decir que no existe una máquina de movimiento perpetuo (por ejemplo, que al final de su trabajo haya producido un combustible de la misma calidad y cantidad del que usó para producirlo) NOTA 4.

Tomando en cuenta esta manera de formular las leyes científicas, vemos que son asimilables a "vetos" o "prohibiciones". No afirman que exista algo, sino más bien niegan que algo se pueda encontrar en el universo. Excluyen ciertas cosas o situaciones como si las prohibieran. Este carácter negativo de las leyes científicas es esencial en la concepción epistemológica de Popper, pues de ahí se desprende que las leyes naturales sean falsables (declarables falsas) pero no confirmables (como pretendían los positivistas lógicos). Por otra parte, los enunciados existenciales no pueden ser falsados. Si decimos: "no hay máquinas de movimiento perpetuo", la única manera de confirmar este enunciado sería registrar todo el universo y hacerlo en forma simultánea (para evitar que una máquina de movimiento perpetuo esquivara nuestra búsqueda cambiándose de lugar), lo cual sería doblemente imposible. En cambio, con un solo caso de máquina de movimiento perpetuo que encontráramos, habríamos falsado la ley que dice que no hay tales. De ahí que los enunciados científicos sean falsables.

Como se ve, se da una asimetría fundamental en relación con los enunciados: es posible declarar falsos a los enunciados universales por el simple expediente de mostrar un caso real que contradice la prohibición implícita en la ley científica de que se trate. Pero no pueden declararse verdaderos, porque para ello tendríamos que estar satisfechos de que hemos logrado revisar todo el universo (¡en el espacio y en el tiempo!) y no hemos encontrado ningún caso en contrario. En cambio, tendríamos un claro ejemplo de refutación de una ley si pudiéramos afirmar con confianza el siguiente enunciado particular o protocolario NOTA 5: "En tal y cual lugar hay, hoy fecha tal y cual, un aparato que resulta ser una máquina de movimiento perpetuo". Por el contrario, es posible declarar verdaderos a los enunciados existenciales por el simple expediente de mostrar un caso que confirme el enunciado existencial. Por ejemplo, "existen cisnes blancos" se confirma simplemente mostrando un cisne blanco que nade en la laguna de Fraijanes. Pero no pueden declararse falsos, porque para ello tendríamos que registrar todo el universo. Por ejemplo, "existen cisnes rojos" no es un enunciado muy creíble, pero ¿cómo podríamos demostrar que es falso?

Popper culmina su razonamiento con la tesis, muy importante para su postura epistemológica, de que, en realidad, en ciencia no podemos llegar a saber con propiedad nada: solo podemos conjeturar. Esta conclusión debe tomarse con cuidado, sin embargo. El autor no pretende con esto dar base para sentirnos en libertad de aceptar cualquier clase de conjetura. Por el contrario, el método científico es una manera de seleccionar, entre todos los posible enunciados, aquellos en que podemos tener confianza. ¿Y por qué confiaríamos en esos enunciados seleccionados por el método científico? Simplemente porque ese método implica un sostenido y redoblado intento de los científicos por demostrar que sus propias teorías –o las de otros científicos– son falsas, que tienen un defecto de un tipo u otro, que eventualmente será puesto al descubierto por un experimento. Las teorías que finalmente se presentan al público como aceptables son precisamente las que han resistido ese intento de demostrar que son falsas, las teorías que han demostrado su temple.

Un ejemplo puede resultar útil en esta conexión. De acuerdo con la teoría de la evolución por selección natural, los organismos que sobreviven a la lucha por la vida son los que mejor se adaptan a las condiciones de su ambiente. El ambiente puede concebirse como si tratara de eliminar a los mal adaptados. Lo mismo sucede con el método científico, que estaría siempre a la caza de las teorías falsas, para desbancarlas. Las teorías que los científicos, con este método selectivo, no pueden refutar, esas serían las que sobreviven "la lucha por la vida" de la ciencia. El método científico, con sus reiterados esfuerzos de refutación, nos garantiza que las conjeturas que sobreviven el embate de la investigación han demostrado su fortaleza (han sobrevivido a muchos experimentos). La ciencia nos ofrece solo conjeturas, pero no debemos aceptar cualquier conjetura, solo aquellas que han participado en "los juegos olímpicos de la ciencia" y en ellos han demostrado su temple.

Todo esto, ¡santo y bueno! y muy desfavorable para las esperanzas inductivistas de los positivistas lógicos. Pero también es cierto que esta bien articulada posición entraña la predicción de que los científicos abandonarán una hipótesis o teoría siempre que se encuentre un caso en contrario o deje de cumplirse una predicción. Si ahora consideramos a esta misma predicción como una teoría científica, y si la respectiva predicción es que los científicos abandonan sus teorías cuando encuentran casos en contrario, resulta –según argumentos de Thomas Kuhn que discutiremos en seguida– ... ¡que deberíamos rechazar la doctrina de Popper en nombre de ella misma!

Ejercicio de lectura

Para mejor entender el comentario que sigue, recomendamos la lectura del libro de Thomas Kuhn (KUHN 62), o una selección del mismo traducida al español incluida en la Antología.

Comentario

En contra de lo argumentado por Popper, Thomas Kuhn nos presenta en su libro sobre la estructura de las revoluciones científicas una gran cantidad de ejemplos, sacados de la historia de la ciencia, en que los científicos no han aceptado los casos en contrario como refutación de sus teorías, sino más bien han defendido a estas contra aquellos de mil maneras distintas; la más simple de ellas, ha sido considerarlos como simples anomalías que deben quedar en suspenso para un "estudio posterior".

Kuhn, actuando en este caso como buen popperiano, usa esta "refutación" como base para elaborar una teoría de la ciencia alternativa. Pero al hacerlo, adopta un punto de vista profundamente distinto a toda la tradición epistemológica logicista que hemos venido considerando. Al reaccionar contra Popper, no vuelve a Carnap, sino que reacciona con igual fuerza contra su positivismo lógico. Contra lo que reacciona es precisamente lo que Carnap y Popper tienen en común, a saber, la importancia que le dan a la estructura lógica de los enunciados para sus reflexiones sobre filosofía de la ciencia.

El nuevo punto de vista, que en sí es una verdadera revolución en el sentido mismo en que él emplea el término en su libro, consiste en estudiar la ciencia no como un conjunto de enunciados, sino como un conjunto de quehaceres humanos que se dan en el tiempo, en épocas determinadas y dentro de sociedades determinadas con instituciones y creencias específicas. Su elucubración sobre la ciencia descansa en la observación directa de sus fenómenos históricos y de la práctica real de la vida científica. Y desde ese punto de vista le es posible formular una epistemología enteramente diferente de los filósofos de la ciencia precedentes, como Carnap y Popper. Veamos en qué consiste esta nueva filosofía.

Un juego de conceptos clave para la interpretación de la ciencia de Kuhn es el que confronta la ciencia normal con la ciencia revolucionaria. La ciencia normal consiste en la actividad a la que los científicos dedican sus esfuerzos la mayor parte del tiempo. Descansa en el supuesto de que la respectiva comunidad "sabe cómo es el mundo". Cuando se practica ciencia normal, no se trata de descubrir leyes científicas fundamentalmente nuevas; por el contrario, se trata de articular NOTA 6 las leyes vigentes, mostrando su aplicabilidad a nuevos casos todavía no considerados, o especificando en mayor detalle –pero siempre dentro del mismo marco de premisas– algunos aspectos de la teoría aceptada. Lo sorprendente del caso (visto desde una perspectiva popperiana o incluso desde la creencia común de que la ciencia "busca la verdad") es que cabe dentro de esta normalidad que los científicos algunas veces supriman novedades que encuentran por casualidad NOTA 7, si ellas resultan contrarias a los supuestos básicos de la disciplina. Esto no ocurre necesariamente por deshonestidad del científico: la mayor parte de las veces, el científico que ve "novedades" se culpa a sí mismo por su impericia al no encontrar los resultados esperados por la teoría.

No obstante, la acumulación de anomalías tiene un límite, pues las que resisten repetidos embates para ser acomodadas dentro de la tradición vigente, eventualmente hacen que los científicos se desilusionen del paradigma bajo el cual trabajan y busquen alternativas con respecto a la tradición investigativa en que se formaron. Aparece entonces, pero solo entonces, la ciencia revolucionaria. En esta sí se busca la novedad, pero no la novedad de resultados individuales, sino novedad en el sentido de una nueva forma de ver el mundo que dé cuenta de todos los resultados bien explicados por la teoría antigua y, al mismo tiempo, de los resultados recalcitrantes; esa doble eficacia solo se logra con una visión tan diferente al punto de vista tradicional que podemos considerar todo este fenómeno como el nacimiento de un nuevo paradigma científico.

El concepto de paradigma, hoy muy popular en la filosofía de la ciencia e incluso en el lenguaje educado común, fue introducido por Kuhn en su libro sobre la estructura de las revoluciones científicas con el sentido de "un logro científico del pasado, reconocido durante un cierto tiempo por una comunidad científica particular como inspiración y guía para realizar su actividad". Normalmente esos paradigmas se asocian con un libro determinado, escrito por el fundador de la disciplina –o el revolucionador de la misma–, como la Física de Aristóteles, el Almagesto de Ptolomeo, los Principia y la óptica de Newton, la Electricidad de Franklin, la Química de Lavoisier o la Geología de Lyell. Obras como estas han cumplido exitosamente la función de definir los problemas y métodos de un campo de investigación para varias generaciones de practicantes. Los paradigmas deben poseer dos características de signo contrario: por una parte, deben haber sido suficientemente exitosos en la resolución de problemas, especialmente de las anomalías generadas por otros paradigmas, como para atraer a suficiente número de investigadores; pero por otro lado, deben ser suficientemente amplios e indefinidos como para dejar abiertos suficientes desafíos que mantengan ocupadas a varias generaciones de futuros practicantes.

El estudio de los paradigmas es el principal instrumento para introducir al neófito en la correspondiente disciplina. No es solo una doctrina conceptual; es también, y fundamentalmente, un grupo de reglas y normas, un verdadero estilo de cómo debe practicarse la respectiva ciencia. El paradigma actúa como un lente que focaliza la atención de la comunidad científica sobre un grupo de problemas y un conjunto de métodos, que se aplican a esos problemas con una intensidad y acuciosidad que no serían posibles en ausencia del paradigma. En ese sentido rinde un enorme beneficio al desarrollo científico. Sin embargo, este rigor no es equivalente a dogmatismo (propio de otros tipos de comunidades de practicantes, religiosos o políticos) pues la misma práctica profesional de los científicos, con su insistencia en la observación cuantificada y la estricta derivación de consecuencias lógicas, eventualmente produce el aflojamiento de las normas de la ciencia normal y su tránsito paulatino hacia la ciencia revolucionaria. En cierta manera, entonces, es el propio conservatismo del científico fiel al paradigma, que no se deja distraer fácilmente de las tareas inspiradas por su tradición investigativa, lo que permite que las anomalías calen totalmente el conocimiento existente y hagan obvia la necesidad de abrirse revolucionariamente hacia otras perspectivas diferentes.

El paso de la ciencia normal a la ciencia revolucionaria significa una etapa crucial en la historia de una disciplina particular. Solo se da cuando el paradigma reinante ha acumulado muchas anomalías de suficiente importancia; es decir, cuando ha fracasado frente a tantos problemas que los científicos consideran que debería poder resolver, como para perder gran parte de su legitimidad. Entonces, pero solo entonces, comienza la crisis. La situación es parecida a lo que ocurre en el campo político: un régimen de gobierno no se derrumba frente a las primeras injusticias o ineficiencias en la satisfacción de necesidades de la población a que sirve; se necesitan muchas de estas injusticias y malos funcionamientos para que los habitantes comiencen a pensar seriamente en alternativas. Pero cuando la crisis se entroniza, todo lo que antes era impensable comienza a merecer consideración detenida y va adquiriendo rápidamente popularidad.

Una teoría paradigmática no se compara nunca en forma directa con la realidad, ni tampoco se rechaza si no corresponde completamente a ella, como lo pretendían los formalistas (Carnap, Popper); en realidad, y por definición, ninguna teoría corresponde de manera completa a la realidad. Siempre quedan problemas que no puede resolver o que resuelve mal. Lo importante es, ¿habría otra manera de orientarse en el mundo? Durante el período de la ciencia normal (o de la política normal), los practicantes (o los ciudadanos) se encuentran tan comprometidos con el régimen imperante que aceptan su vigencia disimulando, por así decirlo, sus imperfecciones. La pregunta "¿habría una alternativa mejor?" solo se la permite a sí mismo el científico (o el ciudadano) que ya está desilusionado del régimen vigente por una acumulación de fallas. Las alternativas ni siquiera se consideran –no surgen en la conciencia– cuando el paradigma (o el régimen político) funciona relativamente bien. Pero cuando la credibilidad se pierde, cuando se afloja la legitimación, entonces los científicos (o los habitantes) comienzan a buscar paradigmas (o regímenes) alternativos, y entonces sí comienza una actividad comparativa; pero no simplemente entre la teoría científica y la realidad (o el régimen político y un orden de valores morales ideal), sino entre dos teorías entre sí en función de su mejor ajuste con la realidad (o dos sistemas políticos y su adecuación con la justicia o la eficiencia).

El nuevo paradigma, al igual que el viejo, no tiene que ser perfecto. En realidad, un nuevo paradigma siempre es muy imperfecto, puesto que, por hipótesis, no ha tenido a cientos de científicos trabajando por varias generaciones en su articulación con la realidad. Es muy interesante el hecho de que el nuevo paradigma sea aceptado sin que tenga un historial de desempeños excelentes en la función de resolver problemas del área científica particular; en realidad el que tiene ese buen historial es el paradigma viejo, que ha resuelto bien muchísimos problemas en su larga historia (aunque últimamente haya fracasado en unos cuantos). Los científicos del período revolucionario aceptan un paradigma no probado que soluciona muy bien unos pocos problemas muy importantes; pero no tienen todavía idea de cómo podrá explicar todos los otros. Y esta aceptación la dan con preferencia al paradigma viejo, el cual ha tenido extraordinario éxito con toda suerte de problemas, excepto aquellos cuya no solución desatara la crisis. Una tal aceptación solo puede darse, nos dice Kuhn, con base en un acto de fe: fe en la promesa de que el nuevo paradigma podrá resolver igualmente bien todos los problemas que el paradigma veterano sabía cómo resolver.

El paradigma veterano no cede el terreno sin lucha. En realidad, el tiempo de crisis constituye esa lucha. Lo que sucede durante ese período es que los científicos se afanan angustiosamente por defender el paradigma vigente contra la experiencia adversa, haciendo ajustes en aspectos no medulares de la teoría para que el caso en contrario deje de serlo NOTA 8. Podríamos decir que si la ciencia normal se esfuerza por articular el paradigma reinante, la ciencia en tiempo de crisis hace demasiado de eso mismo, porque las articulaciones que se van logrando no satisfacen completamente a los científicos y estos se empeñan en hacer otras, con el resultado de proliferación de alternativas. De hecho, este fenómeno, repetido varias veces a través de la historia de la ciencia, demuestra que formular una teoría suficientemente comprensiva de los fenómenos naturales no es nada fácil; en realidad, requiere mucha imaginación NOTA 9. Es más fácil "salvar" al paradigma impugnado, articulándolo excesivamente, con lo que pierde su elegancia y atractivo intelectual. No será sino cuando el paradigma se ha vuelto "feo" que algún científico de genio conciba una hipótesis revolucionaria que destaca en simplicidad y sentido estético y atraiga así la atención de los desilusionados del paradigma vigente.

Recordemos en este contexto dos ejemplos ilustres de la historia de la ciencia. El primero tiene que ver con la astronomía, y se refiere a la crisis desatada en relación con el paradigma de Ptolomeo por la observación rigurosa de los "vagabundeos" planetarios. El paradigma ptolomeico tenía siglos de predicciones exitosas de eclipses y otros fenómenos celestes. No obstante, la idea de que los planetas y el sol dan vuelta alrededor de la tierra se topó con el problema de explicar por qué de vez en cuando los planetas "se devuelven" en su órbita alrededor de la tierra, sin ninguna razón aparente, para continuar su marcha hacia adelante después de un cierto tiempo. Los astrónomos defendieron el paradigma de esta anomalía postulando órbitas subalternas (también llamadas epiciclos) como explicación de estas extravagancias. Y explicaciones suficientes lo eran, desde el punto de vista estrictamente lógico: en vez de estar inscrustados en un aro imaginario que rotara con la tierra como eje, estarían incrustados en un aro menor, cuyo centro de rotación estaría fijo en un punto del aro mayor. Con este aditamento, los movimientos del planeta vagabundo se hicieron perfectamente predecibles, y con gran exactitud.

¿Qué tenía esta articulación de malo, y por qué disgustaba a los astrónomos? Por dos razones, de gran profundidad epistemológica. La primera es que esta modificación de la teoría no estaba basada en ninguna evidencia empírica que no fuera la relacionada con la anomalía que se quería eliminar. Dicho de otro modo, la modificación no tenía conexión alguna con ningún otro aspecto del sistema astronómico: literalmente era un recurso ad hoc, es decir, construido con el exclusivo propósito de salvar el sistema de una refutación. Así, el epiciclismo atentaba contra la sistematicidad de la ciencia. En segundo lugar, esta modificación multiplica innecesariamente los entes NOTA 10, como hubiera dicho el filósofo medieval Guillermo de Occam; pecaba contra la simplicidad de la ciencia. En este caso le tocó al genial Copérnico sacar las consecuencias de la crisis, mediante la propuesta de un paradigma nuevo con el sol en el centro y los planetas todos (la tierra incluida) orbitando alrededor suyo. Ahora los movimientos (aparentemente) regresivos de los planetas pasaban a ser predecibles como proyección de movimientos circulares alrededor de un punto distinto de la tierra, sin necesidad de epiciclos, asegurándose a la vez una explicación sistemática y simple: todos los planetas se movían en la misma forma y sobre un solo aro de rotación NOTA 11 cada uno.

El otro ejemplo que queremos citar se relaciona con la crisis que desató en la física la comprobación experimental de que no existe el éter o viento etéreo provocado por el movimiento de traslación de la tierra alrededor del sol. Una manera más precisa de plantear este problema es la siguiente: se hicieron mediciones repetidas (el llamado experimento de Michelson-Morley) de la velocidad de la luz proveniente de las estrellas, con un intervalo de seis meses entre una medición y otra (a fin de que, según la fecha del año, hubiera que agregar o restar la velocidad de la tierra a la velocidad de la luz, de acuerdo con el llamado principio de relatividad de Galileo para medir velocidades desde un marco de referencia en movimiento uniforme).

El sorprendente resultado fue que la medición daba siempre una magnitud constante, sin importar para nada la velocidad de traslación de la tierra alrededor del sol. Dicho de otro modo, todo sucedía como si no existiera un medio (el hipotético éter) sobre el que se trasladaran tanto la tierra como la luz y que sirviera de base común para comparar (sumar o restar) sus velocidades. De acuerdo con los resultados experimentales, parecería que la luz circula con igual velocidad en todas las direcciones, con entera independencia de la condición de movimiento de los instrumentos encargados de hacer la medición (o para decirlo más técnicamente, con independencia del marco de referencia de esa medición). Esto iba directamente en contra de las predicciones de la teoría de la relatividad de Galileo, incorporada en la cinemática de Newton, según la cual y en relación al caso que nos ocupa si uno mide un movimiento que se da en un marco de referencia distinto a aquel en que está el instrumento de medir, las velocidades de los dos marcos deben sumarse (algebráicamente, es decir sumar o restar aritméticamente según las direcciones de movimiento coincidan o sean opuestas).

Como era de esperar, los físicos trataron de salvar el paradigma de Newton, en particular sus famosas leyes del movimiento, que tanto éxito había tenido durante dos siglos en explicar los fenómenos cinemáticos. Las articulaciones que hubo que aventurar para salvar las apariencias fueron tan extrañas (en relación con la intuición cotidiana de velocidades y distancias no astronómicas) como era extraño el fenómeno que se trataba de explicar. La más conocida, atribuida al físico Lorentz, es la que postula que todos los cuerpos se contraen en la dirección de su movimiento, con una intensidad que aumenta más que proporcionalmente a la velocidad de ese movimiento. Así, tal contracción aplicada a la tierra que avanza contra el movimiento de un rayo de luz, compensaría su propia velocidad, por lo que la medición del rayo daría exactamente la velocidad constante. Si han leído con atención la explicación anterior sobre los epiciclos, los lectores sabrán percibir en la presente explicación el mismo tipo de estrategia "epiciclar"; la articulación de Lorentz resulta ser tan artificial y ad hoc como la de los defensores de Ptolomeo, y por exactamente las mismas dos razones: ausencia de sistematicidad, ya que no hay ninguna otra razón de tipo experimental para postular la contracción, sólo el propósito de impedir la refutación de la teoría; y en segundo lugar, falta de simplicidad, puesto que se agrega un concepto nuevo, "la contracción de Lorentz" al inventario de fenómenos físicos, en forma completamente innecesaria. Aquí también haría falta un trabajo genial para concebir una teoría alternativa simple, sistemática y elegante, y esa fue la obra de Alberto Einstein.

La solución de Einstein al problema de la "ausencia de éter" fue tomar la velocidad de la luz como un absoluto, que es independiente del marco de referencia usado para medirla, y modificar la teoría de la relatividad de Galileo y Newton para acomodar ese absoluto (la llamada constante c, igual a 300.000 kilómetros por segundo). La concepción resultante, podríamos expresarla diciendo de manera informal que, desde el punto de vista de cada científico que hace una medición, todo ocurre como si su marco de referencia estuviera inmóvil y fueran los otros marcos los que se desplazaran con respecto a él; pero lo extraordinario es que para todos los observadores y sus respectivos marcos la situación se presenta de la misma manera.

La simplificación y sistematicidad resultantes para la concepción física de la introducción de estas ideas es extraordinaria: la teoría es breve y elegante, y no se postulan objetos o fenómenos nuevos, como el éter o la contracción de Lorenz. Su choque con las intuiciones de los físicos newtonianos no debe distraernos de la comprobación fundamental de que la visión einsteiniana es completamente compatible con el prejuicio ancestral de todos los seres humanos de que el lugar en que están es el centro del universo (el ombligo del mundo) y como tal sirve de punto de referencia para todo lo que ocurre alrededor nuestro. Lo que debe agregar la cultura científica contemporánea es que igual derecho al etnocentrismo debe reconocerse por igual a cualquier observador, a cualquier cultura, a cualquier ser humano.

Volvamos ahora al tratamiento que hace Kuhn de la sustitución de paradigmas en la historia de la ciencia. Llaman la atención los argumentos de este autor en el sentido de que los científicos que trabajan bajo paradigmas distintos (por ejemplo, el nuevo y el viejo, durante una crisis revolucionaria) ven el mundo de una manera totalmente distinta. Así, nos dice que "el escogimiento entre paradigmas rivales no es ni puede ser determinado meramente por los procedimientos evaluativos característicos de la ciencia normal, pues estos dependen en parte de un paradigma particular y ese paradigma está en cuestión. Cuando los paradigmas entran, como deben, a un debate.., su papel es necesariamente circular. Cada grupo emplea su propio paradigma para argüir en su defensa". Y nos dice también que cualquiera que sea la fuerza de este argumento circular "no puede hacerse lógica y ni siquiera probabilísticamente convincente para aquellos que se niegan a entrar en su círculo". Y, en forma extrema, "la tradición científica normal que emerge de una revolución científica es no solo incompatible sino que, con frecuencia, incluso inconmensurable con la que la ha precedido". La palabra "inconmesurable" es sumamente fuerte; aplicada, como aquí, a dos doctrinas, significa ni más ni menos que no puede haber comparación racional entre una y otra, puesto que cada una trabaja con un sistema de conceptos y categorías completamente diferente. Para los científicos adherentes de un paradigma, el mundo luce completamente distinto que para los científicos que trabajan bajo el otro: "las diferencias entre paradigmas sucesivos son tan necesarias como irreconciliables.... Paradigmas sucesivos nos dicen cosas diferentes sobre la población del universo y sobre el comportamiento de esa población". De ahí su inconmensurabilidad.

Este problema de la irreconciliabilidad (aparente) de paradigmas o puntos de vista diferentes en ciencia, atrajo la atención de un filósofo de la ciencia reciente, Larry Laudan, en su libro Science and Values ( LAUDAN 84). "¿Cómo es que una proporción muy alta de científicos, que previamente tenían opiniones diferentes (y a menudo mutuamente incompatibles) sobre una determinada materia, pueden eventualmente llegar a tener opiniones substancialmente idénticas sobre la misma?".

Ejercicio de lectura

Para mejor entender el comentario que sigue, recomendamos leer el libro mencionado de Larry Laudan, o en su defecto, la selección del mismo publicada en español en la Antología.

Comentario

La solución más conocida del problema de la diferencia de puntos de vista en ciencia postula un modelo jerárquico de justificación con niveles distintos interrelacionados entre sí. Hemos visto, por ejemplo, cómo Popper introduce las convenciones o reglas metodológicas como principios dominantes de su sistema epistemológico; y cómo esos principios están sometidos a una regla de nivel superior, a saber, la que dice que no debemos defender ningún enunciado de su posible falsación. En el nivel más bajo ocurren disputas sobre cuestiones de hecho, es decir, descripciones de eventos observables directamente, pero también otras descripciones de cómo es el mundo que hacen referencia a entes teóricos o inobservables (como el electrón o la electricidad) que sin embargo son observables indirectamente, por sus consecuencias. Estos debates o desacuerdos de hecho son resueltos eventualmente por los científicos, y en esta forma logran consenso empírico, moviéndose hacia arriba en la escala, hasta el nivel de las reglas metodológicas compartidas por todos los que discuten. Tales reglas se refieren a atributos que hay que buscar (por ejemplo, base de evidencia empírica independiente o simplicidad) o evitar (por ejemplo, soluciones epiciclares NOTA 12) en las teorías científicas.

Los desacuerdos pueden permanecer, sin embargo, en los casos no poco frecuentes en que los científicos discrepan sobre las propias reglas de evidencia o de procedimiento, o sobre la aplicación apropiada de estas reglas al caso concreto. De acuerdo con el modelo jerárquico, tales controversias, que podemos llamar desacuerdos metodológicos, solo pueden resolverse ascendiendo todavía otra grada más en la escala, para apelar a las metas compartidas por todos los practicantes de la ciencia. Esto puede suceder porque las reglas metodológicas derivan su fuerza del hecho de que los científicos las consideran medios para obtener las metas de la ciencia. Así pues, cuando dos científicos defienden reglas metodológicas diferentes pueden en principio superar este desacuerdo determinando cuál de las reglas en conflicto conduce de manera más eficaz a alcanzar los fines colectivos de la ciencia. A este tercer nivel de las metas cognoscitivas lo denomina Laudan el nivel axiológico NOTA 13.

Podemos entonces resumir la visión filosófica predominante sobre los desacuerdos científicos diciendo que los desacuerdos sobre hechos se resuelven en el nivel metodológico; los desacuerdos metodológicos se superan en el nivel axiológico; pero en cuanto a las diferencias axiológicas, o bien no existen (si suponemos que los científicos comparten las mismas metas) o no pueden resolverse. Esta concepción, igualmente compatible con la filosofía de Popper y de Kuhn, tiene el defecto de que, en definitiva, edifica la ciencia sobre bases no racionales. Además, parece claramente refutada por la experiencia histórica, donde los desacuerdos más feroces entre científicos llegan finalmente a superarse, sobre una base que todas las partes involucradas estarían dispuestas a calificar de eminentemente racional. El problema de la formación del consenso, nos dice Laudan, "consiste concretamente en buscar respuesta a preguntas como estas: ¿por qué los geólogos, que una vez despreciaban la teoría de la deriva de los continentes, llegaron a aceptar la tectónica de placas? ¿Por qué los físicos, que una vez abogaron por la teoría corpuscular de la luz, llegaron eventualmente a admitir que la teoría ondulatoria era una mejor apuesta?". Debemos pues encontrar una mejor teoría sobre la formación del consenso que la que nos ofrece el esquema jerárquico prevaleciente, cuya debilidad principal consiste en que no predice el consenso que de hecho suele lograrse en las grandes controversias sobre la aceptación de paradigmas científicos.

Para Laudan resulta claro que las reglas metodológicas subdeterminan a las teorías científicas; es decir, muchas veces no bastan para decidir entre ellas. Igualmente, las metas cognoscitivas últimas subdeterminan a esas reglas. Todo esto resulta en la posibilidad de que por sí misma la jerarquía no pueda producir un consenso en todas las materias científicas. El hecho de que el consenso se dé a pesar de todo, alude a la existencia de otros factores que influyen en las decisiones. En particular, Laudan sugiere que acreditar o desacreditar una regla metodológica requiere que nos preguntemos si el universo es tal que nuestros fines cognoscitivos puedan favorecerse siguiendo una regla en vez de otra; pero esta es una pregunta sobre el mundo, que solo puede contestarse mediante una investigación empírica (que supone selección entre teorías alternativas, usando reglas metodológicas, etc.). Podemos ver aquí algo así como una recursividad de los problemas científicos, que no es simple sino multidimensional. La conclusión obligada es que la metodología científica es ella misma una disciplina empírica que no puede prescindir de los mismos métodos cuya validez investiga, una visión que ya expresara en el siglo pasado John Stuart Mill cuando, al defender el principio de inducción, afirmaba que su justificación es coextensiva con todo el conjunto de nuestra experiencia ( MILL 48); o el mismo positivismo lógico cuando veía la empresa de la filosofía de la ciencia como comparable a las reparaciones del casco de un barco en pleno viaje trasatlántico.

Laudan concluye que la suposición de que la escogencia racional entre conjuntos alternativos de fines cognoscitivos internamente coherentes es siempre imposible; es falsa. Existe una amplia gama de herramientas críticas que podemos utilizar para evaluar un grupo de metas cognoscitivas. Esa gama de herramientas no es otra cosa que la utilización apropiada y refinada del mismo método científico:

En resumen, el modelo reticular propugna un proceso complejo de ajustes y de justificación mutuos entre los tres niveles de la escala científica:

La obra de Laudan es un intento de síntesis de posiciones contradictorias y en cierta forma ofrece un ensayo bastante satisfactorio de conciliación y de superación de las tesis originales de Popper y de Kuhn. En todo caso, representa una epistemología más matizada, en la que se trata de dar peso a muy distintos factores, incluyendo los lógicos, los empíricos, y los históricos.

Conclusiones

El presente siglo se abre con un extraordinario intento, representado por la corriente neopositivista, también llamada positivismo lógico, por resolver el problema de la inducción heredado de Hume. A pesar del tezón y capacidad intelectuales de multitud de filósofos que como Rudolf Carnap lucharon muchos años por ese logro, podemos confiadamente decir que el intento resultó irrealizable. El mejor análisis de las razones profundas de este fallo podemos encontrarlo en la obra del filósofo inglés Karl Popper.

No existe un método inductivo: la asociación de características en el espacio y el tiempo no basta para postular relaciones necesarias y constantes entre ellas. Los fundamentos del método científico deben buscarse en otra parte. Si la inducción no es válida como método, ¿qué diremos a los físicos, biólogos, químicos, sociólogos, y todos los otros practicantes de las llamadas ciencias empíricas o experimentales, sobre el fundamento de su confianza en la validez real de sus hipótesis?

Aquí podemos apreciar el valor de la propuesta de Popper de distinguir entre lógica (que hay solo una, la deductiva; la "lógica inductiva" es inválida) y metodología. Las reglas metodológicas no son leyes de la lógica, son algo distinto. Pero Popper no tiene razón al considerarlas simples convenciones, adoptadas por los científicos para poder realizar su trabajo. Hay buenas razones, de carácter racional, para aceptar unas y no otras, y estas razones son parecidas a las que tenemos para aceptar las mismas hipótesis científicas, puesto que no son separables del ejercicio mismo del método científico.

En su esfuerzo por fundamentar las reglas del método científico, Popper explota, diestramente pero tal vez de manera extrema, la idea de que si bien muchos casos favorables no pueden confirmar una hipótesis, basta un solo caso contrario para refutarla. Lógicamente, el análisis es correcto, pero no resulta respaldado por las lecciones de la historia: como lo muestra brillantemente Thomas Kuhn, la predicción popperiana de que los científicos abandonan una hipótesis o teoría cuando encuentran casos en contrario, no es corraborada por la historia de la ciencia. Así pues, la doctrina de Popper sobre la justificación de teorías científicas, basada en la refutación por casos en contrario, puede aplicarse exitosamente a ella misma... ¡para refutarla!

La noción de paradigma, como lente que focaliza la atención de la comunidad científica sobre un grupo de problemas para dedicarse a ellos con una intensidad y rigor impensables de otro modo, es la mejor contribución de la historia de la ciencia al desarrollo de la epistemología. Sin embargo, la adopción de un paradigma científico no es equivalente a la adhesión a un dogmatismo, pues la misma práctica profesional de los integrantes de una disciplina, con su insistencia en la observación cuantificada y en la estricta derivación de consecuencias lógicas, produce eventualmente el relajamiento de las normas de la ciencia normal y su tránsito hacia la ciencia revolucionaria. En cierta forma, es el propio conservatismo del científico fiel a su paradigma, que no se deja distraer fácilmente de las tareas inspiradas por su tradición investigativa, lo que permite que las anomalías calen totalmente el conocimiento existente y hagan obvia la necesidad de abrirse hacia perspectivas diferentes. Pero la caída de los paradigmas no ocurre fácilmente. En su desesperada resistencia a ser suplantados por nuevos marcos conceptuales, solo capitulan ante la necesidad de asegurar simplicidad y sistematicidad a la visión de los fenómenos que require, sobre todas las cosas, la mente humana.

El tratamiento que hace Kuhn de la sustitución de paradigmas en la historia de la ciencia llama la atención por sus argumentos en el sentido de que los científicos que trabajan bajo paradigmas distintos (por ejemplo, el nuevo y el viejo, durante una crisis revolucionaria) ven el universo de una manera fundamentalmente distinta. Paradigmas sucesivos nos dicen cosas diferentes sobre la población del mundo y sobre su comportamiento. De ahí que Kuhn los califique de inconmensurables. Esto nos lleva a plantear el problema de cómo se logra en efecto el consenso entre los científicos de una misma disciplina, a pesar de esa inconmensurabilidad. Surge en este contexto el tema de la jerarquía entre teorías científicas, reglas metodológicas para escoger entre ellas, y metas cognoscitivas para ayudarnos a seleccionar entre las reglas metodológicas que son posibles.

Laudan sugiere que acreditar o desacreditar una regla metodológica requiere el mismo tipo de esfuerzo intelectual que preguntar sobre cómo está constituido el mundo; es decir, constituye por sí mismo un problema científico que solo puede contestarse mediante una investigación empírica. Podemos ver aquí algo así como una recursividad de la metodología científica (el método científico aplicándose a sí mismo), la cual no es simple sino multidimensional. La conclusión obligada es que la metodología científica es ella misma una disciplina empírica, que no puede prescindir de los mismos métodos cuya validez investiga y postula.

Laudan concluye que la suposición de que la escogencia racional entre conjuntos alternativos de fines cognoscitivos internamente coherentes es siempre imposible, es falsa, ya que existe la misma amplia gama de herramientas críticas para evaluar las metas cognoscitivas como la que existe para evaluar cualquier otra cosa, a saber: la utilización apropiada y refinada del propio método científico. La obra de Laudan puede entenderse como un intento de conciliación de posiciones contradictorias y ofrece un ensayo de síntesis de tesis importantes anteriores, bastante satisfactorio. En todo caso, representa una epistemología más matizada, en la que se trata de dar peso a distintos factores, lógicos, empíricos, e históricos. La consideramos básicamente correcta.

El paradigma informático

Es importante señalar que ideas epistemológicas de pensadores modernos europeos –con raigambre en filósofos clásicos de la cultura occidental– presagian la aparición de la informática. Estas ideas enmarcan un movimiento general de esta cultura hacia una interpretación mecanicista y fisicalista del pensamiento y comportamiento humanos. La tendencia se puede discernir ya en el siglo XVII, en logros intelectuales extrafilosóficos (por ejemplo el descubrimiento de la circulación de la sangre por Harvey) pero se llega a concretar por la obra propiamente filosófica de autores como Descartes, que considera que los animales son máquinas, o como Hobbes y Leibniz quienes afirman la identidad profunda entre el razonamiento y el cálculo. Este desarrollo va a culminar en nuestro tiempo, fundamentalmente con la obra cimera de Turing, cuyo análisis de lo computable, su mecanización del concepto de algoritmo, y su tesis sobre la identidad de los procesos cognoscitivos con procesos de cómputo, constituyen la coronación de este movimiento.

Ejercicio de lectura

Para mejor entender el comentario que sigue, recomendamos leer primero con cuidado los siguientes párrafos de Thomas Hobbes y G.W. Leibniz:

RAZONAR NO ES MÁS QUE CONTAR

.

EL CÁLCULO COMO MEDIO DE RESOLVER LOS CONFLICTOS HUMANOS

Comentario

Para Thomas Hobbes, filósofo inglés del siglo XVII, razonar no es ni más ni menos que sacar cuentas –esto es, sumar y restar–, es decir, computar; tanto cuando razonamos para nosotros mismos, al querer aclararnos internamente alguna cuestión, como cuando tratamos de convencer a los demás por la palabra, escrita o hablada. Es sorprendente encontrar tan lapidaria declaración en un autor cuya especialidad está realmente alejada de las matemáticas (se trata de un filósofo político, cuya obra, el Leviatán, se considera como un tratado esencial para quienes desean entender los fundamentos teóricos del estado contemporáneo). La sorpresa se disipa al percatarnos de que se trata de un pensamiento sólidamente enmarcado en el contexto de un movimiento intelectual de gran fuste y alcance, el racionalismo materialista, que sacude a Europa desde los albores del humanismo renacentista. Este movimiento es un intento de independizar la razón de la tutela de la fe religiosa y basar la ciencia social y natural en capacidades puramente humanas. Esta rebelión de la razón es inseparable del movimiento filosófico general de los siglos XVII y XVIII, el período calificado como Siglo de las Luces o Ilustración. Además, es inseparable de la evolución de la ciencia moderna, que podemos visualizar como una lucha permanente por exorcizar de la explicación de la naturaleza y de la sociedad todos los principios irracionales, sobrenaturales o místicos.

El pensamiento de Thomas Hobbes parece hoy haber sido ampliamente confirmado por la extensa aplicación de las computadoras a tareas caracterizadas por la necesidad de razonamiento. Su famosa cita resulta así el más claro ejemplo que nos provee la filosofía tradicional de una anticipación clarividente del concepto informático contemporáneo de la mente. Por ella se considera corrientemente a Hobbes como precursor del paradigma computacional de las ciencias cognoscitivas. Sin embargo, creemos que en tal honor debe participar también G.W. Leibniz por su célebre sugerencia de constituir un lenguaje lógico universal, en el que pudieran dirimirse todas las controversias. Su gran ilusión, en este contexto, era que, con esta base racional, los hombres de todas las nacionalidades y culturas pudiesen zanjar sus diferencias ejercitando ese lenguaje formal. Para ello solo sería necesario, según su visión, que las partes en conflicto tomaran un lápiz en sus manos y se dijeran: "Calculemos".

Para Leibniz, también, el pensamiento no es sino cálculo. Estaba convencido del carácter fundamentalmente lógico, no solo del pensamiento humano, sino de la misma estructura del universo. Así se explica su confianza en el lenguaje matemático como herramienta para formular y resolver cualquier problema concebible, sea del área científica, sea del área de las relaciones humanas (son famosas sus intervenciones diplomáticas en la Europa de su tiempo que buscaban el asentamiento de la paz internacional). El nombre en latín de ese lenguaje de elección, characteristica universalis, significa categorización universal, es decir, método de representar todas las cosas y todas las situaciones NOTA 14. Pero, en todo caso, la erradicación del misticismo del campo de las ciencias no culmina sino con la obra de A.M. Turing, en nuestro mismo siglo. Pasaremos inmediatamente a estudiar esta importante contribución.

Ejercicio de lectura

Para mejor entender el comentario que sigue, recomendamos leer el artículo de Turing sobre la posibilidad de máquinas inteligentes (TURING 50) o la selección del mismo incluida en la Antología.

Comentario

Este texto tiene una importancia histórica capital. Aparecido como artículo en 1950, representa, según Margaret Boden ( BODEN 84), el nacimiento de una de las principales disciplinas que asociamos con las ciencias cognoscitivas, a saber, la inteligencia artificial. Por primera vez se toca seriamente en una revista científica el novedoso problema de si las máquinas podrán algún día pensar, en un momento en que estaban naciendo las primeras computadoras digitales. Particular importancia tiene, en relación con este artículo, el que su autor sea la misma persona que en los años treinta había producido una revolución en matemáticas, formalizando el concepto de algoritmo e introduciendo la fecunda noción de la máquina universal que lleva su nombre, que fue sin duda una de la ideas generadoras más importantes entre las que dieron origen a la computadora digital.

Independientemente de ese valor histórico, el artículo tiene importancia por otras dos razones. La primera de ellas es que en él se presenta la descripción de una prueba, desde entonces conocida como prueba de Turing, para decidir si una máquina posee inteligencia. Consiste –en breve– en que, si una persona cree tener como interlocutor (al través de un teletipo) a otra persona, cuando en realidad tiene a una máquina que se comporta como una persona, entonces la máquina se reputa inteligente (hasta el día de hoy, ninguna máquina ha podido pasar esta prueba). La segunda es que en este artículo se presenta, como hemos visto, un inventario de objeciones a la posibilidad de la inteligencia en una máquina, que son refutadas por el autor, rigurosamente, una por una.

Aunque la obra de Turing es mucho más amplia que lo que queda representado en este texto, y la comentaremos con detenimiento en el capítulo segundo, refirámonos aquí específicamente a sus argumentos relativos a la posibilidad de que las máquinas lleguen a pensar, expresados en este famoso artículo. Pero comencemos por considerar con cuidado la introducción que el mismo Turing hace a su tema, a saber, la transformación de la pregunta "¿podrán las máquinas algún día pensar?" en un equivalente más claro y sencillo de verificar: "¿podrán las máquinas llegar a jugar el juego de la imitación?"(un juego de salón que él mismo se encarga de definir). En relación con esta forma de presentar las cosas, vale la pena mencionar que Turing estaba convencido de la tesis pragmatista de que, si dos comportamientos son indistinguibles, para todos los efectos prácticos debemos considerarlos como la misma cosa. Con esto se coloca el autor en una posición ajena –por principio– a las disquisiciones metafísicas: lo importante para él no es que las máquinas sean realmente capaces de pensar; lo importante es que su comportamiento las haga indistinguibles de seres pensantes. Si preferimos entonces decir no que las máquinas piensan sino que imitan muy bien el pensamiento, ¡santo y bueno! La distinción entre "pensamiento real" e "imitación de pensamiento" no le quitaría el sueño a Alan Turing.

Participan en el juego tres personas: un hombre, una mujer y un interrogador, que puede ser de uno u otro sexo. El interrogador se queda en un cuarto, separado de los otros dos. Para él, el objetivo del juego es determinar cuál de los otros dos jugadores es el hombre y cuál la mujer. Para que el tono de la voz no ayude al interrogador, las respuestas deberán ser escritas. El objeto del juego para la mujer es ayudar al interrogador. La mejor estrategia para ella será probablemente contestar la verdad a todas las preguntas. Para el hombre, el objeto del juego es contrario al de los otros dos, y deberá simular que él es la mujer. Ahora se pregunta Turing: ¿Qué pasaría si una máquina tomara el papel del hombre que finge ser mujer en este juego? ¿Decidirá el interrogador equivocadamente con igual frecuencia, si el juego se desarrolla de esta manera, que cuando es jugado normalmente por un hombre y una mujer? Estas preguntas sustituyen a la pregunta anterior: "¿Pueden pensar las máquinas?" NOTA 15.

Esta interesante sustitución de una pregunta vaga y difícil de contestar, por una precisa y fácil de decidir, corresponde a una estrategia muy valiosa y característica de Turing, que volveremos a encontrar en el capítulo segundo de esta obra, a propósito de un asunto diferente: la solución al llamado problema decisorio de las matemáticas. No se trata aquí de un caso de traducción o explicación del problema original, sino más bien de una propuesta para cambiar el problema (con la doble esperanza de que sea más fácil de resolver que el problema original y de que su solución satisfará igualmente bien nuestra curiosidad que una solución al problema original). Sea como fuere, la propuesta ha sido evidentemente aceptada por la posteridad, pues el juego ha pasado a ser conocido como la prueba de Turing y a ser considerado como el estándar para decidir –cuando nos hallemos en ocasión de hacerlo– si una máquina es capaz o no de pensar.

No está de más decir que hasta la hora, ninguna computadora (ni ninguna otra máquina) ha pasado la prueba, ni siquiera lejanamente. Esto resulta sorprendente, dados los avances de la tecnología electrónica y de la informática en casi medio siglo de progreso desde los tiempos de Turing. Lo cual se relaciona con un aspecto notable de la prueba de Turing: el hecho de que consiste en una actividad bastante baladí (un juego de salón), en vez de referirse a actividades más "serias" como jugar ajedrez, concebir teorías científicas, probar teoremas matemáticos, hacer diagnósticos médicos o prospecciones geológicas, o descubrir la fórma de una molécula orgánica a partir de datos espectrográficos. Y dichosamente es así –lo cual es un anticipo del genio de Turing, sobre lo cual volveremos en el capítulo segundo–, porque de lo contrario, la prueba de Turing hubiera sido pasada con éxito hace rato por alguna computadora del MIT, de la Universidad de Stanford o de la Universidad Carnegie-Mellon (todos los ejemplos enumerados corresponden a campos en que existen hoy programas de inteligencia artificial con un excelente rendimiento).

¿Por qué ninguna de las máquinas capaces de jugar ajedrez a nivel de gran maestro, o de hacer diagnósticos médicos indistinguibles de los médicos de la Facultad de Medicina de Stanford –por mencionar algunas de las más ilustres– no son capaces de jugar un juego de salón, cuyo solo propósito es hacer creer a una persona que uno es una mujer? La contestación de esta pregunta la dejamos como un ejercicio de aprendizaje para el lector.

Turing estaba convencido de que las máquinas podrían llegar a pensar. En este artículo se esmera por contestar todos los argumentos, habidos y por haber, en contra de esta tesis. Veamos.

Turing, siendo un materialista convencido, no puede aceptar para nada esta objeción. Sin embargo, hace el esfuerzo de ponerse en el lugar de un creyente y muestra cómo no habría ningún inconveniente en que un dios todopoderoso pudiera hacer con una máquina lo mismo que se supone capaz de hacer con un ser viviente: infundirle el alma inmortal cuando el sustrato material está preparado para recibirla. Así, un elefante que lograra obtener un cerebro de condiciones parecidas al cerebro humano podría hacerse merecedor del alma inmortal que el dios otorga a los humanos de manera automática. ¿Por qué no podría, en principio, hacer lo mismo con una máquina que se encontrara en condiciones formalmente equivalentes?

En este caso Turing no considera necesario refutar nada, pues no se trata realmente de una objeción, sino de la simple expresión de un deseo o esperanza de que algo considerado inconveniente llegue a suceder.

Algunos de esos resultados fueron producidos por Turing mismo en 1936, y de ellos hablaremos en el próximo capítulo. Lo importante de ellos en relación con la capacidad de las máquinas es que de algún modo establecen que para cada máquina de un cierto tipo hay ciertas cosas que esas máquinas no pueden hacer, preguntas que no pueden contestar. Sin embargo, debe tenerse en cuenta que las preguntas que no puedan ser contestadas por un cierto tipo de máquina pueden ser contestadas satisfactoriamente por otro tipo de máquina. El autor hace notar que esta objeción supone, pero no prueba, que el intelecto humano no sufre las mismas limitaciones. Pero en todo caso, en cada ocasión en que se demuestre que nuestro intelecto funciona mejor que una máquina determinada, podemos sentir nuestra superioridad solamente respecto a esa máquina concreta; no sucedería que pudiéramos triunfar simultáneamente sobre todas las máquinas. NOTA 16

Lo malo con este argumento, según Turing, es que prueba demasiado: parece decirnos que la única manera de estar seguro de que una máquina piensa, sería identificarse con la máquina y sentirse pensar; que es imposible juzgar el pensamiento "desde afuera", pues siempre podríamos creer que no es más que una "imitación del pensamiento". Y este argumento prueba demasiado porque no podemos evitar que se aplique también a las otras personas, distintas de nosotros: la única manera de saber que otra persona piensa consistiría en ser este hombre particular; de lo contrario, podría estar simulando pensar, y no podemos estar seguros de que es consciente de sus pensamientos. Este punto de vista, muy conocido en la historia de la filosofía, se llama solipsismo, que significa la creencia de que estamos solos y aislados en nosotros mismos, de que probablemente somos el único ser consciente del universo. Es muy difícil tratar de convencer a una persona que crea eso de que está equivocada. En vez de argumentar interminablemente sobre el asunto, nos dice Turing, lo habitual es "respetar la convención cortés de que todos piensan" como nosotros. Nuestro autor pide que extendamos a las máquinas esa elemental cortesía, y que si alguna vez las vemos hacer cosas que requieren inteligencia simplemente las aceptemos como seres inteligentes.

Turing considera que esta objeción no es sino una generalización de la experiencia que el objetante ha tenido con máquinas concretas que ha visto en su vida (relojes, locomotoras, máquinas de escribir, taladros, etc.), las cuales carecen de todas o algunas de las características que van en el lugar de la X. Pero el hecho de que las máquinas construidas hasta ahora no hayan sido poseedoras de todas esas características, presumiblemente asociadas con la inteligencia, no significa que en el futuro no puedan aparecer máquinas muy superiores que sí tengan las virtudes echadas de menos. El autor considera que todas esas deficiencias tienen como causa principal la limitación (o ausencia total) de memoria que ha caracterizado a las máquinas hasta el presente: criticar las máquinas por su poca diversidad de comportamiento no es sino una manera de decir que no tienen suficiente capacidad de almacenamiento.

Lady Lovelace fue una amiga entusiasta de Carl Babbage, uno de los precursores de la informática que, en el siglo pasado, intentó construir una máquina de razonar con recursos mecánicos. La máquina nunca llegó a funcionar, a pesar de que su construcción consumió todo el capital de su creador y muchos fondos del erario público de Inglaterra.

Para Turing, el único fundamento de esta objeción es la opinión errónea de que basta conocer un enunciado para conocer simultáneamente todas sus consecuencias lógicas. La aplicación a la informática consistiría en decir que basta conocer un programa (o haberlo escrito) para saber todo lo que hará la computadora que ejecuta el programa, en todas las circunstancias en que se encuentre (por ejemplo, con todos los datos posibles que se le den al programa). Con el desarrollo de la industria de software, especialmente del software especializado de inteligencia artificial, tenemos ya innumerables ejemplos de programas que, aunque los podamos conocer muy bien, son capaces de sorprendernos profundamente por las clases de comportamiento de que son capaces. Un ejemplo muy simple: un programa recursivo escrito en Logo puede producir en la pantalla maravillosos diseños que nunca hubiéramos imaginado antes de verlos dibujados por la tortuga NOTA 17.

Turing no discute las diferencias entre las máquinas de estado discreto (como la computadora digital) y las estructuras continuas (también llamadas analógicas) como el sistema nervioso. En cambio insiste en su posición fundamental de que lo que es indistinguible en su comportamiento debe ser considerado como idéntico en su naturaleza. Para decirlo más rigurosamente: dada una función (por ejemplo la resolución de problemas), esta puede ser encarnada en muy distintas estructuras, realizada por muy distintos mecanismos. Pero si lo que nos interesa es la función, las diferencias de arquitectura carecen de importancia. A esta posición filosófica se la ha dado en llamar funcionalista; está representada por muchos autores de nuestra Antología, por ejemplo Newell, Marr, Pylyshyn o Dennett, y es la escuela dominante en la ciencia cognoscitiva contemporánea. No es extraño encontrarla en los escritos de Turing, a quien se considera como creador del paradigma funcionalista. NOTA 18

Para contestar a esta objeción Turing distingue dos sentidos de reglas: "reglas de conducta" y "leyes de comportamiento". "Reglas de conducta" serían preceptos tales como "Deténgase si ve luces rojas", para la aplicación de las cuales se requiere algún nivel de conciencia. "Leyes de comportamiento", por otra parte, serían leyes de la naturaleza aplicadas al cuerpo humano, como "Si usted lo pellizca, chillará". En todo caso, el autor cree que "no solamente es verdad que ser regulado por leyes de comportamiento implica la necesidad de ser cierto tipo de máquina, sino también que ser tal máquina implica ser regulado por tales leyes. El problema de la enumeración de las reglas o leyes –de los dos tipos– es un problema real pero no insoluble, y solo puede resolverse por la investigación científica, en relación con la cual no es válido decir: "Ya hemos investigado suficientemente, no hay tales leyes". Este argumento podría, pues, llamarse "argumento de la pereza", y sería claramente inválido, puesto que el hecho de que algo sea difícil no significa que no pueda realizarse.

Todo este análisis que hace Turing de la posibilidad del pensamiento mecánico puede considerarse la culminación de un movimiento general hacia la explicación mecanicista y fisicalista del pensamiento y comportamiento humanos, ya en evidencia en el siglo diecisiete, como lo ejemplifican el descubrimiento de la circulación de la sangre por Harvey, las ideas de Descartes sobre los animales (a los que consideraba como máquinas), y la concepción del razonamiento por Hobbes y Leibniz como simple cálculo. Dentro de esa tesitura, se considera este artículo como el precursor de las ciencias cognoscitivas en el sentido contemporáneo. Podemos decir incluso que el pensamiento de Turing, aquí representado, constituye el paradigma mismo de estas ciencias. Por primera vez vemos en él, aunque sea implícitamente, la consideración del cerebro humano como una máquina de un cierto tipo, que podría en principio ser imitada por una máquina universal (o una computadora). Una de las consecuencias de este enfoque consiste en la unificación de las ciencias del conocimiento. Tal unificación las ha llevado a un grado de productividad nunca alcanzado antes –exactamente lo que corresponde a una revolución intelectual como las que asociamos con el advenimiento del paradigma newtoniano o del de Lavoisier o de Darwin–.

Al explorar dichas consecuencias, debemos tomar en cuenta dos ambigüedades en el concepto de máquina. Cuando decimos que una máquina de Turing es capaz de imitar a cualquier otra máquina, debemos suponer que si la máquina imitada no es simplemente una máquina abstracta (definida matemáticamente) sino una máquina concreta, la máquina Turing debe ser realizada de manera física y tener órganos efectores y sensores que la capaciten para ejecutar tareas prácticas. La segunda ambigüedad que debe ser despejada tiene que ver con la connotación peyorativa que normalmente asociamos con la palabra máquina. Oponemos los términos "mecánico" y "vital" como lo rígido a lo flexible, lo insensible a lo adaptable, lo grotesco a lo gracioso. Pero nada de eso es válido frente a la plasticidad de las nuevas máquinas relacionadas con la electrónica, por antonomasia aparatos flexibles y adaptables a las circunstancias. Pero tal concepción quedará más clara gracias al texto de Minsky que pasamos a comentar en seguida.

Ejercicio de lectura

Para mejor entender el comentario que sigue, recomendamos leer el libro de Minsky, The Society of Mind (MINSKY 85), o su selección traducida al español en el capítulo I de la Antología.

Comentario

El libro de Marvin Minsky, es el mejor resumen que conocemos de la concepción mecanicista o fisicalista de la mente. Constituye una colección de pequeñísimos ensayos, de una página cada uno, de los cuales la Antología nos presenta una selección, según el criterio de la mayor generalidad y carácter sucinto de las ideas. Trataremos en lo que sigue de identificar y analizar las más importantes de esas poderosas ideas.

Idea poderosa 1: El pensamiento podrá explicarse por principios simplemente físicos, de la misma manera que fue posible explicar la vida en forma física.

Explicar el pensamiento parece radicalmente difícil, por ser a primera vista tan fundamentalmente distinto de lo que no es pensamiento (la materia o lo orgánico no pensante). Pero la actitud científica nos permite explicar lo misterioso en función de lo claro, lo desconocido en función de lo conocido. Minsky usa un ejemplo de la historia reciente de la ciencia, el caso de la biología. Hace algún tiempo parecía imposible explicar la vida, porque los seres vivos se mostraban tan diferentes de todo lo no vivo: "las plantas parecían crecer de la nada. Los animales podían moverse y aprender. Ambos podían reproducirse –mientras que nada más podía hacer tales cosas–". Pero poco a poco

Como consecuencia de esos desarrollos intelectuales, en la actualidad ya ninguna persona educada tiene que recurrir a "fuerzas vitales" misteriosas para explicar la existencia o el funcionamiento de los seres vivientes.

Idea poderosa 2: La mente no es una cosa simple sino compleja; en realidad, complejísima. No es ni siquiera una cosa, sino un conjunto complejísimo de procesos interrelacionados entre sí.

Las mentes no son cosas, en el sentido de que no comparten las propiedades usuales de las cosas –colores, tamaños, formas, pesos–. Podemos decir que las mentes son lo que hacen ciertas cosas muy complicadas –los cerebros–; es decir, las mentes son el conjunto articulado de los procesos cerebrales. El problema es que existe una larguísima tradición filosófica de análisis y clasificación de las cosas; pero apenas hemos empezado a analizar y clasificar los procesos. No tenemos todavía teorías adecuadas sobre procesos.

Minsky se pregunta por qué son los procesos tan difíciles de clasificar. Inicialmente juzgábamos a las máquinas y sus procesos por la forma en que transformaban ciertos materiales en productos terminados. Pero, por supuesto, no tiene sentido hablar de los cerebros como si manufacturaran pensamientos, en la misma forma en que las fábricas hacen carros. NOTA 19 Nuestro autor aventura una explicación: la diferencia fundamental entre los procesos mentales y los procesos industriales estriba en que los cerebros usan procesos capaces de cambiarse a sí mismos, lo cual tiene la implicación de que no podemos separar tales procesos de sus productos. La consecuencia principal de todo esto es que lo que los cerebros hacen, los recuerdos, cambia de manera fundamental las maneras en que subsecuentemente pensamos. Es decir, la principal actividad de los cerebros es transformarse a sí mismos. "Es precisamente porque la misma idea de procesos que se automodifican es nueva para nuestra experiencia, que no podemos todavía confiar en nuestros juicios de sentido común sobre tales materias".

Idea poderosa 3: Podemos explicar la inteligencia como una combinación de agentes más simples.

Minsky propone para lograr este objetivo que nos aseguremos, en cada paso, que ninguno de esos agentes más simples sea por sí mismo inteligente. De lo contrario nuestra teoría terminaría pareciéndose a una "máquina de jugar ajedrez" del siglo pasado que escondía a un enano humano (un homúnculo) adentro. Así pues, la consigna es que siempre que encontremos que un agente tiene que hacer algo complicado, lo reemplazaremos por un grupo o sociedad de agentes cada uno de los cuales capaz de hacer algo más sencillo. Otra manera de expresar esta estrategia es decir que la inteligencia admite grados, y que en cada paso sustituiremos a un agente de un cierto nivel de inteligencia por un conjunto de otros agentes menos inteligentes que el que se trata de explicar.

Idea poderosa 4: Palabras creadas para describir fenómenos complejos no pueden usarse legítimamente para describir sus componentes más simples. No podemos esperar explicar la inteligencia con teorías que utilicen un principio único.

Minsky propone una contestación a estas preguntas por medio de una especie de dramatización. Es un diálogo entre un holista NOTA 20 y una persona corriente:

Por supuesto, lo que impide que el ratón escape es la manera en que la caja impide el movimiento en todas direcciones, como resultado de que cada tabla detiene el escape en una cierta dirección. Decir que hay contenimiento, en el caso de la caja, es decir que las tablas se las arreglan para prevenir el movimiento en todas las direcciones posibles; es un resultado de la forma en que las tablas están organizados, no una virtud indivisa de la caja como un todo. Lo mismo se aplica a la vida y la mente. Es insensato usar estos conceptos para describir componentes más pequeños de los seres vivos (como si dijéramos que una tabla por sí misma contiene) porque esos conceptos fueron inventados para describir la interacción de esos componentes que resultan en sistemas más grandes. No tiene sentido decir que la célula está viva o que una neurona piensa: esas palabras existen para ser usadas en otro nivel de agregación (también se dice "nivel de abstracción" NOTA 21), como cuando decimos que un animal está vivo (porque hemos comprobado que respira), o nos preguntamos si los chimpancés piensan usando símbolos igual que nosotros los seres humanos:

A pesar de la inveterada tendencia que la gente tiene a tratar de dar explicaciones simplistas sobre las cosas, tenemos que resignarnos al hecho de que la explicación de la inteligencia o el pensamiento será una teoría larga y complicada. "¿Cuál truco mágico nos hace inteligentes?", se pregunta Minsky. Y se responde: "El truco es que no hay truco":

Idea poderosa 5: Algunas palabras que cumplieron una función importante en otra época pueden haber dejado de ser útiles en el contexto contemporáneo. No es legítimo usarlas para calificar situaciones del futuro, suponiendo que tienen las mismas connotaciones que esas palabras tuvieron en el pasado.

La palabra "máquina" con el sentido que se usaba en los siglos pasados ya no correponde a los artefactos más típicos del mundo contemporáneo. Por siglos, la palabra "mecánico" se empleaba para referirse a objetos como poleas, palancas, etc. Hoy nuestras máquinas son radios de transistores, teléfonos que hablan, automóviles que nos avisan si las puertas están mal cerradas, computadoras. Por otro lado, debemos reconocer que todavía estamos en una era primitiva de las máquinas, con ideas muy vagas sobre lo que ellas pueden llegar a ser en el futuro. Por ejemplo, ¿qué tienen de común nuestras antiguas poleas, o incluso nuestras modernas computadoras, con las máquinas de tamaño microscópico que los científicos esperan construir pronto y que inyectarán en el torrente sanguíneo para reforzar la acción del sistema inmunológico del cuerpo? Minsky compara la situación con lo que habría pensado un marciano que hubiera visitado la Tierra hace mil millones de años sobre las capacidades de la vida terrestre, a partir de la observación de agregados de células en la sopa primigenia, que no habían entonces ni siquiera aprendido a reptar. En forma parecida, no debemos juzgar lo que las máquinas pueden llegar a hacer en el futuro por lo que vemos que son capaces de hacer ahora.

Algo semejante ha sucedido, en una escala de tiempo menor, en relación con el desarrollo de las computadoras: formamos nuestros conceptos sobre las computadoras sobre la base de la experiencia con las máquinas construidas en los años cuarenta, las cuales contenían solamente algunos miles de partes. Las computadoras de hoy para investigación en inteligencia artificial, constan de miles de millones de partes. Si queremos comparar al cerebro humano con una computadora, tenemos que tomar en cuenta que el cerebro humano contiene miles de millones de partes (células), "cada una complicada en sí misma y conectada a miles de otras". Definitivamente, decir que el cerebro humano es una máquina implica un cambio de significado en la palabra "máquina", por lo menos del significado que tenía en el siglo pasado o en la primera mitad del siglo XX.

Conclusiones

La lucha para erradicar el misticismo teleológico de la ciencia ha tenido tres etapas claramente definidas. La primera consistió en el exorcismo de los principios místicos o antropomórficos de la física, lucha que libraron Galileo y Newton, entre otros, contra la física de Aristóteles NOTA 22, heredada por los filósofos escolásticos de la Edad Media. Los principios mecánicos triunfaron en esta primera etapa contra el teleologismo de las explicaciones aristotélicas NOTA 23. La segunda etapa consistió en la erradicación de principios místicos o teleológicos del campo de las ciencias biológicas. Se trataba entonces de la tarea de desbancar explicaciones creacionistas sobre el origen de las plantas y de los animales, así como de las explicaciones basadas en fines sobre la estructura de los órganos de los seres vivos. Por ejemplo, se superaron ideas como la de que la evolución de las especies debía ir acercando más y más las formas vivas a la "forma perfecta" que sería el hombre. O la explicación de los fenómenos vitales por la presencia de una "fuerza vital" inmersa en la materia física de solamente ciertos cuerpos (los cuerpos "animados"). Esta segunda etapa consistió sobre todo en la obra de Carlos Darwin, quien, con su teoría de la evolución con base en la selección natural, ofreció una explicación mecanicista tanto del origen de las diferencias entre las especies, como de la estructura y función de cada órgano dentro de los organismos, sin apelación alguna a fines o metas. NOTA 24

La tercera etapa parecería ser en principio la más difícil; en efecto, si se trata de eliminar el antropomorfismo, parece fácil eliminarlo de campos donde la semejanza con la actividad humana está por demás, como el orden de los fenómenos astronómicos o químicos. Y en cuanto a la teleología, parece bien eliminarla de las plantas, que no son capaces de ninguna intencionalidad (no parece que puedan tener creencias o deseos). ¿Pero cómo desantropomorfizar a los seres humanos? ¿Cómo pensar en quitar intenciones y otros atributos humanos al funcionamiento mismo del cerebro humano? Parte de la solución la anticipó Hobbes, con su argumentación en el sentido de que el razonamiento se reduce a actividades aritméticas. Ya en su mismo siglo, se dieron los pasos iniciales para mecanizar las funciones matemáticas, con la construcción de las primeras máquinas de sumar y multiplicar, diseñadas por Blas Pascal y G.W. Leibniz.

Pero el ser humano no es sólo razonamiento: están también las emociones, las motivaciones. Esa otra parte de la psicología también debía ser desteleologizada. Tal empresa correspondió a dos gigantes de los tiempos contemporáneos, Carlos Marx y Segismundo Freud. El primero procuró explicar los mecanismos económicos y sociales que producen las superestructuras ideológicas (literarias, artísticas, filosóficas, religiosas), como determinismo de lo individual desde lo colectivo. El segundo procuró explicar el sentido moral y otros fenómenos de la consciencia individual como determinación producida por las fuerzas de la libido inconsciente.

Pero sea cual sea el éxito de estos intentos de desantropomorfizar los aspectos emotivos del hombre, quedaba pendiente la desmitificación de los procesos puramente intelectuales, dentro de los lineamientos anticipados genialmente por Hobbes y Leibniz. Esta fue la obra señera de Turing. Con elementos muy simples y cotidianos, que básicamente consistían en formalizar las actividades de cualquier persona cuidadosa que realizara sumas o multiplicaciones, este autor demostró cómo podría construirse una máquina universal de razonamiento, capaz en principio de imitar a cualquier otra máquina de la misma clase. Con ello puso las bases, al mismo tiempo, de la tecnología informática y de la ciencia cognoscitiva contemporánea. Volveremos ampliamente sobre estos dos temas.

Ejercicios de aprendizaje

1) En la Universidad Carnegie-Mellon de los Estados Unidos hay una computadora que, debidamente programada, es capaz de jugar al ajedrez con nivel de "gran maestro". ¿Es esa máquina inteligente? ¿Por qué sí o por qué no?

2) Otra máquina de la misma universidad, también adecuadamente programada, es capaz de concebir teorías científicas, en efecto, de redescubrir algunas de las hipótesis que hicieron famosos a Galileo, Kepler o Newton. ¿Podemos decir que esa máquina es inteligente? ¿Por qué sí o por qué no?

3) En la Universidad de Stanford hay una máquina que, adecuadamente programada, es capaz de hacer diagósticos sobre enfermedades infecciosas que rivalizan en calidad con los que hacen los propios médicos de su Facultad de Medicina. ¿Podemos decir que esa máquina es inteligente? ¿Por qué sí o por qué no?

4) La antigua computadora "Matilde" de la Universidad de Costa Rica, adecuadamente programada por el autor de esta Guía, era capaz de probar teoremas de la lógica de predicados. ¿Podemos decir que esa máquina es inteligente? ¿Por qué sí o por qué no?

5) Repase la selección de Minsky y trate de encontrar en ese texto cuatro "ideas poderosas" diferentes de las que el autor de esta Guía pudo distinguir, que sirvan igualmente bien para darle estructura a la comprensión de lectura (en realidad, ¡que sirvan mejor, porque habrán sido columbradas por usted mismo!).

6) Explique por qué un enunciado conocidamente verdadero es implicado por cualquier enunciado. Tome como base la definición de implicación lógica dada en el texto.

Respuesta a los ejercicios de aprendizaje

1-4) Las cuatro preguntas se contestan de la misma manera. Ninguna de esas proezas es suficiente para considerar la máquina inteligente, por la siguiente razón. Jugar ajedrez, hacer generalizaciones que expliquen colecciones de datos, diagnosticar enfermedades, o probar teoremas lógicos, son ejemplos de experticia o conocimiento experto sobre un campo muy específico del conocimiento. La cantidad de información que una máquina tiene que manejar para resolver este tipo de problemas es, aunque grande, limitada a un cierto número de reglas bastante sencillas. Cuando Turing decidió escoger una prueba para decidir si una máquina era inteligente fue muy sabio en no escoger la práctica de ninguno de estos ejemplos de experticia. En cambio, escogió la práctica de un juego, aparentemente más sencillo que todas esas realizaciones especializadas, pero que en realidad requiere el manejo de un inmenso conocimiento sobre estereotipos de género (qué se espera del comportamiento de una mujer en la sociedad contemporánea) y sobre multitud de situaciones de contexto humano que pueden surgir durante el juego; pero además, que requiere el ejercicio de un tipo de actividad profundamente humana, a saber: la simulación o el intento de engaño. Estas dos dimensiones: conocimiento y capacidad de simulación, parecen ser, dentro de la filosofía de Turing, ingredientes indispensables de esa poderosa capacidad mental que llamamos inteligencia humana.

5) Existen muchas maneras posibles de organizar un texto alrededor de "ideas poderosas", y todas pueden ser válidas. Lo más importante en la comprensión de lectura es que las ideas fuerza –o puntos de concentración de material– sean auténticamente sentidas como importantes por el que realiza la lectura. Cada persona tiene su propia manera de integrar lecturas; incluso una misma persona puede integrar las mismas lecturas de manera diferente, si lo hace en tiempos diferentes. Como un ejemplo, he aquí una integración realizada por el autor dos meses después de la que aparece en el texto:

6) Si un enunciado es conocidamente verdadero cualquier enunciado, verdadero o falso, lo implica, puesto que la definición de implicación lógica dice que la conclusión no puede ser falsa si las premisas son todas verdaderas, pero no dice nada sobre el caso de que la conclusión sea verdadera (en ese caso, las premisas pueden ser lo que quieran: verdaderas o falsas). Este es el principio gemelo en el espejo del explicado en el texto, el de una premisa incoherente que implica a cualquier enunciado (verdadero o falso). Resumiendo los dos principios: un enunciado falso implica a cualquier enunciado; un enunciado verdadero es implicado por cualquier enunciado.

Ejercicios de evaluación

Intente contestar las siguientes preguntas sin consultar el texto nuevamente.

1) ¿Qué se entiende normalmente por epistemología?

2) ¿Qué otros sentidos se encuentran en diversos autores para la palabra "epistemología"?

3) ¿Qué tienen en común la epistemología de los positivistas lógicos y la de Karl Popper?

4) ¿Cuál es la principal diferencia entre las doctrinas mencionadas en el punto anterior y la epistemología de Thomas Kuhn?

5) ¿En qué consiste el método hipotético-deductivo de la ciencia?

6) ¿En qué consiste el problema de la inducción?

7) ¿Cuál es la regla suprema de la ciencia, según Popper?

8) ¿En qué sentido afirma Popper que los enunciados científicos son prohibiciones?

9) ¿Cuál es la tesis de Thomas Kuhn sobre la refutación de las teorías científicas por casos en contrario?

10) ¿Qué es un paradigma dentro de la epistemología de Kuhn?

11) ¿Qué son ciencia normal y ciencia revolucionaria para Kuhn?

12) ¿Cómo resuelven sus desacuerdos los científicos, según Larry Laudan?

13) ¿En qué consiste razonar, para Thomas Hobbes?

14) ¿Cómo podrían ponerse de acuerdo las personas, segun G.W. Leibniz?

15) ¿Cuándo podríamos saber que una máquina es inteligente, según A.M. Turing?

16) ¿Cómo contestaría Turing el siguiente argumento en contra de que las máquinas lleguen a tener inteligencia: "Admito que usted puede compeler a las máquinas a hacer muchas cosas, pero nunca podrá inducir a una máquina a tener iniciativa".

17) ¿Cuál es la posición de Marvin Minsky en relación con el uso de la palabra "máquina" en el contexto de las ciencias cognoscitivas?

Respuestas para los ejercicios de evaluación

1) La epistemología es la disciplina que estudia las condiciones para la validez del conocimiento, especialmente del conocimiento científico.

2) Otros sentidos de la palabra "epistemología" son: a) filosofía de la ciencia; b) teoría del desarrollo del conocimiento en los niños.

3) Tanto los positivistas lógicos como Popper consideran como principal materia de estudio la forma lógica de los enunciados científicos.

4) A Kuhn no le interesa la forma lógica de los enunciados científicos sino las vicisitudes de las doctrinas científicas a través de la historia.

5) El método hipotético-deductivo es la caracterización del método científico que debemos a los filósofos positivistas lógicos. Según esta caracterización, las hipótesis científicas obtienen su reconocimiento gracias a que son confirmadas por alguna evidencia empírica. Esta confirmación opera en el caso de que la evidencia sea verdadera y la hipótesis implique lógicamente a la evidencia.

6) El problema de la inducción consiste en que de la observación de casos particulares nunca podemos llegar a la certidumbre de la ley general de la cual podrían deducirse. Según Hume, es solamente el hábito lo que –por ejemplo– nos hace estar seguros de que el sol saldrá mañana por la mañana. Y para Popper, las conjeturas que hacemos con base en la observación empírica solo obtienen su certidumbre del hecho de que han demostrado su temple contra intentos sinceros y decididos de refutarlas.

7) Las reglas del procedimiento científico han de ser tales que nunca protejan a un enunciado de los intentos de refutarlo.

8) De acuerdo con Popper, los enunciados universales de la ciencia niegan absolutamente la existencia de casos en contrario de lo que ellos afirman. De ahí que si se encuentra tal caso en contrario, el enunciado científico debe considerarse refutado.

9) Según Kuhn, los casos en contrario de las teorías científicas no bastan para refutarlas; los científicos los considerarán simples anomalías, mientras la teoría no esté desacreditada por la acumulación de tales casos.

10) Un paradigma, según Kuhn, es un logro científico de trascendental importancia que por un tiempo ofrece a los practicantes de una disciplina inspiración para la selección de problemas de investigación y sugerencia de métodos para realizar su trabajo.

11) Ciencia normal es la que se realiza bajo la égida de un paradigma científico. Los científicos no buscan cambiar el paradigma sino simplemente articularlo (mejorarlo, completarlo). Ciencia revolucionaria es la que se realiza cuando el paradigma está desacreditado por la acumulación de anomalías y los científicos buscan alternativas para sustituirlo.

12) Los científicos se ponen de acuerdo sobre los hechos, con base en reglas metodológicas compartidas. Se ponen de acuerdo sobre las reglas metodológicas, con base en metas cognoscitivas compartidas. Y se ponen de acuerdo sobre estas últimas, gracias a la calidad de reglas metodológicas que se deducen de ellas y a la compatibilidad general entre los hechos, las reglas y ellas mismas.

13) Para Hobbes, razonar no es sino calcular, o sea, sumar y restar.

14) Para Leibniz, las personas podrían ponerse de acuerdo si se sentaran a computar su problema, en el lenguaje universal con que el soñaba: la characteristica universalis.

15) Para Turing, una máquina podría declararse inteligente cuando fuera capaz de sustituir a una persona en un juego de simulación. Los detalles del juego no son importantes, excepto que jugarlo requiere familiaridad con una gran vastedad de conocimientos de sentido común y con el arte notoriamente humano de engañar.

16) Este argumento se basa en la experiencia que el objetante ha tenido hasta ahora con máquinas concretas –omo relojes, poleas, etc.– que no tienen la capacidad de iniciativa. Pero esa experiencia no puede ser extrapolada hacia el futuro, cuando las máquinas pueden llegar a tener muchas capacidades, entre ellas iniciativas, gracias a su mayor complejidad y, sobre todo, a su mayor capacidad de almacenamiento de conocimientos (memoria).

17) La palabra "máquina" está pasada de moda: las máquinas contemporáneas son tan diferentes de las máquinas del pasado, que no se ajustan al estereotipo creado con base en máquinas antiguas. Las máquinas actuales, y con mucho mayor razón las del futuro, no son inflexibles ni simples ni predecibles ni ninguna otra de las características que el viejo concepto asociaba con ellas. Las máquinas se acercan cada vez más a las características que asociamos con los seres vivos y con los seres inteligentes.


ÍNDICE DE LA OBRA

REFERENCIAS


Copyright © 1997 Claudio Gutiérrez


Notas:

NOTA 1 Debemos tener en cuenta que algunos psicólogos, como Jean Piaget, usan el término "epistemología" para referirse al fenómeno de la génesis del conocimiento en las mentes individuales. Este es, evidentemente, un sentido distinto de epistemología, que debe distinguirse del que hemos apuntado, a saber, el estudio de la validez del conocimiento. Sin embargo, hay una relación importante entre estos dos sentidos de la palabra, pues el desarrollo de las mentes individuales procede en líneas generales de manera análoga al descubrimiento original de las ideas por la humanidad, y el desarrollo individual de las mentes es normalmente impulsado por el deseo, inherente en las motivaciones humanas, de obtener conocimientos confiables.


NOTA 2 El requisito de que la negación de la evidencia sea coherente es otra manera de decir que la evidencia no sea una tautología, es decir, una proposición siempre verdadera, del tipo de "o llueve o no llueve". No deseamos tener eso como evidencia, porque también podría confirmar a cualquier hipótesis, ya que cualquier hipótesis la implicaría; dejamos como ejercicio de aprendizaje para el lector la tarea de ver por qué cualquier enunciado implica a un enunciado verdadero.


NOTA 3 Consúltese el significado de estas expresiones latinas en GUTIÉRREZ Y BRENES 71.


NOTA 4 Todo esto cae dentro de la ley de conservación de la energía, porque al final siempre tendremos la misma cantidad de energía, pero será una colección de distintas energías, y el resultado total será de menor calidad que inicialmente. Por ejemplo, la gasolina se habrá acabado, pero el automóvil habrá subido una cuesta (que eventualmente podrá bajar, usando su energía potencial en relación con la gravedad), y se habrá difundido en el ambiente mucha energía calórica, producto de la combustión y de la fricción, etc.


NOTA 5 Enunciados protocolarios son los enunciados que los practicantes de la ciencia experimental escriben en sus libros de control, llamados también protocolos.


NOTA 6 Aquí la palabra "articular" reviste un sentido bastante técnico. Se trata de cubrir todos los esfuerzos de los científicos de la ciencia normal por hacer más coherente el paradigma vigente, ampliar su esfera de acción para que cubra más y más casos que queden satisfactoriamente explicados por el conjunto de leyes aceptado por los científicos. Una articulación es una conexión entre distintas partes de un sistema. Articular en nuestro contexto, consiste, pues, en construir el mayor número posible de conexiones entre los distintos elementos del sistema científico vigente.


NOTA 7 Tiene que ser por casualidad, porque como científicos normales no es su función buscar novedades.


NOTA 8 Sobre esta posibilidad de salvar una teoría contra la experiencia adversa que parece refutarla, consúltese ( QUINE 60).


NOTA 9 El hecho de que imaginar hipótesis alternativas requiere imaginación, y de que la imaginación es una capacidad exhaustible, puede servir de base para la sustitución del método inductivo por un método deductivo basado en la refutación; a saber, un método que elimine por prueba empírica todas las hipótesis imaginables menos una ( GUTIÉRREZ 68).


NOTA 10 Ver algunos comentarios sobre este modismo, y su relación con "la navaja de Occam", en el comentario sobre Quine en el capítulo III.


NOTA 11 Usamos aquí "rotación" porque estamos ayudando a nuestra imaginación suponiendo que el planeta está fijo en un punto de un aro que "rota" alrededor de un centro (como un aro de bicicleta). Pero por supuesto, si eliminamos la metáfora, el planeta realmente tiene un movimiento de traslación alrededor de su centro de revolución.


NOTA 12 Dícese de soluciones ideadas solamente para salvar las apariencias, como fuera la adición de epiciclos a las supuestas órbitas de los planetas alrededor de la Tierra en la teoría de Tolomeo. Ver arriba.


NOTA 13 De axios en griego, que quiere decir "valor".


NOTA 14 Para un enfoque moderno de la forma de superar los desacuerdos científicos, consúltese Laudan en la Antología, comentado arriba en este mismo capítulo.


NOTA 15 Ponga atención el lector sobre el hecho de que hay dos casos de imitación que intervienen en este asunto. El juego se llama "juego de la imitación" porque el hombre imita o simula a una mujer. Pero el juego es útil para decidir si la máquina tiene inteligencia porque, en la versión modificada del juego, la máquina imita al hombre (en su imitación de la mujer). Conviene mantener estos distintos niveles de imitación debidamente separados, porque ello nos permite comprender la verdadera naturaleza del experimento, así como las dificultades esenciales que deberá enfrentar la máquina para pasar esta prueba de inteligencia: su función será imitar a alguien que simula ser una persona del sexo contrario.


NOTA 16 En el capítulo VI de la Antología se ofrece una versión muy reciente de esta objeción a la posibilidad de que las máquinas lleguen a ser inteligentes, que se debe al físico inglés Roger Penrose. Confróntese también la refutación que incluimos allí del informático norteamericano, muy conocido por sus trabajos en el campo de la inteligencia artificial, John McCarthy .


NOTA 17 Para quienes no estén familiarizados con el lenguaje Logo, creado por Seymour Papert para beneficio del desarrollo de la creatividad de los niños, el indicador de posición en una pantalla de Logo suele tener la apariencia de una tortuga.


NOTA 18 Para una crítica muy inteligente de esta posición, ver el artículo de Patricia Smith Churchland en el Capítulo IV de la Antología. Más adelante en esta obra nos referiremos muchas veces al tema del funcionalismo.


NOTA 19 A este respecto es muy interesante considerar la dificultad que los tribunales de los Estados Unidos, entre otros países, han tenido para autorizar patentes a los programas de computación, ya que no se adaptaban a la concepción tradicional del proceso industrial que por definición debería transformar unos materiales en un cierto producto.


NOTA 20 Del griego holós, que significa "todo". Se dice de la persona que cree que existen cosas que no se pueden analizar en parte menores y solo podemos comprender contemplándolas como totalidades no analizables.


NOTA 21 Este concepto de niveles de abstracción lo analizamos con más extensión y cuidado en el capítulo IV.


NOTA 22 Filósofo y naturalista griego de la Antigüedad (Siglo IV antes de Cristo), cuya obra cubre prácticamente todo el conocimiento de su tiempo. Su pensamiento se pierde en Occidente con las invasiones bárbaras al Imperio Romano y el período de desorden político y depresión cultural que les siguió. Pero en el Siglo XIII es reintroducido en Europa por medio de sus intérpretes árabes, y es adoptado y cristianizado por Santo Tomás de Aquino; desde entonces pasa a ser la filosofía oficial de la Iglesia Católica, conocida también como escolástica (porque se enseñaba en las "escuelas" de la Edad Media).


NOTA 23 Las explicaciones físicas de Aristóteles eran fundamentalmente antropomórficas; por ejemplo, suponían que había cuerpos o lugares más dignos, hacia los cuales las mejores substancias debían tender, siguiendo su propia naturaleza. Por ejemplo, el fuego debía subir, por tratarse de una sustancia noble cuya "lugar natural" estaba en la órbita celeste. Es proverbial el caso de sus seguidores del tiempo de Galileo que se negaron a mirar por el telescopio para observar las manchas en los cuerpos celestes, puesto que según Aristóteles, tales cuerpos eran perfectos, y en cuanto tales no podían tener manchas. "Teleologismo" viene de "telós", en griego, que significa fin o meta; el teleologismo es la explicación, supuestamente científica, que usa el fin perseguido como explicación de la conducta o fenómeno. Por ejemplo, podemos decir que el fuego busca la altura o que las flores tienen vivos colores para atraer a los insectos. El problema fundamental del teleologismo es que trata de explicar algo existente por algo (todavía) no existente: el fin hacia el cual tiende. Lo contrario de teleologismo es mecanicismo, donde la causa que explica el fenómeno es siempre anterior a él.


NOTA 24 El viejo misterio del color de las flores, supuestamente teñidas así para atraer a los insectos que los polinizan, se disuelve según el principio de la selección natural tomando en cuenta que:

  1. en cada generación una especie de organismo multiplica sus ejemplares;
  2. ocurren mutaciones aleatorias de una generación a otra en el plasma germinativo de los individuos particulares; y
  3. los recursos son limitados y sólo algunos ejemplares de cada generación, los mejor adaptados a las condiciones ambientales, logran sobrevivir hasta la edad reproductora, transmitiendo las mutaciones favorables a sus descendientes.