http://www.ucr.ac.cr/~rodolfor/modelos.html
MODELOS COGNOSCITIVOS PARA LA FILOSOFIA CONTEMPORANEA DE LA MENTE
RODOLFO
J. RORÍGUEZ R.
Revista de Filosofía de la Universidad de
Costa Rica.
Summary: This article
examines mind´s models that have been developed from the Cognitive Science
research. The first set are the
information processing models such as the symbolic, the
subsymbolic(connectionism) and the modularity. The second set are the cognitive
neurobiology models such as the F.
Crick and P. S. Churchland reductionist models of mental processes, but
specially the Neural Darwinism of the Nobel Prize: G. Edelman. Finally the
author suggests other kind of mental interpretations such as: the Quantum Thought of R. Penrose, the
subjective ontology of J. Searle and the interpretation of the conscious mind of
D. Dennett.
Resumen:Este
artículo examina modelos de la mente que han sido desarrollados a partir de las
investigaciones en Ciencias Cognoscitivas. El primer conjunto son los modelos de
procesamiento de la información como el simbólico, el subsimbólico(conexionista)
y la modularidad. El segundo conjunto son los de la neurobiología cognitiva
tales como los modelos reduccionistas de los procesos mentales de F. Crick y P.
S. Churchland, pero especialmente el Darwinismo Neural del Premio Nobel: G.
Edelman. Finalmente el autor sugiere otro tipo de intepretaciones mentales tales
como el pensamiento cuántico de R. Penrose, la ontología subjetiva J. Searle y
la interpretación de la mente consciente de D. Dennett
INTRODUCCIÓN:
En
el presente siglo una de las áreas de investigación más revolucionarias dentro
de la computación electrónica ha sido la inteligencia artificial. Esta disciplina tiene sus raíces en los desarrollos de
la lógica formal, generada a finales de siglo pasado e inicios del presente con
figuras como G. Boole, G. Frege, G. Peano, B.Russell, A.N. Whithead, quienes
establecen estructuras sólidas de
carácter veritativo funcional para
la mecanización simbólica de los razonamientos. Como prehistoria de esta disciplina se encuentran los
trabajos de C. Shannon (1938). (1),McCulloch,W. y W. Pitts(1943)(2) y de N.
Wiener(1948)(3).
El
origen propiamente dicho de la I. A. se puede establecer a partir del artículo
de A.M. Turing publicado en Mind: “Computing Machinery and
Intelligence”(1950)(4).
A
partir de Turing se tiene pues un núcleo teórico básico sobre el que se fundamentará todo un modelo
estructural de investigación en Inteligencia Artificial. Dicho modelo fue
desarrollado por expertos en distintas áreas como J. McCarthy, A. Newell, H.A.
Simon y M. Minsky como los más conocidos(5).
El
objetivo inicial fue desarrollar máquinas(hardware) que puedan Correr
programas(software) capaces de simular y que inclusive generen el razonamiento
humano de manera automática(acudiendo a
cálculos formales como el proposicional en un primer momento). Los primeros desarrollos en
esta área fueron los probadores de teoremas matemáticos y de lógica formal, como
también los primeros jugadores artificiales de ajedrez. Todo ello representó el
punto de partida de nuevas áreas de investigación sobre la inteligencia en
particular y sobre la cognición en general. La limitaciones de estos primeros
enfoques plantearon la necesidad de investigar otras disciplinas relacionadas
con la cognición, tales como la lingüística, la psicología, la neurociencia, la
antropología, surgen entonces así las Ciencias Cognoscitivas(6).
1.-
MODELOS DE PROCESAMIENTO DE LA
INFORMACION
El
primer modelo cognoscitivo generado a raíz del desarrollo de la I.A.,surge en el
contexto de las investigaciones sobre el procesamiento electrónico de la
información. Tuvo enorme significación la obra de Claude Shannon, matemático del
MIT, que con su tesis de maestría:
“Análisis simbólico de los circuitos de relé y conmutación” (1938)(7),
demuestra que los circuitos, como los que aparecen en un aparato electrónico,
podían expresarse mediante ecuaciones semejantes a las de Boole;es decir bivalentemente, en la oposición:
verdadero-falso, equivalente a la
oposición abierto y cerrado(o conectado o desconectado) en un circuito. Shannon
determina que cualquier operación
puede describirse mediante esos relés de “conmutación”. La obra de Shannon sentó las bases para
la fabricación de máquinas capaces de ejecutar tales operaciones veritativo
funcionales, y además sugirió nuevas formas de diseñar circuitos. En el plano
teórico dio la pauta -al establecer un conjunto de instrucciones codificadas que
debían seguirse de forma minuciosa- para lo que sería la programación de
computadoras, determinando que ésta debía concebirse como un problema de lógica
formal y no como un problema aritmético, idea que provienen de los trabajos de
Boole. Shannon introduce de esta manera el tema lógico-cognoscitivo en el mundo
de la incipiente computación electrónica de su tiempo.
Alan
M. Turing, ya en 1936(“On Computable Numbers with an Application to the
Entsheidungproblem”)(8), había definido una clase de autómata(conocida como
la máquina de Turing y demostró que
cualquier miembro de esta clase podía computar cualquier función entre un
conjunto de clases. Este tipo de máquina formal de Turing, es la base del
funcionamiento de la mayoría de las computadoras digitales.
Los
argumentos originales de Alan Turing se complementan con los Alonzo Church, al
postular las capacidades universales de resolución de problemas de las
computadoras, sugiriendo que el cerebro debe comprenderse como si fuera una
computadora. Particularmente Church sugiere que si existe un método consistente
y finito para resolver un problema dado, luego existe un método que puede correr
en una máquina de Turing y dar exactamente los mismos resultados. Por ello, para
aquellos problemas que pueden ser resueltos consistentemente en tiempos finitos
y especificados, una máquina de Turing es tan poderosa
como
cualquier otra entidad que pueda resolver el problema, incluido el
cerebro(9).
Los
argumentos de Sahnnon,Turing y Church estructuran la base de los modelos
cognoscitivos de procesamiento de
la información, y éste logra
eventualmente un gran éxito
computacional. En este sentido lo primero es elegir un problema significativo que todo el mundo esté de
acuerdo que requiere para su
solución del uso de la inteligencia, luego se debe identificar los elementos de
información que se necesitan para lograr la solución al problema, se debe
determinar cómo podría representarse esta información en una computadora,
encontrar un algoritmo que pueda manipular esta información para solucionar el
problema; escribir el código computacional que implemente ese algoritmo y
finalmente se debe poner éste a prueba contra instancias muestradas(usualmente simples) del
problema.
1.1.
MODELO SIMBÓLICO
El
modelo simbólico de la I.A. es el primer núcleo sólido en I.A., enmarcado dentro
del contexto del “macromodelo” de Procesamiento de Información y alcanza su
máxima expresión con la “Hipótesis del sistema de símbolos físicos” de A.
Newell y H. A. Simon(11). Para ellos, un sistema de símbolos físicos es una
máquina que produce a lo largo del tiempo una colección evolutiva de estructuras
simbólicas. El sistema de símbolos tiene como referente un mundo de objetos más
amplio de tan solo las expresiones simbólicas. El término “físico” hace
referencia a que tales sistemas obedecen las leyes de la física, es decir, son
realizables por sistemas de ingeniería o computación electrónica. La relación
entre el referente y los símbolos se dará por medio de designación e
interpretación. En dicho modelo se
considera que un sistema de símbolos físicos tiene los medios necesarios
y suficientes para una acción inteligente. En este caso el concepto de
“necesario” se entiende en el sentido de cualquier sistema que se considere
inteligente de manera general, se puede entender como un sistema de símbolos
físicos. Lo de “suficiente” hace
referencia a que cualquier sistema de símbolos físicos de suficiente tamaño
puede ser organizado hasta llegar a mostrar acción inteligente general(12).
En
el corazón de la teoría de los Sistemas de símbolos físicos, se encuentran las
arquitecturas simbólicas las cuáles sirven de substrato para la computación
electrónica, que es posible por la manipulación de señales físicas por medio de
reglas explícitas que también están compuestas por otras señales. La
manipulación está basada solamente en las propiedades físicas de las señales, no
por sus significados. Todo procesamiento implica combinaciones basadas en reglas
de señales simbólicas; esto es, hileras de señales. El sistema entero es
semánticamente interpretable; esto es, todos sus componentes se refieren a
objetos o a funciones de estados(13).
Este
sistema de símbolos físicos es un claro ejemplo de máquina general de las
ideadas por Turing, consolidándose así el modelo estructural propuesto
originalmente por este último y que se
ha denominado como se ha mencionado: MODELO SIMBÓLICO y que representa el
primer modelo consolidado dentro de la Inteligencia Artificial para poder
explicar los procesos mentales, aún cuando con el tiempo se ha mostrado muchas
de sus limitaciones(14).
1.
MODELO SUBSIMBOLICO
El
primer modelo cognoscitivo a partir del surgimiento de la inteligencia
artificial por parte de la filosofía
contemporánea de la mente es el simbólico, anteriormente descrito. Pero
no es el único modelo para la
filosofía de la mente, ni siquiera es el único en inteligencia artificial, ni en
procesamiento de la información.
Como
alternativa al modelo simbólico se buscó desarrollar una tecnología que se
acercase lo más posible al cerebro, como fuente de la inteligencia. Esto pues el
modelo simbólico partía de un supuesto que se consideró no del todo correcto, al
postular que la inteligencia era posible producirla en computadoras seriales de
tipo convencional y el cerebro no funciona de esta manera sino en forma
masivamente paralela, donde cientos de miles o millones de neuronas desarrollan
sutiles procesamientos de la información en el cerebro y a mucho más altas
velocidades. Los perceptos coherentes se forman en el tiempo que exceden a los
tiempos elementales de reacción de las neuronas singulares por un factor de poco
más de diez. Especialmente en lo que concierne a los procesos perceptuales
básicos, como la visión, esta observación excluye las formas de procesamiento de
información interactivas que tendrían que barrer los datos que ingresan
serialmente, o pasarlos a través de muchas etapas de procesamiento
intermediarias(15).
Asimismo,
dentro del cerebro, el conocimiento no se almacena en ninguna forma que se
parezca a un programa de computadora convencional. sino que se almacena
estructuralmente, en forma de patrones distribuidos de pesos sinápticos
excitatorios o inhibitorios, cuyas magnitudes relativas determinan el flujo de
las respuestas neuronales que las que constituyen la percepción y el
pensamiento(16).
Algunos
investigadores en I.A. buscan
relacionarse con la neurociencia
experimental de manera similar a como se relacionan la física teórica y la
física experimental, de tal manera que
pueda unificar los desarrollos y las conjeturas teóricas con la
experimentación. Surge así otro modelo en inteligencia artificial que se ha dado en llamar como:
“computación con redes neurales”.
Pero la aterradora complejidad del cerebro opone grandes obstáculos a la materialización de los
objetivos de dicho modelo,pues el cerebro humano consiste en aproximadamente 100
mil millones de neuronas, que posiblemente sean diez veces más. Las neuronas se
comunican transmitiendo paquetes eléctricos (potenciales de acción) a una
población de neuronas vecinas. De
acuerdo
con los estudios neurofisiológicos, la amplitud precisa y la forma de esos
paquetes y el tiempo preciso para su llegada es un intervalo de dos milisegundos
aproximadamente. De ello se puede
modelizar cada paquete como un “bit” singular portador de información en la
corriente de salida de una neurona y decir que una neurona produce información a
una velocidad aproximada de cien bits por segundo(100 BPS). El estimado total
del cerebro sería de 10 billones de bits por segundo, tomado un factor de cien,
para el “ancho de banda” interno del cerebro(17).
Una
neurona transmite información a las neuronas vecinas en uniones neuronales llamadas “sinapsis”.
Una sola neurona puede tener tanto como diez mil entradas sinápticas, aunque en
algunos casos muchas entradas menos, para otros casos un aproximado de 100 mil
entradas convergen en una sola neurona. El número total de sinapsis en el cerebro se puede estimar en 1000
billones(18).
El
punto de partida para los nuevos enfoques en I.A. deberá ser entonces,
modelar el cerebro como un
computador compuesto de unos 100000 millones de computadores individuales,cada
uno de los cuales es una computadora analógica o digital e “híbrida” de suma
complejidad, interconectando en formas intrincadas con muchos computadores
similares(19).
La
computación por redes neurales o conexionismo busca generar este modelo del
cerebro de manera artificial, es decir
por
medio de una modelación tecnológica del mismo, acudiendo a la física estadística y a la
ingeniería para poder lograrlo(no a la neurobiología, como podría suponerse). La
I.A., queda parcelada en un número elevado de procesadores simples, con un
crecimiento potencialmente enorme de la velocidad de computación.
El
“paralelismo” ha demostrado ser difícil de aplicar en I.A., aunque ya ha surgido
en la computación numérica como la única forma indefinidamente extensible de
superar el “cuello de botella” de von Neumann(los límites fundamentales
impuestos a la velocidad de los procesadores individuales por las leyes de la
física, por ejemplo, dado que las señales no pueden viajar de una parte a otra
de la computadora más rápido que la velocidad de la luz). Dado que estos
sistemas son imitaciones de sistemas estadísticos, las nuevas
estrategias también proporcionan
métodos de aproximación estadística a problemas de optimización que se
han revelado a todo intento de computación
exacta(20).
Este
tipo de modelo de procesamiento de información mediante estados de procesadores
simples y las conexiones entre ellos es llamado CONEXIONISTA O SUBSIMBOLICO, sostenido por figuras
como David.E. Rumelhart, James McClelland(1986)(21), Paul
Smolensky(1988)(22) y el grupo de
Investigación Procesamiento Distribuido en Paralelo(PDP).
El
grupo de investigación PDP es el que le ha dado forma al Conexionismo (Rumelhart
& McClelland,1986)caracterizándolo de la siguiente manera: un conjunto de
unidades de procesamiento(entendidas como neuronas artificiales) que están
interconectadas por “pesos de conexión”
o “cargas de conexión”
o “valores de conexión”(connection weights)(23).
Se
generaron así sistemas redes neurales artificiales. Si se tienen entradas a
alguno de estos sistemas se da una
activación de la red que es modulada por los pesos de conexión . Las
entradas
se dan en una unidad o neurona artificial(pasando a ser activada desde su estado
pasivo) por medio de una regla de activación. Los pesos de conexión son
manipulados sobre la base de “reglas de aprendizaje”, las cuales son
funciones matemáticas. La manipulación está puramente basada en los valores de
activación y pesos de conexión(no por sus significados). Las entradas en el
sistema son convertidas en salidas por medio de las reglas de activación, las
cuales consisten en la combinación y recombinación de la activación de
valores(24).
Los
sistemas conexionistas son semánticamente representables, lo que hace que se
mantenga dentro de la clase de los modelos de procesamiento de información. La diferencia de este modelo es que no
acude al procesamiento serial, sino al procesamiento distribuido en paralelo,
por medio de redes neurales artificiales, similares al procesamiento de las
redes neuronales naturales. En estos casos el procesamiento no es simbólico,
sino que dichas redes se interpretan subsimbólicamente es decir es un
procesamiento de la información de manera pluridireccional(es en este sentido
que busca asemejarse a las conexiones sinápticas neuronales)(25).
La
diferencia característica de los
sistemas conexionistas de los sistemas computacionales simbólicos, es que los
primeros no son programables en el sentido de los segundos, es decir mediante el
almacenamiento en la memoria del texto de un algoritmo cuyos pasos debe seguir
la computadora de manera secuencial. A una red neural “se le enseña” por medio
de pruebas con casos especialmente seleccionados. Es decir se le puede “enseñar”
una letra o una palabra para que posteriormente pueda reconocerlas. Es decir, más que ser programada una red
neural, esta “aprende”. Esto es lo que se ha dado en llamar como “aprendizaje
mecánico” que se realiza modificando esta misma los
valores
de conexiones o pesos de conexión(emulando las sinapsis en las redes neuronales)
entre sus distintas celdas. De esto se deriva su nombre de conexionismo(26)
Este
enfoque ha sido utilizado para explicar la conducta a un nivel de descripción funcional bajo la
presuposión que esto mismo ocurre al nivel psicológico(27). Sin embargo adolece
de una explicación funcional de la
inteligencia, pues no es claro como a partir de las partes(neuronas y redes
neurales) emergería la misma(28).
En
computación el modelo conexionista es una elegante solución al problema de
altas velocidades. Así si por otra parte podría entenderse los procesos
neurofisiológicos de percepción como “vectores” que codifican las distintas
entradas sensoriales, y también lo hace para varias salidas motoras(29).
Bajo
el modelo conexionista en computación se pueden llegar a lograr sistemas
masivamente paralelos que
representen y manipulen transformaciones vectoriales como las dadas en los
procesos neurofisiológicos del cerebro. El procesamiento computacional se puede
hacer más rápido que el procesamiento cerebral. Este último procesa en milésimas
de segundo, el computacional lo logra en millonésimas de segundo(30).
Asimismo
las redes neurales artificiales aparte de ser computacionalmente más poderosas,
son resistentes contra daños(o su equivalente de lesiones cerebrales), rápidas y
modificables.
Las
estrategias formales del conexionismo se han fundamentado en la física
estadística y comparten con el modelo simbólico la noción implícita de que los
objetos y sucesos, las categorías y la lógica están dados, y que la naturaleza
del trabajo cerebral es procesar información sobre el mundo con algoritmos que
conduzcan a conclusiones que lleven a la conducta.Un problema de base que ha
presentado por los modelos
conexionistas es su dificultad para realizar
operaciones computacionales
recursivas, que son representativas de la computación humana. Esto pues las
facultades cognoscitivas humanas para usar información contextual semántica y
pragmática que facilita la comprensión sobrepasa en gran medida a la de
cualquier computadora de las hasta ahora construidas(31).
Se
puede decir finalmente sobre el conexionismo que más que resolver el problema
natural de la inteligencia se ha convertido más bien en una herramienta poderosa
de la computación electrónica. Es revelador advertir que todos los proyectos
relevantes para diseñar y construir grandes maquinarias paralelas hacen uso de
estructuras altamente artificiales para la comunicación y el procesamiento. Esto
se aplica a la Máquina de Conexión de la Thinking Machines
Corporation(comunicación en hipercubo y en matriz rectangular), al Procesador
Masivamente Paralelo de la NASA, al Procesador Digital de Matrices del ICL
(matriz rectangular), al Hipercubo de Intel Corporation(comunicación en
hipercubo), al RP3 de IBM y a la Ultracomputadora de New York
Univerity(comunicación en red omega).
Al final de cuentas, el conexionismo se ha dirigido más a la eficiencia
computacional que a la explicación de las constricciones y alcances del mismo en
las redes neuronales naturales(32).
1.3.-
MODULARIDAD
A
este modelo se adscriben figuras como J.Fodor(1983)(33), H.Gardner(1985)(34), y
Z. Phylyshyn(1981)(35), y en cierta medida: R. Jackendoff(1987) con su dicotomía
de mente computacional y mente fenomenológica(36).
La
modularidad parte del supuesto que la cognición se inicia con un sistema de
entrada(Input) independiente (como las
responsables de la percepción de objetos) y que procesos cognitivos de mayor
generalidad serán dados en un sistema central. Los sistemas de entrada son el
dominio específico en el sentido de que cada tipo de información recibida de
procesamiento es diferente. Los
sistemas de entrada se asemejan a los niveles de procesamiento de información en
términos de influencias selectivas
por variables.
La
más importante propiedad es la encapsulación, que es proceso la información solo influye a partir de
un dominio de módulo de entrada. El caso -por ejemplo- para el habla, es
influenciado solo por entradas de habla, no por contextos situacionales y
lingüísticos. Los módulos de entrada son cognitivamente impenetrables, es decir
no son objeto de control volitivo.
Los sistemas de entrada se direccionan hacia sus salidas, así por ejemplo, el
módulo del lenguaje para la salida de acceso léxico se da solución significados
de palabras. Los sistemas de entrada operan independientemente uno de los otros y no se comunica.
Finalmente, un módulo de entrada es asociado con la estructura neuronal
específica(37).
En
contraste con los sistemas de entradas, los sistemas centrales están influidos
por muchas diferentes variables. Los sistemas centrales tienen acceso a las
salidas de todos los sistemas de entrada y a todo el conocimiento en la memoria.
En esta dicotomía, los sistemas de entrada se consideran como sistemas
computacionales, mientras que el sistema central corresponden a lo que el
organismo “cree”. Los sistemas de entrada pueden ser estudiados como sistemas
computacionales, mientras que los centrales no pueden ser considerados de tal
manera. Esto porque son muchos los factores que influyen en sus procesos
(38).
En
breve, el enfoque modular plantea
una tricotomía de niveles,
sistemas de salida, de entrada y centrales. Este enfoque comparte muchas
de las premisas originales del modelo de procesamiento de
información,particularmente el supuesto de sistemas separados de la percepción y
de la acción. Esta explicación funcional de diferenciar sistemas de entrada y
salida y entre sistema de entrada y central no sustenta un substratossólidos
desde el punto de vista de la psicología de la percepción y de la
neurofisiología, pues en el cerebro y el sistema nervioso en general no hay
muestras de tales divisiones entre sistemas, por lo que no pareces ser muy
seguro a la hora de explicar la
cognición.
Por
otra parte es importante señalar que la noción similar de encapsulamiento
ha sido muy fértil en la Programación orientada a objetos(POO) que ha
representado en el fondo una nueva “filosofía” de la programación computacional.
Dicha programación se centra alrededor de algunos conceptos de mayor generalidad
como los tipo de datos abstractos y clases, los tipos de jerarquías(subclases),
herencia(procesos de generalización y especialización) y polimorfismo. El
dominio hacia los que se orienta dicha programación son los “objetos”. Un objeto
es una variable declarada que pertenece a una clase específica. Así, un objeto
encapsula un estado, conteniendo una copia de todos los campos de datos
que están definidos en una clase. La encapsulación es un principio usado cuando se desarrollan una
estructura de un programa completa, tal que cada componente de un programa debe
ser encapsulado en un diseño de decisión particular(39).
Este
concepto de encapsulación similar al enfoque de la modularidad ha sido exitoso
en la POO. y resulta una alternativa significativa para los modelos de
procesamiento de la información, pero de nuevo, resultan insatisfactorios a la
hora de querer ser aplicados a la
cognición humana, tal y como se ha señalado anteriormente.
2.-MODELOS
DE NEUROBIOLOGIA COGNITIVA
Algunos
de los enfoques más importantes surgidos en el contexto de las Ciencias
Cognoscitivas y que por consecuencia intenta resolver el problema del funcionamiento del la
mente-cuerpo, han sido aquellos generados en el ámbito de la Neurociencia (
neuroanatomía, neurofisiología, psicofisiología, neuropsicología, neurobiología,
neurofarmacología ), y pueden ser
pueden ser etiquetados como NEUROBIOLOGIA COGNITIVA.
Un
intento neurofilosófico por tratar de generar un teoría unificada de la
mente-cerebro ha sido el dado Patricia Smith Churchland(1986)(40). Este enfoque
propone un trabajo cooperativo entre los investigadores de la mente y los
investigadores del sistema nervioso. Enfoques como el funcionalismo clásico
(Newell, Simon,Minsky) no dan cuenta de los complejos y variados niveles con que
trabaja un neurofisiólogo. Así un enfoque que solo de cuenta de las funciones
psicológicas sin acudir a la neurociencia, es parcial. Para P. Smith C. resulta
contraproducente para lograr una ciencia unificada de la mente-cerebro, postular
que la psicología es irreducible a
sus fundamentos neurofisiológicos y neuroanatómicos. Por el momento es
conveniente postular que ambas ciencias coevolucionan y que seguirán haciéndolo
por algún tiempo - señala
P.Smith C.-, pero como se ha dado
anteriormente en la historia de la ciencia, todo parece mostrar que van
en camino de la reducción. Ejemplos claros de ello han sido las investigaciones
en Bioquímica de la conducta, en Neurofarmacología, Neuroquímica y sobre las
bases moleculares(biología molecular) del sistema nervioso.
Consecuentemente
desde esta postura cualquier dualismo entre mente y cuerpo es claramente
demostrado como erróneo.Otro enfoque reduccionista de los procesos mentales es
el propuesto por el premio nobel(por el descubrimiento del la estructura de la
doble hélice del ADN junto con J.D. Watson): Francis Crick(1994)(41). Su
“hipótesis sorprendente” -como él la llama- consiste en que cualquier individuo,
sus alegrías y aflicciones, sus recuerdos y ambiciones, su sentido de identidad
personal, su libre albedrío, es de hecho el reflejo de la conducta de un vasto
ensamblaje de células y de sus moléculas asociadas. Así por ejemplo, para que
haya conciencia y memoria a corto plazo lo que se necesita es la actividad de
circuitos reververatorios, que se encargan de mantenerlas. Asimismo la
conciencia requiere la actividad de varias áreas corticales así como del tálamo.
Aún cuando su hipótesis ya no resulta tan sorprendente su aporte para la
“búsqueda científica del alma” ha resultado muy influyente.
Pero
el que pareciera más prometedor es el modelo propuesto por el también premio
nobel(fisiología):G.Edelman y sus colaboradores en la Rockefeler University(42),
quienes se enfrentan a los enfoques
de la inteligencia como
procesamiento de la información y proponen una explicación neurobiológica de la
inteligencia, planteando su teoría de la SELECCION DEL GRUPO NEURONAL(SGN), a
partir de los modelos de conformación del desarrollo del sistema nervioso. Un
enfoque similar y complementario al de Edelman ha sido del Jean Pierre Changeux,
neurobiólogo del laboratorio molecular del Institut Pasteur en París. Changeaux
parte de los estudios de Edelman, añadiendo a la epigénesis neuronal, la
impresión de la cultura en el desarrollo del cerebro después del nacimiento de
los individuos, es decir añade aspectos antropogenéticos(43).
Pero
bien, la propuesta de Edelman y sus colaboradores se remonta al período de
formación cerebro del embrión, cuando la selección entre células neuronales en
competencia y sus procesos determinan la forma anatómica y los patrones de
conectividad sináptica del sistema nervioso(44). Esta selección para la
conectividad se elabora mediante mecanismos evolutivos de adhesión y movimiento
de células, crecimiento diferencial, división celular y muerte de células. Dada
sus propiedades dinámicas, estos mecanismos selectivos introducen variación
individual en las redes neuronales Más tarde, durante la experiencia posnatal,
la selección entre diversos grupos de células preexistentes, complementada por
la modificación diferencial de fuerzas o eficacias sinápticas sin cambios en el
patrón de conectividad, da forma al repertorio conductual del organismo de
acuerdo con lo que posee par él valor adaptativo en su econicho(45).
La
SGN es una teoría que comienza a ponerse a prueba, y que de acuerdo con
distintas experiencias ha comenzado a ser exitosa. Así, se han construido una
serie de autómatas para la simulación computada para poner a prueba la
consistencia de la SGN, así como para demostrar la habilidad de los sistemas de
reconocimiento selectivos para realizar interesantes tareas de reconocimiento y
categorización. Esos modelos pueden ser invaluables para ayudar a que los
neurobiólogos se concentren en aspectos experimentales, que eventualmente ayuden
a desarrollar computadoras capaces de desarrollar tareas de clasificación
sensible, pues en la actualidad no se tienen(46).
Para
Edelman, en vista de la complejidad de los sistemas biológicos, es necesario
comenzar a analizar esos sistemas en términos de las estructuras y funciones
básicas necesarias y sus modos de origen, su desarrollo tanto como su evolución.
La
separación
entre hardware y software implícita en la estrategia de la IA tradicional tiene
que abandonarse, aun cuando haya servido de principio orientado en el desarrollo de las computadoras
tipo von Neuman, que pueden ser máquinas lógicas -y en alguna medida máquinas
culturales- pero no máquinas biológicas. Edelman considera que la IA solo se
alcanzará en sistemas no-von Neuman en los que las variantes especializadas de
hardware, basadas en el tema común de la selección y el pensamiento de la
población, trabajarán sin programas para adaptarse a todos los ambientes
particulares en los que se encuentren, tal como lo hacen los organismos
biológicos. Los programas y
la inteligencia basada en la comunicación podrán venir después(47).
CONCLUSIONES
Al
comprobarse que con tan sólo los aportes de las ingenierías eléctrica,
electrónica, mecánica y computacional, no se tenían los instrumentos adecuados
para simular o generar razonamiento
en los modelos originales de la Inteligencia Artificial, fue necesario acudir a otras
áreas como la Psicología y la Lingüística que pudieran dar criterios más
precisos sobre la naturaleza del razonamiento en particular y de la Inteligencia
y la Conciencia en general. Así como se acude a la Psicología y a la Lingüística
en los años sesenta, hacia los setenta y ochenta se acude a otras disciplinas en
busca de fuentes para un mejor conocimiento de la los procesos de cognición
humana, a disciplinas como la fisiología del cerebro y la
neuroanatomía(neurociencia), a la antropología y la filosofía, generándose así
un nuevo campo llamado CIENCIAS COGNOCITIVAS, que comprende un total de seis
áreas: Computación, Lingüística, Psicología Cognoscitiva, Neurociencia,
Antropología y Filosofía.
La
Inteligencia Artificial ha hecho contacto con la Filosofía en muchos puntos,
tales como la lógica, la epistemología, la filosofía del lenguaje, la filosofía
de la ciencia y la filosofía de la mente. Esta última tiene por central el
problema mente-cuerpo, que ha tenido una larga historia en Filosofía.
La
filosofía contemporánea de la mente debe superar los idealismos y dualismos de
su pasado histórico y más que partir de presupuestos metafísicos poco fiables o
sin ninguna fudamentación, debe buscar un marco explicativo unificador en el
contexto de las Ciencias Cognoscitivas, para los fenómenos neurofisiológicas y psicológicos y
así aportar visiones de conjunto sobre los modelos de la cognición humana.
Los
dos grandes grupos de modelos de la mente-cerebro aquí presentados, como lo han
sido los del procesamiento de la información y como los de la neurobiología
cognitiva, resultan fundamentales para los estudios de filosofía de la mente y
no se podrá hacer ninguna aporte relevante a este campo si no son tomados en
cuenta.
Ha
faltado mencionar algunos modelos de la psico-cognoscitivos , como los de
J.A.Anderson(48) y R. Stemberg(49), así como los modelos de ontología subjetiva
J. de Searle(1980,1992)(50), los modelos hermenéutico-existenciales de T.
Winograd y F. Flores(1987)(51), y de F. Varela, E. Thomson y E. Rosch(1993)(52),
estos últimos autores buscan introducir dentro de las Ciencias Cognoscitivas la
“experiencia humana” a partir de la tradición del budismo zen.
Así
enfoques sumamente controversiales
han sido el de H. Putnam(1989)(53),
que se retracta de su postura de los años sesenta, cuando postuló el enfoque
computacional de la mente. Asimismo el físico R.Penrose(1989,1994)(54)ha atacado
fieramente los intentos de la Inteligencia Artificial, postulando el carácter
cuántico del pensamiento y la necesidad de una nueva física para lograr los
fines de la I.A. Este enfoque ha despertado fieras discusiones .
Finalmente
uno de los enfoques más influyentes en Ciencias Cognoscitivas y que se presenta
como la propuesta más original a la filosofía de la mente contemporánea ha sido
la esbozada por el filósofo D.
Dennett(1991,1994)(54). Dennett presenta una teoría integradora para la
explicación de la conciencia, tanto desde el punto de vista de su estructura
neuronal, como desde el punto de vista psicoevolutivo(55). Para Dennet las
mentes conscientes humanas son máquinas virtuales más o menos seriales
implantadas en un hardware eminentemente paralelo suministrado por la
evolución(56).
NOTAS
1.Shannon,C.E. 1938
.”A Symbolic Analysis of Relay an Switching Circuits”, tesis del M.I.T.;
publicada en Transactions of American Institute of Electrical Engineers.
57, 1-11.
2.McCulloch,W y
Pitts,W.1943.”A Logical Calculus of the Ideas Immanent in Nervous
Activity”,Bulletin of Mathematical Biophysics,5,115-33.
3.Wiener,N.1948.Cybernetics,
or Control and Communication in the Animal and the Machine, Cambridge,Mass.,
MIT Press.Traducción al español por Francisco Martín:”Cibernética o el
control y comunicación en animales y máquinas. Barcelona: Tusquets
editores,1985.
4.Turing,A.M.1950.”Computing
Machinery and Intelligence”,Mind, Vol.LIX, No. 236,reimpresión en:
Hofstadter,D. & D.C.Dennet.1981. The Mind’s I.Fantasies and Reflections
on Self and Soul. New
York,Batam Books,pp.53-67. Traducción
al español por Francisco Martín en:Anderson,A.R(comp) Controversias Sobre
Mentes y Máquinas. Barcelona:Tusquets editores,1984.
5.Gardner,H.(1988).La
Nueva Ciencia de la Mente. Historia de la Revolución Cognitiva.
Barcelona:Ediciones Paidos. 1ra. edición en español:1988.Traductor L.
Wolfson.
6.Rodríguez
R.,R.J.(1994). “Epistemología e Inteligencia Artificial.¿Es posible una
epistemología androide?. En: Repertorio
Científico.Vol.2.No.1.Enero-Abril. Accesable vía internet en el Gopher:
ARENAL.UNED.AC.CR: Revistas: Repertorio Científico:Vol.2-1.
7.Shannon.C.,Idem.
8.Turing,A.M.1936.”On
Computable Numbers with Applications to the Entscheidungs-Problem”, en:
Proceedings of London Mathematical Society, Serie 2,42,230-65.
9.Cfr.Hofstadter,D.R.1979.
Goedel, Escher,Bach:An Eternal Golden Braid. New York:Basic
Books. Existe
traducción al español: Goedel, Escher Bach. Un eterno y gracil bucle.
Barcelona:Tusquets
Editores,1987. Putnam,H.1960.
“Minds and Machines” en S.Hook(comp).Dimensions of Mind,New York,New York
University Press. Traducción
al español por F.Martín en: Anderson,A.R(comp) Controversias Sobre Mentes y
Máquinas. Barcelona:Tusquets
editores,1984.
10.Cfr.Newell,A.,J.C.
Shaw, & H.A, Simon,1963.”Empirical Explorations with the Logic Theory
Machine a Case Study in Heuristics”. Newell,A.& H.A.Simon.1963. “GPS, A
Program that simulates Human Thought” Ambos en: Feigenbaum,E.A. & J.Feldman.
Computers and Thought.
U.S.A.: McGraw-Hill,Inc.1963.
Simon,H.A.1979.
“Information Processing Models of Cognition”. En:
Annual Review of
Psychology. 30:363-96.
Posner,M.I.&
McLeod.1982.”Information Processing Models-In Search Of Elementary Operations”.
En: Annual Review of Psychology. 33: 477-514.
11. Cfr.
Newell,A.1980.”Physical
symbol systems.” en: Cognitive Science. 4:135-83.
Gutiérrez,C.1993ª.Epistemología
e Informática.Guía de Estudio. EUNED:San José,
pp.155-164.
12.Gutiérrez,C.1993a,Idem.
13.Massaro,
D.W.1993.”Information Processing Models:Microscopes of the Mind”.en:Annual
Review of Psychology. 44:383-425.
14.Cfr.
Searle,J.R..1980.”Mind,
Brains and Programs”,The Behavioral and Brain
Sciences,3,417-57.Reimpresión en:Hofstadter,D. & D.C.Dennet.1981. The
Mind’s I.Fantasies and Reflections on Self and Soul. New York,Batam Books,pp.353-373.
Putnam,H.1989. Representation and Reality. Cambridge,Mass.The MIT
Press.
15.Schwartz,J.T.1988.”El
nuevo conexionismo: desarrollando relaciones entre la neurociencia y la
inteligencia artificial”, en:Graubard,S.R..El Nuevo debate sobre la
Inteligencia Artificial. Gedisa
Editorial:Barcelona,1988.
16.Idem.
17.Idem.
18.Idem.
19.Thompson,R.F.1975.
Introducción
a la Psicología Fisilógica.
México:Harla.1977.Tr.R.Naranjo V.
20.Reeke,G.
y G. Edelman(1988).”Cerebros reales e inteligencia artificial” en Graubard,
S.R.(1988)El Nuevo debate sobre la Inteligencia Artificial. Gedisa
Editorial:Barcelona,1988,pp.167-21.Rumelhart D.E.,J.McClelland y PDP Research
Group(ed).1986. Parallel Distributed
Processing: Explorations in the Microstructure of Cognition,V.1,2.Cambridge,Mass.:MIT
Press.
22.Smolensky,P.1988.”On
the proper treatment of connectionism”.Behavioral Brain Sciences.
11:1-73.
23.Massaro,D.W.1993.p.415
24.Idem
25.Idem.
26.Gutierrez,C.,1993a,
pp.191-192.
27.Massaro,D.W.,1993,p.416.
28.Gutiérrez,C.1993a.Idem.
29.Churchland,P.M.1984.
Matter and consciousness. A Contemporary
Introduction to the Philosophy of
Mind. The MIT Press:
Cambridge: Third Printing:1990, p.151.
30.Cfr
Churchland,P.M.1984,pp.156-185.
Churchland,P.M.1989.A Nuerocomputational Perspective. The Nature of Mind and
the Structure of Science. The MIT Press: Cambridge, Massachusetts, Third
Printing, 1993,pp.197-230.
Schwartz,J.T.1988,p.149
31.Gutiérrez,C.,1993a,pp.193-194.
32.Schwartz,J.T.,1988,p.161.
33.Fodor,J.A.1983.
Modularity of Mind. Cambridge, Mass.,Bradford.
34.Gardner,H.1985.Idem.
35.Fodor,J.A. y
Z.W.Pylyshyn.1981.”How direct is the visual perception?:some reflections on
Gibson´s ecological approach. en Cognition. 9:139-96.
36.Jackendoff,R.1987.
Consciousness and the Computational Mind. Cambridge,Mass.:The MIT Press,A
Bradford Book.
37.Massaro,D.W.,1993,p.418.
38.Idem.
39.Cfr.Wiener,R.S.&
L.S.Pinson.1988.An Introduction to Object-Oriented Programing and C
++. USA-Canada: Addison-Wesley Publishing Company. Cood,P. y
E.Yourdon.1991.Object-Oriented Design. U.S.A.Yordon Press. Pres.Pretince
Building.
40.Churchland,P.S.(1986).
Neurophilosophy. Toward a Unified Science of the Mind/Brain. The MIT
Press: Cambridge: Seventh Printing, 1990.
41.Crick,F.1994.The
Astonishing Hypothesis: The Scientific Search for the Soul. New York:
Charles Sribners´s son.
42.Edelman.G..M.1987.Neural
Darwinism:The Theory of Neuronal Group Selection. New York:Basic Books.
43.Changeaux,J.P.1985.Neuronal
Man. The Biology of
Mind. New York:Pantheon
Books.
44.Reeke,G.
Y G.Edelman,1988,p.183.
45.Ibid.,pp.184-185
46.Idem.
47.Ibid.p.197.
48.Anderson,A.R.1983.The
Architecture of Cognition. Cambridge, Mass. Harvard University Press.
49.Stemberg,R.J.1983.
”Components of Human intelligence”, en Cognition,15:1-48.
50.Searle,J.R.(1992).
The Rediscovery of
Mind. The MIT Press,
Cambridge, Third Printing.
51.Winograd,T. &
F. Flores(1986). Understanding Computers and Cognition. A New
Foundations for Design. Ablex Publishing Corporation. Norwood, New
Yersey, Third Printing
1987.
52.Varela,F. J.,
E.Thomson, & E. Rosch(1991). The Embodied Mind. Cognitive Science and
Human Experience. The MIT Press, Cambridge, 1993.
53.Putnam,1989,Idem.
54.Cfr.Penrose,R.1989.The
Emperor´s New Mind. New York:Peguin Books: 1991.
Penrose,R.1994.Shadows
of the Mind:A Search for the Missing Science of Consciousness” New
York:Oxford University Press.
55.Cfr.Dennett,D.C.1991.
Consciousness
Explained. Little, Brown and
Company, Boston. Gutiérrez,C.1993b.
“La explicación de la mente:A propósito de un libro de Daniel Dennet”. en
Revista de Filosofía de la U.C.R. V. XXXI,No.74,Julio 1993.
Beardsley,T.1996.”Dennett´s
Dangerous Idea”. en: Scientific American,February.
56.Gutiérrez,C.1993a.,p.321.