De la Informática Teórica a la Inteligencia Artificial
El "Entscheidungsproblem" propuesto por Hilbert en la lógica, derivó en una Informática Teórica previa a la construcción de las primeras computadoras, y que no fue en absoluto ajena al panorama interdisciplinar anteriormente descrito. La preocupación fundamental fue, desde 1910 hasta 1936 fue el determinar qué clase de problemas pueden resolverse mediante formulaciones constructivas por procedimientos algorítmicos, y cuáles eran los límites. Se buscaba una teoría de lo calculable mediante un procedimiento, un algoritmo, y por eso se formalizaban las reglas del cálculo aritmético. El verdadero padre de la informática teórica fue Kurt Godel: demostró la validez del cálculo lógico de primer orden, y este es el teorema que se conoce como el de "completitud" de la lógica. Pero el resultado más importante de Godel es el de "incompletitud" de la aritmética, 1931, por el que establece que la formalización de la aritmética en la lógica de primer orden hace que existan sentencias ciertas que no son demostrables. Estas sentencias se corresponden con paradojas del tipo "esta frase es falsa": si admitimos que es falsa, entonces se cumple lo opuesto de lo que dice la frase y por lo tanto es verdad; si admitimos que es cierta, la frase dice de sí misma que es falsa: es una paradoja. Si toda fórmula cierta fuera demostrable, ocurriría que se puede expresar una fórmula que dice de sí misma "yo no soy demostrable en la aritmética" con la que surge una paradoja como la anterior.
Ocurre entonces que cualquier demostrador automático de teoremas sobre los números naturales que construyamos se encontrará con la posibilidad de demostraciones de longitud infinita, sin tener ningún criterio para poder parar. Por lo tanto, se conocía ya el límite de lo contable antes de que se construyeran los primeros ordenadores. Posteriormente, se comprobó que cualquier formalización de la aritmética distinta de la lógica tenía el mismo límite: la paradoja. Se investigaron formalizaciones distintas de los procesos constructivos de resolución de problemas, para ver si tenían los mismos límites que la lógica, buscando la noción más general posible de "procedimiento efectivo de cómputo".
En 1935 se llegó a la misma conclusión desde una aproximación basada en funciones: Alonzo Church formalizó la aritmética en el cálculo (posteriormente el lenguaje LISP), y Kleene mediante funciones. Ambas aproximaciones mostraron los mismos límites que la lógica. Pero la noción más aceptada de procedimiento efectivo de cómputo fue la propuesta por el inglés Alan Turing en 1936. La máquina de Turing, un dispositivo dotado de una memoria en forma de cinta infinita sobre la cual una cabeza lectora puede leer o escribir, y desplazarse a izquierda o derecha de acuerdo con un estado interno y el símbolo leído en la cinta. También mostró la misma limitación que el resto de los modelos. Se establece así la Teoría de la Computabilidad, que es la base de la Informática Teórica. Inmediatamente después, en 1939, se abordó, en el contexto de la construcción de los primeros ordenadores.
La construcción de las primeras computadoras abrió un sin fín de posibilidades para la formalización a todas las ciencias, pero sobre todo a las ciencias humanas. La lingüística encontró en el ordenador un medio adecuado para estudiar las propiedades formales de la lengua, entendida como la estructura común seguida por las expresiones individuales del habla de una masa hablante, para estudiar los sonidos, la gramática y los significados de la lengua como sistemas abstractos con entidad propia, separados del mundo físico en el que sólo hay expresiones del habla producidas individualmente.
La psicología también tuvo en los ordenadores un medio distinto al del complicado cerebro humano en el que reproducir los fenómenos de la inteligencia humana, las capacidades del lenguaje y de realizar operaciones algebraicogico-matemáticas, y este es el “bebe” de la Inteligencia Artificial hacia 1940, gestado por Alan Turing. Los ordenadores derrumbaron el veto impuesto por el conductismo a la psicología "mentalista". El llamado "Test de Turing" acerca de la posibilidad de modelar las capacidades de razonamiento y lenguaje en un medio computacional, viene a decir que si en la interacción entre una máquina y una persona no se puede distinguir a una y a otra, entonces habrá que admitir la inteligencia de la máquina. Se abre así un intenso debate acerca la posibilidad de modelar la mente, la inteligencia, y de probar empíricamente la bondad del modelo. El área interdisciplinar de las Ciencias Cognitivas se va conformando de esta manera en estos años 40.
El enfoque sistémico en la Informática. La Teoría General de Sistemas
La Cibernética se conformó principalmente en torno a los modelos de redes neuronales y al modelo de control mediante el proceso de realimentación del comportamiento adaptativo de los organismos. Sin embargo, muchos de los problemas que hoy acechan a la Vida Artificial, como el problema de la autoreproduccion de los seres vivos, o la autoorganización, fueron ya planteados desde la Cibernética. La razón más importante fue la unión de esta corriente con la Teoría General de Sistemas, que se debe a Ludwig von Bertalanffy, biólogo de profesión, y que fue comenzada a formular ya a finales de los años 30 (BER75/86). Su pretensión era estudiar las características generales de los sistemas, dando especial importancia a aquellos aspectos de la realidad que no eran entonces accesibles a un tratamiento científico convencional
El tema que fundamentalmente le preocupaba era el de la organización de los sistemas vivos, ya que mientras la ciencia tradicional proclamaba el reduccionismo corno paradigma conceptual, en la explicación de la cosa viviente el hecho que ha de tomarse como fundamental es el de la globalidad, no siendo el total explicable como una simple suma de las partes. Podemos apreciar, a la vista del panorama interdisciplinar de principios de siglo, que esta noción de Sistema es un intento de formalizar conceptos difusos, como ser vivo, lengua o sociedad, para construir objetos de estudio científicos que justifiquen una determinada disciplina. La Sociología, la Biología la Psicología y la Lingüística se han realimentado constantemente a lo largo de su historia. Todas estas disciplinas han encontrado un lugar común en la Teoría General de Sistemas propuesta por Bertalanffy.
La noción de sistemas de Bertalanffy estaba íntimamente ligada a la idea de "relación", a lo estructural. Era necesario encontrar una formalicen matemática más orientada a lo cualitativo, a lo relacional, que a lo cuantitativo. Su objetivo era elaborar una teoría de sistemas abiertos, que intercambian materiales con el medio ambiente, como sucede con cualquier organismo vivo. Un sistema sería un conjunto de elementos interrelacionados entre ellos y con el medio, un modelo de índole general. Se trataría además de encontrar leyes generales reguladoras de los sistemas, capaces de dar cuenta de fenómenos que aun siendo materia de estudio en disciplinas diferentes son formalmente idénticos. La lectura del "Curso de Lingüística General" de Ferdinand de Saussure: “resultará seguramente sorprendente por su actualidad a cualquier persona introducida en la investigaci6n en Sistemas Complejos. Las dicotomías saussurianas: lengua-habla, sustancia-forma, diacronía-sincronía, relaciones sintagmáticas-paradigmáticas no hacen más que plasmar las maneras en que un sistema puede ser analizado desde el punto de vista estructural. Por otra parte, los planteamientos de la Gestalt, escuela psicología en la que se apoya oficialmente la Cibernética” (WIE48/) son absolutamente sistémicos.
Desde su formulación del principio del isomorfismo, que de alguna forma justifica la elaboración de modelos generales de los sistemas aplicables a fenómenos de distinta naturaleza, a la concepción de la conducta como proceso dinámico de interacción con el medio.
Bertalanffy distingue varios procedimientos típicos para la descripción sistémica. Uno de los enfoques más generales podría llamarse axiomático, "ya que su principal interés radica en la definición rigurosa del sistema y la deducción de sus implicaciones mediante métodos matemáticos y lógicos modernos" pp.147(BER75/86). Por otra parte, está la teoría dinámica de sistemas, que se ocupa de las transformaciones de los sistemas en el tiempo o en una escala asimilable al mismo. La primera distinción que se hace en los modos de formalizar un sistema es entre descripciones externas y descripciones internas. (BER75/86) (CAS79).
En la descripción externa de un sistema (CAS79), el comportamiento global se describe como una "caja negra", representándose las relaciones con el entorno y con otros sistemas mediante diagramas de flujo. El sistema se describe mediante funciones de transferencia que relacionan una serie de variables de entrada con otras de salida, como en el caso de los sistemas de ecuaciones lineales y los programas de ordenador. Según Casti las descripciones externas de los sistemas mantienen una gran analogía con la psicología conductista. Si asimilamos el organismo estudiado a un sistema, el esquema de descripción sería el de una caja negra en la que únicamente interesa estudiar la relación de las entradas con las salidas. Ha de notarse que este proceder sólo puede proporcionar un modelo descriptivo de la conducta, y no una explicación de por qué se produce. La metodología conductista requiere entonces de la estadística para elaborar sus resultados (por ejemplo, la regresión múltiple permite encontrar un sistema lineal que aproxima una relación entrada-salida), y más concretamente de los modelos de aprendizaje estadístico. Recordemos que la estadística era una de las tres grandes líneas de desarrollo de las matemáticas de principios de siglo.
Las descripciones internas de los sistemas, casi siempre referidas a sistemas dinámicos, se realizan clásicamente mediante ecuaciones diferenciales, pero esta no es la única forma de especificación. Un ejemplo de descripción dinámica interna de tipo algebraico (CAS79) lo constituyen los autómatas, entendidos como sistemas capaces de transformar un conjunto de entradas en un conjunto de salidas mediante la especificación de un conjunto finito de estados y de una función que permite la transición de un estado a otro al detectar una entrada. Recordemos que los autómatas son modelos de computación simbólica inspirados en la dinámica neuronal asimilables a sistemas dinámicos en los que el espacio de estados es finito. La lógica de predicados de primer orden y las gramáticas, modelos abstractos de la mente procesadora de símbolos, son otro tipo de formalismos para la descripción interna.
Queda aún otro tipo tradicional de descripciones (CAS79): a través de funciones de potencial o de entropía, cuando sólo interesa caracterizar cómo se mueve un sistema dinámico hacia un estado de equilibrio. Las funciones de potencial se utilizan cuando se quiere caracterizar el movimiento del sistema hacia un objetivo de acuerdo con las entradas que recibe, identificando el avance hacia la meta con la optimización (minimización) de la función de potencial. La descripción en términos de entropía (medida del grado de desorden de un sistema) sería un caso particular del anterior en el que la función a optimizar tiene que ver con una función de entropía. Este es el mecanismo básico de los modelos de control Cibernéticos, y es también el mecanismo que permite, según la Gestalt, percibir un objeto sobre un fondo, adaptándose el sensor para mantener constante (y máxima) la diferencia de potencial estimulativo.
Evolución de la Teoría de Sistemas en los años 70-80
Sin entrar a profundizar en ellas, enumero a continuación las líneas de investigación en Teoría de Sistemas recogidas en el informe elaborado por Roger. E. Cavallo sobre el estado del arte en ese campo en 1979 y patrocinado por la "Society for General Systems Research" (fundada por Bertalanffy en 1968) (CAV79).
- Caracterización algorítmica del aprendizaje y de los sistemas adaptativos.
- Caracterización autopoiésica de la organización de lo vivo.
- Heurística conversacional.
- Teoría de Sistemas Fuzzy.
- Teoría General de Redes.
- General System Problem Solver (GSPS)
- Teoría Generalizada de la Información.
- Ley de la Variedad de Requisitos.
- Teoría de Sistemas Vivos.
- La metodología del Q-análisis.
- Teoría Tricotiledón del Diseño de Sistemas.
El estudio de los sistemas vivos y la conducta adaptativa ocupa, como puede verse, una buena parte de la investigación en Teoría de Sistemas. El concepto que es común a varias de las propuestas que hace R. Cavallo y que es uno de los puntos centrales de la corriente denominada "Nueva Cibernética" (PAS88) es el de sistema organizacionalmente cerrado (que se corresponde al de autopoiesis en los sistemas vivos, o al de p-individuaci6n en la Teoría de la Conversación), y que se define como aquel que descrito en términos de operadores productivos que actúan sobre los elementos del sistema para producir otros elementos dentro del mismo sistema, sean estos elementos biológicos, mentales, conceptuales o sociales, creando así una separación del sistema y del medio.
En cuanto a la Teoría de la Conversación, se basa en la idea de que los individuos no pueden ser tratados como meros objetos en una investigaci6n, y que para estudiar un grupo es preferible asumir un proceso conversacional. Cada individuo físico (persona) se interpreta como un procesador o M-individuo, que constituye un conjunto de P-individuos, o individuos psicológicamente determinados, que se corresponden en gran medida con lo que los antropólogos llaman un "rol". La conversación que involucra a un grupo de M o P-individuos se interpreta como un proceso productivo y reiterado en el que los conceptos son compartidos y enriquecidos. Si los elementos fueran biológicos, se trataría entonces de un sistema vivo, acercándose aquí a la noción de autopoiesis. (PAS88) (CAV79)
En los años 80, la Inteligencia Artificial Clásica fue asimilando muchos de los planteamientos de tipo sistémico. El estudio de las redes neuronales o de mecanismos inspirados en ellas resurgió con fuerza en los primeros años 80, a partir de los trabajos en Ciencias Cognitivas del grupo interdisciplinar PDP (Parallel Distributed Processing) (RUM91). Una síntesis muy interesante entre Cibernética e I.A. es la realizada recientemente por Minsky (POL89), quien no abandonó del todo el paradigma conexionista, y ha trabajado en el desarrollo de una teoría de la mente estructurada como una sociedad de actores, que interactúan entre sí pasándose mensajes a través de k-líneas, o líneas de conocimiento, análogas a redes neuronales (SOW84) (MIN86).
A partir de aquí, la investigación en modelos de computación distribuida, redes neuronales y en general todo lo que se designa bajo el epígrafe de "conexionismo" (JOH88), ha cobrado un importante auge, convirtiéndose en el paradigma dominante de los años 90. El desarrollo de la Teoría de los Sistemas Dinámicos, que consigue desde los últimos 70 importantes avances en la comprensión de los comportamientos caóticos que muestran los sistemas de ecuaciones diferenciales no lineales, ha convergido con la computación distribuida en el área recientemente creada de los Sistemas Complejos. La Vida Artificial, disciplina oficialmente fundada en 1987 es heredera en parte de la Cibernética, e intenta reproducir la vida en una materialidad distinta de la biológica. Ciertas capacidades de los seres vivos, como la reproducción y la morfogenesis (el proceso de desarrollo de un organismo vivo a partir de una célula), así como la evolución filogenética de las poblaciones de organismos vivos, se simulan en ordenadores utilizando, entre otros, autómatas y gramáticas como modelos formales. La Vida Artificial también se interesa por simular el comportamiento autónomo de los organismos vivos mediante robots.
La Inteligencia Artificial Distribuida (ERC91), que se ocupa de la elaboración de sistemas multiagente según la propuesta de Minsky y que marca la pauta de los años 90, está totalmente influida por la investigaci6n en Sistemas Complejos. P. Pollack (POL89) escribía ya en 1989 acerca que el Conexionismo introduciría a la Inteligencia Artificial en la revolución del pensamiento que actualmente se da en la física y en las ciencias biológicas. La relación entre estos temas la establece a través del grafo indicado en la figura 1. Aunque en este gráfico sólo aparecen las gramáticas como punto de interés para la Informática Teórica, en los años transcurridos se ha demostrado que son muchos más los problemas abiertos.
Conclusiones:
Es cierto que esta no es una visión global de la Vida Artificial, pero este aspecto se ha sacrificado con el fin de procurar al alumnado de Informática una comprensión de sus raíces teóricas, y de hacer ver la necesidad de la investigaci6n básica en Informática Teórica, al igual que la importancia que tiene el abordar un enfoque interdisciplinar.
Un curso de Vida Artificial debe tocar todos los temas antes relacionados, y muy particularmente las técnicas de simulación de la evolución mediante mundos artificiales, en las que se encuentra sentido a herramientas como los algoritmos genéticos y las redes neuronales, y a los modelos de comportamiento cooperativo, que aunque de más baje nivel que los que investiga actualmente la Inteligencia Artificial, sugieren aplicaciones útiles. La programación genética es otra herramienta importante, ya que al ser el referente de los programas más cercano se identifica más fácilmente la diferencia entre genotipos o programas y fenotipos o ejecuciones, el sentido de la reproducción genética y el papel de la selección en la evolución.
BIBLIOGRAFIA E INDICE
(ARB64) Arbib, Michael A. Cerebros, máquinas y matemáticas. Ed. Alianza Universidad, Madrid 1964
(BER75/86) BERTALANFFY, von Ludwig PERSPECTIVAS EN LA TEORIA GENERAL DE SISTEMAS Alianza Universidad. Madrid 1986 (primero en 1975)
(BUR78) BURK, Ignacio DIAZ GARCIA, P J.. PSICOLOGIA. UN ENFOQUE ACTUAL Programas de Educación media (ciclo diversificado) y Educaci6n Superior. Caracas 1978
(CAS79)CASTI, J.CONNECTIVITY, COMPLEXITY AND CATASTROPHE INLARGE-SCALE SYSTEMS John Wiley 8r. Sons. 1979
(CAV79)CAVALLO, Roger E.SYSTEMS RESEARCH MOVEMENT: CHARACTERISTICS, ACCOPLISAMENTS, AND CURRENT DEVELOPMENTS. Society for General Sistems Research. NY. Julio 1979
(CHO86) Chomsky, Noam; El Lenguaje y el entendimiento. Ed. Seix Barral Barcelona 1986.
(CHO78) CHOMSKI, Noam PROBLEMAS ACTUALES EN TEORIA LINGÜISTICA. TEMAS TEORICOS DE GRAMATICA GENERATIVA Siglo Veintiuno Editores. Madrid 1978 (primero en 1964)
(CUE81) Cuevas, Gonzalo. TEORIA DE LA INFORMACION Y LA CODIFICACION. Ed. Dpto de Publicaciones de la Facultad de Informática de la Universidad Politécnica de Madrid.
(DIA84) Díaz, Josep. Génesis y evolución de la Informática Teórica. Informe Técnico RT 84/05. Facultad de Informática de la Universidad Politécnica de Catalunya. 1984
(ERC91) ERCEAU, J. FERBER, J.."La Inteligencia Artificial Distribuída" Mundo Científico. No. l6 vol. 1. pp.850-858
(GAR84) GARCIA-BORRON, Juan Carlos, TEORIA DEL CONOCIMIENTO Y METODOLOGIA DE LAS CIENCIAS. Vol 5 Ed. Vicens-Vives. Barcelona 1984.
(GEO79) GEORGE, F. H. FUNDAMENTOS DE CíBERNETICA Ediciones Piramide. Madrid 1979
(GUI88) Guiraud, Pierre. LA SEMANTICA Fondo de Cultura Económica. México 1988
(JOH88) JOHNSON-LAIRD, P. EL ORDENADOR Y LA MENTE. INTRODUCCION A LAS CIENCIAS COGNITIVAS. Ed. Paidós. Madrid 198S
(LYO80) LYONS, John SEMANTICA Ed. Teide. Barcelona 1980
(MIN86) MINSKI, Marvin LA SOCIEDAD DE LA MENTE. LA INTELIGENCIA HUMANA A LA LUZ DE LA INTELIGENCIA ARTIFICIAL. Ediciones Galapago. Argentina 1986
(PAS88) PASK, Gordon 'The old and New in Cybernetic Fashions" OOC PROGRAMME. Amsterdam. Febrero 1988
(POL89) POLLACK, J.B. -Connectionism: past, present, and future- Artificial Intelligence Review n' 3 (SAU89) Saussure, Ferdinand de; Curso de Lingüística General Ed. Akal Universitaria. Madrid 1989
(SOW84) SOWA, J.F. CONCEPTUAL STRUCTURES INFORMATION PROCESSING IN MIND AND MACHINE Addison-Wesley 1984
(WIE85) WIENER, Norbert CIBERNETICA O EL CONTROL Y COMUNICACION EN ANIMALES Y MAQUINAS Superínfimos 2-TUSQUETS EDITORES. Barcelona 1985 (primero en 1948) Bibliografía específica para un curso de Vida Artificial.
(RAM95) RAMOS, Isidro (director) VIDA ARTIFICIAL. Ediciones de la Universidad de Castilla la Mancha, 1995
(KOZ93) KOZA (instructor) CS.425 ARTIFICIAL LIFE. Custom Course Material Winter 1993. Proceedings de ARTIFICIAL LIFE I, II, III, IV.