El paradigma de la complejidad, pt. 2/3

Hoy analizamos dos modelos que explican cómo los elementos de un sistema pueden representar la información en su entorno y cambiar su estructura.

Guión

 Gente con una formación en las humanidades tiende a conocer los estudios de la complejidad por la obra de Edgar Morin, un filósofo y sociólogo francés. En los comentarios al primer vídeo, algunos preguntaron por él y pensaba que debería señalar que no conozco muy bien su pensamiento. He leído muy poco al respecto, la verdad. Yo aprendí el tema por el lado más científico, especialmente de Stuart Kauffman, John Holland y Murray Gell-Mann, todos asociados con el Instituto Santa Fe en Nuevo México, dedicado al estudio de sistemas adaptativos complejos. No dudo del valor de la obra de Morin; sólo que no va a ser el enfoque de mi presentación aquí.
Bien, en el último vídeo, dije que los sistemas complejos tienden a ser sistemas orgánicos como: el cerebro, el lenguaje, relaciones sociales, colonias de insectos, ecosistemas. Pero también, sistemas en los que agentes biológicos están involucrados, como ciudades, mercados, gobiernos, el flujo de tráfico y partidos políticos. Y en los últimos años, el internet y el ciberespacio. Durante mucho tiempo, hemos tratado de explicar la conducta de semejantes fenómenos en términos de reglas o mandatos que se obedecen, sea la mano de Dios, el código genético, leyes, las intenciones de un sujeto racional, políticas públicas, etc. En filosofía política, por ejemplo, la noción del contrato social, un acuerdo entre agentes racionales, es lo que explica el carácter del Estado que se tenga. El paradigma de la complejidad plantea otra forma de entender la conducta de estos sistemas. Contando con las características que enumeramos en el primer vídeo, afirma que puede dar cuenta del tipo de conducta que asociamos con agentes racionales que siguen reglas, pero sin este último.
Sea una colonia de hormigas o una economía, un sistema complejo se encuentra en un entorno con el que está relacionado. Para poder sobrevivir, tiene que adaptarse a cambios en el entorno. Un sistema que no se adapta, muere. El cerebro es un ejemplo perfecto, y muy bien estudiado. La estructura del cerebro, es decir, las conexiones entre las neuronas, está cambiando constantemente de acuerdo con la experiencia y el aprendizaje. ¿Qué es lo que determina que una conexión se haga y otra se rompa? Tus intenciones conscientes? No. ¿Viste la película “Hombres de negro”? Hay una escena donde toman un extraterrestre que han matado y le abren el cerebro y ahí adentro encuentran a un pequeño extraterrestre dirigiendo las cosas, lo que en el siglo XVI y XVII llamaban un homúnculo. La pregunta, obviamente, es ¿quién o qué está dirigiendo las actividades del homúnculo? Las ciencias de la complejidad evitan por completo el inevitable regreso al infinito que esto implica al afirmar que los mismos elementos del sistema bastan para cambiar su propia estructura.
Entonces, la capacidad de auto-organización (sin un diseñador u operador externo) es una capacidad que cualquier sistema compleja necesita para sobrevivir. Otra, relacionada con ésta, es la de almacenar información sobre el entorno. El cerebro está conectado a diferentes sentidos (la vista, el oído, etc.) que captan información sobre el entorno, pero ¿cómo se representa esta información de forma significativa para uso en el futuro? El cerebro no es como el escritorio de tu compu. No tiene carpetas en las que se encuentran tus fotos y otras en las que están archivos de audio. Al nivel de las neuronas, no vas a encontrar imágenes o ondas auditivas. Pasemos primero a ver dos formas de explicar el proceso de la representación.
La primera es un modelo que se ha investigado mucho en las últimas tres o cuatro décadas en el campo de la inteligencia artificial. Se llama “sistema de símbolos basado en reglas”. Tu computadora es un ejemplo de semejante sistema. Cuando juegas ajedrez con tu compu, tiene que representar lo que sucede en su entorno, o sea tus jugadas, y tiene que responder. ¿Cómo lo hace? Recuerda que los sistemas se componen de elementos. En la computadora, los elementos son “unos” y “ceros”. Estos son los símbolos. Estos símbolos pueden combinarse para formar diversos patrones. Se combinan en función de reglas, en este caso las reglas del ajedrez que están programadas en tu computadora. Ahora bien, lo que tú vez en la pantalla no son unos y ceros, sino representaciones gráficas de los mismos hechas para que se parezcan a las piezas físicas del ajedrez. El punto es que la configuración de los símbolos en cualquier momento constituye un “estado” del sistema. Tu jugada cambia el estado del sistema, lo cual activa las reglas aplicables que luego transforman el sistema del estado actual a un nuevo, uno que incorpora la jugada de la compu.
Las reglas definen todo estado posible del sistema. Expresando esta idea en términos del lenguaje, si cada símbolo representa a una palabra en un idioma, entonces las reglas del sistema, lo que en el caso del lenguaje se llama la gramática, determinará las diversas combinaciones de palabras que pueden hacerse.
Lo importante en todo esto es que hay un conjunto de reglas que rige cómo los símbolos o elementos del sistema pueden relacionarse entre sí. Estas reglas son la programación que se instala en un robot o una computadora. La programación es centralizada. Si el CPU falla, todo el sistema falla, como seguramente has experimentado con tu computadora.
Sistemas entendidos en este sentido pueden sin duda adaptarse a cambios en su entorno, pero la pregunta es si el lenguaje y el cerebro humano funcionan así. Los robots y las computadoras hacen cosas maravillosas, pero su conducta es rígida y predeterminada. ¿Qué pasa si algo novedoso sucede en el entorno que el programador no haya contemplado? ¿Pueden semejantes sistemas aprender? Hasta el momento, parece que no. Entonces, ¿cómo dar cuenta de la conducta del cerebro humano que sí puede aprender? Pues, hay otro modelo que se llama el conexionismo.
Por el nombre, vemos que este modelo se centra en las conexiones entre los elementos del sistema. En el modelo anterior, las conexiones se rigen por reglas que vienen de fábrica, por así decirlo. En este modelo, no.
Tomemos como ejemplo los elementos del cerebro, las neuronas. Desde un punto de vista funcional, ¿qué hacen? Pues, cada neurona puede verse como un simple procesador que calcula la suma de toda la información, o input, que le llega de otras neuronas con las que está conectada. Si esta suma alcanza cierto umbral de intensidad, la neurona genera un output, lo cual pasa a la siguiente neurona como un input. Si no llega a ese umbral, no hace nada. La conexión entre dos neuronas es una sinapsis. Al conducir la señal de una neurona a otra, la sinapsis puede hacer que la señal excite o inhiba la neurona receptor.
Entonces, información de uno de los órganos sensoriales, como los ojos, llega al cerebro donde pasa por la red de neuronas, cada una sumando los inputs y generando outputs, lo cual es conducido a cierta parte del cuerpo, como un músculo, para mover el organismo. ¿Por qué no existen conductos directos entre los sentidos y los músculos? ¿Por qué pasa todo por el cerebro? Bueno, no todo pasa por el cerebro. Hay reflejos, como el reflejo rotuliano, que funcionan de forma directa e inmediata. Pero es una conducta muy sencilla. Si toda la conducta del ser humano fuera así, el hombre sería como un robot, muy rígido. La gran variedad y sutileza que demuestran actividades como tocar el violín o tener una conversación, requiere de recursos más complejos. Por ello, la mayor parte de la información que captan los sentidos pasa por la compleja red de neuronas.
Pero ¿qué es lo que posibilita que tenga outputs tan variados y sutiles? La respuesta reside en la sinapsis. La conexión entre dos neuronas cualesquiera tiene cierto peso, lo cual puede ser positivo o negativo. Este peso determina la fuerza de la influencia de una neurona en otra. El valor del output que una neurona genera es determinado por dos cosas: los valores de los input que llegan de otras neuronas, y los valores de los pesos actuales en la red de neuronas.
Tomemos un ejemplo sencillo. En vez del cerebro y sus neuronas, tenemos una simple red de nodos electrónicos que por un lado está conectado con un sensor de luz, y por el otro con una lámpara. La función de este sistema es, obviamente, prender la lámpara cuando el ambiente está oscuro y apagarla cuando hay luz. Lo puede hacer si la red cuenta con el conjunto indicado de pesos. Pero, ¿de dónde vienen los diferentes valores de los pesos. Sin duda, un agente externo los podría establecer, como el programador de un sistema formal, pero recuerda que nos interesa un modelo en el que el sistema no requiere de semejante agente. Queremos dar cuenta de los sistemas que pueden auto-organizarse.
En 1949, un hombre que se llama Donald Hebb, propuso una solución. Dijo que el peso de una conexión entre dos neuronas va en función de la frecuencia de su uso. Si se usa mucho, se fortaleza y tiene mayor peso. Si es una conexión inactiva, se pierde fuerza y empieza a decaer. En inglés, los físico-culturistas dicen “Use it or lose it”, o sea, en referencia a los músculos, si no lo usas, lo pierdes. Entonces, de esta manera, una red puede desarrollar estructura basado únicamente en la actividad de las neuronas respondiendo a información local. ¿Has intentado aprender un idioma extranjero? Cuanto más lo usas y practicas, más se fortalecen las sinapsis que trasmiten esa información.
Bien, apliquemos esta idea a lo de la lámpara. Inicialmente, la red de nodos electrónicos tienen conexiones aleatorias entre sí. Es decir, el peso que cada conexión tiene es aleatorio, por lo que no puede llevar a cabo la función de prender o apagar la lámpara. Para entrenar la red, cada vez que se oscurece la lámpara tiene que prenderse (ahora sí, por un agente externo). Al estar prendida la lámpara, las neuronas de output de la red serán forzosamente activadas, condición que se asociará automáticamente con el input correspondiente. O sea, el input es ausencia de luz o oscuridad y el output es la lámpara prendida. Al amanecer, con luz natural en el ambiente, el agente externo apagará la lámpara, por lo que la red tendrá que asociar una nueva condición de output (lámpara apagada) con una nueva condición de input (la luz del sol). Al repetirse este ciclo varias veces, la red ajustará sus pesos internos sin la intervención de un agente externo. Y así la red está entrenada y puede llevar a cabo la función por cuenta propia. Utilizando el mismo proceso, la red puede “aprender” a hacer otras cosas.
¿Alguna vez has recibido correo basura en tu bandeja? Claro, a todos nos toca. Pues muchas apps de email tienen filtros para identificar los correos no deseados y mandarlos directamente a la basura. La app de Apple dice lo siguiente: “Mail analiza los mensajes entrantes para identificar correo no deseado y, luego, resalta los mensajes con color y una tira a través de la parte superior del mensaje. Cada vez que confirme un mensaje como deseado o no deseado, Mail podrá identificar el correo no deseado con más precisión”. Lo que describe aquí es precisamente el proceso que describe el modelo del conexionismo. El sistema ajusta los pesos de su red de acuerdo con el output indicado por el usuario, o sea, si lo coloca en la basura o no.
Sea en este ejemplo o el de la lámpara, la red de nodos no está siguiendo las instrucciones de un CPU para transformar su configuración, sino que cada nodo está ajustando su peso de acuerdo con información local. El agente externo que mencionamos no es equivalente a una programación central como vimos en el modelo anterior. El proceso de “aprendizaje” por el que pasa el mecanismo de la lámpara y la app de email es el mismo por el que pasan alumnos en una escuela. El agente externo es el maestro. El maestro da información en clase, el input, y el alumno escribe trabajos o toma exámenes, el output, y mediante el uso de calificaciones el maestro entrena al alumno a asociar de forma exitosa cierto input con cierto output. Lo mismo pasa en la naturaleza. La Madre Naturaleza es la gran maestra de todos nosotros, tanto a nivel individual como a nivel de la especie – pensando en la selección natural de Darwin.
Para finalizar, sea en las neuronas del cerebro o los nodos electrónicos del mecanismo de la lámpara, a nivel de la neurona o nodo individual, no se puede discernir ningún comportamiento complejo. Es sólo al nivel del sistema de neuronas donde se encuentra la posibilidad de conducta compleja y adaptativa. La conducta compleja emerge no como consecuencia de la aplicación de reglas, sino como consecuencia de la interacción de muchos elementos sencillos procesando información local.
En el próximo y último vídeo en esta serie, quiero tomar lo que hemos visto sobre el conexionismo y aplicarlo a las nueve características sobre sistemas complejos que vimos en el primer vídeo. Lo que en especial me interesa es el hecho de que estos sistemas operan bajo condiciones lejos del equilibrio. Pero ¿qué tan lejos? Si hay demasiado equilibrio, el organismo pierde la capacidad de adaptarse, pero si se pierde todo equilibrio, el organismo se encuentra en una condición caótica que lo descompone. La inteligencia humana parece encontrarse en un continuo entre dos extremos: la rigidez de la conducta robótica por un lado y un caos esquizofrénico por el otro. ¿Cuáles son los mecanismo a través de los cuales un sistema complejo, como el cerebro humano, se mantiene en una condición de vitalidad y crecimiento? Eso será el tema del próximo vídeo.

Descargar guión en PDF

Audio

Descargar audio aquí

18 Comments

  1. Aelexander Vernon Scott · 24/09/2017 Responder

    Un tema tan interesante – y complicado – como éste, resuelto con claridad y precisión .

    Darín demuestra, nuevamente, su capacidad didáctica al generar auténtico interés en cada espectador.

    En verdad, un Ciclo de Conferencias de excelente calidad.

    Saludos cordiales.

  2. Roberto · 25/09/2017 Responder

    Muy linda y clara explicación Darin solo aprendemos en libertad libres de los extremos. Siempre es un placer leerte un abrazo Roberto

  3. Julian perez duarte · 25/09/2017 Responder

    Muy oportuno esta clase para entender cómo está organizando la sociedad civil para la atención de las víctimas del terremoto. Espero con encías el próximo vídeo

    • Darin · 25/09/2017 Responder

      Sí, la auto-organización de los ciudadanos podría entenderse así, buen ejemplo.

  4. Angel Barón Da Conte · 25/09/2017 Responder

    Super interesante!

  5. TEL · 25/09/2017 Responder

    Podría tratar el “pensamiento sistémico” como tema u orientar sobre autores. Gracias!

  6. Franco Carlos Alberto · 25/09/2017 Responder

    Buenos provechos, estoy utilizando tus excelentes audios y guiones para esclarecer la materia que impartes y que es fundamental para la mejor interpretacion en otras areas del conocimiento, desde ya muchas gracias, y adelante

  7. Sergio González · 02/10/2017 Responder

    En tu opinion, crees posible que el caos y la autoorganización, como una propiedad inmanente del universo, permita la aparición de todas las estructuras materiales reconocibles como fenómenos fortuitos, a partir de la información contenida en un campo cuántico unificado?
    Como siempre, lo tuyo excelente! Saludos. Sergio

  8. emilio · 14/10/2017 Responder

    Espero el ppt 3 de esta serie sobre sistemas complejos.
    Gracias por los dos anteriores!!

  9. Carlos Cujcuj · 14/10/2017 Responder

    Buenísima la didácticas para explicar temas complejos. Gracias por compartir tus conocimientos.

Dejar comentario