Detrás del sitio web

ItalianEnglish

Voces y trayectorias en la complejidad[1]
Umberta Telfener, Luca Casadio

Introducción[2]

Ludwig Wittgenstein observó en su Investigación Filosófica (1953, no.18) que el lenguaje “puede ser visto como una ciudad antigua: un laberinto de callecitas y plazas, de casas viejas y nuevas, con agregados de varios periodos; todo esto rodeado por una multitud de nuevos municipios con calles rectas regulares y casas uniformes”. En nuestro punto de vista, esta analogía también capta la evolución de varias formas de conocimiento (colectivo, individual, familiar, cultural, estético, religioso, etc.) y particularmente del conocimiento científico, con sus “construcciones”, la interacción con otros estilos, y el paisaje.

La metáfora de la ciudad en consecuencia nos permite imaginar la coexistencia de nuevos y viejos edificios, “históricos” vecindarios habitado por paradigmas pacíficos establecidos desde hace tiempo y concurridos cruces donde los cimientos se están sentando para la construcción de nuevos edificios, nuevos puntos de vista, nuevas formas de entender la ciudad misma, nuevas ideas. Y las ideas nacen y maduran como las frutas de los árboles. La convergencia de diferentes formas de mirar el mundo lleva a la emergencia de ideas que son muy similares aún cuando provienen de diferentes esferas. Estas ideas similares se multiplican, una nueva metáfora da nacimiento a otras, nuevas ideas son “inventadas” o simplemente “colectadas” por aquellos capaces de reconocerlas y apreciarlas. Las mismas ideas en ocasiones se traducen en teorías de autores que ni siquiera se conocen entre sí, interesados en diferentes temas y viajado en diferentes rutas, pero de alguna manera visitando la misma ciudad y el mismo barrio. Debido a que la ciencia no es una variable independiente, y no describe trayectorias definidas, importantes y naturales. Es más bien un conjunto desorganizado de posibles vías, un sistema abierto, dependiente del contexto, la economía, la matriz artística y cultural, los estados de ánimo y los paisajes que llenan la mirada de los científicos, proporcionando limites y nuevas posibilidades.

La ciencia es un sistema abierto en estrecha relación con los acontecimientos en su contexto, influido por el mundo exterior y sensible a los cambios culturales en marcha y las ideas en circulación. Puede describirse como una compleja actividad social, tal como la evaluación del conocimiento.

Si es verdad, lo que argumenta Kuhn (1962), que la ciencia cambia y evoluciona en términos de paradigmas, es también verdad que las formas de conocer la naturaleza y a la humanidad están sujetas a reemplazos a gran escala. Una nueva ciudad de conocimiento no es fundada cada vez que hay una revolución. Hay en cambio, una modificación en su ubicación, en las relaciones entre el centro y los alrededores, los lugares que atraen a los visitantes y los ahora abandonados, los lugares de moda y los lugares apartados. En cada ciudad, al igual que en cada panorama cultural, hay en consecuencia, algo nuevo y algo viejo, elementos que coexisten, entrando en contacto y colisión para generar nuevas configuraciones e ideas.

Se vuelve difícil describir la evolución de ideas e imposible hacer justicia a la tradición, innovación y al papel crucial del cambio, tal como es difícil describir el cambio de perspectiva o el placer y la esperanza para proyectos que pueden parecer solo como intentos o ilusiones (para describir el origen del universo o la historia, para reproducir los procesos de la mente, para “crear” la mente, para predecir el futuro de la evolución del mundo o de la ciencia). Por estas razones, debemos intentar nada más que esbozar lo que aun puede observarse en los viejos vecindarios, donde los cimientos de los edificios –los intentos, suposiciones, y modelos de construcción- están expuestos, y después ir a compararlos con los nuevos proyectos, modelos y teorías. Esta yuxtaposición –la posibilidad de referirnos a lo que ha pasado, a un entendimiento del como “el esquema de planificación de la ciudad” ha evolucionado –de hecho es muy importante si apreciamos las estructuras modernas, distinguimos las innovaciones y disfrutamos sus formas.

Nuestra intención es dirigirnos a lo que Foucault describió como “mutaciones” en el conocimiento, donde las diferencias mínimas se magnifican y amplifican, dando lugar a ideas y metáforas que ponen en evidencia aspectos de la realidad construidos a través de la elección misma de las metáforas empleadas y conduciendo a la revolución, al menos no en el tipo de preguntas que indaga la ciencia.

La historia presentada no es una de progresión lineal constante. De este modo se ofrecen varias descripciones del mismo periodo histórico: una que se desarrolla diacrónicamente en sintonía con el diálogo científico y pone de relieve algunas fases importantes en su desarrollo, otra que identifica los diferentes modelos que han servido a la comunidad científica como puntos de agregación e intercambio de ideas; y una que propone una posible actitud hacia el conocimiento en la línea de ideas de Heinz von Foerster. Las palabras clave que se ponen de relieve surgen precisamente de los caminos trazados en esta introducción.

El mayor de los problemas de cualquier descripción, ya sea artística o científica, es establecer límites, para definir un comienzo, un antes y un después, un eje temporal. Nuestra descripción comienza arbitrariamente con la discontinuidad o línea divisoria del siglo XX del deseo de moverse más allá de las visiones mecanicistas de conocimientos previos.

Tal como señaló el antropólogo y padre de la complejidad, Gregory Bateson (1991), hay numerosos puntos de vista mecanicistas, entendidos como los derivados de la ciencia de Newton y Locke, los cuales se convirtieron en revolución industrial y luego en ciencia. Mientras que el siglo XIX puede describirse resumidamente como un periodo dominado por el mecanicismo y la búsqueda del “descubrimiento” de leyes de la naturaleza, debería mencionarse que algunas invenciones y pensadores no compartían esta visión preparándose así el camino para un cambio de perspectiva.

Los Supuestos Mecanicistas

  • Existe un punto de observación privilegiado que los científicos deben de tomar como el propio.
  • Una visión de descubrimiento es adoptada mediante la cual las leyes de la naturaleza deben ser vistas e identificadas como hongos en el bosque.
  • El foco de investigación se centra en las leyes y regularidades como una especie paraguas muy grande, bajo el cual se organiza el conocimiento, el cual está obligado a ofrecer el orden y la certidumbre de un carácter atemporal y a histórico.
  • El observador se separa del proceso de observación (la auto-referencia se prohíbe absolutamente).
  • La neutralidad se asume como parte del observador que hace observaciones desde un punto de vista privilegiado.
  • Conocer es considerado un proceso objetivo e igual para todo el mundo. El objetivo es alcanzar la claridad y generalidad de una perspectiva unificada.
  • La probabilidad es prohibida y considerada como pérdida, dando lugar así a la idea de que el desorden indica una alta proporción de ignorancia y el orden un proceso de desarrollo del conocimiento en mayor profundidad.

El proceso conocer en sí mismo es visto como acumulativo, construido gradualmente de un estado de ignorancia a uno de certidumbre. Conocer es la acumulación de piezas, como la erección de un muro que sigue creciendo cada vez más.

  • La tarea de la ciencia es describir, explicar y predecir los fenómenos por medio de operaciones inductivas.
  • Se abre una brecha entre las ciencias del hombre y las de la naturaleza. Se crean las dicotomías y las divisiones entre el interior y el exterior, entre los organismos y el ambiente.
  • Se sugiere una diferencia sustancial entre el mundo físico y el mundo de las ideas: todas las leyes se convierten en una especie de idealización. Por ejemplo la ley del movimiento “puro” de una partícula o de un conjunto de ondas, se convierte en un útil modelo abstracto que excluye al mundo, las posibles colisiones, los retos y las peculiaridades.
  • La atención se centra en las trayectorias individuales aisladas y no en la interacción entre las partes.
  • Todos los fenómenos se reducen a un nivel único de explicación, a saber, la dimensión microscópica identificado por la física en la estructura básica de la materia.
  • El concepto de “verdad” es consistente con la epistemología mecanicista y relacionado con los procesos de simplificación y síntesis.
  • La meta es obtener homogeneidad más que pluralidad. El foco esta en el orden, la invariancia, la estabilidad, la uniformidad y el equilibrio.
  • Las herramientas lógicas son empleadas y los aspectos de carácter personal, subjetivo y emocional quedan fuera de la ley.

El método experimental se basa en la reducción, separación, cuantificación y repetitividad. Las leyes de las trayectorias dinámicas –las bases de la ciencia positiva- son reversibles, deterministas y conservadoras.

  • La reproducibilidad, entendida como la posibilidad de obtener los mismos resultados en un experimento, por otros científicos en diferentes laboratorios dando las condiciones necesarias, se considera como un elemento clave de la condición científica. (Este postulado sobreviviría intacto la revolución epistemológica.)
  • El verificacionismo es considerado como la forma de garantizar la certeza científica, la verdad de una teoría.
  • El tiempo es considerado como reversible. El movimiento de una partícula del punto A al punto B es reversible perfectamente. El estimulo para el movimiento debe venir del exterior. No existen sistemas capaces de determinar su evolución desde el interior.
  • El tiempo y espacio son considerados frecuentemente como eternos e inmovibles.

 

El siglo 20 fue una época de grandes transformaciones y la evolución del conocimiento contemporáneo es también caracterizada por cambios múltiples. Las revoluciones científicas auténticas tomaron lugar y necesitaron la constante revisión de disciplinas tradicionales, incluyendo las más consolidadas.

Entre las múltiples teorías “innovadoras” se puede mencionar la termodinámica3 (1824), la cual considera la entropía como el criterio para medir desorden y desafía la ausencia inherente del tiempo dentro de la visión mecanicista del universo. La termodinámica otorga una nueva importancia al tiempo y sugiere que el universo, entendido como una máquina, no podrá funcionar por siempre de hecho ya está dejando de hacerlo. La termodinámica está en todo caso interesada en sistemas en o cercanos al equilibrio en un proceso evolutivo irreversible. También introduce una vista macroscòpica en que poblaciones enteras de partículas son tomadas en consideraciòn. (No es coincidencia que el físico austriaco L. Boltzmann, 1844–1906, interpretò el incremento de la entropía como un incremento en la desorganizaciòn para abordar el problema de la reversibilidad.)

Recordemos ideas de Charles Darwin (1809–1882), quien hizo uso de numerosas suposiciones reduccionistas pero tomò el enfoque opuesto como un biòlogo para las especies, sugiriendo que el sistema cambia y las formas de vida compleja originadas en sistemas simples se vuelven progresivamente organizadas. Como geòlogo y paleontòlogo, Teilhard de Chardin (1881–1955) también tuvo una visiòn del mundo que anticipò la teoría de sistemas, describiendo la evoluciòn como un progreso hacia una mayor complejidad y el crecimiento de conciencia, entendido como un efecto específico de complejidad organizada.

Podríamos comenzar a hablar acerca de una ciencia nueva, acerca de los nuevos métodos de pensamiento que modifican la representaciòn de las relaciones entre naturaleza y el ser humano (lo que el filòsofo Martin Buber llamò “el devenir humano” a fin de resaltar su evoluciòn imparable) y presenta una visiòn diferente de la relaciòn entre el sujeto y el conocimiento. Podríamos discutir la hipòtesis de un mundo nuevo y poco previsible capaz de expandir innovaciòn, de creaciòn como destrucciòn. Pero tratemos de proceder en orden.

EL DIÁLOGO DE IDEAS

Fue el 14 de diciembre de 1900, durante su estudio de entropía, que Max Planck (1858–1947) formulò la hipòtesis que marcò el comienzo de la física cuántica moderna, esto es que la energía está hecha de elementos indivisibles (los elementos básicos de la acciòn). En conflicto con la mecánica clásica, su descubrimiento lo obligo a ocuparse del problema epistemològico de la relaciòn entre observador y lo observado, introduciendo así una visiòn diferente de mundo. Planck de este modo socavò diversas piedras angulares del positivismo, incluyendo la independencia del mundo físico de nuestro conocimiento de él y el determinismo causal sobre el cual descansa la formulaciòn de leyes físicas.

Otra figura importante es el matemático y epistemòlogo francés Henri Poincaré (1854 – 1912), quien anticipò los resultados de Einstein en relaciòn a la relatividad4 especial’ argumentando que podemos predecir hechos simples, o al menos los que parecen serlo. Él sugiriò la dependencia de fenòmenos eléctricos y òpticos en el observador ya en 1901 y adelantó el concepto de “conveniente e inconveniente” (la capacidad para aceptar mayor simplicidad para organizar la relaciòn entre fenómenos) para reemplazar la “verdad” del marco conceptual de una teoría. Sugiriò en 1895 que las señales recibidas de los sentidos no son por sí mismas una base suficiente para nuestras ideas de espacio, objetos y formas: Las sensaciones son necesarias pero no suficientes para la percepciòn5. El elemento necesario es el movimiento, por ejemplo la posibilidad de cambiar la de alguien al mover su cuerpo y asociar esas sensaciones nuevas con los movimientos voluntarios (una teoría retomada por psicòlogos diversos, incluyendo Piaget y von Foerster). Sus reflexiones sobre la posibilidad de que aun los sistemas físicos simples de un carácter determinista pueden presentar comportamientos complejos, caòticos e irregulares, como los sistemas aleatorios que eluden toda predicciòn y el control, le permiten ser considerado como un precursor del concepto de cercanía organizacional así como también el padre del caos determinista. Lo más reciente fue, sin embargo, retomado solo por científicos 70 años más tarde, probablemente debido a la influencia adversa de la epistemología reinante, entendida como la visión predominante de la naturaleza y la ciencia.

La atención debe dirigirse también hacia el trabajo de Louis de Broglie, profesor teórico de física en la Universidad de Paris, ganador del Premio Nobel en 1929, el cual fue el primero en introducir los conceptos de mecánica cuántica de Niels Bohr, los cuales aplicó para estudiar el espectro de los rayos X. El sentó las bases de la nueva mecánica ondulatoria con su visión de la materia como partícula y onda.

Albert Einstein (1879-1955, ganador del premio Nobel en 1921) publicó tres artículos en Annalen der Physik, sobre fotones y la electrodinámica de los cuerpos en movimiento en 1905. Estos pueden ser considerados como el manifiesto de la relatividad espacial, el cual prescinde de las categorías de tiempo y espacio como contenedores absolutos. El tiempo y el espacio dependen del movimiento del observador y su sistema de referencia. Einstein reto la configuración geométrica del mundo e introdujo al observador en el proceso de observación: la visión del universo difiere en relación con la posición desde la cual se observa. Él también desafió la racionalidad pura, sugiriendo en su correspondencia con Maurice Solovine, que el científico debe tener una actitud de “empatía” en relación a la naturaleza como una base para el desarrollo de axiomas sobre los cuales descanse las categorías lógicas, matemáticas y experimentales. Introdujo cualidades imaginativas y emotivas “que son atractivas para los espacios que pueden generar, para el tipo de legalidad física a la que pueden dar lugar. El resultado fue una clarificación epistemológica de las consecuencias del destronamiento del Eucleadismo (1921): “En tanto las proposiciones de las matemáticas se refieren a la realidad, no son ciertas; en tanto que son ciertas, no se refieren a la realidad”. El concepto mismo de verdad comenzó a tambalearse.

Max Born (1882-1970) fue galardonado con el Premio Nobel en 1954 “por su obra fundamental en mecánica cuántica”. Al abordar el problema de la relación entre el objeto observado y los instrumentos de observación, sugirió que no podemos como es un objeto más que como efecto de nuestra observación. La teoría cuántica marco el fin del objeto de Galileo y enfatizó la importancia del proceso de observación y las medidas empleadas. También introdujo un mundo microscópico gobernado por leyes de carácter univoco.

El físico alemán Werner Heisenberg (1901-1976), quién también gano el Premio Nobel (1932), expuso el principio de incertidumbre, el cual establece que es imposible medir la posición y velocidad de una partícula al mismo tiempo que se mantiene un alto grado de confiabilidad. Cada medición física altera el sistema a medir y, como él plantea, los cambios introducidos en el objeto observado por los instrumentos de observación deben ser considerados en la física atómica. Heinsenberg cuestionó radicalmente la idea de un ordena natural determinista independiente del ser humano, y rechazó el principio clásico de causalidad, el cual afirma entre otras cosas, que dado el conocimiento exacto del estado actual de un sistema aislado, es posible predecir su estado futuro.

En el mismo periodo, en campos aparentemente lejanos a la física, se dieron nuevos desarrollos de igual importancia que los experimentos de Planck, Heisenberg y Bohr, incorporando aspectos humanos tales como la conciencia, intencionalidad y la subjetividad en los marcos teóricos ocasionando el colapso definitivo de la objetividad y el determinismo al introducir sujeto en el análisis del mundo.

La invención del psicoanálisis y el concepto del inconsciente marco una etapa importante en subvertir el predominio de la racionalidad y la necesidad/posibilidad del control sobre el conocimiento humano. El inconsciente definido como “una realidad psíquica”, no puede ser interpretado por los significados de la racionalidad consciente de la cultura occidental en turno. Las motivaciones “profundas” del actuar humano, no responden a la lógica de las reconstrucciones de la conciencia de los eventos, sino a la lógica “energética” de las unidades, Freud de este modo propuso una reducción del concepto de racionalidad y una revolución con respecto a la cultura dominante. La propagaciòn y la popularidad de las ideas de Marx (1818-1883) y Nietzsche (1844- 1900) en gran escala fueron acompañadas por lo que en términos de Gianni Vattimo se denomina “escuela de la sospecha” que postula una realidad más allá de la conciencia, relaciones de clase y del conocimiento científico y filosòfico.

Este periodo vio cambios interesantes (conectados con la divulgaciòn de teorías científicas y psicoanalistas) también en el campo de las artes. El arte figurativo rechazo el realismo y se embarco en intentos de moverse más allá de la representaciòn objetiva del mundo. El futurismo (con Marinetti), el surrealismo (término acuñado por Apollinaire), el arte abstracto, cubismo y las pinturas metafísicas de De Chirico, todas desarrolladas en sucesiòn rápida. La novela adoptó “la corriente de la consciencia” como un intento de reproducir la teorizaciòn de los procesos mentales del gran psicòlogo William James, abandonando una visiòn racional externa del mundo para enfocarse primariamente en la experiencia subjetiva y los aspectos connotativos del lenguaje. El mundo se volviò progresivamente elusivo. Dejo de ser posible conocer el futuro mediante conocer el presente ya que conocer el presente mismo se consideraba imposible.

Fue en 1931 que el lògico Kurt Güdel (1906-1978), un alumno de Bertrand Russell, realizò una crítica de los Principios de Matemática de Rusell y Whitehead, punto de referencia para la lògica y la ciencia, reduciendo las matemáticas totalmente a la lògica. Gödel presentò algoritmos que hicieron a la recursividad6 inevitable en la ciencia y en la lògica matemática organizada tal como la teoría computacional, nuevamente enfatizando el carácter recursivo. Las bases fueron sentadas para que el pensamiento inductivo tomara su lugar junto a la práctica de la deducciòn. La búsqueda de certeza fue abandonada a favor del reto de muchas incertidumbres, con el observador totalmente establecido como parte del proceso de observaciòn7. Meteoròlogos, agrònomos, antropòlogos operativamente ejemplifican los cambios en el paradigma desarrollados por los físicos y matemáticos, en los que la imposibilidad de centrarse en una variable en el momento, aparece evidente en su trabajo. Los elementos que mencionan están relacionados de una manera tan dinámica que su complejidad no puede evadirse.

Mientras que la ciencia se desarrollaba tempranamente en Europa a principios del siglo XX, el Nazismo y la Segunda Guerra Mundial provocaron un cambio en los Estados Unidos, donde los psicòlogos, antropòlogos, sociòlogos y economistas estuvieron envueltos junto a los físicos y biòlogos en la planeaciòn y manejo los recursos humanos del país. Las ciencias sociales crecieron tanto en importancia como en un contenido concreto, abandonando la esfera teòrica del campo de la aplicaciòn práctica de las universidades, tal como se necesitaba por la guerra y la reconstrucciòn nacional. Esto permitiò y fomentò la comunicaciòn entre las personas trabajando en diferentes campos, haciendo posible la interdisciplinariedad sino es que más bien necesaria.

Las 10 conferencias Macy8 sostenidas durante 7 años en el periodo de 1946 a 1953, constituyen un evento notable en esta conexiòn por la virtud de su carácter interdisciplinario y las oportunidades brindadas para el dialogo entre personajes y campos antes apartados. Financiadas por la Fundaciòn Macy, como una contribuciòn a la ciencia, y bajo la organizaciòn de Frank Fremont-Smith, su director médico, las conferencias implicaron a un gran número eruditos en diferentes áreas de la ciencia mundial, incluyendo al mismo Fremont-Smith, el neuropsicòlogo y neuropsiquiatra Warren McCulloch, quien presencio todas las reuniones, los matemáticos Norbert Wiener and John von Neumman, quienes estuvieron implicados en el diseño de computadoras del futuro, los ingenieros Julian Bigelow y Claude Shannon, los neurobiòlogos Lorente de Nó y Arturo Rosenblueth, el lògico Walter Pitts, los antropòlogos Gregory Bateson y Margaret Mead, el fisico Heinz von Foerster y el economista Oscar Morgenstern. Si bien estas figuras constituían el “grupo central”, otros doctos fueron invitados a los diversos encuentros relacionados con los temas discutidos, incluyendo al psicoanalista L. Kubie, el psicòlogo K. Lewin, el sociòlogo P. Lazarsfeld y el matemático L. Savage. Las actas de las últimas cinco conferencias, las únicas publicadas, fueron editas por Margaret Mead, Heinz von Foerster y Hans Lukas Teuber. Titulada “Los mecanismos de retroalimentaciòn y los sistemas causales circulares en Biologia y Ciencias Sociales, la primer conferencia en establecer un dialogo entre las ciencias “duras” (ingenieria, biologia y matemáticas) y las ciencias comportamentales (psicologia, psiquiatria y las ciencias sociales en general). Fue en esta ocasiòn en la que Wiener presentò su modelo de control y comunicaciòn en el hombre y las maquinas, al cual los participantes decidieron nombrar “cibernética” (del griego Κσβερνήτης, timonel)

A pesar de que el espiritu prevalente en las conferencias permaneciò consistente con los ideales mecanicistas y la búsqueda del un lenguaje cientifico puro, lo relevante del evento fue la oportunidad para los cientificos distanciados en términos de la disciplina e intereses, escuchar a otros e intercambiar ideas. Von Foerster describiò las conferencias como el lugar donde el pudo entender por experiencia, los que la interdisciplinariedad significaba.

Estos fueron años muy interesantes para la revoluciòn del conocimiento, en la cual la cibernética, teoria general de sistemas, la teoria del juego y la teoria de la comunicaciòn hicieron importantes contribuciones. Seria dificil establecer cual movimiento influencio a cual, para establecer prioridad y señalar relaciones entre las disciplinas. Ante lo que nos encontramos es una revoluciòn en todos los campos de conocimiento por la introducción de una visión “procesual” de la naturaleza en el mundo científico. El ejercicio de compartir, el lenguaje transversal y la búsqueda de una nueva unidad de ciencia comenzaron a tomar forma.

PUNTOS DE ENCUENTRO

Para localizar los conceptos en sus lugares de origen, debemos poner atención a contextos y grupos de marcado carácter interdisciplinario, los cuales catalizaron varias ideas y estimularon innovaciones interesantes.

El Instituto Jean Piaget en Lausanne, donde el famoso psicólogo suizo estudio las formas de conocer de los niños. Después de numerosos estudios experimentales, Piaget planteo una serie de operaciones fundamentales en la “construcción” de conceptos y el logro de la permanencia del objeto y por parte de los niños, y definió el carácter universal y transcultural de la construcción del conocimiento humano. El describió la secuencia (rígida) de la evolución del proceso cognitivo, el cual sigue un curso pre-establecido desde la etapa sensoriomotriz (percepciones acompañadas por patrones de acción) a la formación de símbolos y el uso de formas del pensamiento lógico-abstracto. La teoría formulada, se enfocaba en la adquisición de experiencia (desarrollada por el sujeto en soledad durante su relación activa con el mundo) más que en las ideas exclusivas del conocimiento simbólico abstracto predominante de la época.

El Laboratorio de Informática Biológica de la Universidad de Illinois en Urbana, el cual opero de 1956 a 1976, y descrito por su creador y director von Foerster en 1992 como un centro internacional dedicado a la investigación en la psicología, teoría, tecnología y epistemología de los procesos cognitivos, centrando la atención en las formas en que todos los sistemas vivientes dan cuenta de su realidad. El grupo central de los físicos, neurobiólogos, científicos computacionales e ingenieros trabajaron con invitados como H. Maturana, G. Uribe, W.R. Ashby, G. Pask, L. Lofgren y G. Gunther en estudios sobre los puntos de unión entre disciplinas diseñadas para explorar en algún momento campos distantes. (El bailarín Israelí Noa Eshkol participó en el trabajo).

La Universidad de Palo Alto, California, donde numerosas figuras renombradas en el campo de la psicoterapia sistémica se reunieron por primera vez para desarrollar un proyecto sobre la esquizofrenia. A su retorno de sus expediciones antropológicas, Bateson (1904-1980) participó en las Conferencias Macys, comenzando sus estudios en la aplicación de la teoría de los tipos lógicos a la comunicación, lo cual fue retomado por el Proyecto Bateson (1952-1962). Los personajes involucrados durante los dos primeros años, bajo financiamiento de la fundación Rockefeller, fueron los etólogos Konrad Lorenz y Nikolaas Timbergen, los psiquiatras John Rosen y el experto en comunicaciones Ray Birdwhistell. Con la colaboración de psicólogos, trabajadores sociales y clínicos tales como Jay Haley, John Weakland y Don D. Jackson, al igual que los consejos del renombrado hipnoterapeuta Milton Erickson, maestro y amigo de Haley; el proyecto identifico el doble vínculo como una forma específica de conflictos comunicacionales derivada de los niveles de aprendizaje y patrones relacionales dentro de la familia y sugirió que esto podría jugar un papel en el comienzo de la esquizofrenia.

El intento de ir más allá de un marco general y generalizado, la hipótesis de dialogo entre las ciencias “duras” y las ciencias “sociales”, así como la perdida de neutralidad y objetividad en la observación, llevo a considerables cambios en las teorías del conocimiento. Si bien este alejamiento del mecanicismo se llevó acabo de diferentes formas y momentos para las diversas disciplinas, al parecer esto se dio en dos fases, una en la primera mitad del siglo XX, tras la introducción del relativismo de las ciencias duras, y la otra, más recientemente como resultado de la aplicación más profunda y madura de los supuestos evolutivos y autorreferenciales.

LAS DISCIPLINAS

Las secciones subsiguientes brindan un breve resumen de las principales disciplinas que caracterizan el mundo científico y filosófico del siglo XX. Aún cuando hemos decidido describir estas esferas por separado, queremos destacar la conexiòn entre estas diferentes experiencias, las hipòtesis y la inevitable interpenetraciòn de los diferentes puntos de vista. Las teorias en cuestiòn están altamente estructuradas y presentan diferentes niveles de organizaciòn.

CIBERNÉTICA

Introducida en el periodo inicial de los 40´s, la cibernética es definida como la ciencia del control y la comunicación en los animales y las máquinas. Deshecha la referencia a la energia a favor del flujo de informaciòn y postula el carácter universal de las leyes que rigen el control tanto de los sistemas orgánicos e inorgánicos. Como von Glasersfeld lo planteó, “la Cibernética es una forma de pensar, no una colección de hechos.”

Antes de proceder a describir la cibernética a mayor profundidad, queremos llamar la atenciòn sobre tres teorias contemporáneas y relacionadas, la teoria del campo, de la comunicaciòn y la teoria del juego. Como se menciono anteriormente, los mismos personajes frecuentemente estuvieron involucrados al mismo tiempo en el desarrollo de diferentes disciplinas y enfoques. Esto puede observarse, desde nuestro punto de vista, en que las disciplinas están conectadas por áreas traslapadas de cambio en lugar de yuxtaponerse rigidamente. De hecho es interesante notar que uno de los primeros cientificos en proponer el concepto de informaciòn como una variable esencial para cualquier explicaciòn sobre còmo funciona el sistema humano, fue Norbert Wiener, el padre de la cibernética, quien insistiò en reemplazar los conceptos basados en energia con los aún inexplorados postulados de la teoria de la comunicaciòn. Wiener sugiriò que el concepto de informaciòn y la teoria de la comunicaciòn deberian de ser aplicados un contexto mayor al de la biologia y las ciencias sociales, por lo que encaminò a Bateson en esta direcciòn. Al igual que otras ciencias, la ingenieria habia cambiado su atenciòn de la energia hacia la comunicaciòn. McCulloch considerò la ciencia de señales y mensajes (entendida como elementos psico­biològicos) como un puente útil entre la psicologia y la fisiologia de los trastornos mentales. Fueron precisamente estos dos estudiosos, que brindaron a Bateson los elementos para el trabajo futuro de Bateson sobre el doble vinculo.

La teoria del campo fue introducida por Kurt Lewin en los inicios de los años 30´s como una forma de ocuparse de la “realidad psicológica”, entendida como un sistema dinámico, incluyendo ambos, la persona y el ambiente. En esta perspectiva, la realidad psicológica es por lo tanto definida como producto de varias fuerzas susceptibles de constantes trasformaciones, pero no obstante tendiendo al equilibrio. La teoria de Lewin puede ser considerada una sintesis exitosa de las suposiciones de teoria Gestalt y la anterior cibernética. Señalando una etapa importante en la epistemologia, desarrolla reflexiones importantes sobre la naturaleza de la interacción social, referente a la relación entre el sujeto y el contexto como indisoluble y considerando la conducta como una visión integrada (una conexión de factores emocionales, cognitivos y sociales) resultante de complejas relaciones entre varios niveles. La teoria de campo hace posible desde el punto de vista clinico centrar la atención en la “contemporaneidad” y los hechos que sustentan la conducta en el preciso instante, mirando el futuro y el pasado como partes simultaneas del campo. Las limitaciones de la teoria recaen quizás en su completa adherencia a un cierto tipo de lenguaje cientifico, la metáfora del “campo de fuerza” de la física, la cual puede hacer que el modelo parezca frio y mecánico, como una suma algebraica o una composición de fuerzas y empujes.La metáfora del campo, ha sido usada recientemente por varios psicoanalistas (la pareja francesa Madeleine y Willy Baranger, quienes emigraron a Argentina, al igual que Weiss y Sampson) para definir una situación supra-personal, un contexto compartido conectado al paciente y el terapeuta. Esta visión retoma la concepción batesoniana de mente.


 

El padre fundador de la teoria de la comunicación es incuestionablemente Claude Shannon, un ingeniero electrónico quien dirigió la retransmisión de información en comunicación y la relación entre información y entropia, por medio de una teoria matemática basada en el cálculo de probabilidades aplicado a sistemas imperfectamente conocidos. Shannon también invento una forma de medir la cantidad de información de la fuente al destino. Shannon y Weaver definieron comunicación en 1949 como la trasmisión de información a través del mensaje desde un transmisor a un receptor y presenta una teoría mecánica que prevé el paso de información (considerado como un elemento estático e inmutable) en un intercambio unidireccional de un orador activo a un oyente pasivo.

La teoría de la comunicación fue anclada por muchos años a la suposición de la retransmisión de un mensaje que permanece inmutable, como un paquete o un objeto solido, en su trasferencia de una persona a otra. No fue sino hasta la mitad de los años 50´s que se desarrollaron modelos bidireccionales, en los cuales tanto el trasmisor como el receptor esta activamente comprometidos en enviar mensajes uno al otro, como en un juego de tenis. Ambas partes se convirtieron sujetos interactuantes y la atención cambio hacia la búsqueda de un código común.

La teoría se ha desarrollado desde entonces para incluir a todos sus aspectos más recientes, incluyendo la hipótesis de que la información no es intercambiada en un solo sentido entre dos sujetos, sino más bien limitado a confirmar y fortalecer las estructuras de información ya existentes. El trabajo de Henri Atlan (1971) posibilito moverse más allá de la dicotomía rígida separando la información del ruido y los estudios dejaron de centrarse en los mensajes para centrarse en el oyente.

El concepto de comunicación introdujo una nueva gestalt en el análisis de la interacción. Mientras se mantenía la adhesión al modelo mecanicista, la cual condujo inicialmente a enfocarse en la conducta comunicativa manifiesta, la “caja negra” se abrió en tiempo para el significado por lo tanto para el “baile” de negociaciones semánticas reciprocas y definiciones. Todos los desarrollos subsecuentes de comunicación e información fueron a divergir de las hipótesis iniciales y tomaron forma como trabajo de figuras individuales ya no reunidas bajo la bandera de una teoría unificada. La forma más reciente de la teoría de la comunicación se refiere a la adquisición de información como una operación de computar la realidad y en cualquier caso abre la puerta hacia el estudio del mundo de la mente y la representación. (Dos teorías de la información9 han sido usadas en los últimos años, una representacional y otra autopoietica10). Desde el intercambio de información, la comunicación asumió un significado más rico con la visión de los humanos no como maquinas que procesan información sino como seres generadores de significados. La función del lenguaje dejo de ser la transmisión de información y la descripción de la “realidad” para convertirse en la creación de acuerdos referentes significados y la coordinación de acciones entre los seres humanos. El lenguaje se concibió como un proceso a través del cual la realidad emerge y como un baile relacional en el cual los individuos pueden crearse el uno al otro y ayudarse a convertirse en cierto tipos de persona o en otra (Shotter, 1989). De este modo la comunicación se convirtió en lo que integra y distingue a la participación de los individuos en los grupos y comunidades (Krippendorff).

 

 

La tercer teoría que deseamos mencionar es la teoria del juego, que se libero del pensamiento mecanicista mucho más tarde a través de los nuevos desarrollos de la teoría de la decisión. Presentada como un trabajo en conjunto con Oskar Morgenstern, durante la primera conferencia Macy, por el matemático John von Neumann del Instituto para Estudios Avanzados de Princeton, aplicada exitosamente a la economía, utiliza procedimientos matemáticos y metáforas en el análisis y la predicciòn de la conducta. Las soluciones conductuales posibles son examinadas en situaciones interactivas con un número finito de movimientos con respecto a objetivos precisamente especificados llevando a la victoria o a la derrota. Está demostrado que cualquier juego finito (de suma cero) tiene soluciones optimas basadas en la aplicaciòn de reglas formales. En otras palabras, una forma que se encontrò para identificar los movimientos que permiten a un jugador obtener resultados superiores a todas las otras opciones. Nacida del interés en la resoluciòn de conflictos sociales, la teoría fue aplicada en diferentes campos tales como cooperaciòn, conflictos y tensiòn. No fue retomada totalmente en otros campos para estudiar con la arriba mencionada excepciòn de la teoría de la decisiòn, lo que en la actualidad se basa no en la lògica objetiva ni en la aplicaciòn de las normas formales.

Wiener presentò un modelo para los procesos de control y comunicaciòn en los animales y maquinas, desarrollado en conjunto con Arturo Rosenblueth durante la primera conferencia Macy en 1947. (Su famoso libro Cibernética fue publicado en 1948). El modelo circular y retroactivo fue presentado como un proceso universal capaz de describir la conducta de un sistema.11

Debería ser mencionado que la cibernética, tal como ha evolucionado en el tiempo, no es la invenciòn de un solo autor, sino el resultado de un esfuerzo en conjunto sin precedentes en el campo de la ciencia. Los variados personajes involucrados fueron Wiener, Bigelow, Shannon, McCulloch, Ashby y von Foerster en el campo de las ciencias duras, y Margaret Mead, Gregory Bateson, Herbert Brün, Spencer Brown y Gordon Pask en las ciencias sociales.

La importancia crucial de la teoría recae precisamente en haber introducido una lógica procesual aplicada efectivamente (el foco no sobre los objetos estáticos sino únicamente en los procesos y la evolución que ocurre en los sistemas y toma forma como patrones de interacción evolutiva12) y en la circularidad (entendida coma relación indisoluble entre la acción y la retroalimentación de un evento13), considerado por los autores como las únicas categorías capaces de describir los procesos vitales y cognitivos. Aún cuando las contribuciones iniciales a la cibernética fueron del tipo tecnológico, i.e. basado en el diseño y construcción de “maquinas” (en el sentido de Alan Turig) “gobernado” por una lógica circular y con marcadas características organizacionales, el interés de los autores y las discusiones consideraron más aspectos generales. Su atención estaba de hecho centrada en las maquinas de computadora, el sistema nervioso, la mente y el cerebro en un intento de explicar los procesos cognitivos humanos en términos matemáticos y extender y aplicar los principios cibernéticos a la cognición, y por lo tanto a otros campos de conocimiento tales como psiquiatría, terapia familiar, la administración, organización y economía. La cibernética examinó como los sistemas se organizan a sí mismos para mantener el equilibrio, como se reproducen, evolucionan y aprenden, abordando todas las formas de comportamiento, siempre y cuando sean regulares, determinadas y reproducibles (supuesto mecanicista). Por lo tanto ofrece, y ofrece una manera de abordar científicamente los sistemas en los que la complejidad es máxima, y no puede ser ignorada14. La cibernética constituye un terreno perfecto para el encuentro de las ciencias humanas y sociales, como W. Ross Ashby estableció, “ofrece la esperanza de producir métodos efectivos para el estudio, y control, de sistemas que son intrínsecamente y extremamente complejos”.

Como un ejemplo de la lógica circular que sustenta a la cibernética, es suficiente perfilar el funcionamiento del termostato, un dispositivo extremadamente simple basado en la retroalimentación doble. Es la retroalimentación la que posibilita al termostato a regularse a sí mismo, asegura su estabilidad y dirige su conducta de acuerdo con la meta pre-establecida. El dispositivo trabaja bajo la base de feedforward, un proceso de predicción con respecto a la forma en que obtiene los resultados deseados que guían conducta dirigida a la meta, y feedbackward, en el cual activa y organiza las conductas subsecuentes (encendido para mantener el aire caliente o apagándose porque ya esta los suficientemente caliente).

La idea clave de la cibernética fue “cerrar el círculo” y traer la producción exterior de la maquina (la respuesta en términos lineales) de regreso al sistema (visto como una entrada o estimulo). Esta retroalimentación hace posible construir maquinas capaces de oscilar alrededor de valores definidos, como el termostato, y por lo tanto a “controlar” estas variables. Tal como explico von Foerster (1985 p.114-5), la revolución intelectual de la (primera) cibernética estaba en combinar una maquina que fue esencialmente un sistema guiado por un motor con un sensor capaz de ver lo que hizo la maquina y hacer correcciones sobre sus acciones tal como se requirió cuando se tomo el mal camino.

Numerosos autores han presentado definiciones de la cibernética y los que consideramos como más importante se enumeran aquí. Gregory Bateson la describe como “el mayor mordisco a la fruta del árbol del conocimiento que la humanidad ha tomado en los últimos 2,000 años”; Jim Rebitzer (1974) como el ofrecimiento de accesar al mundo de la interacción con sistemas complejos, con el fin de hacerlos parecer simples, para revelar su complejidad; Gordon Pask como un disciplina joven cruzando las esferas interconectadas de las ciencias naturales: los cielos, la tierra, los animales y plantas; Couffignal (1956) como “l’art d’assurer l’efficacite de l’action” (el arte de asegurar la eficacia de la acción); Stanford Beer como la ciencia de un control adecuado dentro de cualquier ensamble que es tratado como un todo orgánico; Derek Schultz como un heurístico que puede ser aplicado a cualquier problema.

La introducción del concepto de circularidad tiene gran valor heurístico y permite a varios autores imaginar la vida biológica y el conocimiento como basado en un proceso circular mediante el cual los problemas son descifrados por medio de los parámetros de comunicación y el análisis de las relaciones y retroalimentación. Un intento por lo tanto fue hecho para descubrir las leyes que gobiernan la conducta interactiva del sistema. (No fue hasta más tarde que la atención cambio hacia las leyes de la auto-regulación y la auto-organización, procesos que constituyen los principios a través del cual los sistemas crecen, alcanzan la estabilidad, aprenden, se adaptan, estructuran y evolucionan).

Como se menciono anteriormente, las teorías científicas cambian en relación al paso del tiempo y los cambios en metáforas sociales y tecnológicas. El desarrollo de las disciplinas y la evolución de sus implicaciones epistemológicas marcaron la transición de la primera etapa –basada en el estudio de sistemas tendientes al equilibrio (enfocándose a la ontología de sistemas observados desde el exterior y concibe como entidades estables en las que las fuerzas dinámicas están trabajando para mantener el equilibrio y el status quo)- a lo que Maruyana llamó “la segunda cibernética”. Mientras eran observados del exterior, los sistemas observados eran ahora vistos como evolucionando y la atención centrada en el cambio y la diversificación a través del tiempo, ambas tendencias morfostaticas y morfogénesis (respectivamente hacia estabilidad y evolución), en un intento de moverse más allá de los confines de un interese exclusivo en la homeostasis. El interés ahora se traslado a las fluctuaciones susceptibles de amplificación, capaces de alterar completa e impredeciblemente el estado del sistema. Si hablar de “cibernética” se refiere a la ciencia del control, Heinz von Foerster y Margaret Mead planteó la cuestión durante las conferencias Macy sobre qué es lo que sucede cuando el sujeto deja de ocupar una posición externa neutral, pero está involucrado con el proceso y las operaciones subjetivas del conocimiento. Propusieron una cibernética de la cibernética o cibernética de segundo orden, la cual presupone una postura epistemológica diferente. Al introducir al observador en el campo de observación, la cibernética de segundo orden busca operar recursivamente sobre las operaciones mismas llevadas a cabo, realizar operaciones de segundo orden (descripciones de las descripciones, pensamientos sobre el pensamiento) y sugiere la necesidad de abordar los problemas de segundo orden, tales como el dialogo, la cognición y la atención a la interacción social y cultural a través de la interacción social y cultural. También conocida como la cibernética de los sistemas observantes, este enfoca da gran importancia a la del observador en el proceso de observación y reconoce las elecciones y discriminaciones llevando a la emergencia de una realidad particular en lugar de otra.

La transición de la primera cibernética (primera y segunda cibernética)a la cibernética de segundo orden hizo posible centrar la atención no en el sistema observado o en el observador de manera individual, sino en la construcción de la relación (lo que Varela llamaría la especialización mutua) lo que emerge de la interacción del observador y el sistema observado, en el proceso de observación y conocimiento. Von Foerster expresó el cambio epistemológico implícito en la inclusión del orador en el discurso y el observador en el proceso de observación, de la siguiente manera: La cibernética de segundo orden invita a dejar el locus de observación de Helmholtz para adentrarse en la dinámica circular del ir y venir humano al ser parte y pareja del universo del discurso y de los discursos del universo”

Una peculiaridad de este enfoque inmediatamente emerge en la esfera del estudio del conocimiento: la cibernética sugiere que el sujeto solo puede conocer las características de su organización que le son permitidas por su sistema nervioso. En otras palabras, solo puede percibir tales cambios en sus sensaciones como pueda controlar a través de su actividad motriz (un fenómeno que Piaget, seguido por Maturana y Varela, describió como un “cierre organizacional”). Entendida como la substitución de la diferenciación entre el producto y el productor, sujeto y ambiente, el cierre15 pone de manifiesta las características de los sistemas autónomos, la condición esencial, de hecho, que el fin del dominio del sistema coincide con su comienzo.

Tenemos así la transición de una primera experiencia científica l basada en el concepto de control y la definición tecnológica de los procesos circulares a una nueva visión de los procesos mentales y la posibilidad de investigarlos. Como lo expresó Varela (1988, p.267), “Hemos estado hablando de dos casos –ya se trate de las células, los seres vivos o los sistemas formales e indecibilidad- donde el cierre operacional genera un dominio totalmente nuevo en el acto aparentemente inofensivo–donde el cierre operacional genera un nuevo dominio en el aparente acto de rizarse en si mismo. En este punto, debemos dar el siguiente paso en nuestro examen de la historia natural de la circularidad y explorar el siguiente caso fundamental donde el cierre cambia completamente el panorama: nuestras descripciones, nuestro propia cognición”. Fue a través de este cambio que la cibernética se vinculo con las teorías de la complejidad y el caos, la cuales se discutirán a continuación.

La cuestión sigue siendo la relación entre la cibernética y la teoría general de los sistemas. Algunos autores afirman que una deriva de la otra, otros dicen que las ideas sistémicas se trasladaron al lenguaje cibernético en el campo de la ingeniería en el mismo periodo de los años 40´s. La teoría general de sistemas y la cibernética tienen numerosos puntos en común y los mismos autores frecuentemente han contribuido en ambas. Lo que deseamos destacar en este sentido, sobre todo, son los estímulos y el nuevo enfoque sobre los problemas del conocimiento proporcionado por las dos disciplinas. Krippendorff (1986) sostiene que la teoría general de sistemas hace referencia a una visión holística, que busca generalizar las características estructurales, conductuales y evolutivas de los organismo vivientes mientras que la cibernética, otorga prioridad a una perspectiva epistemológica que considera totalidades susceptibles de análisis sin que se pierda información, como una serie de componentes integrados en su organización. (La organización abarca tanto al forma en que los componentes del sistema interactúan, como la forma en que esa interacción determina y modifica la estructura del propio sistema.) A pesar de tener sus orígenes en la ingeniería, la cibernética no está interesada en las implicaciones de las formas materiales y se distingue a si misma de las ciencias que están interesadas en tales aspectos, incluyendo a la física, biología, sociología, ingenierías y la mismísima teoría general de sistemas.

En virtud de su enfoque actual sobre como los sistemas organizados están regulados, evolucionan y aprenden, sobre como optimizar su organización, la cibernética podría definirse hoy como ciencia de la organización eficaz, el arte de conectar cosas con el fin de obtener el resultado deseado, el arte de la “procesualidad” o la disciplina de la acción humana (Varela).

TEORÍA GENERAL DE SISTEMAS

Lo que estaba destinado a ser conocido como la teoría general de sistemas (TGS) en 1940 tiene raíces complejas, ramificadas que se remontan también a estudios filosóficos. Fue en todo caso Ludwing von Bertalanffy el que sistematizó y organizó a finales de los años 30 una teoría fundamental del gran movimiento conceptual moderno, que ha permitido tratar las ciencias biológicas y sociales en igualdad de condiciones con las matemáticas y la física, y sugirió la necesidad de iniciar un proceso para la unificación del conocimiento a través de la búsqueda universal de leyes que rigen el funcionamiento de los sistemas. El autor la definió como la ciencia de la organización y la totalidad.

Von Foerster explicó en su última entrevista concedida antes de su muerte, la forma en que Von Bertalanffy se inició en Viena como fisico trabajando en el campo de la termodinámica, la cual experimentaba una gran expansión en ese momento, Von Bertalanffy tenia la intención de ocuparse de la fisica y expandir la fisica a la biofisica. La biofisica no existia en esa época, pero él vio la posibilidad de usar el lenguaje de la termodinámica como un formalismo para hablar de la biologia teórica. Tomando como punto de partida los sistemas termodinámicamente cerrados que son inutilizables en la biologia (sistemas que no tienen entrada o salida de energia, por lo que se mantienen constantes) y sugirió en 1923 que una termodinámica de los sistemas abiertos energéticamente, seria más fructifera. Esta hipótesis lo llevo a pensar en la TGS, la posibilidad de los sistemas de ser ambos, abiertos y cerrados en términos de la termodinámica. El objetivo de la teoria no era dividir cosas, o considerarlos separadamente, sino conectarlos unos con otros, considerando su relación y armonia, como en un coro.

El enfoque sistémico presenta un innovador marco conceptual que trata de un desglose de los objetos de estudio, considerándolos en su contexto y subrayando la interconexión de dinámicas integradas y complejas, con un examen más profundo y amplio de la procesualidad circular. También sugiere una visión del mundo que deja a los elementos considerados intactos, pero que cambia la forma en que se ensamblan y por lo tanto su análisis. En un intento de crear un lenguaje integrado interdisciplinario capaz de moverse más allá de “la poco meditada” especialización y fragmentación del conocimiento científico, la TGS retoma las contribuciones de la cibernética, la teoria matemática de conjuntos, la psicologia Gestalt y la teoria de la información de Shannon y Weaver. Su objeto de estudio es de hecho, la formulación lógico-matemática de principios validos para los sistemas en general. En su intento de crear un lenguaje capaz de reunir los diferentes áreas de conocimiento, estableció una compleja relación con las tradiciones filosóficas de largo y variado desarrollo, al mismo tiempo que recoge diversos estímulos culturales y los ecos de áreas como el historicismo alemán, la psicología Gestalt y la filosofía de Husserl, Heidegger y Merlau-Ponty, como ha sido señalado por Rossi, Monti y Vitali (1980). Tal como señalaron los autores (p.114) “El trabajo de Bertalanffy constituye uno de los intentos más determinados hechos por la ciencia biológica en la primera mitad del siglo para superar el conflicto entre el mecanicismo y el vitalismo al desarrollar un concepción organicista de los seres vivos en la que la importancia central está dada en la idea de sistema (abierto)”.

La TGS considera las construcciones tradicionales de la ciencia y la filosofía, ensamblándolas de una madera diferente, centrando la atención en los patrones de conexión entre los elementos y las relaciones dentro de un todo. Se trata de ver el bosque como un conjunto de arboles y considerar la interdependencia de los acontecimientos en la búsqueda de coherencia y armonía.

Tal como señala Accame, el término académico “sistema” ha llegado a nosotros prácticamente sin cambios de significado desde los griegos. Leibnitz lo definió en 1666 como un conjunto de partes, y el lingüista Saussure en 1992 como una totalidad organizada hecha de elementos comunes que pueden ser definidos en relación unos con otros, en relación a su posicionamiento dentro de esta totalidad, lo que resalta su aspecto organizativo.

Von Bertalanffy y Rapapport (1969) también presentan una definición clásica de sistema, respectivamente, como un conjunto de unidades interactuando recíprocamente y un todo que funciona como una totalidad sobre las bases de sus elementos constitutivos.

El universo no es considerado como la suma de objetos independientes, sino como una organización e interrelación de elementos que se identifican en sistemas de diferente magnitud que contiene uno al otro como las matrioshkas anidadas en un mundo de capas, pasando de lo muy grande a lo infinitesimal16 (o viceversa). El clásico punto de vista funcionalista representado por personajes como el sociólogo Talcott Parson es en realidad de un mundo claramente dividido en sistemas, subsistemas y suprasistemas, considerados como estructuras dadas a priori (el individuo, la pareja, la familia, la sociedad extensa, etc).17 No fue sino hasta la década de 1980 que este orden se vio minado. Como resultado de la introducción del observador en el proceso de observación, la concepción (y reificación) de los sistemas como estáticos y ordenados dio paso a una forma mediante la cual el sistema es lo que sea que el observador considere, y vea en relación con el contexto. El mundo ya no está claramente dividió y el observador decide lo que va a ser el sistema y cuál será el contexto.

El sociólogo y epistemólogo Edgar Morin destacó el cambio desde una visión reduccionista hacia el nuevo modelo teniendo en cuenta la relación entre las partes de la siguiente manera (1982, p.128): “todos los objetos clave de la física, biología, sociología y astronomía, átomos, moléculas, células, organismos, sociedades, estrellas y galaxias, son sistemas, fuera de los cuales solo existe la dispersión de las partículas. Nuestro mundo es un archipiélago de sistemas en el océano del desorden. Todo lo que era objeto se ha convertido en sistema. Aún todo lo que era una unidad elemental, incluyendo y de hecho, sobre todo, el átomo, se ha convertido en sistemas. […] y así la vida es un sistema de sistemas de sistemas […] La naturaleza es una totalidad polisistémica. Sería necesario considerar todas las implicaciones de esta idea”. El definió un sistema como una “unidad global organizada con interacción entre los elementos, acciones e individuos”.

Un sistema es definido como un complejo de elementos interactuando uno con otro, la importancia no está ligada a los elementos por si mismos sino a las relaciones y operaciones que se dan entre ellos. La metáfora empleada para describir los organismos biológicos y las organizaciones sociales inicialmente se enfocó en su característica de sistemas abiertos, capaces de intercambiar materia, información y energía con el ambiente para mantener su nivel de organización, superando la degradación en el tiempo y avanzando hacia una mayor complejidad.18 Algunas de las principales características se mencionan a continuación.

– Equifinalidad es identificada como una característica peculiar de los organismos y sistemas biológicos, en el sentido que cada evento presenciado en el presente no está organizado por una causa única a priori sino por causas concomitantes, algunas de las cuales son amplificadas por reacciones circulares “virtuosas” o “viciosas” de acuerdo a las circunstancias. En otras palabras, es posible llegar al mismo punto desde distintos inicios y el mismo inicio puede desembocar en diferentes resultados. El presente no se considera suficiente para explicar el futuro, se introducen en cada momento eventos singulares e irrepetibles capaces de alterar el curso general de los acontecimientos. La necesidad es por lo tanto, siempre y en cualquier caso construida a posteriori.

– El foco en la no –linealidad, i.e. lo inadecuado de cualquier reconstrucción lineal y acumulativa que simplifique la descripción de los hechos; la presencia de relaciones siempre nuevas y constitutivas entre aspectos diferentes de la realidad; la posibilidad de descripciones no-lineales y no­simples que ofrezcan espacio a lo impredecible, al azar y a lo inesperado.

– La importancia es dada a la circularidad,19 la relación entre las partes, elementos y patrones; la posibilidad de pensar en términos de procesos (no estructuras) y de unidades dinámicas (no estáticas).

– El objetivo se convierte en la construcción de una teoría independiente tanto de los enfoques holísticos (que consideran al todo como mayor análisis de las partes individuales) como de los enfoques atomistas (los cuales reducen todo al análisis de la suma de las partes) a fin de considerar al todo como simultáneamente mayor y menor que la suma de las medidas de las partes: mayor debido a la emergencia de características y posibilidades nuevas; menor porque se realiza solo una de las posibles organizaciones20. El sistema como un todo tiene de hecho propiedades que no pueden ser atribuidas a sus elementos individuales.

– Para la TGS al igual que previamente para la cibernética, se le da una importancia crucial al contexto como un lugar real o figurativo que confiere significado a cada acción y comunicación en una perspectiva que no implica la división entre el observador y observado y no separación del sistema de su entorno.

En la década de 1970 la teoría de sistemas, la cibernética y otras teorías de la época estuvieron en peligro de permanecer marginados al positivismo, ya que todas usan el lenguaje matemático y lógico como sus herramientas primarias en el proceso de conocer y compartir una actitud científica ortodoxa.21 Esta rígida formulación matemática de la teoría de sistemas, es quizás una de las más conocidas tanto en su definición teórica y por las implicaciones prácticas para la aplicación de la terapia familiar en 1960 (lo que es conocido como el elemental modelo pragmático). Esta formulación es una de las más concurridas por los clínicos y teóricos, sobre todo al centrar su atención en las limitaciones.

En lo referente a la expansión de TGS en el campo de las ciencias sociales, se debe poner atención a la contribución del antropólogo Gregory Bateson, esposo de Margaret Mead, quien jugó un papel central en las relaciones entre las ideas de von Bertalanffy, los fenomenólogos y los clínicos. Bateson brillante divulgador y difusor de las ideas, no está interesado directamente en el concepto de sistema, sin embargo en sus estudios aplicó la procesualidad sistémica. Entre sus intereses estaban la comunicación, la medicina clínica, el juego, el lenguaje y la ecología tanto en humanos como en animales. Organiza un grupo de estudio interdisciplinario en 1952 (Proyecto Bateson) financiado por la Fundación Rockefeller (1952-1954) que se oriento hacia el problema de clasificación de la conducta (y las ciencias) aplicando la teoría de los tipos lógicos a la comunicación. En años posteriores, con fondos de la Fundación Macy, trabajó con Jackson, Weakland y Haley sobre la esquizofrenia y desarrolló la teoría del doble vínculo así como un marco sistémico-cibernético para entender los trastornos mentales como en Hacia una Teoría de la Esquizofrenia (1956) y Las Dinámicas de grupo de la Esquizofrenia (1960).

Un esquema de las ideas de Bateson (en colaboración con Giovanni Madonna)– Existe una línea divisora entre el mundo de los seres vivos y el de los no vivos, a los cuales se refirió Bateson respectivamente como creatura y pleroma, términos gnósticos retomados de Jung. Pleroma es el material del universo, caracterizado por las regularidades descritas por las ciencias físicas, en el que la “causa” de un evento puede ser una coalición o una fuerza ejercida en una parte del sistema por otra. Creatura es el universo de las ideas, las esferas biológicas y sociales (necesariamente incorporados en formas materiales sujetas a las leyes físicas de la causalidad), en las que las “causas” de un evento puede ser una diferencia detectada en la relación entre dos partes o una diferencia detectada en las relación entre una parte en un momento 1 y la misma parte en un instante 2, i.e. un cambio. El conocimiento humano del pleroma está totalmente mediado por los procesos criaturales de respuesta a la diferencia o al cambio.- La percepción opera únicamente en la diferencia y la percepción de la diferencia está siempre limitada por un umbral. Recibir información siempre y necesariamente significa recibir información acerca de una diferencia, que es lo que conduce a la cartografía de un territorio determinado (algo solo posible en creatura). La percepción de una diferencia es la transformación de una diferencia latente o implícita en el territorio en un evento en el sistema perceptivo posterior al cruce del umbral. En otras palabras, es una diferencia que genera una diferencia, que es sinónimo de información.- Conectada con la entropía y la entropía negativa, la información reduce los niveles de incertidumbre dentro del sistema. La información es procesada por un sistema auto-correctivo que se extiende más allá de los lazos de los individuos y está conectada con los procesos interactivos. (Ver Bateson, 1972, p.349: ”Consideren un hombre talando un árbol con una hacha. Cada golpe del hacha es modificada o corregida, de acuerdo con la forma del corte en el árbol hecho por el golpe anterior. Este proceso auto­correctivo (i.e., mental) se realiza mediante un sistema total, árbol­ojos-cerebro-músculos-hacha-golpes-árbol: y este sistema total que tiene las características de una mente inmanente […]. Pero esta no es la forma en que el Occidental promedio ve la secuencia de eventos de la tala de árboles. Él dice, ´Yo corto el árbol,, e incluso cree que existe un agente delimitado, el yo, que realizó un propósito delimitado de acción sobre un objeto determinado.”)- El criterio para la identificación de “mente” se enlistan a continuación (1979, p.126): “1.La mente es un agregado partes o componentes interactuantes. 2. La interacción entre las partes de la mente es activada por la diferencia. 3. Los procesos mentales requieren energía colateral. 4. Los procesos mentales requieren cadenas circulares (o más complejas) de determinación. 5. En los procesos mentales los efectos de la diferencia deben de ser considerados como transformaciones (esto es, versiones codificadas) de las diferencias que le precedieron. 6. La descripción y clasificación de estos procesos de transformación revela una jerarquía de tipos lógicos inmanentes en los fenómenos.”M.C. Bateson propuso como séptimo criterio que en los procesos mentales la información debe ser distribuida en una manera no-uniforme entre las parte interactuantes (1987, p.134). La mente por lo tanto no está encerrada dentro de los límites del individuo y es el resultado de la interacción entre un número de unidades recursivamente interconectadas.- Los individuos y el ambiente co-evolucionan y se influencian uno a otro. Esta interacción entre el organismo y el ambiente no puede ser pasadas por alto.- La naturaleza humana es construida socialmente y el conjunto de los seres vivos se vuelve un importante contexto para la adquisición de significado.- Con respecto a los seres humanos, la atención no se dirige a las fuerzas intrapsíquicas; conceptos tales como “carácter”, “calidad”, “defecto” se recombinan para dar cuenta de las relaciones en las cuales emergen.- La unidad orgánica de la conducta no está dividida en categorías; las partes de un todo y los participantes en interacción se ponen en relación uno al otro.- El lenguaje descriptivo de la ciencia tradicional se basa en la descripción fenotípica, que ayuda a señalar diferencias e identificar categorías, i.e. para clasificar. Cuando se describe a los seres vivos, la descripción genotípica, la cual se centra en las relaciones y ayuda a establecer conexiones, es más adecuada porque propicia el conocimiento de nuestra integración en el ecosistema y es menos imprecisa, debido a su gran respeto de la armonía con la comunicación biológica. (La organización de los seres vivos tiene el carácter de un mensaje y es propagado dentro de cada organismo y entre los diferentes organismos).- El sistema de relaciones dentro de un organismo, actúa como premisa de su comunicación ya sea interna o con otros organismos, es la pauta que conecta a todos los seres vivos, la base biológica de la vida. Lo que los seres vivos tienen en común es el hecho que para conocer, necesitan un proceso de decodificación de la información del mundo exterior y de una puntuación de la secuencia de eventos.- La descripción genotípica es por lo tanto pensamiento biológico, pensar como lo hace la naturaleza, i.e., pensar en historias.

– Una historia es un patrón que se desarrolla en el tiempo conectando a sus personajes en el tiempo dentro de un contexto que da significado a lo que sucede. Los eventos de una historia deben ser relevantes para otros. La pertinencia es un tipo de conexión en virtud de lo que sucede después y que debe basarse en lo que sucedió antes. Impone límites contextuales y por lo tanto confiere significado.

– El contexto es la situación física en la que las personas se comunican y, al mismo tiempo, el baile de significado que surge de la interacción. El individuo adquiere significado en la interacción con el contexto.

Deutero-aprendizaje (aprender a aprender) es aprender como esperar y lidiar con ciertos tipos de contextos para acciones de adaptación. Las premisas adquiridas a este nivel están fuertemente arraigados ya que auto-validan y guían al individuo.

Doble descripción (un ejemplo de lo que es la visión binocular) es un método de estudio y una forma de comunicarse que ayuda a alcanzar una conciencia más profunda, a ser menos apegados a las propias convicciones y supuestos, y por lo tanto más tolerantes.

 

Tal como veremos, la revolución sistémica que comenzó en 1940 y que aún continua ha involucrado numerosas disciplinas y campos de conocimiento, aunque en fases sucesivas, sugiriendo una variedad de rutas y trayendo palabras clave y procedimientos particulares para cada uno. Las ideas de von Bertalanffy, Bateson y otros han sido usadas de formas diferentes en diferentes periodos históricos como series de supuestos operativos tomando una variedad de significado en relación al tiempo, el contexto y las disciplinas en las que han sido aplicados. Parece que las ideas sistémicas de Bateson son mejor entendidas y apreciadas en mayor profundidad en los años recientes.

Tal como describimos la evolución de la cibernética en numerosas fases, también podemos identificar la evolución que se dio en el entendimiento de los sistemas. Es posible identificar un movimiento que observa los sistemas “desde el exterior” (el modelo de los sistemas observados) centrado en los sistemas en equilibrio (sistemas homeostáticos considerados en estado de equilibrio dinámico) y los mecanismos para mantener el status quo (el modelo homeostático22 asociado con la primer cibernética). Las ideas de Wiener y Bertalanffy fueron retomadas por Magorah Maruyama (1963), quienes dieron gran importancia a la evolución de los sistemas biológicos y sociales dando lugar a un movimiento centrado en un paradigma evolutivo (similar y relacionado con la segunda cibernética) basado en el supuesto que ningún sistema vivo puede ser considerados estables permanentemente y que es necesario tener en cuenta la posibilidad de cambio, evolución (en saltos) y desarrollo de nuevas formas. Fue Ervin Laszlo (1972) quien puso mayor énfasis en la evolución de los sistemas, 23 introduciendo y desarrollando estudios sobre como la evoluciona la organización de los sistemas y proponiendo un cambio similar al de la cibernética de primer a segundo orden con la introducción de lo que von Foerster denominó sistemas observantes (los cuales incluyen al observador).

Nuestro objetivo al describir los últimos desarrollos e introducir el concepto de auto-organización es destacar la amplitud de la teoría de sistemas que basándose en las ideas de Bateson y von Foerster, abandono el modelo mecanicista para abrir las puertas a los sistémicos, con un nuevo foco en conceptos tales como adaptación, evolución, aprendizaje, equilibrio múltiple, emergencia, complejidad, impredecibilidad y sistemas caóticos. El concepto de auto-organización: 1. Desecha el énfasis en la estructura, la adaptación y el equilibrio dinámico que caracteriza los inicios de la TGS y la cibernética; 2. Implica el abandono de la visión habitual de organización con un objetivo, involucra en una relación instructiva con el ambiente, e inevitablemente relacionada con el mundo externo; 3. Introduce la hipótesis de que no hay transmisión de información de una persona a otra sino que cada sistema es organizado por sus supuestos y preparado para admitir solo información consistente con esa forma de organización. El primer paso en esta dirección fue el descrito por Maturana al diferenciar a los sistemas auto-referenciales –los cuales pueden, como sistemas vivos, ser caracterizados solo en relación a sí mismos- de los sistemas que deben ser caracterizados en relación al contexto.

Enrich Jantsch se refiere a los modelos de auto-organización24 como un paradigma sistémico emergente y unificador que arroja luz de manera inesperada en el fenómeno de la evolución al hacer posible desarrollar un punto de vista basado en la interconexión de dinámicas naturales a todos los niveles de la evolución de los sistemas (ambos micro y macro). La atención anteriormente estaba centrada en la organización unitaria de los sistemas vivos (el individuo como miembro de una especie) sin que hubiera una teoría para explicar lo “nuevo”.

De acuerdo a Jantsch (1980, p.6) este nuevo entendimiento puede ser caracterizado como un proceso-orientado que contrasta con el énfasis dado a los componentes sólidos de los sistemas y de las estructuras compuestas de ellos. El énfasis esta en el devenir y el ser, incluso aparece en los sistemas dinámicos como un aspecto del ser. La idea misma de un sistema ya no está vinculada a una estructura espacial o espacio-temporal especificó o a una configuración de componentes particulares en proceso de cambio.

En cuanto a los sistemas biológicos y sociales, la tendencia es describirlos como abiertos termodinámicamente y cerrados organizacionalmente, i.e. como un sistema abierto al intercambio de energía pero cerrado a estos nuevos elementos que puedan poner en peligro su identidad; los sistemas cuyo comportamiento depende de su estructura interna.

Estos sistemas son activos y autónomos ya que están activamente implicados en el mantenimiento de su organización de auto-desarrollo en el paso del tiempo a través de comportamientos basados en reglas que no están definidas externamente. Estos son sistemas que toman todos los estímulos del ambiente, todas las posibles perturbaciones, y seleccionan aquellos que son admisibles y aquellos que no lo son. Algunos estímulos son incorporados y otros ignorados para así respetar su estructura interna (y evitar su destrucción). De igual manera son definidos como autopoieticos,25 i.e. capaces de dar su nombre a sí mismos y a las características por su propia cuenta, de crear nuevos elementos desde el interior a través de una nueva forma de organización psico-social que no puede ser predicha a priori sino solamente retroactivamente. Así es como la auto-regulación de la cibernética dio paso a la auto-producción involucrada en el concepto de autopoiesis.

Humberto Maturana, Francisco Varela y Gabriela Uribe (Escuela de Biología y Pensamiento de San Diego, 1974, 1975) destacaron la auto-organización y la autopoiesis como las características peculiares de los seres vivos.26 Maturana describió el concepto de autopoiesis como un nombre sin historia y por lo tanto sin riesgo de asociación con implicaciones semánticas pre-establecidas, y cambiable, es por eso que es adecuado para indicar lo que sucede en las dinámicas de autonomía en los sistemas vivientes. Los autores presentan una teoría general del conocimiento que al mismo tiempo es una teoría de la vida, en la que la cognición es considerada el pre-requisito para la existencia de los organismos vivos, el sine qua non de su existencia física. La autopoiesis es presentada como una característica de los sistemas vivos para renovarse a sí mismos continuamente y organizar este proceso a fin de mantener su integridad. Maturana considera a los sistemas vivos como determinados no por el ambiente sino por su sistema nervioso, es decir su estructura.27 En otras palabras, los cambios subsecuentes a la interacción están determinados por la estructura interna del sistema, la cual determina que patrones son significativos, cuales son posibles y cuáles no tienen sentido. De ellos se deduce que la interacción instructiva entre dos personas es posible. En otras palabras, la comunicación no se mueve como liquido en pipa; un interlocutor solo puede perturbar a otro, quien responderá de acuerdo con su estructura, entendimiento, historia, valores, desarrollo de su sistema de significado, reglas, relaciones y así sucesivamente. La biología ontológica de Maturana lleva al extremo el discurso iniciado por Bateson. Para Bateson, existe un mundo externo que siempre y necesariamente filtra a través de lentes subjetivos; para Maturana, el sistema nervioso funciona como un sistema cerrado (un sistema auto-contenido y una unidad auto-referencial) que contiene representaciones no codificadas del ambiente. De acuerdo a la teoría de la autopoiesis, la función biológica que guía a los seres vivos es la cognición. Pensamiento y vida se vuelven lo mismo al darse por el proceso de conocimiento que permiten que un mundo emerja – a través de “lenguajear”, es un proceso de nominalización, de coordinar la coordinación de acciones a través de la acción lingüística- que el sistema produce un mundo emergente. De acuerdo a los autores, la evolución biológica permite un dominio dual de posibilidades, biológicos y sociolingüistas, los cuales se interceptan ontológicamente, pero que van estudiados como factores independientes. Tal como señala Carmagnola (2006), esta no es una teoría de relaciones sociales sino de bases biológicas y físicas para hablar de la interacción social.

Mientras Maturana y Varela estaban interesados primordialmente en los sistemas humanos, NIklas Luhmann aplicó la teoría de los sistemas autopoieticos a la esfera sociológica en 1990, por lo que se refiere a los sistemas sociales como sistemas basados en la idea de sentido y constituidos por actos lingüísticos que en sí mismos van pronunciados y por lo tanto como construidos en la base de las relaciones de auto-referencia que se utilizan la comunicación.

Los sistemas parecen desplegar nuevas características. La atención a cambiado del intercambio de información, el punto focal de la cibernética, a la habilidad de los sistemas para evolucionar hacia niveles de organización de mayor complejidad y para construir un nuevo orden a partir del caos y el desorden. Ya no es posible descubrir una ley general para predecir el comportamiento futuro del sistema en el caso de los sistemas alejados del equilibrio. De acuerdo con Ilya Prigogine28, cada sistema alejado del equilibrio termodinámico incluye subsistemas constantemente fluctuantes. Una sola fluctuación o un grupo de ellas pueden en algunas ocasiones ser tan poderosas (resultado de una retroalimentación positiva) como para asumir la organización previa en un estado de crisis y conducir cambios drásticos en los que el sistema puede evolucionar hacia el caos o hacia niveles más altos de organización. Algunos sistemas alejados del equilibrio son descritos como disipativos29, en el sentido en que mientras requieren una gran cantidad de energía con el propósito de transformarse, pueden alcanzar organizaciones más complejas a través de sus fluctuaciones. Esta teoría confirma la hipótesis de que el orden y la organización puede surgir de forma espontanea a partir del desorden y el caos a través del proceso de auto-organización (orden a partir del ruido, orden a partir del desorden, tal como teorizaron von Foerster y otros). También confirma la posibilidad de que emerja una conducta organizada en el sistema aún en la ausencia de un plan, solamente como resultado de la retroalimentación en marcha.

En una perspectiva auto-organizacional, el interés se pone en las posibles relaciones entre los sistemas y el ambiente (los sistemas en equilibrio con el ambiente, cercanos al equilibrio y lejanos al equilibrio30). La historia de la interacción entre el sistema y su ambiente (o medio) se vuelve una historia de adaptación mutua, la historia del acoplamiento estructural entre dos. El acoplamiento estructural con el ambiente es el fenómeno que pone de relieve y constituye efectivamente lo que se denomina cognición, en el que estar acoplado con el medio significa comportarse inteligentemente.

Se da por lo tanto un cambio en el concepto de adaptación, tradicionalmente considerado desde una perspectiva Darwiniana como la respuesta progresiva del organismo a los requerimientos del ambiente, mediante el cambio estructural para optimizar su explotación. Ahora en cambio, el ambiente se vuelve un elemento perturbador que facilita o impide una ineluctable evolución del sistema, la cual tiene lugar a través de las diferenciaciones sucesivas basadas en la redundancia con la que el sistema es dotado. (Entre más interactúa un sistema con el ambiente, más podemos asumir que está dotado con una diferenciación de su estructura interna.) Para Maturana y Varela (1984, p.104), “La evolución ocurre como un fenómeno estructural derivado de la selección filogenética que está en marcha. En ese fenómeno no hay programa u optimización del uso individual, sino solo hay conservación de la adaptación y autopoiesis. Es un proceso en el cual los organismos y los individuos permanecen en continuo acoplamiento estructural.” Los autores destacan la determinación reciproca del sistema y el ambiente mediante la cual la evolución se vuelve un proceso de conservación de la autonomía y la supervivencia de la adaptación (no del más adaptado, como algunos erróneamente afirmaron que Darwin dijo). Desde una visión interna del sistema, deja de ser relevante hablar de información instructiva del ambiente o del desorden, ruido, transformación y evolución. La visión interna es la visión de autonomía del sistema, de cierre y mantenimiento de la identidad a través del mantenimiento de la organización. La visión externa es la visión en la cual surge el problema de la integración del sistema en un meta-sistema, el problema de transformación y evolución.

Ernst von Glasersfeld (1977) toma el mismo enfoque, definiendo adaptación como adecuación y coherencia entre el sistema y el medio en total respeto para la autonomía mutua. El ambiente pierde su carácter instructivo y ya no es considerada como influencia directa del sistema: “ Desde la perspectiva del organismo, tanto en el nivel biológico como en el cognitivo, el ambiente no es más ni menos que la suma de los limites dentro de los cuales puede operar el sistema. Las actividades y operaciones del organismo son exitosas cuando no son impedidas o frustradas por las limitaciones de los vínculos, i.e., cuando son adecuadas. Por lo tanto es cuando las acciones y operaciones fallan que uno puede hablar de “contacto” con el ambiente, más no cuando tienen éxito.”

Podemos considerar cada vez más la metáfora sistémica como una forma de pensamiento y una postura epistemológica que promueve conectar esferas anteriormente consideradas incompatibles y tomar en cuenta sus aspectos procesuales y evolutivos.31En cualquier caso, siempre involucra elecciones subjetivas por parte del observador, elección que es muy pobre y rica al mismo tiempo. Tal como afirma Morin, es pobre percibir al ser humano solo como un sistema, pero rico y útil para considerarlo también como un sistema.

LOS CAMINOS DE LA EVOLUCIÓN

Mientras que la biología evolutiva moderna ha presenciado toda una sucesión de diferentes modelos, el aspecto que queremos destacar no considera una sola idea o teoría. Lo que fue tomando forma en los últimos años es la posibilidad de combinar varias teorías definidas y descritas en términos de dualidades irreconciliables tal como continuidad, estabilidad y cambio. El nuevo enfoque presentado por Gregory Bateson consiste precisamente en reformular estas dicotomías conceptuales dentro de concepciones ecológicas de naturaleza indefinida, por lo que ya no son consideradas en términos de oposición sino contextualizadas dentro de una “estructura en conexión”. La biología evolutiva moderna se presenta a si misma como un punto de encuentro para estas polaridades “eternas” y busca posibles “zonas fronterizas” en las cuales formas y conceptos surgen y se disuelven, los procesos se cristalizan y evolucionan.

La teoría del equilibrio puntuado desarrollada por Niles Eldredge y Stephen Jay Gould en 1972 fue una de las primeras en tener éxito en reorganizar la dicotomía de estabilidad y cambio. De acuerdo con los autores, la vida de una especie no se caracteriza exclusivamente por un proceso de transformación gradual de caracteres simples sino también por la alternancia de largos periodos de estabilidad y periodos cortos de transformación. Esta teoría desafió la imagen de cambio presentada por las teorías darwinianas.

Eldredge y Gould sugieren que el surgimiento de nuevas especies deriva no solo de una transformación genética gradual (visión de Darwin) sino también de la discontinuidad y la acelerada ramificación en una población periférica. La teoría del equilibrio puntuado tuvo un considerable desarrollo durante la década de los 90´s con los trabajos de M. Ghiselin y D. Hull, quienes propusieron una visión de las especies como sistemas homeostáticos, tendientes al equilibrio pero capaces de cambios repentinos, episódicos y localizados. White describió una gran variedad de procesos para el surgimiento de nueva especies (especiación alopátrica, simpátrica, tiro parapátricas, cromosómica, asexual, etc) en las cuales el cambio evolutivo surge de la estabilidad básica y no como la conclusión “obvia” de un proceso lineal realizado en varios pasos que guían a todos en la misma dirección.

La teoría de los equilibrios puntuados llevó a la modificación del principio de causalidad en la explicación de la evolución y la reevaluación del azar, factor de cambio paralelo a la selección natural. Una segunda teoría importante es la teoría jerárquica de la evolución de Richard C. Lewontin y Elisabeth Vrba, que consideran no solo a los organismos sino también a los genes y especies como sujetos de selección. En vez que una teoría de la selección monótona, es posible discernir una selección “compleja” que depende de la relación entre niveles (macro-evolutivo, meso-evolutivo y micro-evolutivo) en un proceso de tipo mosaico. De esta forma es posible hablar de adaptación en el sentido estricto cuando la selección actúa efectivamente fijando un carácter por su función final, y de aptación32 cuando la selección actúa fijando un carácter independientemente de su función actual o futura. Estas teorías han demostrado la variación extrema de la evolución genética y de las especies, llenando así las lagunas de la teoría darwinista en lo relativo a las “estructuras intermedias”, como una mirada o una semi-mimetización.

Darwin se había dado cuenta que las hipótesis teleológicas –no son válidas para las estructuras intermedias hipotetizándolas como puente hacia las formas futuras. Fue por esta razón que propuso la teoría de la pre-adaptación, de acuerdo a la cual partes del organismo cumpliendo alguna función ancestral son readaptadas en línea con requerimientos momentáneos (oportunistas) de nuevas funciones. Gould y Vrba usaron el término “aptaciónes” en 1982 para caracteres formados por una razón especifica y después “afortunadamente” disponibles para la selección de otra función. Desde esta perspectiva, no todos los casos en los que hay un cambio sustancial de funciones son atribuibles a procesos de adaptación. También existen exaptaciones, en las cuales rasgos rudimentarios pueden ser empleados para nuevas e insospechadas funciones.

Como resultado de estas teorías, la evolución no es vista como el reino de la necesidad, sino más bien como el resultado imprevisible de los procesos contingentes. Una perspectiva finalista y predefinida ha dado pie a una imagen rapsódica en la que la evolución de las especies parece menos como un plan con una meta especifica y más como una capa de arlequín de coloridos materiales variados originalmente usados para diferentes vestidos. Este cambio de perspectiva ha llevado a la reformulación de las hipótesis de desarrollo y a una visión de los organismos y sus nichos ambientales como (indivisibles), sujetos co­evolutivos formando un sistema integrado de desarrollo.

Un ser vivo ya no es descrito como la suma de rasgos ni como sujetos pasivos de selección sino como una entidad autónoma y activa que contribuye a la creación de contextos y sus posibles desarrollos o evolución. Las categorías dicotómicas de interno y externo ya no describen los procesos de evolución y selección; en cambio resulta necesario hacer frente a las dinámicas ecológicas de restricción y posibilidad, donde las restricciones del medio ambiente no solo constituyen límites, sino que también se convierten en posibilidades de cambio y trayectorias inesperadas. La evolución por lo tanto puede describirse, citando a Cerruti y Pievani (1998), como un “laberinto de historias que se bifurcan” en las que cada cambio procede a una forma de “contingencia evolutiva” por lo que no puede ser definida a priori.

El azar y el desorden se vuelven aspectos centrales del conocimiento y toman parte en la construcción de hipótesis, eliminando la predictibilidad como piedra angular característica. Ningún sistema puede justificar su estado si se retoma un momento particular sin referencia a su historia, sin entender como el sistema ha llegado a su estado actual. Por consiguiente es necesario introducir tiempo o tiempos, entendidos como historias conectadas con la evolución del sistema. Se le concede crucial importancia al desarrollo del sistema, los procesos que conducen a su estado actual en lugar del análisis del estado como estático y final. El concepto de circularidad da pie a la recursividad, definida como una habilidad del sistema para plantear preguntas acerca de sus descripciones, dando lugar así, a un proceso sin fin de descripciones y descripciones de las descripciones.

La definición más actualizada que podemos aportar de “sistema” es una serie de elementos interactuantes elegidos por un observador como una figura, una entidad formada de componentes que un observador distingue de los que no pertenece al sistema, que quedan como fondo. Esta definición pone de relieve que el sistema no tienen una existencia a priori en la naturaleza: es el observador que asigna los límites de un sistema y lo construye, aunque con la obligación de explicar estas distinciones realizadas en su construcción y obteniendo un acuerdo social al respecto. Un individuo es también por lo tanto un sistema cibernético que puede ser considerado en términos de su recursividad, el auto-ajuste de su organización y la estabilidad adquirida a través del proceso de cambio. Un grupo de personas heterogéneas que semánticamente comparten una definición o un problema también pueden ser consideradas como un sistema33.

EL PARADIGMA DE LA COMPLEJIDAD

Los variados modelos presentados anteriormente son expresiones directas de la cultura originada en las ciencias biológicas y físicas, teorías eligiendo emplear el lenguaje formal de las matemáticas han corrido el riesgo inicial de regresas a operaciones reduccionistas.

Un modelo interesante no originado en la física y que toma ventaja de las innovaciones introducidas por la cibernética y la teoría general de sistemas sin retomar el lenguaje de las “ciencias exactas” es un derivado de la sociología centrando su atención en la complejidad. Esta aproximación pone definitivamente en crisis el modelo mecanicista, proponiendo una actitud diferente respecto al conocimiento. Abandona la ilusión de generalizaciones posibles y se refiere a cada teoría como “local”, cambiando la atención de las teorías sistémicas que buscaban un lenguaje transversal y universal del saber y el conocimiento a favor de perspectivas capaces de contener la variedad de puntos de vista y las múltiples posibles definiciones del mismo objeto, enseñándonos a desconfiar de las explicaciones unívocas y lineales. Como lo plantea Edgar Morin (1985), la complejidad se presenta a sí misma como dificultad e incertidumbre más que como claridad y respuesta. La atención se centra primordialmente en la variedad perspectivas y definiciones.

En esta perspectiva, cada hipótesis es definida por el modelo de referencia elegido, la plantilla de codificación y decodificación utilizada, y el contexto histórico y social en el que los acontecimientos son vistos. Cada punto de vista es considerado parcial, solo una parte de la verdad. La naturaleza complementaria de las descripciones y la composición de conocimiento son presentadas como posibles formas de “aproximarse” a la complejidad del mundo real. No existe más que un universo para conocer, por lo tanto la introducción de conceptos tales como multiverso, pluriverso y polifonía, así como el abandono de las cuentas simplificadas y univocas de los acontecimientos. Viene en mente Bateson y su “cerebro cibernético”, i.e., la necesidad de tener más cabezas dirigidas que enfrenten el mismo problema para captar su complejidad, evitar el riesgo del reduccionismo y la simplificación inevitable que surge con un solo individuo.

Etimológicamente, complexus, significa lo que se mantiene unido para formar una estructura única. La complejidad por lo tanto se vuelve un llamado para la interconexión de lenguajes en la que las dinámicas de las situaciones y eventos en sistemas sociales y naturales pueden ser expresadas. Este enfoque propone que teorías muy diferentes deberían tomarse en consideración e introduce un método científico para ser usado por diversas disciplinas, incluso muy distantes. Donata Fabbri (1990) nos recuerda que la complejidad no es un descubrimiento reciente: “Lo que es reciente es el hecho de tomar conocimiento de ello y el deseo de respetar los fenómenos de cualquier tipo en su dinámica total y su reciprocidad de las relaciones con el contexto en que se insertan.” (p.21) Fabbri continua (p.117): “El mensaje que nos ha dejado la complejidad es el de abrir nuestras mentes a las posibilidades del universo, para descubrir el placer del descubrimiento, para inventar no solo nuevas reglas del juego (creyendo que esto fuera más que suficiente) sino también el juego mismo (el juego del conocimiento y la enseñanza, si se me permite la metáfora), ya que no hay ninguna razón para que se considere que ya ha sido definido para siempre.”34

Se sintió la necesidad de identificar las vías por las que es posible explorar la complejidad, el paso de la certeza de las explicaciones a la incertidumbre de la hipótesis. Alberto Munari describe la complejidad como la sorpresa que permitió un salto cognitivo, una forma radicalmente diferente de pensar a la humanidad, el mundo y al conocimiento mismo. La complejidad hace obsoletos los límites disciplinarios al mostrar cómo cada disciplina es contenida dentro de otra con estructuras de interconexiones circulares y jerarquías complejas en constante movimiento. El verdadero cambio se vuelve la búsqueda de nuevas herramientas cognitivas, nuevas formas de pensamiento, nuevas metáforas y nuevas estrategias de conocimiento. Tal como lo plantea Zanarini (19??), “una ´conciencia compleja´ es el pensamiento que mientras piensa, también piensa en el sí mismo pensante”, un pensamiento capaz de captar las dimensiones diferentes y relacionarlas unas con otras dentro de una estructura de continuidad entre la observación y la auto-observación, conocimiento y auto-conocimiento.”

Isabel Stengers (1985) sugirió que la complejidad es el descubrimiento de problemas más que de las soluciones. El primer artículo señalando el potencial y el carácter científico de la complejidad fue Ciencia y Complejidad (1947) por Warren Weaver. El responsable de introducir la complejidad en la esfera de las ciencias sociales fue, sin embargo, Edgar Morin, quien la entendió como la actitud de aquellos, que considerándose jugando un papel activo en la relación con el conocimiento, dejan de observar un fenómeno simple o dejan de considerar a sí mismos como sujetos simples, reconociendo el carácter compuesto de la realidad renunciando a la neutralidad, la objetividad y la verdad. Como una propiedad del objeto, la complejidad difiere, sin embargo, de la complicación, la cual es considerada como una dificultad en la representación.

Los caminos de la Complejidad de Morin

Morin presenta numerosas vías operativas que pueden llevar a la complejidad, tal como se señalan a continuación.

  • Se introduce una perspectiva capaz de tomar en cuenta la singularidad de los eventos y las leyes, que supere la abstracción universalista.
  • Se vuelve necesario hacer un balance de la pluralidad y el pluralismo de los elementos en juego. Cada punto de vista es sincrético y plural. Lo que se observa a través de un marco es diferente a lo que se observa a través de otro.
  • Se percibe la necesidad de no disolver lo plural en lo individual y lo individual en lo plural. En este sentido, se hace hincapié en el concepto de unitas multiplex (Angyal, 1941), la unidad en la multiplicidad, como un concepto introducido en la psicología por Victor Frankl para introducir al ser humano dotado con una dimensión que es emotiva, social e histórica al igual que cognitiva.
  • Superando el dualismo del sujeto y el objeto, es reemplazada la atención cambia hacia las formas de análisis.
  • El concepto de orden, desorden y organización se vuelven complementarios y entrelazados.
  • La atención en un proceso de unificación se abandona a favor de puntos de vista complementarios. No hay un intento de sumar o simplificar los datos de la realidad.
  • La clara demarcación de la ciencia y la no ciencia, verdadero y falso, es desechada.
  • La consecuencia más interesante en la esfera de las ciencias sociales implica nuevas actitudes, una forma de relacionarse y aproximarse al conocimiento con curiosidad más que en la búsqueda de respuestas.
  • El sujeto toma una función interpretativa, volviéndose no solo quien observa e interactúa con el objeto de observación sino también quien da sentido y significado a lo que se observa.
  • Se evidencia la necesidad de abandonar una especulación únicamente teórica para moverse hacia la práctica y a volverse operativos.
  • La brecha entre los sistemas de conceptualización y los sistemas de valores es superada. La participación se vuelve un postulado privilegiado.
  • La interdisciplinariedad implementa una práctica que respeta los diferentes niveles de la realidad.
  • No existe hegemonía de un lenguaje sobre otro, sino más bien la yuxtaposición constante de diferentes lenguajes, todos dotados de la misma verisimilitud. (“La riqueza de la realidad sobrepasa cualquier lenguaje.”)

El enfoque de la complejidad no está limitado a la consideración de la pluralidad de teorías de conocimiento propone una metodología consistente con la cibernética de segundo orden que se identifica con la polifonía reflexiva. Dos ejemplos ayudarán a ilustrar las características de los modelos complejos, es decir la hipótesis Gaia de James Lovelock, ahora reconocida dentro de las ciencias biológicas, y la sinergética de Hermann Haken. En nuestra perspectiva, es útil tomar la continuidad entre la teoría de sistemas y las teorías subsecuentes del caos y no para sugerir una discontinuidad, un cambio drástico y paradigmático que emerge a partir del surgimiento de la imprevisibilidad, la incertidumbre, el cambio catastrófico y el caos, como lo hace Lyotard en La Condición Posmoderna.

Para regresar a los sistemas complejos, Lovelock sugiere que la tierra puede ser estudiada como un sistema vivo en el cual el clima y todas las reacciones químicas del planeta son estabilizadas por la interacción de los organismos y sus ambientes. Esta hipótesis lleva a examinar el acomplamiento evolutivo de varias especies con su ambiente, en consecuencia trayendo los estudios históricamente divididos biológicos, geológicos y ambientales reunidos en una sola disciplina. La hipótesis Gaia introduce la imagen de la evolución a través del equilibrio puntuado, en el que los sistemas interconectados de los seres vivos y el ambiente permanecen estables hasta que la posibilidad de perturbaciones se introduce mediante oscilaciones hacia un nuevo estado de equilibrio. La evoluciòn no es por lo tanto considerado como un camino de etapas pre-establecidas sino como una forma de “deriva estructural” (como en el modelo de Maturana y Varela) derivada de las relaciones entre los subsistemas y las contingencias momentáneas.

La hipòtesis de Haken es interesante ya que sugiere una forma de estudiar los sistemas que no son susceptibles de predecir por medio del análisis de sus componentes. Se define la sinergética, precisamente para enfatizar la cooperaciòn entre los elementos, que puede conducir a la emergencia de características extrañas a los componentes individuales (una perspectiva parecida a las teorías anteriormente mencionadas de los sistemas alejados del equilibrio). La peculiaridad de esta contribuciòn recae en reunir dos diferente puntos de vista, es decir microscòpica y la macroscòpica. Tal como Gianluca Bocchi y Mauro Ceruti señalaron en su presentaciòn del artículo de Haken en su libro La sfida della complessità (1985, p. 14), “La sinergetica busca identificar los principios generales que gobiernan la conducta (la conducta de los sistemas complejos); al regular los procesos de auto-organizaciòn de los elementos microscòpicos del sistema a partir del cual se genera el estado macroscòpico sin intervención especifica del exterior.” El aspecto innovador de este enfoque, cuya aplicaciòn abarca desde las emisiones de láser hasta los fenòmenos sociales y biològicos, se encuentra precisamente en la estructuraciòn y transformaciòn del orden de análisis entre los niveles microscòpicos y los macroscòpicos, los que se consideran interactuando, como posible crisol de cambios imprevistos.

La complejidad también generò el caos y teorías asociadas, un desarrollo paralelo que comenzò en 1940 (con von Neumman, Turing, McCulloch y Pitts). No fue hasta 1970 que tomò forma en hipòtesis algebraica-numérica e hipòtesis combinatorias que llevan también a (computacionales) estudios de sistemas complejos (incluyendo los sistemas inmunes, el cerebro, la descripciòn de un nido de hormigas, el mercado bursátil y la economía nacional) y la investigación de los fenómenos definidos como caóticos. “los fenómenos pueden llamarse caóticos cuando prueban que es posible en un proceso llegar a diferentes resultados aun cuando los puntos iniciales son muy cercanos entre sí. Esto sucede cuando el valor de la función que describe el proceso es altamente sensible a pequeñas variaciones en el punto de aplicación. Tomemos el ejemplo del billar, donde el más ligero error de golpe es suficiente para enviar la pelota en una dirección diferente a la deseada. Gran sensibilidad es un requisito natural para el caos” (Cadenotti, 1996).” DE ahí deriva la imposibilidad de entender los sistemas no­lineales descomponiéndolos en sus elementos constitutivos, y el crecimiento de una ciencia indeterminada que estudia irregularidades, un tipo de matemáticas que ya no representan una correspondencia biunívoca con la naturaleza y que se aleja cada vez más de la causalidad. Schmid (1996) señala que mientras las formas clásicas de movimiento de la mente y la materia son rectilíneas, periódicas y causales, el caos es un movimiento creativo que baila con el tiempo, altamente sensible, consciente de sí mismo, andando su propio camino y reflejándose en sí mismo.

Tal como lo plantean los estudiosos, el caos comienza donde la ciencia clásica se detiene.

Un posible desarrollo de estos estudios es el modelo planteado por René Thom, considerado como el padre de la teoría de la catástrofe, su trabajo comenzó a principios de 1970. Se trata de un modelo cualitativo, de una teoría con una revolucionaria aplicación de las matemáticas para entender las formas de discontinuidad e hipotetiza sugiriendo la posibilidad de un número finito de cambio repentino en el curso de procesos naturales estructuralmente estables. Como Krippendorff explica, esta es una teoría tipológica que describe el cambio de estructura de un sistema a lo largo de un continuo en un “paisaje morfogenético”, incluyendo saltos ocasionales. Los siete tipos de catástrofes elementales identificadas por Tom intervienen en la relación entre la estructura del todo y las propiedades de las partes, llevando a romper la discontinuidad y dando pie a posibles figuras dinámicas que son generadas unas a partir de otras en diferentes tiempos para desplegarse en el espacio en diferentes niveles.

Rene Thom por lo tanto propone un nuevo enfoque para las relaciones entre el todo y las partes de los sistemas organizados. Atlan señala (1979, p.21) que aplicada al estudio de los seres vivos, este enfoque evidentemente rompe con la tendencia de la biología moderna, analítica, reduccionista, molecular arraigada en la bioquímica.

Fue precisamente la evolución de la teoría de la complejidad que sentó las bases para las teorías del caos35, la cual sugiere que puede haber una marcada limitación de la previsibilidad también en sistemas deterministas debido a la dependencia de las condiciones iniciales. La definición misma de caos está relacionada con la dificultad de entender los datos y la predicción de la evolución de los sistemas dinámicos. Un ejemplo de un sistema dinámico simple es el péndulo en condiciones de fricción. Después de cierto periodo de tiempo, tal sistema alcanzara la estabilidad alrededor de la posición del resto (atractor puntual) describiendo el estado final del sistema. Los sistemas dinámicos sin embargo no siempre presentan un punto de descanso, pero frecuentemente oscilan alrededor de dos valores (como en el caso del latido del corazón). La función capaz de describir este movimiento es la de un ciclo límite (o atractor nodo), una trayectoria circular que se repite en el sistema con el tiempo. El atractor teroidal fue introducido por fenómenos más complejos, tales como los sistemas oscilantes con tres variables (tres grados de libertad). Cuando las variables en juego despliegan mayores grados de complejidad, encontramos lo que se conoce como movimiento caótico (introducido por David Ruelle y Edward Lorenz), lo cual solo puede ser descrito por medio de las “curvas de enredos” presentando una dimensión fractal, i.e., intermedia entre dos dimensiones discretas.

Por lo tanto hemos llegado a la dimensión de la típica conducta caótica de los sistemas, caracterizad por un atractor extraño (Ruelle). Prigogine y Stenger (1988) explicaron que la conducta es caótica si las trayectorias generadas desde puntos cercanos se alejan unas a otras exponencialmente a través del tiempo (de acuerdo con la variable de Lupanov): después de un periodo de evolución que ya no está en relación con el tiempo de Lupanov, nuestro conocimiento del estado inicial del sistema, pierde relevancia y ya no hace posible determinar su trayectoria. (p.75). El horizonte temporal resultante, típico de los sistemas caóticos determina una diferencia entre lo que puede ser visto y previsto y la conducta “errática” impredecible, común a todos los sistemas caracterizados por el atractor caótico. Estas hipótesis hacen posible imaginar y buscar definir posibles formas para el estudio del caos.

Los sistemas caóticos por lo tanto parecen extremadamente sensibles a sus condiciones iniciales y son constantemente revueltos en orbitas cuyas conductas son siempre diferentes, eliminando así cualquier posibilidad de predicción y relación causal entre presente y futuro. Un bien conocido ejemplo es el efecto mariposa descrito por Edwar Lorenz, donde los cambios previstos conectan el aleteo de una mariposa en el Caribe con las condiciones meteorológicas de Norteamérica. Finalmente debe destacarse que la maraña de trayectorias de los atractores caóticos no es unidimensional, como las trayectorias no son cercanas entre sí,ni describen una bidimensión, no llenan un volumen, en cambio incluyen dimensiones fractales.

Benoit Mandelbro acuño el término geometría fractal para indicar la posibilidad de representar objetos complejos (como las curvas se repiten indefinidamente en un espacio finito) gráficamente y formalmente. Definen la geometría como un lenguaje matemático capaz de comprender las formas y estructuras complejas fractales de la naturaleza, una geometría que hace posible capturar la arquitectura de la nube, los remolinos de la turbulencia, las formas del copo de nieve o la orilla de una costa, con la misma precisión de la geometría euclidiana que un arquitecto usa para elaborar los planos de una casa. Schmid ofrece una definición muy interesante de los fractales como estructuras auto-similares que representan los aspectos más bellos, irregulares y fragmentarios de la naturaleza, se trata de un objeto matemático dotado de auto-semejanza.36 Fueron llamadas fractales por el matemático Benoit Mandelbrot.

La compleja geometría de los fractales constituye una forma privilegiada de auto­organización biológica, que puede explicar la relación entre una regla simple y una imagen compleja articulada, capaz de simular la complejidad e indeterminación de los fenómenos naturales y sociales. Consistente con estos conceptos es el constructo eigenvalue37 de von Foerster, que afirma que la comportamientos estables se manifiestan en el movimiento circular de un sistema organizado y organizacionalmente cerrado, dando lugar a la emergencia de valores propios, una suerte de plateux de la organización, similares a los de la organización, propios a ese sistema particular (idiosincrasia). Cada sistema tiene su propia forma de organización y en su interior es posible identificar valores atractores de conducta (actualmente conocidos como atractores extraños). Estos valores propios cambian con la complejidad de la organización del sistema.

Marco d´Eramo escribió en 1986 un articulo, comparando la teoría de la catástrofe de Tom desarrollada en los años 70s, con la teoria del caos y encontró aspectos culturales que representan la aparición anterior y su transición más tarde. Como él señala, el periodo de 1970 fue un periodo totalmente caracterizado por el concepto de crisis ( la crisis del petróleo, la crisis del desarrollo de modelos) sensibles a la teoría de la catástrofe, mientras que la teoría del caos de los años 80´s y 90´s surgió con la imagen colectiva de una ciencia, débil posmoderna: “Desde un punto de vista, las teorías caóticas serían un forma posmoderna de la física, en el sentido de un pensamiento que actúa consciente de su debilidad, la ciencia que controla sus pretensiones y de la demiúrgica se hace bricoleuse, una especie de minimalismo científico. El autor señala un aspecto que consideramos particularmente interesante, esto es la posibilidad de aproximarnos a esto nuevos desarrollo en la ciencia ya sea con el mismo punto de vista anterior o con un foco en los cambios epistemológicos propuestos. En otras palabras, las teorías de la complejidad puede refutar o servir para verificar y desarrollar la antigua tradición mecanicista (disipando nieblas, incrementando conocimiento, inculcando el orden, descubriendo las leyes de la naturaleza y así sucesivamente).

El lugar que atrajo a muchas teorías del caos, fue El Instituto de Santa Fe, en Nuevo México, donde psicólogos, biólogos, economistas, matemáticos y científicos de la información se reunieron desde 1984 para investigar la complejidad y el caos para así desarrollar estudios aplicados a la ciencia de la complejidad y a las nuevas formas de predicción de fenómenos complejos y fractales en la frontera entre el orden y el caos (una continuación del Grupo de Manhattan y del Centro Los Álamos para estudios no lineales). El grupo incluyendo, Brian Arthur, Murray Gell-Man y Stuart Kauffman, tomo el estudio de los sistemas dinámicos y las dinámicas no-lineales como su punto de partida para investigar sistemas adaptativos complejos (tales como el cerebro, el sistema inmune, sistemas ecológicos, células y organización para los individuos o los animales) y crear un lugar para reflexión intelectual (Waldrop, 1987). La economía también se trato bajo este contexto, el enfoque neoclásico – el cual redujo la complejidad a un pequeño número de principios divorciados de la cultura y la política, centrados en los rendimientos deficientes, el equilibrio estático y la racionalidad perfecta- siendo reconsiderado por el grupo de Santa Fe bajo la luz de teorías acordando dar prioridad a los rendimientos crecientes, limitada a la racionalidad limitada, a la dinámica de la evolución y el aprendizaje, S. Riziello (1996) describe esta economía de la incertidumbre como “economía de la mente”. La teoría de la catástrofe fue, sin embargo, aplicada a una gran variedad de campos. El matemático británico C. Zeeman (1977) sugiriò aplicaciones para la física (análisis de la luz de las estrellas y la estabilidad de los barcos), la biología, fenòmenos socio-psicològicos y fisiològicos tales como la trastorno mental, motines en las cárceles, flujos de tráfico, medicina holística y la organizaciòn del espacio en la evoluciòn geopolítica.

CONSTRUCTIVISMO Y CONSTRUCCIONISMO: EL PAPEL DEL LENGUAJE EN EL
CONOCIMIENTO

El realismo puede ser definido como la epistemología que atribuye el universo a una realidad ontològica que no es exclusivamente conceptual y lingüística. A este modo de pensar se contraponen otros caracterizados de una diferente articulaciòn entre el mundo externo, la percepciòn, la representaciòn y la acciòn humana que no son consecuencia directa de las referencias a la complejidad. De acuerdo con esta visiòn del conocimiento, el continente Americano, la enfermedad mental y carácter de una persona, son objetos de estudios como cualquier otro, cosas que podemos intentar investigar por medio de las herramientas de las ciencias duras como la física, matemáticas y química. Esta forma de pensar se topa con otras que se refieren directamente a la complejidad.

Von Foerster tiene que decir lo siguiente sobre el proceso de adquisiciòn de conocimientos. Si se le pregunta a unos sujetos sobre si un cierto número como 426,875 es divisible entre 5, inmediatamente responderán si, basados en el modelo matemático que han aprendido, el dominante en nuestra cultura. En cambio si se les pregunta còmo se formò el universo, responderán basado en sus convicciones personales, dando cada uno respuestas diferentes. Von Foerster clasifica la primer pregunta entre las preposiciones que define como “indecidible”, entendiendo que la decisión y el resultado depende modelo matemático binario compartido por nuestra cultura y por lo tanto decidido a priori. Las preguntas del segundo tipo son en cambio “decidibles” ya que se les pide a los sujetos que llenen un vacio de conocimiento, por lo tanto deben elegir entre varios modelos de los que tengan conocimiento o inventar otros nuevos; deben asumir la responsabilidad de responder a la pregunta formulada eligiendo la teoría de referencia. La respuesta en este caso dependerá de las creencias del sujeto, y son solo este tipo de preguntas que dan la libertad de decidir sobre la postura que prefieren adoptar respecto al mundo. Dentro de la esfera de las preguntas decidibles, von Foerster pregunta si el mundo fue descubierto o inventado y si está separado de él o se es parte de él. Responde que él considera el mundo “como inventado” por cada sujeto de manera individual a través de sus acciones aprobadas en la interacción mediante el intercambio social entre los sujetos dentro de las comunidades a las que cada individuo pertenece a través de compartir el lenguaje. Esta perspectiva lleva a una actitud particular con respecto al conocimiento, que es consistente con las teorías de la complejidad: ningún sistema de referencia puede ser considerado verdadero y correcto a priori; cada observación (construcción) es en cambio determinada por el lente interpretativo y las elecciones lingüísticas del sujeto (elecciones que lo o la definen como sujetos y que determinan la emergencia de un mundo en lugar de otro). Esta es la actitud característica del constructivismo (construo: yo construyo).38 Cada observación es determinada por la postura metodológica, los lentes interpretativos, objetivos, el lenguaje, la cultura y las interacciones en las que el sujeto está involucrado, las cuales lo o la definen y a las cuales él o ella definen.

Una vez más tenemos un repudio de la neutralidad, la objetividad, el realismo metafísico y la Verdad con mayúscula. Es precisamente esta relación entre el observador y el fenómeno observado que establece de una vez por todo el carácter complejo y compuesto de la realidad. Tal como dice von Foerster, cada descripción implica a la persona describiendo; cada descripción es una interpretación. De acuerdo con Maturana, todo lo dicho es dicho por un observador a otro observador, que puede ser la misma persona (1985). Morin (1983) añade que el fracaso para explicitar la forma en que un sistema (subsistema, suprasistema, etc) es elegido y la operación que lleva a su delimitación, significan separar el sistema del observador cuando en realidad constituyen una totalidad compleja y compartida. Nosotros por lo tanto tenemos evolución circular, mediante la posibilidad de construir y organizar la experiencia, que está vinculada a la operación misma de construir y organizar la experiencia. La epistemología personal y las premisas determinan lo que uno ve y la conducta construida en interacción con el mundo determina los eventos en el mundo llevándonos a mantener una epistemología en particular. La naturaleza auto­referencial del proceso cognitivo se pone de relieve junto con el papel activo del individuo en la relación con el ambiente. Todo eso debería conducir hacia una nueva conciencia, para conocer que gafas usamos y tener varios pares para cambiar, como lo pone Alberto Munari.

El constructivismo por lo tanto se enfoca en las operaciones del conocimiento, las cuales se definen como “construcciones” en las que no tienen referencia directa correlacionada con la realidad externa y adquiere significado como acciones de los sujetos en el contexto en el que se realizan. Esto nos recuerda las palabras del Hamlet de Shakespeare: “Hay más cosas en el cielo y la tierra, Horacio, que de los sueños en tu filosofía.” El constructivismo no es una invención reciente. Von Glasersfeld (1981), uno de sus grandes representantes, selecciona ideas subjetivamente desde el trabajo de filósofos modernos y antiguos para trazar un camino que conecte los distintos supuestos de las teorías constructivistas, rechazando y moviéndose más allá del concepto naturalista de “realidad”. Cita entre otros a Vico, los pre-socráticos, Heidegger, la tradición hermenéutica y más tarde Wittgenstein (1953).39

Identifica tres ramas del pensamiento científico contemporáneo que hace su propia meta-teoría constructivista, es decir la cibernética, de la cual hemos hablado, la psicología operacionalista y las teorías psicològicas de Piaget.

Por lo que respecta al operacionalismo, von Glasersfeld enfatiza la contribuciòn del epistemòlogo y lògico Silvio Ceccato40, quien fundò la Scuola Operativa Italiana en 1940. Ceccato criticò a la epistemología convencional, examinò las operaciones requeridas para la construcciòn de conceptos, y presento un análisis de las operaciones semánticas implícitas en el conocimiento. Von Glasersfeld también resalta la contribuciòn de Jean Piaget, con particular referencia a la epistemología genética y a los estudios de niños sobre la construcciòn de la realidad (1936), donde el psicòlogo suizo relaciona al adquisiciòn de conocimientos con la construcciòn de los objetos por medio de la operaciòn de abstracciòn, a la cual concibe como universal y temporalmente definida durante las etapas del desarrollo infantil.41 Mientras que los niños de Piaget construyen su mundo en solitario (“la inteligencia organiza su mundo, organizándose a sí misma), von Foerster, otro ilustre representante de las ideas constructivistas, identifica tres requisitos esenciales para hablar de construcción, los sujetos, el lenguaje que emplean y las sociedades que usan el lenguaje. Los elementos de inter­subjetividad y dependencia cultural en la concepción de von Foerster recalcan la visión de que la adquisición del lenguaje se realiza no en soledad o en el vacío social, sino a través del consenso y el acuerdo dentro de una comunidad de observadores, como es mencionado también por Varela en 197942. El nos recuerda que creer que la realidad existe es una elección; somos libres de adoptar el principio de relatividad o no, lo que en consecuencia nos permite abandonar el solipsismo: “Si lo rechazo, me encuentro en el centro del universo, mi realidad emerge desde mis sueños y pesadillas, mi lenguaje es monológico, mi lógica es mono-lógico. Si adopto el principio relativista, ni yo ni el otro puede ser el centro del universo. Como en el sistema heliocéntrico un tercero debe existir para constituir el punto central de referencia. Este tercero es la relación entre yo y tu, y esta relación es la IDENTIDAD: Realidad=Comunidad (von Foerster 1987, pág. 23343). Dentro del posicionamiento de von Foerster, por lo tanto, la elección (ética) a renunciar a la idea de lo que es el mundo es “fantasmagórica, un sueño, una ilusión en nuestra fantasía” (ibídem p.54) es esencialmente el reconocimiento de la existencia del otro: la relación con el otro, con el tú, se identifica con “la realidad”, se convierte en la “realidad” (Biancardi, 2009).

El constructivismo trivial y el constructivismo radical son referidos como enfoques opuestos al realismo. Un constructivista trivial es uno que sostiene que inventamos y construimos nuestra realidad, pero sin embargo, permanece convencido de la existencia de un objetivo y de un mundo ontológico externo. Un constructivista radical rechaza todas las convenciones y sugiere que el conocimiento no hace referencia al mundo externo a priori, sino que por el contrario pone de manifiesto, organiza y da significado a un mundo construido únicamente sobre las bases de la experiencia. Como lo explica von Glasersfeld (1998, p.50) “El conocimiento no es recibido pasivamente ya sea por los sentidos o por las vías de comunicaciòn; el conocimiento es construido activamente por el sujeto cognoscente. La funciòn de la cogniciòn es adaptativa, en el sentido biològico del término, tendiente al ajuste o la viabilidad. La cogniciòn sirve a la organizaciòn del mundo de la experiencia, no al descubrimiento de una realidad ontológica objetiva”.

Todos los caminos intermedios entre estas dos posiciones son practicables y han sido explorados por varios autores tanto en términos teòricos como prácticos44.

El constructivismo se estableciò de manera importante pero también fue criticado debido a la atenciòn dada hacia los individuos y sus operaciones cognitivas. Su atenciòn se centrò de hecho en la identidad de los sistemas y sus dominios cognitivos, entendido como el dominio de interacciòn en el que un sistema puede operar en virtud de su plasticidad operacional sin riesgo de perder su cierre organizacional. En una perspectiva constructivista, la percepciòn es reinterpretada en términos de una relaciòn que involucra los centros nerviosos (cortical y subcortical), las ideas individuales y las ideas culturales compartidas, teorías acerca del yo y el mundo, las expectativas y los patrones emocionales, para al final involucrar necesariamente a los otros a través del lenguaje. No utilizamos simplemente los sentidos para computar las nociones: la relaciòn entre el sujeto y el objeto también esta mediada por las acciones. Maturana se refiere al objeto como generado por medio del lenguaje (la actividad de lenguajear i.e., acciòn lingüística). La acciòn y el lenguaje no son necesariamente simultáneos ni conceptos superpuestos según von Foerster (1987), quien describe un objeto como un símbolo de la propia conducta generada por acciones motoras, son símbolos de auto-comportamiento, afirma la primacía de la acción sobre la nominalización, y dice que si deseas conocer, debes aprender cómo actuar, como la forma en que los actos determinan lo que ves.45 El “mundo” no se conoce como un abstracto, una forma a priori, sino solo a través de las acciones que realiza el sujeto en un intento de interactuar con él y entenderlo. El constructivismo por lo tanto se centra en las operaciones del conocimiento, deja de fondo la comunidad de observadores y hacedores donde el conocimiento surge, a pesar de considerarla fundamental.

Miremos ahora otro, movimiento un poco más tardío, en el que el énfasis siempre está en la relación cognitiva, amplificando en este caso lo derivado de la construcción social del conocimiento. Retenemos necesaria la descripción cuidadosa de sus características y raíces culturales para así enfatizar el rol primario del lenguaje en las teorías modernas de la ciencia, la filosofía y para plantear el debate en curso.46

El término “construccionismo social” fue introducido por Kenneth J. y Mary M. Gergen en la mitad de la década de los 80´s para describir un enfoque distinto no solo al cognitivismo y al constructivismo sino también a la perspectiva “naturalista”. El término cubre algunos filósofos (Rom Harré y Grant Gillet) y numerosos psicólogos sociales (incluyendo los Gergen) al igual que terapeutas familiares (Harlene Anderson, Harry Goolishian, Lynn Hoffman y Sheila McNamee). Es muy complicado describir el desarrollo de este grupo, cuyos miembros inicialmente se distinguieron a sí mismos ante todo del enfoque “naturalista” a las emociones y usaron los términos constructivismo y construccionismo como sinónimos. No fue hasta una etapa posterior que se separaron del constructivismo.

El enfoque construccionista nació del rechazo de los determinantes biológicos como posibles explicaciones de la conducta humana a favor de definiciones lingüísticas compartidas y explicaciones sociales.47

De una atenta lectura de los primeros escritos del construccionismo, podemos apreciar que la oposición al enfoque “naturalista” fue firme y resuelta. Una lectura de La Construcción Socia! de !as Emociones revela un agudo contraste con el intento de un paradigma dominante de ignorar los aspectos sociales y culturales de las emociones. Es interesante notar, sin embargo, que el enfoque naturalista fue presentado en términos simples y reductores, pero prácticamente casi nunca descritas a parte de los pocos comentarios de las teorías Darwinianas del siglo XIXy vagas referencias de la naturaleza universal de la expresión de las emociones. ¿Era posible oponerse a las teorías Darwinianas durante la mitad de la década de los 80´s? Los autores al parecer habían considerado tales teorías como dominantes, fuertemente enraizadas y en todo caso opuestas a la perspectiva social.

Si vamos a estudiar las teorías de las emociones presentadas por los biólogos, cognitivistas, fisiólogos y neurocientíficos de la época encontramos un grupo que desde hace cerca de 20 años postulan un enfoque integrado, multifactorial de los aspectos sociales, cognitivos y biológicos de las emociones.48 Una lectura de las mejores teorías conocidas en el sector (como las de Edelman y Damasio explicadas en la siguiente sección) muestran un intento de mostrar una perspectiva combinando los aspectos cognitivos y sociales así como las modificaciones biológicas de la predisposición de actuar en conjunto con el complejo fenómeno de las emociones. La situación es más evidente si tomamos en consideración las teorías de las emociones en la psicología social, las cuales están basadas en conceptos multi-factoriales vistos precisamente desde una perspectiva social.

Los construccionistas sociales no se sintieron adecuadamente representados por esas teorías. El punto no fue el rol social de las emociones sino la presentación de otra perspectiva, una nueva óptica capaz de ofrecer una visión de las metáforas modernas, psicológicas y clínicas. El enfoque construccionista fue visto por algunos como un avance en el conocimiento (la posibilidad de nuevas metáforas y nuevas prácticas desligadas de la tradición, “liberadas” de los supuestos construidos en años de práctica post-positiva, una oportunidad de centrarse en los aspectos interactivos del conocimiento), y por otros como un regreso a teorías –Wittgenstenianas y la hermenéutica-que ya habían demostrado en el campo de la filosofía las bondades de sus supuestos.

Si tenemos que entender el construccionismo, será necesario proveer de una breve descripción de la tradición filosófica de la cual deriva, es decir, el enfoque Wittgensteniano. Es precisamente este punto de vista que hace imposible la comparación con las teorías multi-factorial y social. La influencia de la teoría de Wittgenstein no es solo una influencia cultural sino también un elemento fundamental del enfoque construccionista, sobre todo para el grupo de los filósofos, quienes fueron más adelante sus grandes teóricos. La conexión entre las ideas construccionistas y las ideas de Wittgenstein fue hecha por los protagonistas del movimiento.

Harré y Gillet (1994) describieron con desilusión la “primera” revolución cognitivista, 49 culpable de haber propuesto un modelo de procesos mentales “privados” más allá de la conciencia y las convenciones lingüísticas. Ellos contrarrestaron esta “equivocada” revolución con otra nacida de la Investigación Filosófica de Wittgenstein. Tal como Harré y Gillet observaron (p.24), es solo un paso de ahí a la inclusión de otros aspecto de la filosofía posterior de Wittgenstein y una posterior revolución conceptual en nuestra concepción de la psicología. No sabemos si el paso es corto, pero es un paso que va descrito y pensado.

Después de Tractus (1922), en el que él presenta una teoría lógica del conocimiento y sugiere correspondencia substancial entre la realidad externa y la representación (la teoría de la imagen), Wittgenstein cambio el curso completamente e introdujo la teoría del “juegos del lenguaje” (1953). Debería mencionarse que estas reflexiones no deben considerarse como la exposición de una teoría sino como “ejemplos de un estilo de pensamiento”, (Sbisá, 1975, p.69). El estilo de Investigaciones es de hecho coloquial, rapsódico, asistémico, a menudo dialógico y cuestionador. El libro se centra en características internas de los juegos del lenguaje, la gramática y al uso concreto del lenguaje, El lenguaje descrito es verbal: “Es primordialmente el aparato del lenguaje ordinario, de nuestro lenguaje hablado, que nosotros llamamos lenguaje; y otras cosas de acuerdo a su analogía y comparación con el lenguaje.” (no.494). Esta definición del lenguaje aparece abierta y por lo tanto parcialmente indeterminada precisamente porque desde la visión del autor ese concepto no puede referirse a un conjunto cerrado de eventos sino a un fenómeno “relacionado uno a otro de diversas maneras” (no.65) por “semejanzas familiares” (no.67).

Gracias a esta se podría en la familia del lenguaje incluir también la los aspectos no-verbales y relacionales. Wittgenstein está sin embargo, determinado a negar la existencia de estos aspectos, primero trazando una diferencia entre el lenguaje “público” y “privado”, entre los aspectos lingüísticos y las sensaciones, para luego negar el papel de los aspectos privados. Un breve examen de la Investigación Filosófica es suficiente para mostrar cómo Wittgenstein se esfuerza en negar el valor de las sensaciones incluso de los recuerdos: “La sensación en sí misma no es nada”. No, es nada. La nada es algo pero es menos que nada.” (no.304).

Esta perspectiva es retomada en su totalidad por los construccionistas cuando afirman que una sensación “existe” en la medida en que es descrita por el lenguaje, por lo tanto decretan la hegemonía del lenguaje por encima de todo lo que no es lenguaje50” (Harre, 1986 y Gergen (1988) Van más allá al llamar las emociones como etiquetas lingüísticas), Wittgenstein es, sin embargo, bien consciente de las consecuencias de estas ideas en su Investigaciones: “Negar los procesos mentales significaría negar la memoria; negar que cualquiera recuerda algo”. (no.306). La respuesta es una pregunta: “¿Realmente no eres un conductista disfrazado¿ (no.307) A lo cual replica: “Y ahora parece como si hubiéramos negado los procesos mentales. Y naturalmente no queremos hacerlo” (no.308). Pero lo que hace Wittgenstein es precisamente dividir los procesos sociales de los procesos individuales para luego mostrar insensatez de los segundos (también descrito por el crítico de Wittgenstein, Kenny en 1973, en su capítulo decimo sobre el argumento del lenguaje privado). De la misma forma, Harré evalúa que no existe necesariamente el mundo fantasma de la actividad mental escondido detrás del discurso, en el que el individuo desarrolla cosas en privado; lo que sucede en la mente es accesible (a nuestra disposición) a través de lo que creamos conjuntamente en la conversación, y si nuestra actividad mental es también simbólica, podemos hacerlo disponible según si la situación parece requerirlo. (p.31). Ahí claramente emerge una visión exclusivamente “racional” y explicita de los procesos mentales y quizás una ingenua confianza en la introspección. Los autores clínicos están bien conscientes de que la descripción verbal de la conducta o de las intenciones no es “accesible” y mucho menos a nuestra disposición, derivadas más bien de un conjunto de posibles descripciones en ocasiones contradictorias. La alergia de los construccionistas a los aspectos individuales biológicos y cognitivos, a los aspecto individuales de las emociones parece derivar de la óptica descrita y no de la legítima aspiración de destacar la dimensión social del conocimiento, sino de la necesidad de negar los aspectos individuales debido a que chocan con la definición de lenguaje como “una realidad objetiva” compartida por la sociedad y el gobernada por reglas. El modelo de estos procesos mentales es reductor en nuestra perspectiva. El pensamiento es equiparado con el lenguaje, las emociones son “entidades psicológicamente equivalentes a las afirmaciones”, las sensaciones son expresiones manifiestas de los juicios morales socialmente aceptados, las relaciones se reducen a los intercambios lingüísticos (expresados en la metáfora de ser en la conversación) y los sujetos son localizaciones del lenguaje y comparten un lenguaje narrativo. Para resumir el construccionista es aquel que estudiando el lenguaje pueden indagar los pensamientos, percepciones, relaciones, patrones conectivos, la mente, la sociedad y el individuo. Es claro para cualquiera que esté familiarizado con las teorías que se trata de una propuesta de un arché o primer principio capaz de comprender y explicar todo.

Mientras que el énfasis puesto por los construccionistas en los aspectos sociales, culturales e interactivos de la experiencia de las emociones y de la identidad, y en la necesidad absoluta de buscar significados al interior de los sistemas más amplios de pertenencia, la diatriba que los construccionistas iniciaron con los constructivistas a principios de los años 90s en la esfera clínica resultó menos fructífera. Descrita por el clínico sistémico Minuchin como una discusión entre primos, parece estéril sino es que completamente carente de sentido, desarrollada en un nivel teórico, distanciado de la sustancia concreta y el sufrimiento presente en las situaciones clínicas. Hay también que señalar que el modelo clínico derivado del construccionismo social es “nuevo”, presta mayor atención a los procesos evolutivos y adaptativos de las situaciones clínicas, teniendo gran cuidado sobre el lenguaje usado, tomando el respeto como su elemento fundamental.

Algunos autores construccionistas se han quejado acerca de la falta de interés de los constructivistas en el lenguaje. Ciertamente no es nuestra tarea defender a los constructivistas al recordar la importancia dada precisamente al rol del lenguaje por von Foerster, Maturana y Varela – destacando exactamente en sus elaboraciones el rol central del lenguaje, por von Foerster- proponía ya en la década de 1970 la metáfora de ser en la conversación, lo cual es también construccionista, aunque entendido de una manera diferente. Von Foerster sugirió que el lenguaje está constituido de dos “pistas”: la definición lingüística y la relación social. La familia del lenguaje descrita por Wittgenstein se expande para abarcar aspectos que no están directamente conectados con el lenguaje, pero que forman parte de él. Mientras que el lenguaje verbal crea etiquetas, definiciones, nombres y denotaciones, la relación o danza social es un proceso connotativo de la experiencia vivida, solo parcialmente traducible a las palabras, basado en un hacer común. El aspecto interesante de la idea presentada por von Foerster (1980) es precisamente la imposibilidad de separar los dos procesos – el lingüístico del afectivo, el aspecto privado/emotivo del lenguaje compartido desde lo público- ya que juntos permiten la (siempre absolutamente social) construcción del mundo.51 Es solo por medio de la conexión constante de las etiquetas verbales y los estados corporales (símbolos de auto-comportamiento), la vinculación de las acciones concretas en el contexto social, que hacen que el mundo emerja. Negar los aspectos corporales, biológicos, no-verbales y procesuales lleva a la “incorporeidad” y a la fría visión racionalista. Maturana y Varela (1984) también dedican una gran cantidad de espacio al papel del lenguaje en el conocimiento, buscando siempre identificar los co-determinantes biológicos y culturales, definiendo el lenguaje en su aspecto procesual como una descripción de la conducta interactiva que depende de la historia de las transformaciones del acoplamiento estructural, cuyas descripciones implican la modificación de las futuras interacciones (p.171). Sus teorías lingüísticas siempre parecen constituirse de dos pistas, una verbal, la otra corporal y relacional, precisamente lo que Wittgenstein (1953) encontró inaceptable y Harré describió como la “revolución equivocada”. Como lo plantea Maturana (1990, p.81), “Los seres humanos son sistemas vivos que existen en el lenguaje. Esto significa que aunque existimos como seres humanos en el lenguaje y a pesar de nuestros dominios cognitivos (dominios de acciones adecuadas) como tales, tienen lugar en el dominio de lenguajear, nuestro lenguajear se realiza a través nuestras operaciones como sistema vivo”. Maturana habla en su definición de “lenguajear” (algo así como la acción de usar el lenguaje más que un simple lenguaje en sí mismo), en el cual se puede enfatizar a turnos en los aspectos ontogenéticos o en la interacción en marcha.

Finalmente debe mencionarse que Bateson también presento una compleja definición de lenguaje, donde justamente el énfasis de los aspectos compartidos en la cultura se refiere al nivel de las acciones, hábitos y el inconsciente (no como el modelo Freudiano sino como un sistema sin palabras, intraducible) más que en el nivel realista de un lenguaje omnicomprensivo. Su teoría del doble vínculo y el síndrome transcontextual se basan completamente en el hiato entre lenguaje y el sistema no-verbal, que nunca es usado como sinónimo o términos susceptibles de traducirse uno en otro. (Uno de los posibles ejemplos es Style, Grace and Information in Primitive Art, donde da un papel reducido a la conciencia, definiendo otros niveles de comunicación.)

El lenguaje se volvió en la segunda parte del 900 un argumento clave en el entender la actividad humana del conocer, pero que resulta útil como un concepto solo cuando se yuxtapone con lo que no es lenguaje. Aunado a los juegos de lenguaje, sugerimos tomar en cuenta también los juegos emocionales y relacionales, entendidos como procesos independientes y paralelos que conjuntamente constituyen el juego (siempre exclusivamente social) de la construcción de la “realidad”. No es posible reducir la complejidad social a un intercambio entre normas sociales y prescripciones. Este es un proceso que se realiza también con soluciones contradictorias (como saben todos los clínicos) y que no puede ser abordado exclusivamente desde un punto de vista único que niega a los demás componentes. En nuestra perspectiva, el problema no es el de desentrañar una supuesta disputa entre el constructivismo y el construccionismo en términos dualistas, sino de señalarlos en diversos momentos en la formación del conocimiento y dar la asignación “correcta” al papel del lenguaje.

Precisamente en esta conexión, las múltiples contribuciones de la epistemología constructivista pueden considerarse como caracterizadas por una forma “fundamental” de entender el conocimiento. Este modelo describe el desarrollo del conocimiento comenzando por las sensaciones, desde el observador/relación observada, para llegar finalmente hasta las representaciones. Lo que la coloca en el intercambio social del lenguaje compartido, la representación social y cultural, la definición semántica que precede y guía en parte la relación misma.

Hay una alternancia en el campo del conocimiento entre momentos en que se manifiesta el carácter consensual de las premisas epistemológicas que preceden a la construcción de la realidad (una visión construccionista) y momentos en los que el foco esta en el papel constructivo del individuo en su relación (concreta, individual) con el ambiente (la perspectiva constructivista). El concepto de mente usado por Bateson puede considerarse como un posible precursor de esta yuxtaposición, en la que el autor procede a lo largo de un eje que junta el punto de vista del observador –sin miedo de hablar de sus representaciones- con lo que denomina “punto de vista-meta”, mediante el cual la mente es considerada precisamente como inmanente en la totalidad de de acciones e interacciones. Este enfoque puede ser capaz de trascender la dicotomía del constructivismo y construccionismo al hacer posible describir al individuo como un observador y un autor de su representaciones para conectar sus ideas, expresadas a través narrativas, a la mente inmanente del sistema, i.e., el conjunto de acciones, retroacciones, premisas y conductas al sistema más amplio incluyendo los sujetos y sus contextos. El interés por lo tanto se centra en las conexiones de los contextos conversacionales y emocionales conectando al observador con el objeto observado.

Este es el posicionamiento central de los clínicos de la Escuela de Milán.

Para comprender la naturaleza complementaria de estos puntos de vista, sería útil recordar las hipótesis de Vernon Cronen, Johnson y Lannaman en lo referente al doble vínculo. Ellos se imaginan el conocimiento como un proceso en el que se alternan esos momentos diferentes (la fuerza implicativa del constructivismo y la fuerza contextual del construccionismo) alternan en un constante dialecto Heracliteano para la creación de significado, las dos fuerzas siendo definidas como integrables y en continua interacción. Si es verdad que participamos en un círculo hermenéutico en el que constantemente “descubrimos” nuestras premisas lingüísticas, el conocimiento también presenta momentos de relación emocional “pre verbal”, que precede la definición y la clasificación lingüística.

Las nuevas teorías de las neurociencia también proponen modelos de conocimiento capaces de tener en cuenta una matriz procesual no-lingüística. Es una tarea de los sistémicos combinar los aspectos emocionales, biológicos y sociales con el “conocimiento contextual” procedentes de la antropología y la lingüísticas, por lo que el dialogo se vuelve la única salida. Por esta inevitable razón, la siguiente sección presentara hipótesis procedentes desde los trabajos más recientes en el campo del cognitivismo y las neurociencias, aún con el riesgo de ofrecer una visión del dominio humano separada de la dimensión social, y compartiendo presupuestos que no siempre parecer estar acorde con la epistemología moderna.

Una última nota se refiere a la hermenéutica, retomada por Glasersfeld de los constructivistas y asumida como compañera de los construccionistas sociales. Este es un comentario que reitera las observaciones anteriores sobre el construccionismo.

La Hermenéutica

El arte de la interpretación (hermeneutike techne) en la antigua Grecia se refería a la transmisión de los mensajes de los dioses a los hombres. La etimología posterior deriva de la hermenéutica de Hermes, el mensajero de los dioses, y se refiere a las formas del conocimiento “incierto”, tales como el oráculo y los poemas como un todo. Con la llegada de Alejandro Magno, la amplia circulación de los poemas Homéricos y la alternancia con diferentes poblaciones (Samnitas y Latinos), la interpretación adquirió un significado diferente, como investigación filológica del lejano mundo Griego.

Los estudios filológicos estuvieron acompañados en la cultura judía por un tipo de estudio religioso seguido por la hermenéutica judía, nacidas de la correcta interpretación de los códigos legales (los cuales llevaron al código Justiniano). En el humanismo italiano del siglo XIV, la hermenéutica se convirtió en la interpretación del mundo pasado, del pasado de eras históricas. El siglo XVIII vió los proyectos de la “hermenéutica universal” como una clave fundamental al conocimiento. La hermenéutica es ahora una escuela contemporánea de la filosofía desarrollada en la primera mitad del siglo XX, y se caracteriza por la idea de que la verdad es el resultado de una interpretación. Podemos identificar una hermenéutica general enfocándose primordialmente en el “problema de la verdad” (el cual es el problema del ser en la filosofía) y del entendimiento. El modelo de comprensión de textos escritos es aplicado a la comprensión del ser en el que las cosas que tratamos de entender se comportan como el lenguaje escrito.

Martin Heidegger se convirtió en el autor clave de nueva era de la hermenéutica con su obra Ser y Tiempo (1927), marcando un rompimiento con la hermenéutica tradicional. El filósofo alemán se refiere a toda nuestra existencia como la hermenéutica en la que nos formamos, parte de una tradición histórica y lingüística propia de las ciencias de la mente. Nuestra pertenencia a la tradición es descrita como circular, tal como nuestra posibilidad de conocer está relacionada al “circulo hermenéutico”, i.e. para el (re) descubrimiento de los supuestos de nuestra tradición. Cada parte de nuestro conocimiento es siempre y en cualquier caso una interpretación y nunca será exitosa en mantener la objetividad. Heidegger por lo tanto considera la hermenéutica como “el centro de cada tipo de conocimiento” y el opuesto del conocimiento científico.

Hans Georg Gadamer retomó el vínculo entre el ser y el lenguaje con su Verdad y Método (1960) y define el “giro lingüístico” en la hermenéutica de la siguiente manera. 1) El lenguaje es intrascendible, ya que cualquier crítica es hecha con el lenguaje. 2) Hay una indivisibilidad entre la palabra y el objeto. 3) Es solo mediante el lenguaje que concebimos al mundo. 4) No gobernamos el lenguaje, el cual en cambio es el lugar que “habitamos” (el hogar) y que nos precede, como un lugar total.

La hermenéutica adquiriò una dimensiòn totalmente filosòfica con el existencialismo y terminò siendo “la lengua franca de la filosofía contemporánea” (Gianni Vattimo, 1989). Las bases para esto fueron la visiòn que la objetividad no puede constituir el marco último de referencia al ser determinada por la tradiciòn y la historia; tal como lo plantea Nietzsche, “No existen los hechos, solo interpretaciones”.

Si bien estos puntos se encuentran abiertos a múltiples cri’ticas (ver Ferraris, 1998), el aspecto más controversial es la ecuaciòn de ser y lenguaje. La omnipresencia y la prioridad del lenguaje como el único medio para la comprensiòn del ser (un concepto nebuloso, confuso e indefinible semejante a la idea de Dios) coloca al proceso del conocimiento a la par con la lectura e interpretaciòn de los textos. La metáfora del texto y el lenguaje tiene el riesgo del paralinguismo (la idea de que todo es lenguaje) y del textualismo (no hay nada fuera del texto), lo que reduce la riqueza de la experiencia humana a la interpretaciòn racional por si sola y totalmente rechaza lo experimentado, aspectos “encarnados” y extra­lingüísticos del conocimiento, para lo cual no hay lugar al ser “colonizados” por el lenguaje.

De acuerdo a Ferraris (1997, p.394), los supuestos de la hermenéutica moderna no se han realizado a si’ mismos “en el plano de la hermenéutica sino en términos cuestionables de un holismo “lingüístico” resultante de una presunta crisis de la filosofía”. La bandera de la hermenéutica es que “El ser que puede ser entendido es el lenguaje”, y para el autor se trata de un reduccionismo “tanto más insidiosa, por ser menos evidente”; nacido de un abandono de la filosofi’a, es el emblema de una crisis más que un triunfo, la impotencia de la filosofi’a literaria con respecto a la ciencia.

El riesgo del holismo lingüístico en la hermenéutica es señalado por varios filósofos incluyendo a Davidson y el italiano Veca, quién dijo (1997, p.6): “Aceptar el giro lingüístico sin tomar seriamente todo lo que no sea lenguaje es últimamente una forma de no tomar seriamente las razones por las cuales el lenguaje es terriblemente importante y relevante. El lenguaje es importante en un mundo de agentes y pacientes (y obviamente de oradores y pensadores). Su importancia se evapora en una caricatura de moda si el papel esta dado por un (posible) mundo de oradores sin cuerpo, una especie de ego cartesiano después de Frege. Si todo es lenguaje, el lenguaje es poco interesante y atrayente porque se empeñan recursos y energías intelectuales que se dedican a la filosofía para una campaña electoral a su favor. Reconocer esto significa reconocer algo acerca de la importancia del lenguaje, dando al lenguaje lo que le pertenece y a lo que tiene derecho”

Para evitar ceder al cientificismo, la hermenéutica moderna (Gadamer, 1960) comenzó por abandonar cualquier reclamación técnica, después rechazar cualquier herramienta de verificación, degrada cualquier forma de epistemología y reclama un importancia ontológica igualitaria para sus propias producciones. Esta ontología que se dirige al ser pero que al no ser “la entidad de ser”, asume que es inmune a toda objetividad, de acuerdo con el supuesto de que la ontología es déspota. Tal como explico Ferraris (p.415), “De acuerdo a Rorty, la primera verdad del giro lingüístico consiste en abandonar el proyecto de una filosofía capaz de hacer frente a los sujetos empíricos. Es obvio que una vez que se ha tomado esta decisión (abandonar cualquier reclamo de conocimiento de los objetos), el lenguaje se vuelve el único sujeto posible para la filosofía. Aún asumiendo que la filosofía carece de herramientas para la consecución del conocimiento empírico, optando por el confinamiento en una trampa de palabras que parece una amputación sin motivo.”

Más interesante parece centrarse en la propuesta presentada por la hermenéutica hacia la reflexión involucrando a nosotros y a otros en el mismo juego y las críticas del concepto de verdad, un aspecto ya mencionado por los constructivistas. Nos referimos a la idea que la verdad siempre resulta parcial ya que lo que el sujeto conoce no es una realidad objetiva, sino que es con lo que él o ella se relaciona y que presupone, lo cual implica un reflexión circular (como en el “círculo hermenéutico”). Debe mencionarse que los años recientes han visto una tendencia a identificar la hermenéutica con una práctica que propone una relación “dialógica y recursiva” entre palabras, texto y contexto, y una tendencia a usar este constructo para simbolizar una forma “diferente” de pensamiento libre de los limites rígidos de la ciencia. El enfoque de la hermenéutica es en cualquier caso opuesto al conocimiento científico, al que opone, lo que Jacques Derrida llamó un conocimiento “tan hermoso como un ensayo y tan verdadero como una novela”. Una de las pocas excepciones de esta oposición es el enfoque propuesto por Vattimo, quien sugirió que la filosofía puede actuar como un estímulo para la ciencia, ya que ambos solo pueden construir modelos pero no pueden alcanzar la verdad.

Haremos una breve mención de dos movimientos derivados del giro lingüístico, los cuales han sido retomados por los psicólogos, es decir el narrativismo y la idea de rizoma.

La referencia a un modelo narrativo (Jerome Bruner, 1990) aparece con frecuencia, incluso en esferas distantes. Esto significa priorizar un modelo que rechaza una epistemología realista y la interpretación como la herramienta primaria para fomentar la relacionalidad y la construcción de múltiples historias complementarias. ¿En qué esfera es aplicada? La atención es dirigida a la modalidad narrativa del pensamiento, la construcción narrativa de la realidad y la acumulación colectiva de narrativas que engendran diferentes culturas y tradiciones culturales. Referirse a un modelo narrativo incluye centrar la atención en el lenguaje y en los significados personales e interpersonales más que en las unidades y en la energi’a constitutiva del individuo (el modelo meta-psicológico); un nuevo interés sobre el tiempo, la memoria y los recuerdos; dando prioridad la carácter procesual de una historia (de una idea, un modelo, persona o grupo), la coherencia entre pasado, presente y futuro, asi’ como la re- contextualización con respecto al presente; alejándose de cualquier reclamación a las construcciones reales a favor de la relación hermenéutica. Hacer referencia al pensamiento narrativo significa abandonar, las pruebas, las demostraciones y las concepciones objetivas (“pensamiento paradigmático”) a favor de una visión en perspectiva; la transición de lo general a lo particular. El modelo narrativo también es considerado como la estructura de la experiencia humana.

La operación en cuestión implica recordar la experiencia personal a través de la construcción narrativa biográfica. Mientras que el texto que emerge está conectado aparentemente con el recuerdo “fiel” de la infancia, vida o un evento, la narrativa no es una cuestión de provocar recuerdos para hacerlos emerger, darles forma y reacomodarlos en una historia coherente que cambia con el paso del tiempo. La acción narrativa es el proceso por el cual los individuos cuentan historias a si’ mismos y sobre si’ mismos, de otros y del mundo para organizar sus experiencias y asi’ presentarse a otros en el tiempo en que esta operación se realiza.

Nuestra vida está gobernada por atribuciones de significado, por interpretaciones que componen el vocabulario, la sintaxis y las plantillas que sirven para determinar y descifrar el mundo en el que vivimos y la forma en que nos movemos en él.

Narrar puede ser considerado como una operación del conocimiento, ya que organiza la estructura de la experiencia humana a nivel de información sensorial, de conceptos y de atribuciones de significado.

Solo existen nuestras descripciones, nuestras interpretaciones organizadas en historias, en un proceso evolutivo. Historias aparentemente coherentes con un principio, un intermedio y un fin.

Las personas dotan sus vidas con significados al contar la historia de sus experiencias. El acto de contar da la oportunidad de crear (inconscientemente) una versión de nuestras vidas y por lo tanto de nosotros mismos. Hace posible tener una audiencia (la cual puede ser uno mismo) y contextualizar el significado de la experiencia. Hace posible re- contextualizar la experiencia y construir diferentes versiones de la misma historia en relación a los cambios en la vida, los eventos traumáticos o solo el paso del tiempo.

El rizoma: pensamiento y cambio

El concepto de rizo, fue desarrollado en la esfera filosófica en 1970 por Guilles Deleuze y Félix Guattari para describir el conocimiento y el pensamiento. El rizoma es una parte de la rai’z de helechos y plantas acuáticas, que es capaz por si’ misma de generar nuevas extroversiones, raíces nuevas y la reproducción de toda la planta. Los dos filósofos franceses (Guattari quien también fue psicólogo y psicoanalista) tomaron la botánica como ejemplo para describir el crecimiento y transformación de ideas.

Esta metáfora los alejó de un desarrollo de ideas ordenado y jerárquico – es decir a salir de la linealidad y la lógica aristotélica- y los llevó a pensar en el conocimiento que puede surgir de la tierra estéril y migrar a expandirse a nuevos contextos y habitantes. De la misma forma, de acuerdo a Deleuze y Guattari, las ideas nacen en un contexto específico y se propagan, enraizándose en diferentes entornos, como hierbas.

Con este nuevo significado, la historia de las ideas, la arqueología del conocimiento inaugurada por Foucalt perdió su lugar como piedra angular de las descripciones en favor de un tipo más diacrónico de descripción que viera la dialéctica de las ideas como su fuerza motora. Las ideas son móviles. Se esparcen aun teniendo raíces sólidas, crecen y se dispersan en busca de un terreno para colonizar, un espacio que solo tomara forma mediante el encuentro de diferentes rizomas, raíces capaces de generar nuevas plantas y dar nacimiento a nuevas ideas.

El interés por esta conexión se da no solo hacia las representaciones individuales sino también hacia una “ecología” auténtica del conocimiento en la que diferentes ideas se confrontan, se reemplazan y alternan una con otra, para retomar la metáfora presentada por Gregory Bateson en 1950.

En esta perspectiva, los diferentes hábitats no son nada más que contextos sociales, lugares para el encuentro, producción y diseminación de las ideas. Como lo demuestra el logro del internet y las redes sociales, el lanzamiento de nuevas ideas no requiere una organización jerárquica del contexto social. [sto aparece ante nosotros en un nexo, todo en el mismo nivel (aunque con diferentes grados de carisma) de acuerdo con una representación “horizontal” de los sistemas de conocimiento. Las ideas nacen fuera de esta fábrica, como auténticas entidades emergentes, esparcidas primero en algunos contextos específicos y después vienen a constituir pensamientos ampliamente aceptados por la comunidad y solo en una etapa posterior en el contexto más amplio. La clínica americana Lynn Hoffman y el canadiense Christopher Kinman han usado el modelo desarrollado por Deleuze y Guattari para describir algunas formas de acción que pueden ser entendidas de acuerdo con estos supuestos. [llos hablan de un lenguaje de regalos, de no saber, procesos de atestiguamiento, de sabidurías locales y de conexiones en rizoma (Kinman 2000, Hoffman, 2005).

Las ciencias cognitivas

Si bien la cuestión de cuales áreas de estudio son o no sistémicas, podría ser discutida, nos parece de mayor interés, desde nuestra perspectiva, destacar los supuestos y conclusiones de otros campos del conocimiento, respecto a un campo provisional y plural. Si la “ciencia sistémica” se funda en una postura cognitiva de la comprensión y la integración de las diferentes formas del saber, como menciona von Foerster, dividirlos en sistémicos o no sistémicos es una operación estéril y en vez de esto aparece relevante saber recorrer las líneas que los delimitan (líneas lábiles y fronteras temporales), para aproximarse a otros enfoques, a otros sistemas de conocimiento, otras teorías, con el fin de tener en cuenta la variedad del paisaje y proponer un “operación” sistémica fundamental: la comparación y el enriquecimiento con ópticas diferentes, entre diferentes disciplinas. Nos oponemos a la tendencia de los años recientes en dividir la ciencia en modelos separados que no se comunican, usando una modalidad de utiliza y tira. Coherentemente con el pensamiento sistémico, consideramos indispensable tomar en consideración también autores que no se describen a si’ mismos como sistémicos pero que presentan teori’as de vanguardia.

Introducimos ahora algunos modelos recientes de la neurociencia que están despertando gran interés precisamente por que proponen teori’as del conocimiento capaces de tener en cuenta una matriz procedural. En nuestra perspectiva, combinar las nuevas teori’as con las premisas constructivistas y construccionistas, con los “conocimientos contextuales” trai’dos de la antropologi’a y de la lingüi’stica es un deber sistémico.

Heinz von Foerster consideraba la vida como una computación52 (cum­putare: considerar cosas en concierto, en combinación, juntos), i.e., como una operación no necesariamente numérica de transformar y organizar datos fi’sicos con el medio. El autor se ocupó de las operaciones en la adquisición del conocimiento, entendido como la capacidad de elaborar información determinada en la experiencia del organismo por invariantes del sistema nervioso más que por estructuras y eventos del mundo externo.

Von Foerster entendió la cognición no como una operación de representación de un mundo existente a priori, sino como una operación continua que hace emerger el mundo a través del proceso y las acciones del vivir. Desde esta perspectiva, el conocimiento se vuelve ontogenético. Vivir se vuelve un proceso cognitivo, una operación epistemológica; se vuelve conocer, en un proceso en el que el conocedor es lo que viene conocido, sujeto y objeto, se originan juntos.53

Los años recientes han visto el crecimiento de las ciencias cognitivas,54 la cual combina los estudios de los neurocientíficos ocupados en indagar las complejas estructuras del cerebro, de psicólogos cognitivistas interesados en los procesos del pensamiento y la conciencia, y de los estudiosos de la inteligencia artificial comprometidos en simular los procesos del pensamiento por medio de una computadora. Pionero en este campo fue el artículo Un cálculo lógico de las ideas inmanentes en la actividad nerviosa (McCulloch y Pitts, 1943), donde los autores sugieren la posibilidad de construir un modelo del cerebro mediante una red de operaciones lógicas. Este fue el primer ejemplo de una red neural; el primer intento de considerar la actividad mental en términos de procesamiento de información. Fue un intento de abrir la caja negra y echar por la borda el modelo conductista, el modelo mecanicista de las ciencias.

En este breve espacio nos interesaremos de estudios recientes en el área de la neurociencias, entendidas como una rama interdisciplinaria que rechaza el mito de la Ilustración del conocimiento monológico, busca entender cómo trabaja el cerebro juntando en una sola familia, disciplinas con diferentes tradiciones como la neuroanatomía, neurofisiología, genética, la lingüística, la bioquímica, inteligencia artificial, la inmunología, los modelos matemáticos, la antropología y la psicología.

Los primeros estudios cognitivos surgieron de la insatisfacción respecto al enfoque conductual imperante en las universidades americanas de finales de la Segunda Guerra Mundial. Los presupuestos de las teorías conductuales eran un intento por determinar relaciones predecibles entre el estimulo administrado a un organismo y sus respuestas (el modelo E-R de Watson). Cada intento de referirse a la mente quedaba totalmente fuera, aún cuando muchos autores hipotetizaban la acción de “variables” dentro del organismo. Ya desde los años 50s destacaban trabajos de autores con ópticas opuestas a la conductual, como la de Jean Piaget en Suiza y Vigotsky en Rusia. También en otros campos como en la lingüística se desarrollaron aproximaciones basados en premisas diferentes como el trabajo de Chomsky55. Entre estos también se encuentra la anteriormente mencionada revolución cibernética, la cual estaba interesada precisamente en la conducta visible (dejando relegados a la caja negra aspectos subjetivos del conocimiento) del funcionamiento del organismo y la máquina. Pero la transición del enfoque conductual al cognitivo no sucedió de golpe, como algunas construcciones históricas harían creer, en cambio se dio la coexistencia de diferentes supuestos (incluyendo posturas mecanicistas aun presentes), los cuales pueden rastrearse también en algunos autores contemporáneos.

Los primeros volúmenes que marcaron el nacimiento del cognitivismo son “Percepción y Comunicación” de Broadbent (1958) y “Los planes y la estructura de la conducta” (1960) de Miller, Galanter y Pribram. Brodbent fue el primero en presentar un modelo completo de funcionamiento de la mente (percepción, memoria y conducta) bajo la forma de un diagrama de flujo. Es precisamente este tipo de diagrama, el que describe el flujo de información y elaboración por parte de los “agentes” (mostrados como cajas) que caracterizaron los subsiguientes modelos cognitivistas (los cuales no toman en cuenta el sustrato fisiológico). Debe ser mencionado que Broadbent se describió a si’ mismo como conductista, y que Miller, Galanter y Pribram se autoproclamaron “conductistas subjetivos”. Precisamente su libro propone una analogi’a explicita entre la mente y la computadora, a través de la descripción del “plan” (el famoso TOTE: Test-Funcionamiento­Test-Salida) como una operación computacional.

El modelo cognitivista fue definido como Psicología Cognitiva” (1967)56 por Ulric Neisser , que analizando un gran número de experimentos, trazó una nueva brecha ya no interesada en el comportamiento sino en las descripción de los procesos mentales. El libro de Neisser fue tan exitoso como para atraer la atención de los investigadores trabajando con la “psicología científica” y fue considerado como una evidencia más que una propuesta de un modelo teórico. Esta aceptación acri’tica llevó en 1970 a una serie de estudios “micro-analíticos” con el objetivo de desarrollar “micro-modelos”.57 La tan anhelada reconquista de la mente, a la larga probó ser una aspiración totalmente ilusoria. El cognitivismo en sus inicios condujo a la reafirmación del punto de vista anali’tico y mecanicista, dejando a algunos de sus propios defensores, insatisfechos. Al delinear la evolución del cognitivismo, Jerome Bruner (1990, p.34) recuerda que el objetivo original de la revolución cognitiva era incitar a la psicología a colaborar con las disciplinas humanistas hermenéuticas. Rápidamente, el mismo Bruner se dio cuenta que este objetivo se volvía cada vez más distante y que interés inicial en el significado había dado pie a centrarse en la adquisición de la información en términos de ingeniería y mecánica. De acuerdo con Bruner, el mayor desarrollo del cognitivismo radica en la tecnología de la información guiando a una nueva forma de “reduccionismo”. De esta manera (p.24), “aun el viejo teórico del aprendizaje del E-R y el estudioso asociacionista de la memoria podrían regresar al paraje de la revolución cognitiva siempre y cuando envolvieran sus viejos conceptos con los nuevos términos del procesamiento de información. No tenían necesidad de ocuparse de los procesos mentales [….].Donde hubiera un programa computable, había una mente. Cuando hablamos de cognitivismo o de neurociencias hoy en día, estamos por lo tanto hablando de un conjunto heterogéneo de marcos que van desde el más típico estilo reduccionista hasta aquellos sensibles al cambio epistemológico y a los nuevos enfoques del conocimiento.58

El crecimiento de modelos “atomistas” y compartidos de la mente humana fue paralelo al desarrollo de modelos holísticos o molares, como es el caso del trabajo subsecuente de Neisser, “Cognición y Realidad” (1976), el cual presentò el punto de vista ecològico (derivado del de Gibson) y el “círculo perceptivo” como modelos complejos que tienen en cuenta también las expectativas y el conocimiento del sujeto epistémico.

Entre variados puntos de vista molares, el interés incuestionablemente se centra en lo que se conoce como conexionismo. (Farmer tenía la idea clave de representar una poblaciòn de agentes interactivos como una serie de “nudos” vinculado por “conexiones”.59) Si en la òptica cognitiva consiste en una manipulaciòn de los símbolos abstractos sobre la base de reglas sintácticas definidas, el conexionismo propone un punto de vista diferente que renuncia a un pensamiento finalizado y a la idea de que las redes de conexiòn son marcos a priori y perennes. Los principales autores conexionistas como David McLelland, David Rumelhart y Domenico Parisi partieron de la consideraciòn que en el cerebro no es posible encontrar reglas pre-definidas de elaboraciòn ni algún centro de control. En su perspectiva, el cerebro trabaja mediante interconexiones masivas distribuidas de tal manera que mutan su grado de conectividad en relaciòn al mutar la experiencia (de acuerdo con capacidades auto­organizativas). Los modelos desarrollados presentaron operaciones paralelas y dan cuenta de la rapidez de las decisiones que los modelos secuenciales no podían simular. Una diferencia substancial entre los dos modelos (secuencial y paralelo) se refiere a las representaciones, consideradas como representaciones de una realidad externa por cognitivistas y dependientes exclusivamente de los valores y del grado de conexiòn interna para el conexionismo. Bajo esta perspectiva, las múltiples conexiones forman una red que hace posible la emergencia de estados globales de las redes neurales. Esta línea de investigaciòn puede rastrearse hasta el trabajo de Hebb, quien sugirió ya desde 1949 que los cambios de conectividad en el cerebro podrían nacer del grado de actividad coordinada de las neuronas. Los modelos conexionistas estaban en mejores condiciones que sus clásicos homólogos, para tener en cuenta el reconocimiento rápido de configuraciones parciales y del trabajo de la memoria asociativa y la generalización categorial.

Este cambio y está multiplicación de modelos y de instrumentos de indagine, hizo posible un nuevo intercambio de ideas entre las investigaciones cognitivista, los neurólogos, los fisiólogos y otros autores que trabajaban en el campo de la inteligencia artificial (IA).60 De este campo fértil de estudios comparados nacerá un conjunto de campos que se reúnen con el nombre de neurociencias. Los enfoques epistemológicos son heterogéneos, más que un conjunto coherente de estudios y de un grupo homogéneo de investigadores, se trata de investigadores que compartiendo problemas comunes no comparten la manera de resolverlos. Por esta razón, describiremos solo el trabajo de dos figuras contemporáneas, es decir, Antonio Damasio y Gerald Edelman. Aunque son dos autores apreciados y estudiados, a menudo son descritos como “científicos duros” y no presentan una epistemología capaz de dar cuenta de los aspectos sociales y culturales del conocimiento. De acuerdo con el enfoque sistémico, retenemos que un autor no deba ser rechazado o aceptado en bloque, sino que es necesario contextualizar los modelos y traducir algunos aspectos en otras visiones (podemos por ejemplo integrar los aspectos sociales en los modelos propuestos por las neurociencias). En este caso, creemos que no es posible no vérselas con estos modelos altamente avanzados de la mente que reconocen en si’ mismos solo parcialmente el punto de vista social.

Breve mención debe hacerse sobre Karl H. Pribram, quizá uno de los primero neurocienti’ficos en desarrollar un modelo de los procesos mentales, basado en la identificación de dos procesos diferentes, es decir el tácito y el expli’cito, los primeros basados en el conocimiento procedural y los segundos en el conocimiento lingüi’stico. Es precisamente sobre estos elementos que apuntan los modelos que estamos por describir.

El trabajo de Damasio continua idealmente (aunque solo en parte) los estudios de Maturana y Varela sobre la mente, considerada desde un punto de vista biológico, reintegrando en los procesos de la mente y el pensamiento los aspectos corporales (“incorporados” para Varela) debidos a la interacción del sujeto con el ambiente natural y social. El modelo de Damasio expresamente tiene que ver con la neurologi’a de la visión, de la memoria y del lenguaje, toma en consideración al organismo entero, no solo al cerebro, como es práctica común en la neurologi’a. La mente para Damasio opera una conexión entre aspectos simbólicos abstractos (lenguaje) y estados corporales (las acciones, información visual). En esta perspectiva, una representación de un objeto (por ejemplo, un desarmador) comprende no solo una definición semántica, sino también todas las acciones y sensaciones experimentadas en su uso común. Damasio ha evidenciado como el cerebro utiliza los mismos procesos para “construir” tanto representaciones lingüi’sticas como las de otro tipo. Su enfoque busca reemplazar las antinomias cartesianas, especialmente las de la mente/ cuerpo, razón/ emoción. El examen de pacientes con lesiones neurológicas (en el lóbulo prefrontal) ha demostrado que los aspectos emocionales son indispensables para los procesos racionales y que en realidad constituyen la plataforma que les permite tomar forma a los procesos racionales mismos. A pesar que existen dos sistemas neurológicamente independientes (incluso las lesiones pueden ser selectivas), activan procesos asociativos –las conexiones entre razonamiento lógico y emotividad- que pueden ser ambos considerados como reguladores de la vida biológica y social. No existe un centro de control de la mente o de la consciencia (ningun ”teatro cartesiano” como lo denomina Daniel Dennett). La mente es un proceso (como la conciencia), emergente, producto de la interconexión entre los procesos en paralelo que establecen la comunicación entre áreas cerebrales incluso distantes entre si’ (óptica conexionista).

Interesantes son los numerosos estudios de Damasio sobre el lenguaje, quien identifica tres grupos de estructuras en interacción:

  •  Una gran colección de sistemas neuronales en ambos hemisferios representando interacciones no lingüi’sticos entre el sujeto y el ambiente, guiadas por el sistema sensorial y motor.
  • Un pequeño número de neuronas pertenecientes al hemisferio izquierdo, que representan fonemas y reglas sintácticas para la producción de palabras.
  • Un tercer grupo de células, nuevamente del hemisferio izquierdo, las cuales ejecutan la tarea de mediar entre los dos primeros grupos, y son esenciales para el entendimiento de los conceptos.

En este modelo, el lenguaje como una representaciòn de la actividad simbòlica humana, estaría compuesto por una compenetraciòn entre conceptos abstractos y experiencias concretas (como sugiriò William James con su concepción del “Yo” y el “Me”). “El significado” entonces se vuelve tal solo cuando el concepto es confrontado con el “sentido”, i. e. cuando es conectado a una sensaciòn vivida (experimentada) que brinda un sustrato fisiològico y biològico del conocimiento mismo.

El segundo modelo examinado aquí, es el desarrollado por Edelman durante los últimos veinte años en la Universidad Rockefeller, el cual tiene muchos puntos en común con el modelo de Damasio. Ambos interpretan la conciencia y la mente como emergentes por la interconexiòn entre la multiplicidad de procesos paralelos, como emergiendo de la relaciòn entre diferentes centros del cerebro conectados por procesos de retroalimentaciòn. En 1972, el año en que ganò el Premio Nobel, Edelman sugirió que el sistema nervioso “trabajaba” como un sistema de selección, clasificando y categorizando las experiencias del sujeto para así poder desarrollar un modelo del mundo (un mapa capaz de guiar la acciòn). La selecciòn para Edelman actúa en el aro de vida de un sujeto y en tiempos muy breves, y se refiere a grupos de células cerebrales. Edelman identifica dos tipos de selecciòn, uno operante en el desarrollo y el otro debido a la experiencia. Cada organismo posee elementos mínimos de informaciòn pre-programada a la que Edelman denominò “valores” (como la atenciòn selectiva, hambre, búsqueda activa de estímulos, etc.), los cuales guían las acciones del sujeto y dan diferente importancia a las diferentes experiencias. Estos valores son percibidos por el sujeto como sensaciones (tales como el hambre, la molestia y el placer) a través de estas nuevas experiencias el sujeto selecciona los circuitos neurales correspondientes y las categorías que usa para la “construcción” de la imagen del mundo, un mundo de significados subjetivos debidos a una historia vivida de relación con el ambiente. La experiencia entonces fortalece o debilita la conexión entre grupos neuronales mediante la estimulación de nuevas conexiones. Desde esta perspectiva, el sujeto juega un rol activo, durante la acción social, en la construcción del mapa, el cual incluye la respuesta motora del sujeto. El mapa de Edelman no es una representación ordinaria sino una serie de grupos neurales interconectados que responden a una categoría especifica de eventos. La percepción de un objeto por lo tanto depende de la sincronización de un número de mapeos propagados por diferentes áreas (visual, sensorial, motor) para así crear una conexión subjetiva entre las acciones de categorización y las acciones experimentadas. La generalización perceptual y el proceso de “señalización interna” –un proceso de retroalimentación que consiste en un circuito continuo de comunicación entre los mapas activos- hacen los mapas usados estables mientras mantienen la posibilidad de incluir nuevos elementos. Los mapas son definidos mediante la modulación de las reentradas (del output) y se utilizan los mapas existentes para la creación de mapas de mapas (como en el lenguaje). En esta visión, la memoria no es nada más que una nueva y continúa categorización de los mapas basada en categorías previas. Es precisamente en la relación entre los nuevos mapas y aquellos de la memoria que Edelman localiza el problema de la mente y la conciencia. El identifica dos formas de conciencia, una primaria y una secundaria. Mientras que la primera es el estado de conciencia mental de las cosas en el mundo en el que tenemos imágenes mentales del presente, y la secundaria que involucra el reconocimiento de los propios afectos del sujeto, que incorpora los modelos de identidad personal del pasado y del futuro al igual que el modelo presente (1992, p.174). La conciencia primaria pone juntas las múltiples categorizaciones involucradas en la percepción, de acuerdo a una secuencia subjetiva basada en los que en el pasado ha tenido valor para el sujeto. La “escena” no es una imagen figurativa sino más bien una correlación ente diferentes tipos de categorización (un hipertexto, desde nuestro punto de vista). La conciencia primaria es por lo tanto un pre-requisito para la conciencia secundaria, pero carece del concepto de un yo propio y de la capacidad para modelar el pasado y el futuro como partes de una escena correlacionada (ibid., p.190). Edelman de este modo, propone la integración de dos diferentes procesos, uno relacionado al presente (a la memoria como valor categorial) y otro a la memoria simbólica y a conceptos. Los conceptos del yo, del pasado y del futuro, pueden por lo tanto estar conectados a la conciencia primaria. Como en el modelo de Damasio, no existe conciencia separada de los procesos biológicos, ni de las sensaciones debido a la relación del sujeto con el contexto.

Ambos modelos presentan una imagen de la mente que no puede ser separada de los aspectos pre-lógicos y pre-verbales, ni de los aspectos corporales de las emociones experimentadas por el sujeto en relación a su contexto social.

El campo de las neurociencias también ha visto una serie de estudios dando gran atención nuevamente a las explicaciones neurofisiológicas de las actividades humanas. Nos referimos al descubrimiento/invención de las neuronas espejo, por un grupo de la Universidad de Parma, Italia, guiados por Vittorio Gallese y Giacomo Rizzolatti (1991).

Al examinar algunos grupos neuronales, primero en lo monos de mayor complejidad y luego en el hombre, los investigadores identificaron una serie de neuronas situadas en la corteza frontal pre-motara, las cuales se activan cuando el sujeto realiza ciertas acciones auto-dirigidas (como llevar comida a la boca) y también cuando el sujeto realiza las mismas acciones que hacen otros.

De acuerdo a estos estudios, percepción es acción y viceversa, al menos desde el punto de vista neuronal. Estos “descubrimientos” abrieron nuevas formas para entender la empatía y las emociones en las relaciones inter­subjetivas. De acuerdo con los autores, las experiencias emocionales no se refieren solamente a lo individual sino también a las relaciones, y son propagadas entre los sujetos mediante el proceso de imitación cenestésica sin mediación en la parte de un complejo circuito simbólico relacionado al lenguaje primario. Actuando como una analogía experimental, el cuerpo experimenta las mismas sensaciones que cuando realiza acciones significativas que reproduce activamente.

Mediante la acción de las neuronas espejo, la comunicación afectiva es siempre activa en los intercambios cara a cara, siendo característico tanto en primates como en el hombre. Los estudios de Gallese y Rizzolatti proporcionan información sobre el sustrato biológico de la empatía y la habilidad para entender las intenciones de los otros inmediatamente. Estas formas de comunicación son de interés primordial a todos los clínicos, quienes siempre han utilizado recursos en un intento de darles una complejidad mayor a los esquemas desadaptativos de sus pacientes, creando formas de comunicación siempre abiertas a nuevas definiciones de significado. La contribución de las neurociencias es cada vez más preciada en la actualidad y se refiere a los procesos examinados por los clínicos, llegando así a hacer formas trasversales de conocimiento, un conjunto de ideas básicas sobre el hombre, la biología humana y las formas de interacción humana.

El panorama hoy en día: conociendo las metáforas del conocimiento

Hasta el momento hemos descrito la evoluciòn històrica de la mayoría de los campos del saber ligados al conocimiento. Esta secciòn describirá el panorama actual, ya no enlistando las teorías, sino buscando destacar el espíritu y las actitudes de los estudiosos involucrados.

Después de un período de rápidos y drásticas mutaciones de paradigma, de evoluciones y de puntos de vista sobre el universo, sobre el hombre y sobre el conocimiento se ha creado una situaciòn nueva. Durante muchos años, cada disciplina presentò su propia tradiciòn de estudios e investigaciòn, un núcleo teòrico definido, así como un objeto de estudio delimitado y claramente expuesto. Hoy el estado de las cosas aparece notablemente transformado, después de la “empresa” cibernética y sistémica, el desafío de la complejidad y la propuesta de paradigmas evolucionistas, el diálogo entre las diferentes disciplinas se ha vuelto una práctica estándar sino es que incluso obligatoria. La “nueva propuesta” no se ha organizado en una ciencia unificada y omnicomprensiva, un nuevo y superior punto de vista desde el cual mirar en manera panorámica (Gianni Zanarini 1990, señala el riesgo de la “euforia transdiciplinaria”) sino más bien un modo de pensar, una nueva relaciòn con el saber: “Es precisamente esta conciencia de las limitaciones de cada enfoque junto a la oportunidad de articular entre los diferentes enfoques, lo que la ciencia de la complejidad puede sugerir.”

Si los estudios “clásicos” se concentraron en un solo punto de vista (basta recordar como el psicoanálisis fue calcificado durante años alrededor del trabajo de solo un pensador), usando una metáfora “fundamental” y una inequívoca metodología de la investigaciòn. Las mercancías en el mostrador del conocimiento actualmente son variadas y a menudo interrelacionadas. Si antes las ideas “claras y coherentes” fueron indispensables, lo que nos sirve ahora es un “pensamiento nómada” (expresión del filósofo Gilles Deleuze), un pensamiento múltiple y complejo que emerge de una entramado de conocimientos incluso contradictorios. (Se utiliza, por ejemplo, el pensamiento abductivo de Bateson, entendida como una forma de razonamiento en la que una semejanza entre dos elementos propone la posibilidad de semejanzas posteriores.)

Se ha sentido la exigencia de una ampliación de los puntos de vista, y algunos han reformulado sus categorías. El cambio ha sido de naturaleza cualitativa y ha llevado a una divergencia entre los instrumentos que se utilizan y la realidad de la cual se habla. La diferencia explicativa entre diferentes posiciones no es para leerse como una batalla por la definición del paradigma privilegiado, sino en una lógica de complementariedad entre putos de vista, entre observadores y entre niveles de observación.

Nuestra reconstrucción de los principales desarrollos epistemológicos ha sido posible solamente simplificando los diferentes nodos y pasajes, describiendo la historia en algunas líneas. Pero el conocimiento evoluciona en el diálogo entre posiciones diferentes, entre ópticas diferentes, gracias a emergencias situacionales y vicisitudes locales. La cibernética de la cibernética, el desafío de la complejidad y el pasaje a las teorías sobre los sistemas auto-organizadores han hecho emerger un humus de conocimiento del cual han tenido origen la red y el hipertexto, que precede el inevitable proceso de “linearización” y de explicitación puntual del esclarecimiento teórico.

Una de las innovaciones sobre la que intentamos reflexionar está relacionada a la conciencia en el uso de la metáfora en el conocimiento. Considerada como un proceso fundamental del pensamiento más que una figura retórica, la metáfora juega un papel fundamental desde hace mucho tiempo que ha sido demasiado subestimado. La mente ha representado siempre un enigma para las teorías del conocimiento, gracias al rol de una metáfora, por ejemplo “la mente es como una computadora”, es así que el enigma parece esclarecerse, si la mente es como una computadora, entonces habrá un hardware, un programa, memorias de trabajo y memorias a largo término, bocinas, etc. Bateson el autor que más ha subrayado el valor de las metáforas en la ciencia, ha puesto en la base de sus especulaciones la metáfora “el desarrollo y la evolución biológica son como la mente”. Gracias a la magia de la metáfora, las teorías de la evolución podían ser consideradas guías útiles para describir el evolucionar de las ideas. Para quien se ocupa de la mente, para quien está interesado en el mutar de los procesos mentales en la comunidad y en los grupos sociales, las teorías de Gould, Lewontin, Bocci y Ceruti son como teorías sobre la mente. Es exactamente la misma situación para los nuevos descubrimientos sociológicos y antropológicos, las nuevas adquisiciones tecnológicas y de la inteligencia artificial, las teorías matemáticas y físicas descritas en este volumen, y otras teorías. Todas estas imágenes del conocimiento nos permiten pensar en nuevas teorías que se han convertido en lo que Dennett llamó “bombas de intuición”. En este contexto, el papel de los investigadores modernos, de los investigadores sistémicos no es definir un objeto de conocimiento, sino “dialogar” con todas las posibles definiciones del objeto mismo, para abrirse y abrir el diálogo a soluciones imprevistas. El rol de los investigadores sistémicos es no oponer un razonamiento a otro, una metáfora a otra siguiendo un modelo de exclusión, sino aceptar la complementariedad de los puntos de vista y la superposición entre teorías.

Desde nuestra perspectiva, el riesgo es que la metáfora transfiera un conjunto de conocimientos de un campo a otro que suponemos conocer y que como en un juego de prestidigitación, sea suficiente saber muchas cosas sobre una computadora para saber también muchas cosas sobre la mente. El riesgo es que con estos conocimientos se puedan organizar investigaciones, experimentos, y que se pueda hacer un modelo de la mente….a partir de la nada. Esta utilización de la metáfora parece derivar del miedo a la ignorancia, del intento de controlar al mundo y seguramente también del intento de proponer ópticas exhaustivas, derivado de una “antiguo” presupuesto científico que imagina el conocimiento como un proceso de acumulación. El riesgo se vuelve buscar la identidad de una teoría o de un grupo de investigación únicamente por diferencia, a través de la identificación de un enemigo externo, allá afuera, contra el cual luchar. Aquellos que usan las metáforas –como cada artista, científico o filósofo- debe estar alerta de sus características y también asumir todas las responsabilidades conectadas con su uso extraordinario.

El presente momento histórico no existe una metáfora o metáforas de referencia predominantes, pero si un conjunto muy vasto de modelos que pueden ser considerados útiles para aventurarse en otros campos, para aliviar nuevas dudas y otros puntos obscuros. Porque la ciencia no da claridad, sino que abre continuamente horizontes donde se es ignorante, a donde se ha llegado inicialmente gracias a las metáforas.

Hay entonces una utilización positiva de la metáfora cuando se emplea como línea guía para intentar nuevos caminos de conocimiento, explorar e incluso refutar nuevas conceptualizaciones. Los modelos resultantes y mapas deben ser probados de nuevas formas mediante nuevas ideas, por que el conocimiento nunca es simplemente reproductivo. Para dar solo un ejemplo, el concepto de estructura disipativa que es usado en la geología para dar cuenta de la deriva continental, siendo la misma metáfora va empleada para comprender los temporales, los huracanes y el sistema climático en meteorología.

De la teoría de sistemas a la sistémica

El pensamiento sistémico es entendido aquí como el resultado de varias etapas evolutivas y no como derivado solamente de la teoría general de sistemas. Como hemos visto, privilegia la atención a las relaciones, a la interdependencia entre los objetos, sean estos humanos, naturales, compañías o partes de un todo. No hemos propuesto una teoría explicativa sino un marco desde el cual observar y comprender los eventos, un conjunto de propuestas de entre los tantos posibles lentes interpretativos, las que nos parecen todavía actuales y sobre las cuales no ha gustado y nos gusta aún reflexionar.

El filósofo de la ciencia Thomas Kuhn afirmó que la transición de un paradigma a otro sucede gracias a que tienen un pie en la tradición y otro en lo nuevo. Nuestra propuesta para respetar el pasado y atender a lo nuevo es asumir la evolución del pensamiento sistémico como operación epistemológica fundamental del conocer. Asumimos la invitación de Von Foerster de utilizar la sistémica (la capacidad de considerar las cosas en concierto) como operaciones que van puestas junto a las operaciones tradicionales de la ciencia.

Para aclarar nuestra propuesta damos la palabra al epistemólogo vienés: “Deberían existir dos maneras de ver, de pensar complementariamente entre ellos, dos modalidades de observar y pensar” nos dijo Von Foerster en abril de 1998 en Roma, durante dos jornadas en las que supervisaba nuestro proyecto. “Una de las formas es la de la ciencia que viene de sci “dividido”, que propone una metodología definida (actualmente es frecuentemente que se piense con la “C” mayúscula) y luego poner un modo complementario de pensar y observar que es la sistémica, que viene de sun, “poner junto”, de manera que las diferentes partes divididas, todas juntas formen un entero. Si eliges dividir haces ciencia, si en vez de eso te ocupas de la complementariedad, entonces puedes entrar en un paradigma sistémico, de manera que una lógica represente a la otra, y que en cada una se espejea la complementariedad y el sobreposicionamiento. De esta manera, cada una de las dos modalidades representa y define a la otra. La teoría general de sistemas por si misma estableció la meta de no dividir las cosas ni las observaciones sino conectarlas entre ellas considerándolas en un coro. La fortaleza del trabajo hecho en la física recae en cambio precisamente en la división, mediante el cual si no entiendo el todo, puedo dividir las partes y entender alguna de ellas aun a pesar de que el todo escapa a mí. Para hablar de ciencia, arte e incluso el tiempo, tienes que hacer una elección. Puedes usar el modelo científico, con su forma de organizar los datos: llevar a cabo investigaciones, probar una teoría, intentar refutarla, elaborar modelos, descartar hipótesis. También puedes optar por la práctica sistémica basada en el dialogo, en una modalidad típica de centrarse en las relaciones humanas que reinstaura la ciencia en su dominio original del diálogo humano.

El problema de la física y de las llamadas ciencias-duras (física, química y biología), continúa Von Foerster, es que tienen que ver con problemas suaves, con problemas que se pueden dividir siempre más, hasta el punto en que se vuelven unidades fáciles de manejar. Las tan llamadas ciencias suaves (sociología, psicología y antropología) tratan en cambio con problemas “duros”, problemas complejos que no pueden reducirse a formas más simples.

La sistémica está interesada en las reglas de composición y se ocupa de la interacción entre las partes. El término “sistémico” frecuentemente es mal empleado si es entendido como un adjetivo, como cuando hablamos del enfoque sistémico, la terapia sistémica, una forma sistémica de pensamiento. En realidad lo que sucede es que no pensamos suficientemente en que cosa hacemos, en como actuamos como sistémicos. Mi propuesta es inventar un nuevo término, “sistémica” como sustantivo. Entonces la sistémica se vuelve una manera de observar y ponerse en el mundo. Existe un esplendido término para la ciencia en alemán, es decir Wissenschaft, que significa producción de conocimiento, algo que produce conocimiento. El conocimiento puede ser producido de diversas maneras. Puede producirse conocimiento separando las cosas o juntándolas. Separar e investigar las diferencias, o poner las cosas juntas y buscar las similitudes, los puntos de contacto. El término “sistema” deriva precisamente de la palabra griega en “uno” y sun “poner junto”. Etimológicamente “sistema” significa poner las cosas en uno, hacerlas uno.

Propongo considerar la sistémica como una posición, una forma de observar, una actitud cognitiva. Trazar una diferencia es científico, ver complementariedad es sistémico. En esta perspectiva, los conceptos se sobreponen mediante la definición reciproca de uno y del otro.

No es necesario elegir una u otra aproximación. Debemos utilizar contemporáneamente ambos lógicas para obtener una mayor profundidad del campo.

¿Me piden que siga hablando de lo que es la sistémica? Contestaría explicando mi interés en la forma de la pregunta y por la forma de la respuesta. Pienso que la idea de la “forma” no está entendida del todo. Si alguien me preguntara lo que es la conciencia, por ejemplo, puedo decir, Busquémosla en un buen diccionario. Si mi interlocutor no está contento con la forma del diccionario, sugiero buscarlo en un diccionario etimológico. Entonces él podría replicar que no está interesado de donde proviene el término, sino en otra cosa.

Cuando me pregunta lo que es la sistémica y me invita a seguir hablando de ello, contesto que estoy interesado en la forma de su pregunta y también en su expectativa en cuanto a la respuesta. La forma en la que un diálogo sucede y se profundiza, se vuelve mi tarea. Ocuparse de la forma de la pregunta y de la respuesta conduce a pensar en un diálogo que yo defino como una danza, un diálogo entendido como una operación interactiva en la cual desaparece la causalidad. Si estamos hablando de una definición científica de la conciencia, por ejemplo, podemos buscar en los libros. Cuando buscamos una definición de sistémica, no es tanto la respuesta la que tiene significado sino la danza que ha tenido inicio con la pregunta, que se vuelve un diálogo, se vuelve una interacción, construye la complementariedad entre dos personas que entra en contacto. Se trata de dos dominios, aunque hemos dicho que son complementarios, muy diferentes: la sistémica es llevada adelante por personas que quieren dialogar, que quieren pensar juntos, que quieren danzar. Preguntarse cuál es la forma de la pregunta significa evidenciar, o incluso negociar un dominio común. Analizar el contexto de la pregunta implica no dar respuestas que agotan el coloquio, sino preguntarse cuál es el dominio compartido en el que la pregunta fue hecha. Dialogar permite encontrarse y superar las identidades separadas, la fragmentación del lenguaje, el aspecto importante se vuelve estar juntos. Esta es una operación interactiva en la que dos personas se vuelven uno, en la que yo me pongo en los zapatos de la otra persona para poder hablar, y la otra persona se ve forzada a ponerse en el mío. Cada uno de nosotros se ve a sí mismo a través de los ojos del otro. De esta manera llegamos a formar una unidad. Las identidades separadas desaparecen. La identidad pierde su poder explicativo y la misma noción de explicación toma dimensiones diferentes. También diría que las lógicas de los dos sistemas, el científico y el sistémico, son completamente diferentes. Como refiere el lenguaje, tenemos dos esferas completamente diferentes. En una está la apariencia y la apariencia define la identidad. Separa. Es similar a la ciencia. La apariencia es siempre sintaxis. Para construir una frase que tenga sentido un persona debe organizarla con un sujeto, un predicado, debe ponerla entre comillas, hacer pausas en ciertos puntos, debe decidir cómo hacerla. Una parte del lenguaje tiene que ver con entender las oraciones, pero el segundo aspecto, el semántico, es un milagro. La sintaxis presenta una causalidad lineal y lógica. La semántica está organizada como red. Establece una red de relaciones que alcanza muchas direcciones diferentes.

Personalmente, considero a los hombres como tendientes a la sintaxis y a las mujeres inclinadas a la semántica. Se trata de dos formas de la lógica: una sintáctica y una semántica.

Los argumentos de McCulloch y Bateson son ejemplos típicos de la lógica semántica. En su renombrado artículo sobre la heterarquía de valores determinados por la topología del sistema nervioso, McCulloh demostró que existen sistemas tan rígidos como militares o estructuras religiosas que piensan en términos de un “mejor” universal. En realidad, el aspecto que McCulloch demostró es que el sistema nervioso no puede computar un valor definitivo pero trabaja mediante la heterarquía, i.e. a través de una selección constante de valores basada en la lógica circular. Considero esto una de las más grandes contribuciones a la ciencia del siglo XX. McCulloch decía: Suponga que una persona tiene la opción de una manzana y una banana, y elige la banana. Entonces él tiene la elección de banana y la cereza, y elige la cereza. Si ahora se le pide elegir entre una manzana y una cereza, un lógico asumiría que elegiría las cerezas nuevamente, a pesar de que la manzana es también una posibilidad desde el punto de vista semántico. El lógico diría: “Mira lo estúpida que es la gente. No pueden pensar lógicamente”. Bateson y McCulloch en cambio dicen: “Mira que estúpidos son los lógicos. Nunca pueden entender cómo piensa la gente.”

¿Cómo podemos desarrollar una lógica capaz de respetar esta imprevisibilidad? Las nuevas definiciones y los nuevos problemas en ciencia no son inventados, pero emergen en el dialogo entre dos o más personas que no saben cómo afrontar un problema y tratan de afrontarlo en una danza común. Los científicos por lo tanto no se sientan en su escritorio e inventan nuevos conceptos; pero los nuevos conceptos emergen de su baile, de sus dudas compartidas y relaciones. Déjenme darles otro rápido ejemplo para aclarar las diferencias entre las dos formas de acercarse al conocimiento. En su época, von Bertalanffy presentó una teoría general de sistemas que estaba acorde con los tiempos. Sin embargo la palabra “teoría” no estaría incluida en mi “vocabulario sistémico”. La teoría es un concepto que pertenece al dominio de la ciencia, no al de la sistémica. Para ser válida, una teoría debe der verificable y el ser verificable es un concepto de Popper, válido e indispensable, pero no es un concepto coherente con la sistémica ya que presupone una lógica lineal. La lógica sistémica está relacionada con la lógica semántica, mientras que la lógica científica es sintáctica y sus reglas son dadas por el exterior. La lógica simple de la sintaxis es crucial para examinar, entender, analizar y seccionar las reglas de los sonidos que se hacen para poder hablar; el papel de la semántica es darle sentido al sonido. La lógica de la semántica se requiere para conectar infinidad de datos entre sí.

Lo sistémico es entendido por Heinz von Foerster -y los autores de este trabajo- como resultado de varios movimientos descritos más que solamente de la teoría general de sistemas. Se trata de considerar los efectos de las conexiones entre la gente tanto en el contexto de la vida cotidiana como en organizaciones estructuradas. Implica sugerir enfoques que toman en consideración la dimensión estética y ética al mismo tiempo. La propuesta es aceptar lo indescriptible, la posibilidad de especulación, fantasía e imaginación como modalidades del conocimiento. El acceso a lo que aún no es explicable sería colocado junto a lo que es predecible y calculable, en una visión complementaria, una visión más amplia en la que ambas formas de pensamiento son aceptadas.

Heinz von Foerster ha propuesto una forma de conocimiento para situarse junto al método científico tradicional, una modalidad que toma en cuenta las relaciones como una herramienta del conocimiento y el lenguaje como herramienta de la experiencia, así como la necesaria afirmación de la responsabilidad del investigador. Esta es una operación coherente con la complementariedad de la cibernética, con la procesualidad, con la revolución mencionada en estas páginas.

El propósito de este libro es presentar las palabras y conceptos clave de la nueva epistemologi’a, de explicarlos con las trayectorias subjetivas propuestas por los coautores a través de vi’as de una naturaleza lógica, histórica y filológica, para conectar los diferentes constructos entre si’ y también destacar algunas implicaciones prácticas. Los lectores a su vez serán capaces de trazar su propio camino a lo largo del libro, organizado por el encuentro entre uno o más lectores curiosos y la pluralidad de los argumentos de la materia de interés.

El libro también propone examinar la metodologi’a y las operaciones de la lógica sistémica, a través de un análisis elaborado de los conceptos clave, con el fin de utilizar la sistémica misma como un marco para considerar los problemas, un marco procesual y holi’stico que acompaña pero no reemplaza a la ciencia clásica.

Conclusiones

¿Qué temas deberán ser retomados por la ciencia para hacer frente a lo que viene? ¿Qué revolución epistemológica espera y se esconde a la vuelta? No lo podemos decir pero estamos muy curiosos de descubrirlo.

Estamos conscientes que no hemos sido exhaustivos en estas páginas, que hemos ofrecido esti’mulos y que arbitrariamente hemos elegido el camino para guiar al lector. Nos sentimos confortados por las palabras de Montesquieu: “No es necesario agotar un argumento llegando al punto de no dejar nada que hacer al lector. La tarea no es hacerlo leer, sino hacerlo pensar.” (De b’esprit des bois, XI, 20) No decimos esto como una justificación sino más bien como un ejemplo de la epistemologi’a que nos ha guiado en la relación entre li’mites y posibilidades, de lo que somos y lo que hemos hecho hasta ahora.

En conclusión, debemos admitir que cada teoría expande el área de lo desconocido y que tal desconocimiento, aumenta la conciencia de nuestra ignorancia, incrementando la curiosidad por investigar. Tal como escribió Bateson (1991, p.395), esta actitud podría en particular guiar a la raza humana a un tipo de sabiduría capaz de impedir la gratuita destrucción de nuestro ambiente biológico y eliminar algunas de las actitudes extrañas que tenemos hacia los pacientes, los extranjeros, las minorías, nuestras esposas, esposos e hijos, y también de uno hacia el otro.

Notas

[1] Esta larga introducción es la primera parte de un libro publicado en Italia en el 2003 por la editorial Bollati Boringhieri (Sistémica. Voces y trayectorias en la complejidad), un editor muy conocido. El libro está elaborado como hipertexto y colecta 150 palabras, las cuales son constructos propios del marco de la complejidad. Cada palabra o concepto esta descrito por más de un autor para brindar información de diferencias. El proyecto fue supervisado por Heinz von Foerster, el cual es entrevistado durante las páginas.

[2] Traducción de Paul Mc Calffe, agradezco a Michele F., una buena amiga y lingüista quien ha revisado la traducción con atención y cuidado.

[3] Esta es una disciplina que consideramos como precursora de la ciencia de la complejidad. La 1ra. Ley de la termodinámica postula la conservación de la energía. La 2nda. Ley, formulada por Clausius alrededor de 1850, sostiene que cualquier sistema aislado se mueve hacia un mayor desorden y un estado de equilibrio.

[4] Ciertos autores trazan sobre este episodio histórico para argumentar que la teoría de mecánica cuántica de Einstein no marco un rompimiento real y que esa continuidad sustancial se mantuvo con las teorías de la física clásica.

5 Esta idea se retomó de los escritos de Chales Bell (1774-1842) y Johannes Peter Müller (1801-1858). La ley de las energías nerviosas especificas, formulada posteriormente, la cual sostiene que los sensores nerviosos no trasmiten información acerca de los objetos externos.

6 Nacida con la lógica matemática, la recursividad es entendida como la capacidad de cálculo a través de la reflexión sobre las acciones llevadas a cabo. Esto constituyó la introducción del observador en la esfera de la observación, algo descartado por Russell y Whitehead por dar lugar a paradojas.

7 Von Foerster sostuvo que la teoría de los tipos lògicos fue refutada con el trabajo pionero de tres hombres: El filosofo Gottahard Gunther, el cual desarrollo un muy interesantes sistema de lògica multivalor (diferente a la lògica de Tarsky, Quine y Turquette); el lògico sueco Lais Lofren, quien sugiriò el concepto de autología (la aplicaciòn de los conceptos a sí mismos); Francisco Varela, quien expandió “el cálculo de la autoreferencia” de Spencer Brown.

8 La Fundaciòn Josiah Macy Jr, para el desarrollo de investigaciòn médica invitò un grupo de escolares, quienes previamente se habían reunido en Princenton en 1944, estableciendo la existencia de bases de ideas comunes y la necesidad compartir vocabulario.

9 El concepto de información es entendido por Luhman (1989) como un cambio de estado interno, un aspecto auto-producido derivado de la curiosidad biológica desarrollada a través de intercambios relacionales, no como algo que existe en el ambiente del sujeto y debe ser visto y descubierto. La información existe en el sistema como el resultado de operaciones internas recursivas. El significado por lo tanto no es un modelo o una imagen, una representación del mundo, sino más bien una nueva forma de abordar la complejidad, organizar información y construir marcos de referencia.

10 Una máquina autopoietica es un mecanismo homeostático (estático a las relaciones) que tiene su propia organización y define la red relacional como una invariante fundamental (Varela). Significa auto producción (poiesis), es una etiqueta dada por Humbeto Maturana y Francisco Varela para indicar la forma en que una auto-organización de una medida del sistema en equilibrio manifiesta en sí mismo.

11 Amperé ya había hablado en su Essai sur la philosophie des sciences (no. 83) sobre la “cibernética” como la ciencia del gobierno, usando de este modo el término en el mismo sentido que Platon en el dialogo Gorgias.

12 La retroalimentación perpetuada a través del tiempo es identificada como un patrón capaz de mantener su estabilidad fomentándola evolución hacia patrones más complejos.

13 Esta es la situación en la que lo que sucede es la consecuencia de un evento previo, pero que a su vez influye de tal manera que prueba lo imposible de determinar un secuencia simple, lineal del antes y después.

14 La cibernética dio pie a controles automáticos y a lo que más tarde fue conocido como automatización o como robótica (W.McCulloch, S. Papert, J.Mcarthy), el cual fue entretejido con las disciplinas de inteligencia artificial.

15 El concepto de cierre lleva a un desarrollo natural de los conceptos de auto-organización, definida por Maturana y Varela como la capacidad de un sistema de organizar de manera autónoma lo que proviene del ambiente. Esta idea será desglosada en la siguiente sección.

16 Miller (1978) sugirió un orden jerárquico de todos los sistemas vivientes basado en ocho niveles empezando desde lo celular a lo supranacional pasando por organismos, grupos, organizaciones, comunidades y sociedades.

17 Consistente con este enfoque es el concepto de Kloester de holon. Al igual que rey romano Janus, cada holon o sistema tiende a comportarse tanto como un todo como un elemento de un sistema mayor. Un grupo puede ser considerado como ambos, en virtud de sus características de autonomía, y como una colección de individuos. Este es un temprano intento para tratar a los sistemas no como determinados a priori de una forma estática e inequívoca sino en relación con otros sistemas.

18 Los sistemas cerrados, aquellos que no intercambian material o información con el ambiente, pueden ser identificados en las maquinas físicas de la ciencia clásica.

19 Von Foerster describe la circularidad como la liga entre eigenvalues y eigenfunctions en matemàticas, la auto-referencia en lógica, la autopoiesis en la biología y la sociología, la teoría de los sistemas disipativos en física y química, y las frases performativas en lingüística.

20 El teórico de sistemas Gordon Pask, quien trabajo en Londres en la aplicando la TGS y la cibernética en la organización, llamó esto Composición Super Aditiva. Formulaciones como “el todo es más que la suma de sus partes” lo enfurecían por lo que a los que lo usaban los llamaba locos e ignorantes. La definición dada en el texto es la que él consideraba correcta.

21 Un ejemplo claro puede observarse en Pragmática de la Comunicación Humana (Watzlawick, et al., 1976), trabajo sistémico de importancia en el àmbito clínico debido a su aplicación de las nuevas teorías a la comunicación humana y que se vuelve piedra angular en el enfoque relacional. Aunque es muy avanzado en términos de los autores mencionados y citados, permanece como un texto vinculado al pensamiento conductista dominante en sus contenidos. Se evita el examen de los signific ados personales, utiliza la caja negra para evitar cualquier investigación de los aspectos semánticos y adopta una dimensión temporal única en el aquí y ahora. Si bien las intención es buena, las palabras necesarias para poner en práctica la teoría están aparentemente ausentes.

22 Fue en 1940 que Ross Ashby construyó su homeostato. La homeostasis es la capacidad de un sistema para mantener su equilibrio interno mientras emprende varios procesos de cambio.

23 El proceso de crear nuevas organizaciones en interacción (acoplamiento estructural) con un ambiente cambiante constantemente descrito como morfogenetico. La morfogénesis de un sistema puede proveer adaptación o destrucción.

24 La primera conferencia interdisciplinaria sobre la auto-organización se realizó en 1959 por la Subdivisión de Sistemas de Información de la Oficina de Investigación Naval y el Instituto de Tecnología de Illinois.

25 Stafford Beer definió la autopoiesis como un caso específico de homeostasis en el que la variable critica del sistema mantuvo estable su organización.

26 Constantemente relacionados por años, Maturana y Varela, ahora parecen separarse en términos de visión teórica y campos de investigación.

27 Los sistemas compuestos pueden ser considerados en términos de su organización y estructura, lo primero se entiende como la serie de relaciones entre los componentes que definen dicha unidad con respecto a los otros. (Por ejemplo, si una silla ha de considerarse como tal, y no como un taburete, debe tener cuatro patas y un respaldo.) En cambio la estructura es definida como el conjunto de componentes y relaciones eficaces que hacen a un sistema, el sistema particular que es. ( La estructura de la silla es el conjunto de variables múltiples –ya sea de madera, metal, acolchada, pintada, etc, – que pueden cambiar sin afectar su identidad como silla.) La distinción entre estructura y organización hace posible pensar en términos de núcleos fijos de relaciones y como un conjunto de posibilidades cambiantes, en los que la organización implica una clase de relaciones que pueden manifestar ellos mismos a través de varias posibles estructuras (Varela).

28 Junto con este grupo en Bruselas y la Universidad de Texas, Ilya Prigogine (1917) gano el Premio Nobel en 1977 por su aplicaciòn de la segunda ley de la termodinámica en los sistemas abiertos, para los cuales la posibilidad de cambio, la fluctuaciòn y una mayor complejidad es sugerida. Su contribuciòn alterò el paradigma de la termodinámica y desafiò a la segunda ley, lo que hace posible el estudio de los sistemas en condiciones alejadas del equilibrio poniendo de relieve las características de los sistemas auto-organizados. Prigogine presentò una visiòn holística del universo y puede ser considerada como reintroductoria del tiempo e historia en procesos alejados del equilibrio: el tiempo parece adquirir una flecha y así como la naturaleza como historia. La reintroducciòn del tiempo, un mundo pluralista, disipativas estructuras y puntos de bifurcaciòn son mencionados en este texto.

29 Una estructura disipativa es una nueva forma de organización que emerge espontáneamente cuando un sistema es forzado más allá de su punto de equilibrio.

30 Los sistemas muy sensibles al exterior en el que se realizan las reorganizaciones, perturbaciones muy pequeñas que pueden expandirse en cambios muy grandes por medio de fluctuaciones y amplificaciones de la retroalimentación.

31 El terapeuta familiar Minuchin, quien se identifica con el paradigma sistémico, señala que el lenguaje de la cibernética es muy pobre, excluye la dulzura, lagrimas, dolor, esperanzas, confusión, ambigüedad, aburrimiento, pasión y fatiga que caracterizan los encuentros humanos. El mundo de los sistémicos es un mundo de ideas, las cuales están organizadas en diferentes niveles. Las cuales tienen que ver con tipologías ideales, pueden convertirse en conflicto y ser eliminado con matanzas sin esparcimientos d sangre, los hombres no.

32 Como decimos posteriormente aptación es una carácter formado para una razón especifica y ” disponible para la selección o para otra función.

33 El interés se adhiere a la transición en la práctica clínica considerando a los problemas como engendrados por el sistema en el que se manifiestan (el sistema determina el problema) para enfocarse en el intercambio semántico, donde aquellos que comparten una definición o problema son considerados como un sistema con respecto al fondo (el sistema determinado por el problema).

34 En Italia en los años 80’s fueron realizadas numerosas conferencias, sobre la complejidad, incluyendo “El reto de la complejidad” (La sfida della complessità, Milan 1983), la AIF Conferencia Nacional de 1986, Organización y Nueva Complejidad (Comunicazione, organizzazione e nuove complessità)…

35 De acuerdo a G. Israel, el primer verdadero ejemplo del fenómeno del caos fue dado por el matemático francés Jacques Hadamar en un artículo puramente matemático sobre las superficies geodésicas con curvatura negativa.

36 Una estructura fractal es poseída, por ejemplo, por un abeto, donde se repite la forma del árbol en las ramas y todo el camino hacia las raíces. Otros ejemplos incluyendo coles y copos de nieve.

37 El término de eigenvalue “valor propio” fue acuñado por el matemático alemán Daid Hilbert alrededor de 1900. Aplicado a los sistemas sociales indica la estabilidad que cada sistema genera con respecto a sus propias operaciones. Von Foerster da el ejemplo de usar una calculadora de bolsillo para obtener la raíz cuadrada de cualquier número y después repetir la operación sobre el número obtenido y así sucesivamente de manera recursiva hasta llegar, en este caso, al número 1, independientemente de la figura con que se comenzó. El valor propio de la operación de calcular la raíz cuadrada es 1.

38 Debe mencionarse que “el constructivismo” es también el nombre de un movimiento artístico en la Unión Soviética durante el periodo de 1920 a 1932.

39 Von Glasersfeld rastrea las ideas constructivistas en las siguientes fuentes: los filósofos pre­socráticos del siglo 3ro. y 4to A.C; los escépticos (Pyrrho, c. 365-275 AC), quienes mantuvieron la imposibilidad de la verdad y la certeza del conocimiento; los teologistas Byzantino del siglo 4to DC, quienes trazaron distinciones entre los conocimientos obtenidos por un hombre y el conocimiento de Dios; los instrumentalistas representados por el teòlogo protestante alemán Osiander (1498-1552), quien escribiò un prefacio para el trabajo de Copérnico; el Cardinal Bellarmino (1532-1621), quien escribiò en la víspera del juicio de Galileo, que cualquier científico puede elegir las teorías que necesita para hacer sus cálculos pero no para buscar verdades más verdaderas que los dogmas religiosos; el arquitecto y matemático Juan Caramuel (1606-1682), quien inventò las matemáticas binarias como una “operación de la mente”; Giambattista Vico (1668-1774) autor de De Antiquissima Italorum Sapientia, la primer afirmaciòn de los límites del conocimiento humano, quien cuestionò lo que necesitaba hacer la mente para poder obtener los hechos; El filosofo y jurista inglés Jeremy Bentham (1748-1832), quien estudiò el papel del lenguaje y la construcciòn elemental de la estructura apropiada. El también menciona a Heidegger (1889-1976), con su ontología basada en el movimiento más allá de la epistemología de la representaciòn, y la hermenéutica, entendida como la circularidad universal del conocimiento.

40 El trabajo de Ceccato es continuado actualmente por la Società di Cultura Metodologico-Operativa y por un grupo de investigadores coordinados por Giuseppe Vaccarino y Accame Felice, los cuales profundizan los estudios de las operaciones mentales constitutivas de los significados.

41 Uno de los trabajos autobiográficos de Piaget (1952) hace referencia a su deseo de dedicar su vida a la explicaciòn biològica del conocimiento. Debe notarse que estudiosos como Maturana, Varela y von Foerster también consideran el conocimiento como una funciòn biològica por lo tanto una forma de adaptaciòn.

42 Tanto von Foerster como Varela prefieren hablar de una “comunidad de observadores”, al considerar al individuo como poseedor de un estatus solo en relación con otros.

43 Traducido del italiano por los autores

44 Entre el vasto rango, Laura Fruggeri (1991) distingue de entre los constructivismos un socio­constructivismo, que acentúa la articulación entre los procesos mentales y sociales, que incluye estudios sobre los procesos del desarrollo cognitivo (Doise y Mugny 1981, Carugati et al.,1985), la teoría de las representaciones sociales (Moscovici, 1961, 1981, 1988,…) y el modelo genético de los procesos de influencia social (Perez y Mugny, 1989).

45 Von Foerster también retoma dos matemáticos del siglo 19, el alemán Leopold Kronecker y el holandés Luitzen Brounwer, quienes se describen a sí mismos como constructivistas en el plano matemático, argumentando que la demostración de un objeto matemático necesita un plan o estrategia para su construcción.

46 Habiendo hasta ahora mencionado los acontecimientos pasados, presentado un relato histórico, expresaremos ahora nuestros puntos de vista sobre el caso en cuestión y tomando parte en el debate.

47 Tal como lo explica Hoffman (1992), los dos movimientos compartieron un terreno común en el que desafiaron la idea moderna de la existencia de un mundo real que puede ser conocido con la certeza objetiva. Optando por el modelo del construccionismo social, la autora rastrea sus orígenes y sugiere, de manera ingenua desde nuestra perspectiva, una conexiòn con el enfoque deconstruccionista presentado por primera vez en 1967 por Jacques Derrida. Como un post-estructuralista, Derrida sostiene que el significado y el lenguaje no están cercanamente interrelacionados sino que en cambio están separados constantemente para encontrarse en nuevas combinaciones. (La tarea del filòsofo es cuestionar los textos de otros autores al mostrar, algunas veces exitosamente, que su supuesto básico resulta contradictorio con las intenciones iniciales).

Hoffman conecta el surgimiento del construccionismo social con el debate en la poesía, literatura y arte,en las cuales ningún elemento puede funcionar como un signo sin referencia a otro elemento que no está presente en lo que está escrito o hecho. Ella entonces lo enlaza a un renovado interés en la obra de Foucalt autor post-estructuralista que escribiò libros y artículos considerados de alta definiciòn política. La tercera relaciòn sugerida es con el movimiento feminista de 1980, cuando las mujeres emplearon ideas desconstruccionistas para criticar los escritos de mucho autores masculinos y algunas prácticas especificas (en medicina, terapia y otros campos) para resaltar los prejuicios ocultos de género. El desafiante método de la deconstrucciòn que emergiò, se centrò en la necesidad de explicitar las premisas fundantes de un escrito, autor o práctica.

48 Tomemos el caso paradigmático de un autor alejado de la psicología, es decir el psicobiólogo y monista materialista Alberto Oliverio, quien define las emociones “como una evaluación de la brecha existente, desde nuestra perspectiva, entre el mundo y las señales recibidas del mundo mismo. Esta evaluación están basadas sobre un numero de mecanismos instintivos y sobre todo en estrategias naturaleza cognitiva” (1996 p.92). El autor las describe posteriormente como derivadas de la matriz social y cultural.

49 Las mismas críticas has sido extendidas en escritos recientes, frecuentemente de forma incorrecta, primero a Kelly y luego a los constructivistas.

50 La misma disputa psicológica puede ser vista en los 30´s entre aquellos que sostuvieron que todo era lenguaje y que el lenguaje era la puerta a la inteligencia, y los que consideraron los procesos mentales como en parte lingüísticos y en parte no-lingüísticos.

51 De acuerdo a S. Moscovici (1989), las representaciones tienen una naturaleza congénita dialógica y son producto de la sociedad pensante, no de simple individuos. La existencia por lo tanto es interpretada no ontológicamente sino epistemológicamente; es un proceso cognitivo, una forma de operar en el mundo, no de “ser” en el sentido tradicional (von Glasersfeld). Como vimos, el lenguaje es por lo tanto considerado epistemológicamente como un aspecto del conocimiento por los constructivistas y ontológicamente por los construccionistas y la tradición hermenéutica.

52 Alan Turing el inventor de una concepción moderna de computación es frecuentemente mencionado por Von Foerster.

53 El principio de la codificación indiferenciada sostiene que la respuesta de una célula no selecciona la naturaleza física del agente desencadenante de la respuesta. Lo codificado es solo “cuanto” se realiza en una parte del cuerpo, más no “que”. En otras palabras, la actividad de una célula nerviosa contiene solo la magnitud de la perturbación, no la naturaleza del agente perturbador.

54 Francisco Varela (1986) divide la ciencia cognitiva en cuatro fases: una fase cibernética inicial que vio la creación de un ciencia de la mente; una fase cognitivista basada en el procesamiento de la información (teniendo como regla de base la manipulación de símbolos), el cual dio pie a la inteligencia artificial, una fase que utiliza las metáforas de la auto-organización como el núcleo de las operaciones del cerebro (el enfoque computacional presentado por von Foerster del cual emergen el conexionismo y la dinámica de redes); y una cuarta fase, del autorevelar la crítica del uso del concepto de representación del mundo y la idea de la inteligencia como una solución de problemas, proponiendo un proceso de interpretación capaz de involucrar nuestro lenguaje e historia de manera indivisible. La cognición se vuelve un acto afectivo, la historia de un acoplamiento estructural que propone un mundo.

55 De acuerdo con Varela, 1956 fue el año en que la fase cognitiva de la ciencia de la cogniciòn se consolidò gracias a dos encuentros realizados en Cambridge Dartmouth con la participaciòn de Herbert Simon, Noam Chomsky, Marvin Minsky y John McCarthy.

56 El término “cognitivo” fue introducido por primera vez aquí.

57 Todos los autores respetados del periodo, daban su nombre a sus modelos.

58 El cognitivismo clásico presentò un modelo “sándwich” entre la percepción (el aparato sensorial) actuando sobre la cogniciòn y esta, guiando la acciòn (como una máquina que emite impulsos eléctricos y produce movimiento). La psicología evolutiva considerò al cerebro como equipado con mòdulos cada vez más sofisticados, como una navaja Suiza, nuestras condiciones biològicas naturales, es decir la forma en que nos representamos y actuamos en el mundo, y la representaciòn es influenciada por quienes somos. La mentalizaciòn involucra el sistema cuerpo/mente interactuando en un ambiente específico y localizado de otro sistema cuerpo/mente. El conocimiento se vuelve corporizado.

59 Ver también Stephen Grossberg. Redes neuronales e inteligencia natural. MIT Press, Cambridge 1988.

60 John McCarthy acuñó el término inteligencia artificial durante el seminario sostenido en Darmouth durante el verano de 1956. Claude Shannon, Marvin Minsky, Frank Rosenblatt, Herberte SImon y Alan Newell estuvieron entre los participantes. Hasta el momento existen diversas versiones de la teoría computacional de la mente que van de la inteligencia artificial fuerte (la mente es un programa de computadora) a una inteligencia artificial débil (la computadora es una herramienta útil para la simulación de la mente). Ver Searle (1997). La atención actualmente se centra en la vida artificial más que en la IA.