LA REVOLUCIÓN CIENTÍFICA DEL S. XX. EL
NEOPOSITIVISMO LÓGICO DEL CÍRCULO DE VIENA.
NACIMIENTO DE LA FILOSOFÍA DE LA CIENCIA.
LA REVOLUCIÓN CIENTÍFICA DEL S.XX
A comienzos del S. XX y antes de las dos guerras mundiales se dio una gigante revolución en las ciencias básicas, que todavía, a inicios del S. XXI no se clausura. Esta revolución va a ser la base de la revolución epistemológica posterior y se iniciaó con las revoluciones operadas por la física de la relatividad, la física cuántica y la termodinámica. Continuó con la aparición de la genética, la ecología, la biología molecular y el desarrollo de la cibernética, de la teoría de la información y de la teoría de sistemas. Y se reafirmó con el fracaso del Positivismo Lógico del Círculo de Viena y las revoluciones en la epistemología, la aparición de nuevas lógicas, nuevas algebras, nuevas geometrías y los planteamientos de las teorías de complejidad.
La más importante corriente epistemológica que intentaría asumir los nuevos retos de esta gran revolución fue el Positivismo Lógico, perspectiva que se explicará a continuación.
EL POSITIVISMO LOGICO
El positivismo lógico buscó establecer las bases para que la ciencia pudiera resolver fácilmente muchas discusiones epistemológicas, sobre los criterios que hacen que una teoría sea científica o no.
En la época del círculo de Viena se encontraban en furor discusiones sobre el estatuto epistemológico de teorías de distintos campos del saber que pretendían ser consideradas como científicas. Se debatía acaloradamente si el psicoanálisis o el marxismo eran perspectivas científicas. O si la nueva física teórica einsteniana iba finalmente a desplazar a la física newtoniana, modelo por excelencia de teoría científica.
En este contexto, el positivismo lógico asumió, inspirado en el pensamiento de Wittgenstein contenido en el Tractatus, que el lenguaje es el ámbito desde donde deben aclararse todos los problemas científicos. Asumió que el lenguaje es el vehículo del pensamiento y que todos los problemas del pensamiento, específicamente los problemas del pensamiento científico, son problemas del lenguaje. Pero los problemas del lenguaje los definió como problemas del significado.
Por lo tanto, el positivismo lógico necesitaba desarrollar una teoría del significado y lo hizo a partir de una exigencia lógica y de una exigencia empírica[1]. Como exigencia lógica planteó que la mayor parte de los términos científicos debían traducirse en términos lógicos, a la manera de la lógica simbólica matemática de Frege y Russell. Y como exigencia empírica, esperaba que todos los términos teóricos y lógicos pudieran corresponder con términos observacionales. Es decir, que se pudieran verificar. Así, el criterio de significación era la verificación. Algo tenía significado en la medida en que pudiera implicar un proceso de verificación.
La distinción entre términos lógicos, términos teóricos y términos observacionales fue acuñada por el positivismo lógico. Un término lógico puede ser cualquier expresión lógica, como por ejemplo, el enunciado: los espacios crecen en proporción doble a los tiempos, enunciado de la física galileana sobre la caída de los cuerpos. Un enunciado teórico puede ser cualquier tipo de formulación teórica necesaria dentro del cuerpo de la teoría en cuestión, por ejemplo, para la misma física galileana el enunciado: los cuerpos tienden a conservar sus movimientos. Y un enunciado observacional puede ser un informe de laboratorio concreto, por ejemplo, en dos unidades de tiempo, una bola de metal que se desplaza por un plano inclinado, recorre cuatro unidades de espacio. Estas distinciones fueron muy importantes para el esfuerzo que hicieron algunos epistemólogos, como Carnap, para definir la estructura lógica de cualquier teoría científica, desde lo que se llamó como “la Concepción Heredada”, que eran un conjunto de criterios y una estructura que servía como esquema ideal del lenguaje científico, esquema al que se podría traducir toda teoría que pretendiera ser científica. En este esquema lo importante era que los términos lógicos y teóricos pudieran corresponder con términos observacionales. Y para posibilitar ese salto se incluyó, en la concepción heredada, además de los términos ya mencionados, lo que se denominó “reglas de correspondencia”, que servían de puente y salvaban el abismo hacía los términos observacionales. Un ejemplo de esas reglas, en el mismo caso de la física galileana, puede ser el principio del plano inclinado, que permite hacer una observación controlada de un fenómeno que se observa en la naturaleza de forma no controlada, es decir, de la caída de los cuerpos, la cual Galileo veía pero no podía medir. Otro ejemplo de esas reglas puede ser lo que se llama como “la ficha técnica” de un análisis estadístico. Es decir, la explicación de la forma como se elaboraron y aplicaron las herramientas estadísticas y que hace válidas la recolección empírica de los datos.
Por verificación se puede entender, de una manera muy sencilla, cuando se lograban vincular, de manera deductiva, los enunciados teóricos o lógicos de una teoría con la observación, de tal forma que de ello depende su verdad.
Para el Positivismo Lógico este criterio de significación no era un criterio cualquiera, sino un criterio científico, o que servía para separar el lenguaje científico del no científico. Y como el criterio era de verificación empírica, todo lo que no podía responder a ese criterio se calificaba como meta-empírico, o metafísico. Así, los positivistas lógicos intentaron separar ciencia de metafísica.
En el contexto de esta propuesta se acuñó para la filosofía de la ciencia, la expresión “criterio de demarcación”, es decir, el criterio que permite colocar la frontera entre ciencia y no ciencia. De esta forma se dice que el positivismo lógico tiene como criterio de demarcación “el criterio empírico del significado”, o “la verificación”. Si algo se puede verificar empíricamente, entonces es científico.
Otra expresión que se acuñó, y que será muy importante para la filosofía de la ciencia posterior, será la introducida por Reichenbach, entre lo que él denominó “el contexto del descubrimiento” y “el contexto de la justificación”. El primero se refiere a todas las circunstancias que rodean el descubrimiento científico. Y el segundo, a la manera como se explica o se justifica ese aporte como científico. Para el positivismo lógico y para Popper, la epistemología debía dedicarse exclusivamente al contexto de justificación, porque el estudio del contexto de descubrimiento no permite conocer nada sobre el procedimiento y la normatividad de la ciencia. El estudio de ese contexto le corresponde a la psicología y no a la epistemología.
Todos los anteriores aportes marcaron el inicio de la filosofía de la ciencia profesional contemporánea, no tanto por su aceptación, sino por los debates y las críticas que en adelante se generaron y que sirvieron como impulso para nuevas propuestas. Las más completas y significativas críticas las hizo Karl Popper. Enseguida presentaremos una sintética comparación entre estas dos perspectivas.
CUADRO COMPARATIVO ENTRE EL PLANTEAMIENTO DEL POSITIVISMO LOGICO Y EL PLANTEAMIENTO DE KARL POPPER
CUADRO COMPARATIVO ENTRE EL PLANTEAMIENTO DEL POSITIVISMO LOGICO Y EL PLANTEAMIENTO DE KARL POPPER[1]
POSITIVISMO LOGICO
| POPPER
| DESACUERDOS
| Se concentró en una teoría de la significación científica.
| Se concentró en una metodología de la ciencia.
| Centró la metodología científica en un principio de verificación
| Cambió el principio de verificación por el de falsación.
| Tomó como principio de demarcación y de significación a la verificación.
| Tomó como principio de demarcación la falsación.
| El lenguaje científico y el análisis epistemológico de la ciencia los redujo a un análisis formal.
| No vio conveniente reducir a formalismos el lenguaje de la ciencia y el análisis epistemológico.
| No cuestionó la validez metodológica de la inducción.
| Criticó la inducción y planteó que la ciencia operaba por deducción.
| Planteó una distinción tajante entre términos teóricos y términos observacionales.
| Se opuso a la distinción tajante entre términos teóricos y términos observacionales.
| Rechazó los contenidos metafísicos y no les otorgó ninguna importancia para la ciencia.
| Aunque la ciencia debía esforzarse por no tener contenidos metafísicos, reconoció que ellos podían engendrar ciencia.
| Minusvaloró el aporte de la tradición filosófica por considerarla llena de planteamientos metafísicos.
| Valoró el aporte de la tradición filosófica como creadora del racionalismo crítico y como estimulante para la producción científica.
|
ACUERDOS
| Ambos creyeron en la posibilidad de reglas metodológicas para la ciencia.
| Creyeron en una racionalidad propia de la ciencia y confiaban que los problemas epistemológicos se podían resolver al interior de esa racionalidad científica.
| Creyeron en la posibilidad de establecer un criterio de demarcación.
| Defendieron la distinción entre el contexto del descubrimiento y el contexto de justificación, y redujeron los problemas epistemológicos al contexto de justificación.
|
APORTES PARTICULARES EN DISCUSIÓN: SISTÉMICA, CIBERNÉTICA, COMPLEJIDAD.
La teoría de sistemas
La perspectiva sistémico-cibernética se ha convertido en uno de los tipos de modelo explicativo más poderoso, en términos generales y no sólo en relación con alguna ciencia particular. En la antigüedad predominaba la explicación teleológica o finalista y a partir de la modernidad predomina todavía la explicación mecanicista y posteriormente la estructuralista. Pero esos tipos de explicación han sido muy cuestionados y tienen, cada uno, sus limitaciones. Frente a ellos surgió, a comienzos del siglo XX, la explicación sistémico-cibernética. Pero analicemos con más detenimiento por qué puede ser una explicación más poderosa que las anteriores.
El biólogo Ludwig von Bertalanffy, es considerado el padre de la Teoría General de Sistemas. Su obra más conocida es Teoría general de sistemas. Otras de sus obras son: Concepción biológica del cosmos, Robots, hombres y mentes: la psicología en el mundo moderno, Perspectivas en la teoría general de sistemas, Tendencias en la Teoría general de sistemas.
No es fácil presentar la teoría de sistemas por cuanto es una teoría que obliga a pensar de manera relacional; es decir, si tratamos de definir alguno de sus aspectos, nos damos cuenta que esa definición depende de la definición de cada uno de los otros aspectos de la teoría. De hecho, ésta es una primera característica de lo sistémico. Pensar de manera sistémica es pensar de manera relacional. O, en otras palabras, para comprender lo sistémico necesitamos ubicarnos en otra manera de comprender diferente a la habitual.
La anterior es una primera exigencia para entender lo sistémico. Una segunda exigencia surge al constatar la generalidad y aplicabilidad de lo sistémico. Ese enfoque ha ido asumiendo múltiples adaptaciones por su continuo proceso de evolución teórica a lo largo de la obra del mismo Bertalanffy, y después de su obra, hasta nuestros días. Lo sistémico comenzó como una teoría, pero se amplió hacía una familia de perspectivas teóricas y se constituye hoy, más ampliamente, en un enfoque, una visión o una manera de pensar aplicada de manera específica a casi todas las perspectivas y con gran variedad de matices.
Sin embargo, para comprender esa totalidad de sentido de lo sistémico ayuda la descripción breve de Evandro Agazzi (Agazzi, 1996), quien sintetiza algunas de sus características esenciales:
La teoría de sistemas busca explicitar los aspectos de unidad que caracterizan un cierto sistema organizado de constituyentes y que no pueden resultar de la simple consideración fragmentada de tales constituyentes. En esto un sistema se distingue de un simple conjunto de elementos. De hecho, su unidad resulta que está regida por relaciones funcionales internas, las cuales traen consigo que el sistema despliega determinadas funciones, en las cuales se puede hacer consistir su objetivo global. La comprensión de tales funciones no es posible considerando únicamente las propiedades de sus constituyentes por separado, sino que resulta precisamente de su sinergia organizada: en tal sentido el sistema goza de nuevas propiedades, emergentes respecto a las de sus elementos constituyentes, y no es reducible a una simple “suma” de éstas.
Además, es esencial considerar el hecho de que todo sistema (amén de estar constituido por “subsistemas” también organizados que desarrollan sus funciones específicas) se halla en interacción con un medio ambiente, o “suprasistema”, respecto al cual él desempeña el papel de subsistema. Característico es el hecho de que la vida y el funcionamiento de todo sistema dependen en igual medida del funcionamiento correcto tanto de sus subsistemas como de sus interacciones con el propio suprasistema. Como se acostumbra a decir, se trata de una perspectiva holística, o sea, de una perspectiva que considera el todo como algo unitario, que se puede descomponer en partes sólo analítica y conceptualmente, pero no concretamente, y que únicamente teniendo en cuenta esa compleja composición puede ser comprendido en sus características reales.
El ejemplo más inmediato de sistema es el organismo vivo, y esto explica por qué la teoría de sistemas se ha originado precisamente a partir de la biología, revelando la insatisfacción conceptual frente a las reducciones mecanicistas del ser vivo a un conjunto de partes, regida cada una de ellas por sus propias leyes exclusivamente internas (de tipo físico o químico).
Siguiendo al mismo autor, se pueden desglosar dichas características a través del ejemplo de lo que pasa en un organismo vivo. Un buen ejemplo se puede encontrar en el contraste entre la explicación mecanicista que la biología tradicionalmente ofrecía de la célula y la explicación sistémica adoptada recientemente por la misma biología.
Antes, la biología explicaba el significado de la célula principalmente a través de dos procedimientos analíticos mecanicistas: primero, desde del papel que juegan las células como partes microscópicas de otro mecanismo mayor. Y, segundo, a partir de la descomposición de la célula en partes todavía más pequeñas (ojalá hasta llegar al nivel físico-químico) y de las funciones o de las estructuras que posibilitan esas partes.
La anterior explicación se nota en la siguiente definición típica de la célula, fácil de encontrar en un texto clásico de biología: “La célula es cada uno de los elementos microscópicos que constituyen las unidades morfológicas, fisiológicas y reproductivas de las plantas y de los animales. Está formada por un citoplasma y una cubierta protectora. A su vez el citoplasma es una solución acuosa coloidal que contiene principalmente proteínas, glúcidos, lípidos y ácidos nucleicos”.
Con base en la anterior definición se explican muchos aspectos de la célula para entender que se establece entre sus partes. Pero se escapan otros aspectos fundamentales de la célula que no se reducen simplemente a la relación entre sus partes, como, por ejemplo, los siguientes: a) la célula funciona de una manera autorregulada; b) tiene su propio metabolismo; c) es capaz de dividirse o autorreproducirse; d) reacciona a los estímulos externos, intercambia con el exterior toda suerte de sustancias de una manera selectiva y establece intercambios de información con las demás células; e) de esa manera, funciona en coordinación con las demás células del organismo; y f) puede lograr adaptaciones y mutaciones como respuesta a los estímulos e informaciones que le llegan, cambios que se entienden como propiedades emergentes de la célula.
Es decir, es muy difícil entender una serie de funciones tan complejas y diversas desde partes que operan análogamente como variables físicas puntuales, tales como el espacio, el tiempo, la velocidad, etc., o desde estructuras estáticas o funciones unívocas.
Bertalanffy propuso la perspectiva sistémica como un tipo de explicación que integra aspectos no posibles de integrar por la explicación mecanicista: la relación de adaptación de un organismo con su entorno, el dinamismo y los cambios de ese organismo, las propiedades emergentes de ese organismo. Aunque él hizo en varios momentos cambios a sus planteamientos, su propuesta inicialmente tenía estos principios: a) El concepto de ser vivo como un todo, en contraposición con el planteamiento analítico y aditivo; b) el concepto dinámico, en contraposición con el estático y el teórico mecanicista; c) el concepto del organismo como actividad primaria, en contraposición con el concepto de su reactividad primaria (Bertalanffy 1974: 9).
Para la comprensión del dinamismo del sistema fue importante la vinculación del concepto termodinámico de entropía. Pero la sistémica no se quedó allí, sino que, para poder tener una comprensión de lo vivo, complementó el concepto de entropía con su opuesto, el concepto de neguentropía. Y, de esta manera, la sistémica pasó a ser un esquema teórico que justificó e integró en las ciencias ese escurridizo concepto de neguentropía.
Es decir, el sistema se puede entender como un todo irreductible y dinámico, o sea, que tiende a la desorganización entrópica, pero logra mantener su organización de manera neguentrópica. Ello a través de la interrelación entre sus partes y de su intercambio con el entorno, en una permanente adaptación mutua que mantiene un equilibrio dinámico tanto del sistema como del entorno.
Esto implica una reconceptualización de las unidades básicas de análisis: esas unidades ya no serán totalidades compuestas por partes ni estructuras elementales. A partir de la teoría de sistemas, algo tiene identidad en la medida en que es sistema, y es sistema desde sus relaciones con sus partes, que son a la vez subsistemas, y en su relación con el entorno, que es la vez un suprasistema. Es decir, no existen estructuras o componentes a priori, sino sistemas que surgen o desaparecen –se organizan o desorganizan–, conservan su estructura o la pierden en la relación con otros sistemas. Así, la teoría de sistemas supera la tendencia de las ciencias al estructuralismo y a mecanicismo, pues los conceptos de estructura y de funcionamiento se subordinan al de sistema.
En general, la teoría de sistemas, al ver que la realidad no está formada por partes sino por todos orgánicos relativos, aportó un marco de referencia para la comunicación de diferentes ámbitos y temas científicos. Desde ella adquieren importancia algunos todos orgánicos como los organismos vivos, los símbolos, los valores y las entidades sociales y culturales.
En síntesis, la idea de sistema permite pensar esas totalidades a la vez como relacionadas, irreductibles, dinámicas, adaptables y cambiantes.
Relacionadas: Un sistema se constituye como sistema a través de la relación con otros sistemas (subsistemas y suprasistemas). Los cambios en uno de esos sub o suprasistemas provocan cambios en el sistema, que a su vez se revierten en los sub y suprasistemas.
Irreductibles: Por más relacionados que estén los sistemas, no pierden su unidad, identidad y autonomía, en la medida en que tengan una organización interna.
Dinámicas: Los sistemas tienden entrópicamente a la desorganización y también son perturbados por elementos ajenos a su organización, que provienen de los sub o suprasistemas. De esa manera tienden a morir, pero logran vivir o mantener su equilibrio interno a través de procesos neguentrópicos de reorganizanización y de adaptación a las perturbaciones.
Adaptables: Ante las perturbaciones provocadas por los cambios en los sub o suprasistemas, los sistemas logran adaptarse y mantener su organización interna.
Cambiantes: En los procesos dinámicos y adaptables de los sistemas surgen, en los subsistemas, los suprasistemas o los sistemas, propiedades emergentes, que, en unos casos permiten la adaptación pero en otros perturban y provocan o exigen nuevos cambios. Esas propiedades emergentes hacen que el sistema nunca quede definido o adaptado de manera permanente y, por tanto, que no se pueda reducir a un estado determinado, sino que deba asumirse como en permanente cambio.
La cibernética
El matemático y físico Norbert Wiener (1894-1964), propuso el concepto de cibernética. Algunas de sus obras principales son: Sobre el control y la comunicación en animales y máquinas y Cibernética y sociedad.
La palabra cibernética, proviene del término griego kybernetes, para referirsse a cierto tipo de control: específicamente, timonear una goleta (pequeña embarcación).
Wiener entendió la cibernética como el campo interdisciplinario que aborda los problemas de la organización y los procesos de control (retroalimentación) y transmisión de informaciones (comunicación) en las máquinas y en los organismos vivos.
Los contextos en los que Wiener generó esta nueva disciplina fueron el tecnológico y el neurofisiológico. Él quería encontrar los principios que hacían más automática una máquina, de manera similar a los organismos vivos. En términos generales, una máquina automática es la que está controlada por otra máquina. Por ejemplo, un misil lanzado hacia un blanco móvil es una máquina automática si puede modificar su trayectoria después de lanzado y perseguir dicho blanco. En este caso, el misil es una máquina controlada por otra máquina que fija su trayectoria a partir del procesamiento de la información que le llega de unos sensores.
Sin embargo, aunque la cibernética comenzó muy ligada al desarrollo de mejores máquinas, ella es más que una “teoría de las máquinas”:
Ashby se refirió a ello del siguiente modo: “Aunque han aparecido muchos libros titulados “Teoría de las máquinas”, generalmente aluden a objetosmecánicos, levas y palancas, por ejemplo. También la cibernética es una “teoría de las máquinas”, pero no estudia objetos sino modos de comportamiento. No pregunta: ¿qué es esto?, sino: ¿qué hace? [...] Es, por lo tanto, esencialmente funcional y conductista [...] Trata todas las formas de conducta en la medida en que son determinables, regulares o reproducibles” (Ashby, 1997: 11-12).
En términos generales la cibernética estudia los modos de comportamiento de las máquinas y de los organismos vivos, para lograr procesos cada vez más automáticos en las máquinas, similares a los de los organismos vivos. Pero, en un sentido más profundo, esos comportamientos automáticos podemos entenderlos como procesos de cambio, y el objeto de estudio de la cibernética es el cambio.
Los organismos vivos representan el modelo o el ejemplo ideal de esos comportamientos automáticos, pero en ellos estos comportamientos no sólo funcionan para realizar determinada tarea sino que son, ante todo, la manera en la cual esos organismos mantienen la vida. La diferencia entre los organismos no vivos y los vivos es que los primeros están sometidos al cambio (la degradación) y los segundos, además de estar sometidos al cambio, son los únicos que controlan el cambio y, con ello, neutralizan su tendencia a la degradación y a la muerte, generando vida. El funcionamiento de un organismo vivo provoca la degradación permanente de células, pero el organismo continúa vivo gracias a que autogenera y reemplaza continuamente las células muertas que ya cumplieron su función. Este proceso es un comportamiento automático de control del cambio que posibilita la vida.
De esta manera, si los comportamientos automáticos que permiten realizar determinada tarea son los mismos que posibilitan el control del cambio implicado en el mantenimiento de la vida, podemos decir que el objeto de estudio de la cibernética son los “procesos de cambio determinables” y podemos llamar a la cibernética “la ciencia del control del cambio”. En este sentido es en el que Ashby nos señala que el concepto fundamental de la cibernética (en el sentido de ser el más primario) es el de “diferencia”, pues a través ella establecemos lo que cambia y a partir de ella podemos comenzar a buscar un control del cambio.
Siguiendo a Ashby, el concepto fundamental en cibernética es el de “diferencia”, sea entre cosas evidentemente diferentes, sea entre dos estados de una misma cosa que han cambiado en el transcurso del tiempo [...] De manera que nuestra primera tarea será desarrollar el concepto de “cambio”, no sólo precisándolo, sino enriqueciéndolo y convirtiéndolo en una forma que, según ha demostrado la experiencia es imprescindible si se quieren obtener desenvolvimientos significativos [...] A menudo, el cambio ocurre de forma continua, esto es, mediante pasos infinitesimales [...] la consideración de pasos infinitesimales, sin embargo, suscita un número de dificultades puramente matemáticas, de forma que eludiremos ese aspecto. En lugar de ello supondremos, en todos los casos, que los cambios ocurren mediante pasos finitos en el tiempo y que cualquier diferencia es también finita. Supondremos que el cambio se produce mediante saltos mensurables (Ibíd.: 21).
En otras palabras, se puede entender la cibernética como una “analítica del cambio”, en el sentido de formalizar las condiciones y leyes generales del cambio, de tal manera que puedan reproducirse en máquinas y algún día en organismos vivos. Analítica similar a la geometría, que formaliza la manera como se dan los objetos en el espacio-tiempo. “La cibernética es a la máquina real –electrónica, mecánica, neural o económica– lo que la geometría es a los objetos materiales de nuestro espacio terrestre” (Ibíd.: 12).
El concepto de “diferencia” es fundamental en sentido primario, pero no en sentido explicativo. Mientras que los conceptos de “causalidad circular” y de “retroalimentación” son los más fundamentales en el sentido explicativo. Ellos son dos caras del mismo proceso que permiten comprender cómo se dan los comportamientos de automatización o de cambio. La causalidad circular es lo que se da a nivel lógico en el fenómeno físico de la retroalimentación.
La retroalimentación (feedback) se entiende como el procesamiento de la información que le permite a la máquina o al sistema vivo regular su comportamiento de acuerdo con su funcionamiento real y no en relación con lo que se espera. La retroalimentación es un ir y venir permanente de la información, que actualiza esa información y le permite a la máquina o al organismo comportarse de acuerdo con propósitos actualizados. De esa manera le permite a la máquina o al organismo la continuidad y el control de sus propósitos y de su organización, ya que un propósito se mantiene y se controla en la medida en que se actualice y la organización se mantiene y se controla en la medida en que mantenga su propósito.
Por ejemplo, una máquina que tiene sensores, envía y recibe información que le permite modificar su funcionamiento para responder de manera actualizada al propósito para el cual fue diseñada, cuando las condiciones que le permitían cumplir con su función ya han cambiado.
Así, gracias a la retroalimentación, un misil, después de ser lanzado, corrige su trayectoria inicial hacia la nueva dirección adoptada por el blanco, de tal manera que cumpla con su propósito de golpear el blanco. O la mano de un beisbolista dirige el guante hacia la dirección que va tomando la bola en su desplazamiento, de tal manera que cumpla su propósito de agarrar la bola.
Lo que se da en la retroalimentación, en términos lógicos, es una causalidad circular, que se puede entender de la siguiente manera: “A causa B y B causa C, pero C causa A; luego, en lo esencial, A es autocausado y el conjunto A, B, C se define prescindiendo de variables externas, como un sistema cerrado” (Rodríguez y Arnold 1991: 42).
Esta circularidad está presente en todo sistema vivo o no vivo que se autorregule, y es entendida por la cibernética, a partir de la termodinámica y de la teoría de la información de Claude Shannon y Warren Weaver.
Wiener propuso una posición similar a la de Bertalanffy, en el sentido de que las máquinas cibernéticas son sistemas cerrados organizacionalmente y abiertos informacionalmente, o que reciben información de parte del entorno y que actúan sobre éste. Esta información se concibe en términos de inputs youtputs.
Las teorías de la información y la comunicación
Inicios de la teoría de la información.
Esta teoría surgió a partir del trabajo de Claude Shannon y Warren Weaver, conocido como “teoría matemática de la información”. En 1949, dichos autores respondieron a la pregunta del especialista en ciencias políticas Harold D. Lasswell: ¿quién le dice qué, a quién, y con qué efecto? con una teoría de la información. Ella tenía como objeto de estudio el análisis de la eficacia de la información y buscaba establecer medidas cuantitativas sobre la capacidad de variados sistemas de transmitir, almacenar y procesar información. Intentaron descubrir las leyes matemáticas que gobiernan la información y establecer la medida cuantitativa mínima que reduce la incertidumbre en un mensaje (Jutoran, 1994).
En principio, esta teoría consideraba que, para producirse una comunicación, debían tenerse en cuenta cinco elementos, organizados linealmente: fuente de información, transmisor, canal de transmisión, receptor y destino. Más tarde se cambió el nombre de estos cinco elementos para poder especificar los componentes de otros modos de comunicación. La fuente de información fue dividida en fuente y mensaje para acceder a un mayor campo de aplicabilidad. Se consideraron entonces seis elementos: fuente, encodificador, mensaje, canal, decodificador y receptor. Se incorporó a este modelo otro concepto, definido por Shannon, en un primer momento, como "fuente de ruido", en relación a la interferencia o perturbación en la claridad de la transmisión de la información. Uno de los objetivos de esta teoría era encontrar la relación entre información y ruido. El concepto de ruido fue asociado a la noción de entropía propuesta por la segunda ley de la termodinámica, considerándose éste análogo a la estática en la comunicación visual y auditiva, es decir, a las influencias externas que disminuyen la integridad de la comunicación y distorsionan el mensaje para el receptor (Ibíd.).
A ello se contrapuso la redundancia (repetición de elementos dentro de un mensaje), asociada al concepto de entropía negativa o neguentropía. Con ello se pretendía contrarrestar los efectos distorsionantes del ruido e impedir el fracaso de la transmisión de información.
El modelo desarrollado por Shannon y Weaver significó un buen esfuerzo por lograr una teoría para controlar los aspectos de la comunicación a través de la incorporación de aportes de la ciencia contemporánea, como los de la termodinámica. Pero se limitó a una lectura restringida de la comunicación como información y lineal porque estaba centrada en los mensajes enviados de un punto a otro y en los resultados o posibles influencias sobre emisor y receptor.
El paso hacía una teoría de la comunicación.
Con autores como Heinz von Foerster se incorporó el concepto de retroalimentación positiva de la cibernética a los procesos de la comunicación, con lo cual se obtuvo una mayor comprensión de las complejas comunicaciones interpersonales y se pudo pasar de la concepción lineal de la teoría de la información a una circular, en donde no sólo el ruido afecta el estado de la comunicación, sino que también se puede generar orden por ruido.
A partir de la “teoría de orden por ruido” de Foerster, el ruido no sólo es neutralizado y controlado de manera neguentrópica, a través de una retroalimentación negativa, sino que también el ruido puede generar orden, es decir, nuevos procesos comunicativos.
Este aporte tuvo gran influencia entre algunos ingenieros, físicos, sociólogos, psicólogos y lingüistas. En Estados Unidos, alrededor de 1960, Roman Jakobson propone un modelo similar como modelo de la comunicación para las ciencias sociales, eliminando los aspectos más técnicos. En Europa, Yves Winkin lo denominó el "modelo telegráfico de la comunicación" (Winkin, 1984).
Pero la consolidación de una teoría de la comunicación se lograría con un grupo de investigadores interesados en la comunicación, denominado “la universidad invisible", que más adelante se convertirá en el “grupo de Palo Alto”. Ellos son Gregory Bateson, Ray Birdwhistell, Albert Scheflen, Edward Hall y Erwin Goffman.
Bateson escribió, junto con Jürgen Ruesch, en 1951, el libro Comunicación, la matriz social de la psiquiatría, en el que propone que la comunicación es la matriz en la que están enclavadas todas las actividades humanas (Ruesch y Bateson 1965). Este libro es el predecesor, por dieciséis años, del libroPragmática de la comunicación humana de Watzlawick, Beavin y Jackson.
Bateson y Ruesch establecen distintos niveles en la transmisión de la comunicación: verbales lingüísticos y extralingüísticos, no verbales, y contextuales, y un segundo nivel de abstracción: la metacomunicación, comunicación acerca de la comunicación.
Después de la Conferencia Macy, de 1950, Bateson emprende la tarea de introducir la cibernética en las ciencias sociales. Al recibir fondos de la Fundación Macy para estudiar la comunicación en los animales, tema que le interesaba para elaborar una teoría general de la comunicación, organiza un grupo integrado por John Weakland, Jay Haley, Virginia Satir, Jules Riskin, William Fry y Paul Watzlawick, al que luego se integra el psiquiatra Don Jackson, quien interesado en el concepto de "homeostasis familiar" (Jackson 1977), propone considerar a la familia como un sistema homeostático, en equilibrio interno por medio de mecanismos de retroalimentación negativa. Trabajando en el hospital de la Veterans Administration, el grupo parte del estudio de los animales para pasar luego a estudiar las familias de los pacientes esquizofrénicos. El artículo "Hacia una teoría de la esquizofrenia" (1956) es producto de este trabajo ínterdisciplinario en el que desarrollan la famosa y controvertida "teoría del doble vínculo".
El grupo de Palo Alto.
|