You are on page 1of 14

PENSAMIENTO SISTÉMICO1

Por
Carlos Gershenson García2

Introducción

El pensamiento científico se enfoca en practicar cómo podemos usar la ciencia para tomar
mejores decisiones en nuestra vida cotidiana. Pero ¿qué es el pensamiento sistémico? A grandes
rasgos es pensar en términos de sistemas. La palabra sistema viene del griego Σύστημα que quiere
decir un todo compuesto por partes. Por ejemplo, puede decirse que una ciudad es un sistema
porque está compuesta por edificios, calles, vehículos, animales, árboles, habitantes y muchos otros
componentes. Una persona también puede describirse como un sistema ya que está compuesta de
células. Las células a su vez también pueden describirse como sistemas ya que están compuestas
de moléculas, las cuales están compuestas de átomos, los cuales están compuestos de partículas
subatómicas. El pensamiento sistémico nos permite entender a los fenómenos que nos rodean en
términos de sistemas. Esto facilita no solo comprender qué componentes conforman a un sistema
sino cómo es que se relacionan para generar a las propiedades del sistema. Mientras más
conozcamos, mientras mejor podamos describir a los fenómenos que nos rodean podremos tomar
mejores decisiones y evitar decisiones que nos puedan perjudicar.

1. Una breve historia de los sistemas

1.1 De la antigüedad hasta el siglo XX

Revisaremos un poco sobre el origen del pensamiento sistémico y cómo ha evolucionado a


través del tiempo Podemos rastrear el concepto de sistema a la Grecia antigua. Los filósofos
Anexágoras y Empédocles predicaron el pluralismo. En otras palabras, que múltiples elementos no
son reducibles los unos a los otros. Anexágoras dijo que todo está compuesto por múltiples
elementos los cuales son ordenados por el Nous que podría traducirse como mente, una fuerza
prevalente en el universo. Por su parte, Empédocles dijo que todos los objetos estaban compuestos
por cuatro elementos básicos a los cuales llamó raíces; agua, fuego, aire y tierra. Estas raíces se
unen gracias a la fuerza del amor y se separan debido al odio, la vida solo es posible si hay un
balance entre amor y odio. Si hay demasiado amor entonces no puede haber cambio y si hay
demasiado odio entonces no puede haber estabilidad.

La vida necesita tanto de cambio como estabilidad por lo que requiere tanto de amor como
odio. Las ideas de Empédocles fueron desarrolladas después entre otros, por Demócrito, quien
postuló que los cuatro elementos básicos, estas cuatro raíces, estaban compuestas por átomos. Un
átomo quiere decir algo que no es divisible. La medicina griega también se vio influida, ya que,
veía una enfermedad como un desbalance de los elementos. Pero los griegos no fueron los únicos
en pensar en sistemas, ideas similares fueron desarrolladas en otras culturas. Por ejemplo, desde

1
Universidad Nacional Autónoma de México (2019). Curso en Pensamiento Sistémico. Instructor: Carlos Gershenson. En
https://www.coursera.org/learn/pensamiento-sistemico?action=enroll
2
Investigador del Instituto en investigaciones en matemáticas aplicadas y en sistemas de la Universidad Nacional Autónoma de
México

1
hace más de 3000 años en la mayoría de las escuelas filosóficas de la India se maneja el concepto
del karma. Y el karma es una relación de causa - efecto entre lo que hemos hecho y lo que haremos.

En otras palabras, todo lo que sucedió en el pasado tendrá una implicación en el futuro. El
karma implica que todo está relacionado que nada existe por sí solo. Y esto lo podemos describir y
entender mejor desde el pensamiento sistémico. Algunos conceptos de las filosofías de la India
tienen sus raíces en la analogía, la cual busca relaciones entre conceptos. Podríamos pensar que la
analogía es un proceso que se ha hecho desde hace miles de años ya que los niños muy pequeños,
si algunos animales de otras especies son capaces de hacer analogías simples.

En otra cultura antigua, en la China, Zou Yan formalizó el concepto de yin y yang en el
siglo tres antes de Cristo. Los conceptos de yin y yang tienen que ver con opuestos que se
complementan para lograr un balance. Como oscuro-luminoso, frío-cálido, femenino-masculino,
negativo-positivo. Y también se busca lograr un balance entre cinco elementos básicos que son
madera, fuego, tierra, metal y agua. Estos conceptos se desarrollaron en los siglos siguientes y
forman parte de las ideas centrales del taoísmo.

Podemos decir que estos conceptos forman un sistema ya que tratan de describir distintos
fenómenos en términos de sus componentes. Aunque muchos conceptos relacionados con sistemas
se han manejado en filosofía desde la antigüedad es solo recientemente que se han incorporado en
la ciencia. Durante y después de la revolución industrial fue necesario construir máquinas
compuestas por una cantidad grande de componentes. Pero no fue hasta mediados del siglo XX
que se desarrolló la teoría general de sistemas.

1.2 Teoría general de sistemas y cibernética

La historia es cruel, ya que, escoge una mínima parte de los sucesos relevantes para la
humanidad ya sea por azar, o por intereses particulares, y esos son los que conserva. La mayoría
de los sucesos quedan en el olvido, y si nos llega al presente alguna anécdota asociada algún
hombre es una fortuna. Tal es el caso del enciclopedista, el barón de Holbach, que vivió a fines del
siglo XVIII, en Francia. O también de los sociólogos que aparecieron a principios del siglo XX,
quienes entre otros muchos propusieron ideas similares o relacionadas con los sistemas. Sin
embargo, no perduraron lo suficiente como para tener un impacto en la actualidad.

El concepto que prevalece hoy en día sobre sistema nos viene de Ludwig Von Bertalanffy,
quien propuso la teoría general de sistemas a mediados del siglo XX. Von Bertalanffy propuso
estudiar los fenómenos no tanto en término de qué componentes los constituyen, sino más bien en
cuál es su estructura. En paralelo a Von Bertalanffy el matemático estadounidense Norbert Wiener
en colaboración con el mexicano Arturo Rosenblueth acuñaron el concepto de cibernética, la cual
es el estudio científico del control y comunicación tanto en animales como en máquinas.

En cibernética se empezaron a describir con los mismos conceptos distintos objetos


encontrándose analogías, por ejemplo, en fenómenos tan distintos como un cerebro y un circuito
electrónico. Tanto en la teoría general de sistemas como en la cibernética se dieron los primeros
intentos científicos de estudiar los fenómenos de manera independiente a su sustrato. Es decir, en
términos de su estructura, no tanto en términos de sus componentes. Esto implica que, por ejemplo,
2
si queremos estudiar la vida no lo vamos a hacer desde una perspectiva biológica o química, en
términos de sus componentes, sino en términos de sus propiedades, sus funciones, su organización,
su estructura, lo cual nos permite tratar de identificar propiedades similares en fenómenos distintos
tales como ecosistemas, empresas o ciudades. Es precisamente de esta tradición que surgieron los
campos científicos de inteligencia artificial o vida artificial entre otros, donde se estudian los
fenómenos independientemente de su sustrato. En la actualidad, el estudio científico de los sistemas
se ha popularizado bajo el nombre de sistemas complejos.

1.3 Sistemas complejos

Al elaborarse los conceptos de teoría general de sistemas y cibernética en los últimos 30


años se ha propagado el estudio científico de los sistemas complejos. Puede ser complicado definir
qué es un sistema complejo ya que hay unas cuantas docenas de definiciones y medidas de
complejidad. Pero para tener una idea general podemos acudir a su etimología. Complejo viene del
latín plexus, quiere decir entretejido. Este concepto también se ha usado en algunas filosofías de la
India, donde, por ejemplo, el concepto tantra en sánscrito, que también quiere decir un tejido,
identifica cómo es que todos los seres son interdependientes. Puede decirse que algo es entretejido
si es difícil de separar. En las filosofías de la India, al considerarse las interacciones entre distintos
seres, no se pueden estudiar estos de manera aislada. Pero ¿cuándo un fenómeno es difícil de
separar? Cuando las interacciones entre sus componentes son relevantes. Puede decirse que las
interacciones son relevantes si determinan, aunque sea parcialmente el futuro de los componentes.
Por ejemplo, en un juego de ajedrez mi jugada dependerá parcialmente de la jugada de mi oponente
y viceversa.

De esta manera no puede predecirse completamente el futuro de un sistema complejo si se


consideran solo sus componentes. Por eso es que sus interacciones son relevantes. Regresando al
ejemplo de ajedrez, yo no puedo predecir cual va a ser el estado futuro de un partido si no voy
viendo jugada por jugada cómo se desenvuelve el juego. Más aún las interacciones en los sistemas
complejos generan información nueva que no está presente en las conexiones iniciales. Esto
dificulta qué tanto podemos predecir. Estos límites en la previsibilidad de un sistema complejo son
inherentes, ya que las interacciones generan información nueva que no podemos acceder hasta que
las interacciones mismas se den. En otras palabras, no podemos predecir de manera a priori cuál
va a ser el futuro de un sistema complejo. Pongamos un ejemplo.

Pongamos que tenemos un muy buen amigo que se llama Juan al cual conocemos desde
hace muchos años. Un buen día Juan conoce a María, se enamoran y algunos meses después se
casan. Podríamos conocer perfectamente a Juan. Digamos que conocemos las leyes que lo rigen.
Sin embargo, no podremos explicarnos por qué de repente empieza a vestirse de manera diferente,
a hablar de manera diferente, a escuchar música diferente, y hasta a bañarse más seguido. Es obvio
que el cambio de Juan se debe a su interacción con María. Pero, aunque conozcamos perfectamente
tanto a Juan como a María no podemos predecir cómo van a interactuar hasta que lo hagan.
Pongamos que pasan algunos años y ya conocemos perfectamente el comportamiento tanto de Juan
como de María y la manera en la que interactúan. Ahora tienen un bebé que se llama Pepito y
notamos que otra vez cambia su comportamiento. Veremos que la llegada de Pepito no solo genera
interacciones nuevas con sus padres, sino que también altera las interacciones que Juan y María ya
tenían. En otras palabras, las acciones de uno ya no van a tener el mismo efecto en el otro. Ahora
3
imagina si es tan complicado describir el comportamiento de tres personas y cómo interactúan,
¿cómo podremos describir una ciudad, una sociedad, una economía global? Aunque se conozca
perfectamente el funcionamiento de un fenómeno, como en el caso hipotético de Juan, no podremos
predecir completamente el futuro debido a las interacciones relevantes. Pero bueno, el estudio de
los sistemas complejos hace más que simplemente indicar cuáles son los límites de la ciencia
tradicional. Lo que está haciendo es que nos permite estudiar fenómenos en todas las disciplinas a
los cuales antes no se tenía acceso. Pero podemos decir que una buena parte de los avances de la
ciencia de frontera, usan conceptos que han tenido sus orígenes en el estudio científico de los
sistemas complejos.

1.4 Implicaciones de las interacciones

[Anteriormente] se mencionó un ejemplo donde puede apreciarse la relevancia de las


interacciones sociales, por ejemplo, el comportamiento individual puede cambiar
considerablemente debido a la interacción social. ¿Acaso te comportas de la misma manera con tus
papas que con tus amigos? Posiblemente no ya que nuestro comportamiento está parcialmente
determinado por nosotros mismos, pero también por el contexto en el que nos encontramos. El
cambio de una descripción no cambia un fenómeno, por lo tanto, si decidimos incluir o no
interacciones en nuestra descripción, esto no va a afectar al fenómeno. Hay casos donde una
descripción reduccionista que ignora las interacciones puede ser adecuada, hay otros casos en los
que no. La clave está en la relevancia de las interacciones. Podemos decir que una interacción es
relevante si determina, aunque sea parcialmente el futuro de un componente. Pero la relevancia de
las interacciones tampoco es absoluta. Una interacción puede ser relevante a una escala, pero
irrelevante a otra escala. Por ejemplo, puede ignorarse la interacción gravitacional que hay entre
Júpiter y la tierra, si nos interesa predecir la posición de la tierra en algunos años. Sin embargo, si
nos interesa la predicción esta interacción sí se vuelve relevante. Otro ejemplo es un mercado de
valores donde los precios se determinan por las interacciones que hay entre los distintos agentes.

Si ignoramos estas interacciones, no podemos entender cómo es que se determinan los


precios. Como ya se mencionó una de las implicaciones de las interacciones relevantes es que
limitan la predicción. Por ejemplo, los precios de un mercado de valores que son determinados por
las interacciones no pueden predecirse hasta que estas interacciones se den, ya que la mayoría de
las ciencias e ingenierías asumen que el mundo es predecible, se intenta predecir a los fenómenos
para poder controlarlos. Sin embargo, debido a la complejidad, la predicción en muchos casos es
limitada de manera inherente. Para complementar esta falta de previsibilidad es deseable tiene
cierta adaptabilidad, ya que, si no podemos predecir algo, es conveniente poder adaptarse a esos
cambios impredecibles.

Esto es lo que hacen constantemente los sistemas vivos, por lo que se han propuesto muchas
soluciones biomiméticas, esto quiere decir que toman inspiración en la naturaleza para adoptar a
los sistemas artificiales de las propiedades de adaptación de los sistemas vivos. Por ejemplo, el
tráfico de una ciudad se beneficiaría de una regulación similar a una parada de aves ya que estas se
adaptan constantemente a cambios en su entorno. Una regulación rígida tratará de predecir lo que
es imprevisible, por lo tanto, su solución será inadecuada.

4
Otra implicación de las interacciones es que nos alejan del materialismo, el cual considera
que lo único real en nuestro mundo es la materia energía. También lo cual justifica se ignoren las
interacciones, las cuales no se consideran reales. Sin embargo, hay muchos casos donde las
interacciones tienen efectos causales sobre la materia energía, y si las interacciones tienen efectos
causales sobre la materia energía entonces podemos decir que son tan reales como ellos. Por
ejemplo, la materia energía con las cual están construidas y está funcionado la computadora que
están usando en estos momentos no estarían en el mismo lugar en el universo que están ahora, si
no fuese gracias a las interacciones sociales, con las cuales se han definido idiomas, se han
discutido ideas, se han construido máquinas y producido un curso masivo en línea.

La física es muy relevante pero no es suficiente para describir todo esto. Las interacciones
al limitar la predicción también implican cierta novedad, ya que las interacciones generan
información nueva. Y esta información nueva nos dice que el futuro no está predeterminado. Esto
tiene implicaciones morales ya que, al no estar predeterminado el futuro, en parte está determinado
por las decisiones actuales que tomemos. Esto obviamente nos genera cierta responsabilidad, pero
también la novedad nos puede dar un significado a nuestras vidas porque al no estar predeterminado
el futuro ese significado se lo damos constantemente. Estamos viviendo una transición en la ciencia
del reduccionismo al holismo, donde el pensamiento sistémico es esencial. Esto se debe en gran
medida a la capacidad de modelar sistemas complejos.

2. Conceptos clave del pensamiento sistémico

2.1 Sistemas

Veremos algunos conceptos relevantes que nos ayudarán a describir fenómenos en términos
de sistemas. Como ya hemos mencionado, un sistema es una colección de objetos interactuando.
También podemos describir a los elementos como sistemas, los cuales serían subsistemas en
relación al sistema original. Si un sistema se relaciona con otros sistemas, este podría considerarse
un metasistema. Podemos cientificar a los niveles en los cuales describimos los sistemas como
escalas, el número de escalas que serán útiles dependerán de nuestro propósito. Pero por lo menos
cuando describimos un sistema son necesarias dos escalas, la de los elementos o bien micro y la
del sistema o bien nivel macro.

Los elementos a una escala pueden agruparse en módulos, los cuales pueden ser
considerados como escalas intermedias, o bien niveles meso. Los sistemas pueden ser descritos no
solo en términos de sus componentes o subsistemas. También pueden describirse en términos de
sus propiedades agrupadas en aspecto de sistema. Veamos un ejemplo, podemos considerar a una
hormiga como un sistema, ya que está compuesta por células. Estas células también pueden
considerarse como subsistemas porque están compuestas de molécula. A otra escala las hormigas
pueden relacionarse con otras hormigas, entonces podemos describir un metasistema, la colonia.
En esta descripción hemos identificado cuatro escalas, la molecular, la celular, la individual y la
social. También podemos identificar módulos entre estas escalas. Por ejemplo, entre la molecular
y la celular podemos identificar organelos, entre la celular y la individual podemos identificar
órganos o bien, partes anatómicas como cabeza, tórax, abdomen, patas, antenas. Entre la individual
y la social podemos identificar grupos de hormigas, por ejemplo, soldado u obreras o larvas. En
este ejemplo, también podemos identificar aspectos del sistema. Cada hormiga tiene niveles de
5
actividad o reservas de energía los cuales podemos relacionar con los niveles de actividad y la
reservas, ya sea de la colonia o de las células que lo componen.

Si se fijan, podemos llamar a una hormiga sistema, subsistema o metasistema dependiendo


de nuestro marco de referencia. Pero como estamos hablando de epistemología, un cambio de
descripción no afecta a la hormiga en sí. Al igual que si yo rompo un mapa no va a pasar nada con
el territorio. Un sistema se distingue de su entorno por una frontera, la cual es identificada por un
observador. Por ejemplo, no es obvio decidir si la frontera de una persona su piel, su ropa, su
dispositivo tecnológico o bien las bacterias que están dentro y fuera de nosotros. Como cualquier
descripción la mejor frontera dependerá del propósito que tengamos. Tendremos que tomar la
misma decisión al describir subsistemas y metasistemas a distintas escalas, pero podemos seguir
una regla general, las interacciones entre los componentes de los sistemas en cada escala deben
ser mayores que las interacciones con otros elementos fuera del sistema. Por ejemplo, hay
interacciones ente nuestro cuerpo y algún vehículo como una bicicleta o un automóvil o
herramientas, como patines, esquís o instrumentos. Sin embargo, estas interacciones son menores
y menos intensas que las que hay en nuestros órganos. De manera similar, las interacciones que
hay entre las células de un tejido son más intensas que las interacciones que hay entre células de
distintos tejidos. Un concepto interesante que relaciona a un sistema con su entorno es el de la
variedad requerida, que fue propuesta por Ross Ashby hace más de medio siglo. La variedad se
refiere simplemente al número de estados o configuraciones posibles. Ashby postuló ley de la
variedad requerida para decir que un controlador requiere tener por lo menos la misma variedad
que aquello que está tratando de controlar. Por ejemplo, un termostato necesita distinguir la
variedad posible de temperatura de su entorno, para poder decidir cuándo enfriar, calentar o apagar.

Hay que notar que en muchos casos la variedad de un sistema está determinada por todas
las combinaciones posibles de los estados de los elementos de un sistema. Por lo tanto, esta
variedad crece exponencialmente con el número de elementos o variables de un sistema. Esta
variedad puede medirse en términos de información. Por ahora veamos un ejemplo. En grupo
sociales de humanos, hace miles de años podríamos decir que un solo líder podía controlar un grupo
social, digamos a una tribu, ya que los grupos paleolíticos tenían una complejidad muy baja. Por
lo tanto, el líder podía decirle únicamente a cada individuo del grupo qué era lo que tenía que hacer
para asegurar la supervivencia del grupo. Con el desarrollo de la agricultura, se empezaron a formar
ciudades. Una sola persona ya no podía decirle a todos los ciudadanos qué era lo que tenían que
hacer para asegurar la supervivencia de la ciudad. Sin embargo, sí podía decirle a varios líderes
qué era lo que tenían que hacer para que los líderes controlaran a distintos grupos de la población
o bien aspectos de la ciudad. Esto es una jerarquía. Sin embargo, en años recientes en parte debido
a las tecnologías de información y telecomunicaciones y, también, a la globalización, la variedad
de nuestras sociedades se ha ido incrementando, por lo que las jerarquías ya no son adecuadas
controlar a distintos grupos sociales. Esto es debido a que las sociedades no solo incrementan su
variedad, sino que están cambiando a pasos acelerados. Como alternativa el control social en
muchos casos se ha ido distribuyendo. En lugar de tener un líder y muchos seguidores a varias
escalas, se ha ido pasando de una jerarquía a una red, donde hay muchos líderes en cada escala que
se especializan en distintos aspectos y están relacionados entre sí. Por ejemplo, el colapso de la
unión soviética se debió en parte a que la jerarquía no pudo enfrentar la variedad requerida de los
cambios tanto internos como externos, para que su economía pudiese adaptarse. No es que las
economías actuales no tengan sus problemas, pero estas sí han podido adaptarse a distintos cambios

6
en sus mercados tanto internos como externos gracias a la regulación tanto nacional como
internacional y al liderazgo de múltiples actores a distintas escalas.

2.2 Redes

¿Cómo podemos representar la estructura en un sistema? Una manera de hacerlo es con


redes. El estudio matemático de redes inició con teoría de grafos la cual fue propuesta por Euler
hace casi tres siglos. Un grafo o una red es útil para describir la relación entre pares de objetos. Los
objetos se representan con nodos o vértices mientras que las relaciones se representan con ligas o
aristas. Tanto los nodos como sus ligas son importantes ya que un sistema será distinto si
cambiamos los elementos incluso dejando las ligas intactas.

Sin embargo, dicho sistema también cambiará si los nodos no cambian, pero sus ligas sí lo
hacen. Podemos representar a todo sistema como una red, esto es posible porque las redes nos
ayudan a representar tanto elementos como interacciones. Por ejemplo, en ecología podemos
representar qué especies se alimentan de cuales con una red trófica. Cada nodo representa una
especie y cada liga en este caso dirigida usando flechas nos dice quién se come a quién. Esto nos
permite evaluar qué pasaría si quitamos una especie o también si quitamos otra que entra en
competencia con algunas de las ya existentes. Se puede ver que como hay especies más robustas
que otras, a estas les afectaría poco si una especie de la cual se alimentan desaparece. Pero si
tenemos que una especie se alimenta solo de otra especie y esta se extingue, entonces esta también
desaparecerá lo cual puede desencadenar a escalas de extinción. Las especies que están en posición
de desencadenar una cascada se les llama especies clave ya que, aunque tal vez solo afecten solo a
dos o tres especies, estas dos o tres especies pueden afectar a muchas otras con lo cual se puede
generar una catástrofe.

Al analizar una red trófica no solo podemos identificar qué especies son más robustas o
relevantes, o frágiles, también podemos comparar distintas redes tróficas para ver cuáles son más
robustas o vienen más frágiles. Normalmente las redes tróficas con mayor diversidad son más
robustas ya que al tener muchas especies en nichos similares es menos probable que una extinción
se propague por toda la red.

Podemos usar las redes para estudiar la estructura u organización de distintos sistemas,
podemos estudiar la organización de una sociedad considerando a sus individuos como elementos
o nodos y a sus relaciones como interacciones o ligas. Al movernos de escala módulos pueden ser
representados también por nodos los cuales tendrán ligas en su propia escala. De esta manera
podemos observar la estructura de un sistema a escalas múltiples. También podemos usar las redes
para representar la función de los sistemas. En este caso los nodos pueden representar estados y las
ligas las transiciones entre estos estados.

La variedad de un sistema será simplemente el número de nodos en la red estados. Una de


las preguntas más relevantes en el estudio científico de un fenómeno es cuál es la relación entre
estructura y función. Si usamos redes podemos construir una red estructural la cual nos ilustra cómo
se relacionan los componentes de un sistema. Pero también podemos construir una red funcional
la cual nos ilustra cómo es que se relacionan los distintos estados de un sistema. Si hacemos un
cambio en la red estructural no es fácil predeterminar cuál va a ser el cambio que habrá si es que
7
hay alguno en la red funcional. Extendiendo el ejemplo anterior una red trófica nos sirve para
representar cierta estructura de un ecosistema. Pero también podemos construir otra red funcional
en la cual cada nodo nos representa el estado de todo el ecosistema y podemos ir relacionando
cómo un estado nos puede llevar a otro. Por ejemplo, en esta red funcional un nodo puede ser hay
especie A, especie B, pero ya no hay especie C, la cual se acaba de extinguir. Este estado nos puede
llevar a otro donde todavía hay especie A, pero no hay ni B ni C. De esta manera podemos ver qué
pasa en la red trófica si quitamos alguna especie.

2.3 Dinámica y retroalimentación

Las redes nos ayudan a representar las estructuras de los sistemas. Pero también es
interesante estudiar como es que estos cambias en el tiempo para describir su dinámica y posibles
retroalimentaciones. La dinámica es el cambio en el tiempo. Podría ser interesante estudiar un
sistema en un instante, sin embargo, hay pocos sistemas que son estáticos, es decir que no sufren
cambios. La dinámica puede representarse con otra red diferente a la estructural. Sin embargo, no
es la única manera de representar la dinámica, ya que el espacio de estados tiende a crecer
exponencialmente con el número de variables, en muchas situaciones es difícil visualizar esta red
de estado. Otra manera de visualizar la dinámica es simplemente viendo cómo va cambiando el
estado en el tiempo como se hace en un vídeo.

La dinámica también puede estudiarse a escalas múltiples, ya que en algunos sistemas los
cambios relevantes ocurren a escalas de segundos y en otros, a escalas de años. También hay
sistemas donde hay cambios relevantes a escalas múltiples. Por ejemplo, los cambios que se dan
en nuestro cuerpo son a escalas múltiples, nuestras neuronas disparan a escalas de milisegundos,
nuestro corazón late o respiramos a escalas de segundos, digerimos comida y dormimos en escalas
de horas, nuestros tejidos se regeneran en escalas de días y crecemos y envejecemos en escalas de
años. Simplemente el aprendizaje puede darse ya sea en escalas de segundos o también en escalas
de años.

Un concepto importante del pensamiento sistémico desarrollado dentro de la cibernética es


el de retroalimentación. Esta nos dice que el efecto de un elemento de un sistema puede regresar al
mismo elemento. Por ejemplo, podemos imaginar que estoy atrapado en el tráfico. Los humanos
somos animales que tendemos a imitar bastante. Entonces por ejemplo si yo empiezo a tocar el
klaxón de manera exagerada, es muy probable que otros conductores me imiten y también
empiecen a tocar el klaxón. Si quieren hagan el experimento. Si hay una masa crítica de
conductores desesperados, los klaxónes se propagarán, aunque sea de manera inconsciente, y al
haber más gente tocando el klaxón probablemente ellos sigan tocando el klaxón. Esta es una
retroalimentación positiva, ya que mi acción de tocar el klaxón se propaga por el sistema de
conductores a través de nodos desesperados y la acción me vuelve a afectar a mí por lo que sigo
tocando el klaxón hasta que haya un cambio que rompa esta dinámica.

La retroalimentación positiva puede generar una reacción en cadena, pero también existe la
retroalimentación negativa, la cual tiende a minimizar la propagación de los cambios. Tomando
otro ejemplo social, también imitamos la formación de opiniones. Supongamos que tenemos que
elegir entre dos opciones, ir a la huelga o no. Hay gente que nunca va a cambiar de opinión, pero
otros que sí y su decisión dependerá en muchos casos de lo que opine la mayoría de las personas
8
con las que esté en contacto. Entonces, si, por ejemplo, yo estoy a favor de ir a la huelga y las
personas que están a mi alrededor con las cuales yo tengo contacto también están a favor, será más
difícil que yo cambie mi opinión. Esta retroalimentación negativa reduce las probabilidades de que
a la larga haya un cambio en mi opinión. La retroalimentación negativa tiende a estabilizar la
dinámica ya que inhibe los cambios, por el contrario, la retroalimentación positiva promueve los
cambios. Dependiendo de nuestro propósito podríamos preferir la retroalimentación negativa o
positiva o combinaciones de ambas.

Un concepto relacionado con la retroalimentación es el de prealimentación. En la


retroalimentación los efectos de un elemento regresan a través de las interacciones que hay en el
sistema. En la prealimentación se trata de influir en la dinámica antes de que ocurra cierto evento
para poder regular mejor el sistema. Por ejemplo, si el pronóstico meteorológico sugiere que va a
llover, yo puedo decidir llevar un paraguas, si en verdad llueve tal vez no me moje tanto. En este
caso, el pronóstico me prealimenta cambiando mi comportamiento. O bien otro ejemplo, el servicio
de mantenimiento que se la da a un avión, automóvil u otro máquina prealimenta el estado futuro
de la máquina con la intención de evitar fallas. En otras palabras, la prealimentación trata de influir
en el futuro a partir de un estado presente, mientras que la retroalimentación trata de hacer un
cambio en el presente a partir de un evento pasado.

Los seres vivos constantemente realizamos ciclos de retroalimentación y prealimentación,


solo que normalmente los llamamos adaptación. La adaptación es la habilidad de un sistema para
cambiar su estado como respuesta a una perturbación. La anticipación actúa antes de que una
perturbación ocurra para preservar al sistema. Tanto la adaptación como la anticipación son
necesarias para que un sistema perdure. Sería deseable poder predecir o bien anticipar todo lo que
le podría ocurrir a un sistema y así, evitar cualquier daño. Sin embargo, debido a la complejidad de
un entorno que está cambiando constantemente y a las interacciones hemos visto que esta
predicción es limitada. Para esto es deseable que los sistemas puedan adaptarse a todos aquellos
cambios que no sean posibles de predecir. La adaptación y la anticipación nos permiten enfrentar
a la dinámica del entorno de un sistema de manera activa. Esto es porque implica cambios en el
sistema. Sin embargo, un sistema también enfrentar de manera pasiva a la dinámica de su entorno.

2.4 Fragilidad, robustez y antifragilidad

Intuitivamente podemos decir que un sistema es frágil si un pequeño cambio genera un gran
cambio en el sistema. Por otra parte, podemos decir que un sistema es robusto si el sistema puede
resistir grandes cambios preservando su funcionalidad. Por ejemplo, si construimos una torre con
cubos habrá unas estructuras más frágiles o robustas que otras, las cuales resistirán distintos tipos
de perturbaciones ya sean empujando la torre o quitando alguna pieza. Una torre frágil se caería
con un ligero movimiento o quitando cualquier pieza. Por el contrario, si una torre es robusta
necesitaría más fuerza para caerse, tal vez no totalmente. Además de que tendrá que quitarse varias
piezas antes de que se caiga. Es como pensar que la robustez es lo opuesto de la fragilidad. Sin
embargo, Nassim Taleb notó que la robustez es simplemente la falta de fragilidad.

Un sistema frágil pierde funcionalidad cuando existen cambios, un sistema robusto


mantiene su funcionalidad en presencia de cambios. Sin embargo, ¿cómo llamamos a un sistema
que mejora su funcionalidad cuando hay cambios? Taleb no encontró un término adecuado por lo
9
que acudió al término anti-frágil. Supongamos que tenemos unas copas de cristales, las cuales
queremos enviar por mensajería. Al paquete le podremos etiquetas como frágil, manéjese con
cuidado, no golpear. Por otra parte, si tenemos digamos una pieza de hule algo robusto, que
podremos enviar por mensajería no le pondremos ninguna etiqueta porque no afecta en nada si se
agita o se golpea el paquete. Pero si el contenido del paquete es anti-frágil, le pondríamos etiquetas
como tírese, agítese, aplástese. Hay pocos objetos cotidianos que mejorarían su funcionalidad en
presencia de ruido o perturbaciones. Sin embargo, cuando empezamos a mirar con más
detenimiento a los sistemas a nuestro alrededor, vemos que este no es el caso. Por ejemplo, en
medicina se ha estudiado la hormesis, que es la capacidad de un sistema de sobrecompensar
positivamente un estímulo negativo. Podemos ver un ejemplo de hormesis con un bebé que crece
en un entorno desinfectado. No se enfermará, lo cual es positivo. Sin embargo, su sistema inmune
no se desarrollará tanto como el de un bebé que juegue en la tierra. La exposición temprana a los
microbios es más positiva que su ausencia, ya que la respuesta del cuerpo es tal que entrena al
sistema inmune para enfrentar futuras infecciones. Por supuesto, demasiada exposición a los
microbios también es riesgosa para la salud de los bebés. Podemos ver otro ejemplo de hormesis
con el ejercicio. Cuando hacemos ejercicio se incrementa nuestro metabolismo, con lo cual
respiramos más y por lo tanto llega más oxígeno a nuestras células, lo cual haga que se oxiden y
envejezcan más de lo que harían si no hacemos ejercicio. Sin embargo, nuestro cuerpo al detectar
el incremento de metabolismo libera antioxidantes, los cuales previenen el envejecimiento celular.
Al hacer ejercicio se liberan más antioxidantes de los necesarios para contrarrestar el efecto del
incremento del metabolismo, con lo cual si hacemos ejercicio vamos de hecho a reducir el
envejecimiento celular. Por supuesto si el ejercicio es excesivo, el envejecimiento celular será
mayor que si es un ejercicio moderado.

De manera similar a la hormesis, en biología podemos encontrar otros sistemas que son
anti-frágiles en sentido de que se benefician del cambio, tales como el cerebro o el corazón, los
cuales al detectar cambios pueden practicar su adaptabilidad y pueden responder mejor a cambios
en su entorno, que si están expuestos a un medio ambiente regular. Otro de los ejemplos de anti-
fragilidad puede verse en educación y en economía, donde los cambios en la primera fomentan la
creatividad y en la segunda la innovación. El arte es necesariamente anti frágil, ya que los cambios
son necesarios para poder generar obras novedosas. Entonces, ¿nos conviene construir sistemas
frágiles, robustos o anti-frágiles? Veremos una manera de medir el cambio con información.

2.5 Información

Gregory Bateson definió la información como una diferencia que hace una diferencia. Esto
quiere decir que podemos entender a la información como algo que puede ser relevante para un
sistema. Sin embargo, unas décadas antes en el contexto de la cibernética Claude Shanon definió
una teoría de la comunicación donde propuso una medida de información. Shanon estaba interesado
en la transmisión fiel de datos a través de un canal de comunicación ruidoso. En este sentido no
importaba el significado de los datos ya que se asumía que este no era un problema de la
transmisión sino la relación entre el emisor y el receptor.

La información de Shanon es máxima cuando los datos son casi aleatorios. Esto es porque
al casi no haber un patrón en los datos la información que hayamos recibido no nos será muy útil

10
para predecir qué información recibiremos en el futuro. Por ejemplo, si estamos tirando volados no
importa que tengamos millones de datos pues estos no nos dirán cuál será el dato del siguiente
volado.

Por otra parte, la información de Shanon será mínima cuando un solo dato se repite siempre.
Si recibimos más datos estos no nos darán más infamación ya que con la información que tengamos
en el presente podremos predecir toda la información futura. La información de Shanon nos dice
qué tan regular o novedosa es una secuencia de datos. Si es muy regular la información será baja
ya que se necesita poca información para representar un patrón estático. Por otro lado, si no hay
estructura y los datos están desordenados la información será alta ya que habrá que representar
cada dato explícitamente.

2.6 Emergencia

Los componentes de un sistema pueden producir información nueva al interactuar. Podemos


llamar a esta información emergente ya que no estaba antes en sus componentes, sino que surge a
partir de sus interacciones. Por ejemplo, podemos decir que la vida de una bacteria es emergente
ya que surge a partir de las interacciones de sus componentes que son moléculas las cuales están
vivas. Citando a Aristóteles el todo es más que la suma de las partes. Podemos ver otro ejemplo
con el oro. Aunque conozcamos a detalles las propiedades de sus componentes no podremos
predecir cuál serán sus propiedades a nivel de sistema. Por ejemplo, su conductividad, su
maleabilidad o hasta su color. Esto son producto de las interacciones de sus componentes atómicos.

O bien si tomamos las propiedades de una molécula de hidrógeno o de una molécula de


oxígeno podemos conocerlas a detalle, pero esto no nos dirá nada sobre las propiedades de una
molécula de agua. La información de Shanon puede usarse para medir la novedad de una serie de
datos. Por lo tanto, podemos usar esta misma información de Shanon para medir la emergencia. Si
un sistema es muy predecible no habrá información nueva ni tampoco emergencia. Pero si un
sistema produce información nueva a partir de las interacciones de sus componentes podemos decir
que sí hay emergencia. Emergencia máxima sería cuando la información nueva se genera
constantemente, lo cual limita o impide la predicción.

Podemos encontrar una relación entre la retroalimentación positiva y la emergencia. La


retroalimentación positiva puede generar cambios, los cuales también pueden producir información
nueva y emergencia. En algunos casos podría ser deseable tener emergencia para generar cierta
novedad, sin embargo, demasiada novedad podría destruir estructura y organización. En el
siguiente vídeo veremos una manera de fomentar la organización.

2.7 Autoorganización

La autoorganización es la habilidad de un sistema de implementar su orden por medio de


las interacciones de sus componentes. Por ejemplo, un cardumen de peces o una parvada de aves
generan patrones. Es decir, cierta organización a partir de las interacciones locales entre distintos
animales. Y estos patrones están muy lejos de ser aleatorios. Otro ejemplo de autoorganización es
la sincronización de algunas especies de luciérnagas. En este caso, cada macho parpadea con cierta
11
frecuencia, intentando atraer a la hembra. Sin embargo, tendrán más éxito si parpadean de manera
coordinada. Las luciérnagas empiezan a ajustar sus parpadeos con el de sus vecinos y pronto
árboles completos parpadean al unísono. Lo cual permite ver a las luciérnagas desde distancias
donde no sería posible verlas de manera individual. En estos ejemplos, no hay un control
centralizado.

El control, o más bien la organización, se logra a partir de las interacciones locales.


Podemos relacionar al autoorganización con la retroalimentación negativa, ya que esta reduce
cambios, lo cual implica un mayor orden. De esta manera, es posible usar la autoorganización para
guiar el comportamiento de sistemas que se encuentran en entornos dinámicos y cambiantes ya que
se pueden regular las interacciones de los componentes y así lograr una adaptación a cambios que
son difíciles de predecir. Podemos usar a la información de Shanon también para medir la
autoorganización, ya que la información mide el cambio y la autoorganización lo reduce. En otras
palabras, la autoorganización puede ser el inverso de la información y por lo tanto de la emergencia.
Por ejemplo, la autoorganización será máxima cuando no haya cambios, como en un cristal.

La estructura es tan regular que es predecible. Por otra parte, la autoorganización será
mínima cuando haya cambios constantes, ya que los patrones que haya se perderán, y no
encontraremos regularidad alguna. Podemos ver que la emergencia genera novedad, y la
autoorganización genera estructura.

2.8 Complejidad

Hay docenas de definiciones y medidas de complejidad. Muchas de ellas ven a la


complejidad como un balance entre el orden y el caos, entre la estabilidad y el cambio. Por ejemplo,
los sistemas vivos requieren de cierta estructura, pero también de cierto cambio. Si hubiese solo
estructura, en otras palabras, una auto organización muy elevada no sería posible la evolución, la
adaptación y el aprendizaje. En el otro extremo, si hubiese cambio constante, en otras palabras, una
emergencia muy elevada no se podrían mantener los patrones que caracterizan a la vida. La vida
requiere de un balance entre la estabilidad o autoorganización y la variabilidad o emergencia. Si
definimos a la complejidad como un balance entre emergencia y autoorganización, lo cual se puede
obtener con la multiplicación podemos usar también la información de Shanon para medir
complejidad. En casos extremos cuando haya mucho cambio o nada de cambio la complejidad sería
cero, y la complejidad sería máxima para casos intermedios, donde hay espacio para mantener
ciertos patrones, pero también para mantener cierta novedad.

El balance necesario para lograr un valor alto de complejidad puede lograrse combinando
distintos tipos de retroalimentación. Si un sistema es muy estático, podemos usar la
retroalimentación positiva para incrementar su variabilidad. Por otra parte, si un sistema cambia
constantemente podemos usar la retroalimentación negativa para incrementar su estabilidad.
Podemos relacionar la complejidad con la ley de la variedad requerida, de manera similar a la que
un controlador requiere tener por lo menos la misma variedad que aquello que intenta controlar.

Un sistema requiere de una complejidad equivalente a la complejidad de su entorno para


lograr su sustentabilidad. Si la complejidad del entorno es mayor a la complejidad del sistema los
cambios en el sistema estarán determinados principalmente por los cambios en el entorno. Cuando
12
un sistema logra tener una complejidad mayor a la de su entorno le permite influir en su propia
dinámica más de lo que influye en su entorno. Esto le da cierto grado de autonomía lo cual es
deseable en los sistemas que construimos y está presente en los sistemas vivos, ya que la
complejidad requerida de un sistema depende de la complejidad de su entorno, no hay solo una
manera de lograr esta complejidad requerida. Para empezar, podríamos incrementar la complejidad
del sistema, pero también podemos reducir la complejidad del entorno.

Por otra parte, si un sistema es frágil, esto quiere decir que el cambio lo daña. Podemos
incrementar la auto organización para preservar la integridad del sistema. Por otra parte, si un
sistema es anti frágil, el cambio lo beneficia. En este caso podemos incrementar la emergencia para
mejorar o por lo menos mantener su funcionalidad. Por ejemplo, el ejercicio en cierta medida nos
beneficia. Si un sistema es robusto, esto quiere decir que puede mantener su funcionalidad. Esto
implica que no es necesario incrementar su complejidad. Por ejemplo, un ecosistema prístino no
requiere de nuestra intervención para perdurar. Vimos distintos tipos de sistemas y qué tipo de
relaciones puede haber entre ellos. También mencionamos a las redes que nos ayudan a ver la
relación que existe entre los nodos de un sistema. La dinámica de retroalimentación que pueden
existir entre los componentes, así como la fragilidad, robustez y anti-fragilidad que pueden tener
los sistemas dependiendo de la información que manejen al igual que su emergencia y su auto
organización.

Bibliografía [no aportada por el autor/instructor del curso]3

Alfonso, P. B. (2008). Fundamentos teóricos del pensamiento complejo de Edgar Morin. Revista Electrónica
Educare, 12(2), 95-113.
Arnold Cathalifaud, M., & Osorio González, F. (1998). Introducción a los conceptos básicos de la teoría
general de sistemas.
Ashby, W. R. (1961). An introduction to cybernetics. Chapman & Hall Ltd.
___________ (1991). Principles of the self-organizing system. In Facets of systems science (pp. 521-536).
Springer, Boston, MA.
Barrero, A. C., de García, G. W., & Parra, R. M. M. (2010). Introducción a la Teoría de Grafos. ELIZCOM
SAS.
Caballero, J. R. D., & Ramos, C. A. C. (2012). Heurística de los poliedros regulares para la investigación.
Revista Cubana de Ingeniería, 3(2), 59-69.
Cabrera, A. J. P., & José, A. (2004). Edgar Morin y el pensamiento de la complejidad. Revistas ciencias de
la Educación, 23-14.
Cannon, W. B., & Rosenblueth, A. (1937). Autonomic neuro-effector systems. The Macmillan Company.
Capurro, R. (2007). Epistemología y ciencia de la información. Enlace, 4(1), 11-29.
Cardozo, O. D., Gómez, E. L., & Parras, M. A. (2009). Teoría de grafos y sistemas de información
geográfica aplicados al transporte público de pasajeros en Resistencia (Argentina). Revista
Transporte y Territorio, (1), 89-111.
Combariza, G. (2003). Una introducción a la teoría de Grafos.
Coronado, L. G. (1985). Consideraciones acerca de la teoría platónica de los cuatro elementos: su status
epistemológico. Escuela de Filosofía.
David, A., & Marfull, A. S. (1966). La cibernética y lo humano. Labor.
Espiga, A. C. (2014). Paradojas del pluralismo. Estudios de Deusto, 51(2), 93-114.

3
Se han relacionado por Julio C. Murcia P. las referencias que en el texto del curso se han parafraseado o enunciado directa o indirectamente por
el instructor.

13
Gambra, J. M. (1990). La metáfora en Aristóteles.
Garciandía Imaz, J. A. (2005). Pensar sistémico: una introducción al pensamiento sistémico. Editorial
Pontificia Universidad Javeriana.
Hernández, I. E. (2011). La importancia de la “ley de variedad requerida” en el desarrollo de software.
Generación Digital, (15).
Icart, I. B., & Blanch, A. M. (2001). Epistemología y cibernética. Papers: revista de sociologia, (65), 31-45.
Jiménez, R. G. (2014). Teoría general de sistemas y complejidad. Contribuciones a las Ciencias Sociales,
(2014-02).
Jutoran, S. (1994). El proceso de las ideas sistémico-cibernéticas. Sistemas familiares 10 (1). Buenos Aires.
Lozano, G. (1880). Los enciclopedistas.
Morin, E. (2004). La epistemología de la complejidad.
________ (1994). Introducción al pensamiento complejo. Barcelona: Gedisa.
Quirós, R. C. (2012). La estructura de la materia en los filósofos pluralistas pre-socráticos. InterSedes,
13(25).
Ramírez, S. (1999). Teoría general de sistemas de Ludwig von Bertalanffy (Vol. 3). UNAM.
Rosenblueth, A. (1971). El método científico (No. 121 R6). Consejo Nacional de Ciencia y Tecnología
(México).
Rosenblueth, A., & Wiener, N. (1945). The role of models in science. Philosophy of science, 12(4), 316-
321.
Saco, J. L. (2009). Personificaciones mítico-simbólicas del concepto filosfófico Yin-Yang en China. Lógoi,
(14).
Sandrier, A. (2001). Le style philosophique du baron d'Holbach: conditions et contraintes du prosélytisme
athée en France dans la seconde moitié du XVIIIe siècle (Doctoral dissertation, Paris 4).
Shannon, C. E. (1949). Communication theory of secrecy systems. Bell system technical journal, 28(4),
656-715.
Shannon, C. E., Weaver, W., Machado, T. B., Montes, S., & Pérez-Amat, R. (1981). Teoría matemática de
la comunicación. Forja.
Taleb, N. (1997). Dynamic hedging: managing vanilla and exotic options (Vol. 64). John Wiley & Sons.
_______ (2012). Antifragile: how to live in a world we don't understand (Vol. 3). London: Allen Lane.
_______ (2012). Antifragile: Things that gain from disorder (Vol. 3). Random House Incorporated.
_______ (2012). Antifragile: Things that gain from disorder (Vol. 3). Random House Incorporated.
Von Bertalanffy, L. (1993). Teoría general de los sistemas. Fondo de cultura económica.

14

You might also like