Select Page

Porque se produce una  dualidad o confusa ambigüedad con la inteligencia artificial que la hace riesgosa

Porque se produce una  dualidad o confusa ambigüedad con la inteligencia artificial que la hace riesgosa

Jorge Leiva Cabanillas. Chile

Resumen

En el presente trabajo se plantean algunas consideraciones en torno a la inteligencia artificial, para lo cual se distinguen dos momentos o revoluciones  en la historia del desarrollo de las ciencias cognitivas desde la cibernética, situando el origen de la IA en el espacio de la primera revolución cognitiva. El propósito es mostrar que su desarrollo es el de una tecnología de la informática y no un desarrollo científico de la  búsqueda de un procedimiento para adquirir  conocimientos. Para  ello se plantea  la diferencia entre información y conocimiento, situando a la primera más cerca del primer momento del desarrollo de las ciencias cognitivas y,  el segundo, dentro del espacio de la segunda revolución de estas ciencias.

Palabras claves: Ciencias cognitivas, cibernética, información, conocimiento

Dos declaraciones sobre la inteligencia artificial en mi país me han llamado la atención. La primera del ex  presidente Lagos  que afirma  en un artículo de prensa lo que significa que la IA cree “realidades” no “reales”. Sostiene que ella “va a presentar retos que no tienen precedentes”. Y analizando su aporte en la medicina agrega, “pero esa misma tecnología va a producir mecanismos para protegernos…Entonces estamos ante el reto de  manejar la dualidad de la nueva realidad que nos llega”.

La segunda declaración es del actual Presidente Boric  en su intervención en Naciones Unidas,  afirmando que  “Cada gran transformación ha sido en la historia de la humanidad una gran oportunidad para construir sociedades más justas, pero también si lo hacemos  mal, puede ser fuente de nuevas injusticias”

A ambas declaraciones advierten que la llegada de este poderoso avance de la informática como  técnica cibernética trae consigo una riesgosa ambigüedad. ¿Cuál es la fuente de ésta?

Pienso que el origen de este riesgo que está poniendo en juego la IA es una doble  confusión, por una parte del concepto mismo de inteligencia  y, por  otra, la diferencia  de los procesos de información y los procesos de adquisición de conocimientos. Estos temas forman parte de la historia de las hoy llamadas ciencias cognitivas. Por ello la comprensión de la IA solo encontraran respuesta remitiéndonos a su historia.

Esta historia muestra en su fase moderna  una mutación notable en la comprensión  del desarrollo del concepto de mente y su relación con la naturaleza. El biólogo biocibernético F. Varela  señala que es solo a la mitad del siglo pasado que la ciencia reconoce la legitimidad de las investigaciones sobre el conocimiento mismo Sostiene este científico que es como resultado de esta mutación que el conocimiento se ha ligado a las tecnologías que como la inteligencia artificial provocan cambios en las prácticas sociales.

Es a partir de este proceso que la sociedad occidental enfrenta interrogantes como ¿Es la mente una manipulación de símbolos? ¿Puede una máquina comprender el lenguaje? Esto deja en evidencia que esas interrogantes afectan la vida de las personas y no son meros temas teóricos y explican porque  han  penetrado profundamente en la mente de las generaciones nuevas a través de los juegos de computación y de ciencia ficción.

Para la comprensión de los alcances de la tecnología expresada en la IA, es necesario conocer su recorrido histórico. Este recorrido nos muestra que en la intersección de la neurobiología y la psicología  más la informática se construye un enfoque unificado de los fenómenos de la percepción, el conocimiento y la comprensión. Surge un nuevo continente de  conocimientos: el de las ciencias cognitivas en el que es necesario profundizar.

Esta naciente disciplina agrupa fenómenos como el funcionamiento de la mente humana, así como la explicación de la conducta animal y el desempeño de los ordenadores y los somete a estudios enfocados en una perspectiva común. Este cambio  en la ciencia fue introducida por las ciencias cognitivas que en su temprano desarrollo llamo a estas investigaciones   programa cognitivista. Según éste, y aquí parte la confusión, el conocimiento y los procesos de cómo se adquiere fueron ligados a una tecnología que transforma las prácticas sociales que lo hacen posible: la inteligencia artificial es lo más visible de este proceso.

Este proceso de las ciencias cognitivas,  fue el resultado de un intenso diálogo entre científicos de muy diversa formación. Se trato de un esfuerzo interdisciplinario sin precedentes. Estos esfuerzos aparecen de manera visible en torno al desarrollo de una nueva disciplina científica y técnica: la cibernética.

Las ciencias cognitivas siguen el curso de ese desarrollo y en torno a la cibernética presentan dos momentos: una primera revolución cognitiva ligada a la cibernética de primer orden, que opera sobre sistemas abiertos,   y, un segundo momento, que da forma a una segunda revolución cognitiva ligada a la cibernética de segundo orden que actúa sobre sistemas que operan con clausura operacional.

Me detendré en este punto porque es crucial  para entender los verdaderos alcances de la tecnología informática de la inteligencia artificial,  despejar dudas y resolver ambigüedades sobre su aporte. Asimismo disolver mitos como la creencia de que ella reemplazara y superará  a la inteligencia humana.

Algo de historia de la revolución cognitiva ligada a la cibernética. Un primer momento

Veremos los dos momentos de la revolución cognitiva ligada a dos momentos de la cibernética . Partiremos por el primero. En 1878 Claude Barnard observa analogías entre el proceso de regulación de maquinas de vapor y el de los organismo vivos frente a cambios externos o internos que podrían perturbar el metabolismo. En 1932, más de 50 años después Walter Cannon dará el nombre de “homeostasis” a esta tendencia de los organismos vivos a mantener el equilibrio interno.

El matemático y filósofo norteamericano Norbert Wiener durante la segunda guerra mundial en 1939,  junto al ingeniero Julián Bigelow, ha  pedido de las fuerzas armadas de su país, trabajan en la construcción de aparatos que reduzcan el error de tiro en los combates aéreos a propósito del aumento de la velocidad en los nuevos diseños aeronáuticos. Ambos llegan a la conclusión  de que un factor muy importante de la actividad voluntaria es lo que los ingenieros de control llaman feed-back

Desde otro campo de la ciencia Arturo Rosemblueth, médico mexicano,  delineo los conceptos básicos que equiparan el comportamiento del sistema nervioso con las maquinas. Como resultado de sus investigaciones reporta que algunos pacientes afectados de ciertas lesiones o malformaciones del sistema nervioso tienen comportamientos análogos a los de las máquinas descrita por Wiener

Siguiendo esa línea de investigación en 1942, y situados dentro del mismo marco la Fundación Macy organiza su primera conferencia sobre el tema de la “inhibición cerebral”  ligada a las investigaciones de Rosemblueth.

En 1943 el diario “Philosophy of Science” publica un artículo de este encuentro: “Behavior, purpose and teleology” escrito por Wiener, Rosenblueth y Bigdelow que establece un nuevo camino científico. Proponen un enfoque compartamental de los fenómenos y reconsideran la cuestión de la teleología.

Este enfoque compartamental  no intenta analizar la organización interna de las entidades que estudia, su estructura o sus propiedades, sino que se propone examinar solo el comportamiento observable, las relaciones, los outputs en relación a los inputs, sin especular sobre las características internas de la entidad a la que considera una “caja negra” Estos científicos plantean un punto de vista común afirmando que el concepto de “feedback” es la clave de la explicación de todo comportamiento intencional.

En 1946 la Fundación Macy se encarga de retomar los encuentros que se vieron interrumpidos por la segunda guerra, los que finalmente desembocan en una ciencia del control: la cibernética  El primer encuentro recibió el título de “Mecanismos teleológicos y sistemas causales circulares”. Como resultado de estos encuentros en 1948 Wiener publica su obra “Cibernetics”. En ella sintetiza las investigaciones y resultados de las primeras conferencias Macy.

A partir de ese momento, la palabra “cibernética” se impone a todos como un símbolo de sus investigaciones comunes y los participantes deciden adoptar este nombre para las siguientes tres conferencias Macy. Este grupo de científicos compartían la impresión de participar en acontecimiento histórico: la creación de un “nuevo marco de referencia conceptual para la investigación científica de las ciencias de la vida”.

La intención manifiesta del movimiento cibernético consistía en crear una ciencia de la mente, dando paso a una siguiente etapa: la hipótesis cognitivista que configura un segundo momento en el desarrollo histórico de las ciencias del conocimiento.

La intuición central del cognitivismo es que la inteligencia, la humana incluida, semeja tanto a la informática que la cognición se puede definir como computaciones de representaciones simbólicas. El argumento cognitivista es que la conducta inteligente supone la capacidad para representar el mundo de cierta manera. Esta intuición muestra que desde el punto de vista de la dimensión ontológica de los paradigmas, esta fase del desarrollo de estas ciencias supone la existencia de un mundo independiente del observador.

Es en este camino explicativo  y en esta fase del desarrollo de las ciencias del conocimiento en el que se desarrolla el proyecto de una inteligencia artificial. Como lo reconoce el biólogo celular Francisco Varela . “la fase cibernética de las ciencias cognitivas (1940-1956) produjo una asombrosa variedad de resultados concretos, además de una influencia duradera. Señala alguno resultados de esta fase: La invención de maquinas de procesamiento de la información, base de la inteligencia artificial; el uso de la lógica matemática para comprender el funcionamiento del sistema nervioso; el establecimiento de la metadisciplina de la teoría de sistemas, que ha dejado una impronta en muchas ramas de la ciencia, como la ingeniera, la biología, las ciencias sociales y en disciplinas como en la  economía con la teoría de los juegos y en la administración empresarial.

La respuesta a la advertencia que hacen  los políticos citados al comienzo de esa articulo se encuentra en la no comprensión de que  la llegada de este poderoso avance de la informática como  técnica cibernética trae consigo una riesgosa ambigüedad cuya fuente es que ella es el resultado de la primera revolución de las ciencias cognitivas.

Antes de pasar a explicar en qué consiste la segunda revolución de las ciencias cognitivas, para evitar la ambigüedad en que suele entenderse la inteligencia artificial, es necesario profundizar un poco en que significa que lo relevante en ésta sea el concepto de información.

En uno de sus últimos escritos sobre la crisis de la narración en el mundo postindustrial, el  filosofo Byung-Chul Han , afirma que “la información carece de firmeza ontológica” Citando al sociólogo Niklas Luhmann sostiene que la cosmología de a la información “no es la del ser, sino la de la contingencia” Según este autor la información es aditiva y acumulativa y, por lo tanto, no transmite sentido. El paso siguiente es la necesidad de adoptar una posición epistemológica. Epistemológicamente, el sujeto del información opera como un sistema abierto que se concibe articulando procesos  de entradas y salidas. El sujeto del conocimiento, en cambio, es un sujeto que asume la clausura operacional  de su sistema para acceder a un mundo independiente de su experiencia, impidiéndole una relación de instrucción con el medio obligándolo a construir sus propios significados.

Este es un punto de inflexión en que nos coloca la inteligencia artificial. ¿Buscamos información o buscamos conocimiento? En lo primero es una poderosa herramienta técnica, en lo segundo puede ser una perturbadora intervención en nuestra búsqueda. Lo que hay que reconocer es que transitamos permanentemente  por ambos caminos.

Quiero llamar la atención de que esta distinción es de capital importancia en la ciencia social, por ejemplo cuando ejercemos una práctica pedagógica. El riesgo que señalamos con la inteligencia artificial es que imperceptiblemente puede eliminar en la práctica estos dos aspectos del desarrollo del pensamiento científico, y ello porque éste  supone dos concepciones distintas del sujeto de aprendizaje.  Es diferente hacer pedagogía bajo el supuesto que el sujeto cognoscente aprende como un procesador de información, que suponer y reconocer que son sus experiencias, desde donde aprende. Esto implica que son nuestros “captas”, nuestra forma de percibir el mundo la fuente de nuestro conocimiento y que ellas no son”bits de información” o datos que procesamos. La IA no es más que una elaborada técnica de acumulación, coordinación y procesamiento  de datos. En este sentido puede ayudar y aumentar el rendimiento del  cerebro humano en esta parte del proceso de conocimiento, pero no puede realizar el resto de operaciones que éste desarrolla para generar conocimientos.

Ronald Laing, citado por Spencer Brown , afirma que para ser honestos “aquello que la ciencia empírica denomina <datos>, deberían llamarlos captas…ya que son seleccionados arbitrariamente por la índole de la hipótesis ya formadas…”  Alude a “Data” como lo que es dado y a “Capta” , lo que es captado.

Desde el campo de la biología biocibernética Francisco Varela cuestiona la difundida idea del concepto de información para explicar la estructura del conocimiento, sosteniendo que,  “no se requiere apoyarse en un orden de cosas preexistentes”, ya que el pivote de éste es precisamente “su capacidad para explicar la significación y las regularidad. Así la información no debe aparecer como un orden intrínseco sino como un orden emergente y derivado de las actividades cognitivas mismas.

Esta perspectiva de los biólogos biocibernéticos se sitúa en los inicios de un cambio paradigmático que abre el surgimiento de una segunda revolución de las ciencias cognitivas. La inteligencia artificial no es parte de este proceso, ya que éste constituye una tercera etapa del desarrollo de las ciencias cognitivas, (1958) que se presenta justamente como alternativa la orientación simbólica que subyace a  la IA. Según estos biólogos este nuevo enfoque pone  el foco en la emergencia y la autoorganización, esto es, en el conexionismo, la asociación y la dinámica de red.

A este respecto Varela  sostiene   que “la tesis que quisiera  plantear en este trabajo es la siguiente: existen clara indicaciones de que del conjunto de ciencias que tratan del conocimiento y de la cognición –las ciencias cognitivas- lentamente han ido cobrando conciencia de que las cosas han sido planteadas al revés, y han comenzado un radical viraje paradigmático o epistémico. El núcleo de esta  visión emergente es la convicción de que las verdaderas unidades de conocimiento son de naturaleza eminentemente concreta, encarnada,  incorporada, vivida “ 

Algo de historia de la revolución cognitiva ligada a la cibernética. Un segundo momento

El surgimiento de este nuevo enfoque que pone  el foco en la emergencia y la autoorganización de los procesos de conocimiento, dando nacimiento a un segundo momento en el desarrollo de las ciencias cognitivas,  encuentra sus primeros  orígenes  en las investigaciones que realiza el biólogo norteamericano  Roger Sperry  en 1943. Este biólogo realizó un  experimento crucial con una salamandra,  buscando explicar el funcionamiento diferente de nuestros dos hemisferios cerebrales.  Estas investigaciones lo llevaron a recibir el Premio Nobel en 1981. Usando la plasticidad orgánica de este urodelo Sperry gira en 180° uno de los ojos y observa que una vez girado y vuelto a funcionar en su cavidad ocular,  la salamandra no corrige la certera  puntería con que captura  su alimento compuesto de insectos. Lo que el experimento muestra,  es que la pregunta sobre si corrige la puntería es ciega al hecho que el acto de captura de insectos no es  un acto de apuntar a ese objetó, sino que es hacer una correlación interna. 

Diez y siete años más tarde científicos de Laboratorio de Investigación de Electrónica y del Departamento de Biología del Instituto de Tecnología de Massachusetts,  MIT, publican una investigación por la cual son propuestos al Premio Nobel de ciencia. Entre estos investigadores se encontraba el biólogo chileno Humberto Maturana, junto a Jerome Lettvin, Warren McCullog y Walter Pitt.

La investigación lleva el nombre de “Lo que el ojo de la rana le dice al cerebro de la rana” , y en ella se estudian los proceso internos de coordinaciones senso-efectoras,  confirmando los hallazgos de Sperry y mostrando que  ellos dependen de la estructura de cada sujeto. A partir de esos desarrollos Humberto Maturana,    conjuntamente con Francisco Varela continúan las investigaciones que los lleva a observar el funcionamiento autónomo del ser vivo en sus  proceso celulares  que denominaron autopoiesis.

El resultado de esas investigaciones fueron publicada en 1973 en un texto con un titulo sugerente: “De maquinas y seres  vivos”  La diferencia entre una maquina que procesa información y un ser vivo, según estas investigaciones,  es que ella cuestionan la concepción imperante basada en la metáfora computacional, en que la mente es considerada como el software y el cerebro y el cuerpo como el hardware. En síntesis, los procesos sensorio- motores  percepción y acción, son fundamentalmente inseparables en la cognición vivida, y no están simplemente ligados en forma contingente como input/ouput.

En esta mirada la inteligencia artificial puede ser un poderoso instrumento para apoyar  procesos de conocimiento, pero no puede reemplazar a los procesos mismos que son ejecutados por  sujetos que operan con autonomía respectó al medio y con clausura operacional en su sistema nervioso. Aquí se encuentra la diferencia entre las máquinas y los seres vivos. Es mi parecer que en esta confusión esta uno de los mayores peligros que presenta la tecnología de la inteligencia artificial.

 Referencias

Boric G. 2023, Discurso 78 período de Sesiones Asamblea de Naciones Unidas. htts:/ www.un.org

Chul Han B., 2023, “La crisis de la narración”, Ed. Herder, Barcelona

Lagos R., 2023, Inteligencia artificial y la urgencia de la política, www.latercera.com columna 30 de Septiembre 2023

Leiva C., J., 2020, “De la pedagogía del oprimido a la del suprimido”, Primera Edición, Santiago de Chile, Editorial ALTHAEA

Lettvin, J. https://es.wikipedia.org/wiki/Jerome_Lettvin

Maturana H. y  Varela F., 1973,”De máquinas y seres vivos”. Santiago, Ed. Universitaria

Spencer-Brown, G., 1973, “Laws of form”, Nueva York, Bantam

Sperry R.W. “Te problema of central nervous reorganization alternervere generation and muscletransposition”   The Quarterl y Review of Biology Vol. 20, No. 4 (Dec., 1945),

Varela F., 1996 , “Conocer Las ciencias cognitivas: tendencias y perspectivas”  Ed. Gedisa Barcelona

Varela, F., 2000,”El fenómeno de la vida” Dolmen Ediciones, Chile


Why is there a duality or confusing ambiguity with artificial intelligence that makes it risky?

Jorge Leiva Cabanillas. Chile

Abstract

This paper raises some considerations about artificial intelligence, distinguishing two moments or revolutions in the history of the development of cognitive sciences from cybernetics, placing the origin of AI in the space of the first cognitive revolution. The purpose is to show that its development is that of a computer technology and not a scientific development of the search for a procedure to acquire knowledge. To this end, the difference between information and knowledge is raised, placing the former closer to the first moment of the development of cognitive sciences and the latter within the space of the second revolution of these sciences. It is observed that the warnings of the risk involved in the development of AI are based on a lack of clarity about its origin, generating confusion about its development as a technical tool supposedly and erroneously capable of replacing human intelligence.

Keywords: Cognitive sciences, cybernetics, information, knowledge.

Two statements about artificial intelligence in my country have caught my attention. The first is from former President Lagos, who stated in a newspaper article that AI creates “realities” that are not “real”. He argues that it “will present unprecedented challenges”. Reflecting on its contribution to medicine, he adds, “but that same technology will produce mechanisms to protect us… So we are faced with the challenge of managing the duality of the new reality that is coming to us.”

The second statement is from current President Boric, in his address to the United Nations, affirming that “Every major transformation in human history has been a great opportunity to build more just societies, but also, if done poorly, it can be a source of new injustices.”

Both statements warn that the advent of this powerful advance in computer science as cybernetic technology brings with it risky ambiguity. What is the source of this ambiguity?

I believe the origin of this risk posed by AI lies in a double confusion: firstly, regarding the concept of intelligence itself, and secondly, the distinction between information processes and knowledge acquisition processes. These issues are part of the history of what are now called cognitive sciences. Therefore, understanding AI will only find answers by referring to its history.

This history shows a notable shift in the modern understanding of the development of the concept of mind and its relationship with nature. Biocybernetic biologist F. Varela points out that it was only halfway through the last century that science recognized the legitimacy of research on knowledge itself. He argues that it is as a result of this shift that knowledge has become linked to technologies like artificial intelligence, which provoke changes in social practices.

From this process onwards, Western society faces questions such as: Is the mind a manipulation of symbols? Can a machine understand language? This highlights that these questions affect people’s lives and are not mere theoretical issues, explaining why they have deeply penetrated the minds of younger generations through computer games and science fiction.

For a comprehensive understanding of the implications of technology expressed in AI, it is necessary to know its historical journey. This journey shows us that at the intersection of neurobiology, psychology, and informatics, a unified approach to phenomena such as perception, knowledge, and understanding is constructed. A new continent of knowledge emerges: that of cognitive sciences, which requires deeper exploration.

This emerging discipline encompasses phenomena such as the functioning of the human mind, the explanation of animal behavior, and the performance of computers, all subjected to studies focused on a common perspective. This change in science was introduced by cognitive sciences, which in their early development called these investigations the cognitive program. According to this, and here lies the confusion, knowledge and the processes of how it is acquired were linked to a technology that transforms the social practices that make it possible; artificial intelligence is the most visible aspect of this process.

This process of cognitive sciences was the result of intense dialogue among scientists of very diverse backgrounds. It was an unprecedented interdisciplinary effort. These efforts are visibly centered around the development of a new scientific and technical discipline: cybernetics.

Cognitive sciences follow the course of this development and around cybernetics present two moments: a first cognitive revolution linked to first-order cybernetics, which operates on open systems, and a second moment that shapes a second cognitive revolution linked to second-order cybernetics, which acts on systems operating with operational closure.

I will pause at this point because it is crucial to understand the true scope of computer science technology in artificial intelligence, to dispel doubts, and to resolve ambiguities about its contribution. It also dispels myths such as the belief that AI will replace and surpass human intelligence.

Some history of the cognitive revolution linked to cybernetics. A first moment

We will see the two moments of the cognitive revolution linked to two moments of cybernetics. Let’s start with the first. In 1878, Claude Bernard observed analogies between the regulation process of steam engines and that of living organisms in response to external or internal changes that could disrupt metabolism. In 1932, over 50 years later, Walter Cannon coined the term “homeostasis” to describe this tendency of living organisms to maintain internal equilibrium.

During World War II in 1939, American mathematician and philosopher Norbert Wiener, along with engineer Julian Bigelow, at the request of the armed forces of their country, worked on building devices to reduce aiming errors in aerial combat due to the increased speed in new aeronautical designs. Both concluded that a very important factor in voluntary activity is what control engineers call feedback.

From another field of science, Arturo Rosemblueth, a Mexican physician, outlined the basic concepts equating the behavior of the nervous system with machines. As a result of his research, he reported that some patients affected by certain lesions or malformations of the nervous system exhibit behaviors analogous to those described by Wiener’s machines.

Following this line of research in 1942, and situated within the same framework, the Macy Foundation organized its first conference on the topic of “brain inhibition” linked to Rosemblueth’s research.

In 1943, the journal “Philosophy of Science” published an article from this meeting: “Behavior, Purpose and Teleology,” written by Wiener, Rosenblueth, and Bigelow, which established a new scientific path. They proposed a compartmental approach to phenomena and reconsidered the question of teleology.

This compartmental approach does not attempt to analyze the internal organization of the entities it studies, their structure, or their properties, but aims to examine only observable behavior, relationships, outputs in relation to inputs, without speculating on the internal characteristics of the entity, which they consider a “black box.” These scientists propose a common viewpoint, affirming that the concept of “feedback” is the key to explaining all intentional behavior.

In 1946, the Macy Foundation resumed meetings that had been interrupted by the Second World War, which eventually led to a science of control: cybernetics. The first meeting was titled “Teleological Mechanisms and Circular Causal Systems.” As a result of these meetings, Wiener published his work “Cybernetics” in 1948, synthesizing the research and results of the early Macy conferences.

From that moment on, the word “cybernetics” became a symbol for all as a symbol of their common research, and the participants decided to adopt this name for the following three Macy conferences. This group of scientists shared the impression of participating in a historic event: the creation of a “new conceptual framework for scientific research in life sciences.”

The explicit intention of the cybernetic movement was to create a science of the mind, leading to a subsequent stage: the cognitivist hypothesis that shapes a second moment in the historical development of knowledge sciences.

The central intuition of cognitivism is that intelligence, including human intelligence, resembles information technology so much that cognition can be defined as computations of symbolic representations. The cognitivist argument is that intelligent behavior assumes the ability to represent the world in a certain way. This intuition shows that from the standpoint of the ontological dimension of paradigms, this phase of the development of these sciences assumes the existence of a world independent of the observer.

It is in this explanatory path and in this phase of the development of knowledge sciences that the project of artificial intelligence is developed. As recognized by cell biologist Francisco Varela, “the cybernetic phase of cognitive sciences (1940-1956) produced an astonishing variety of concrete results, in addition to a lasting influence.” He points out some results of this phase: The invention of information processing machines, the basis of artificial intelligence; the use of mathematical logic to understand the functioning of the nervous system; the establishment of the metadiscipline of systems theory, which has left a mark on many branches of science, such as engineering, biology, social sciences, and disciplines like economics with game theory and business administration.

The response to the warning issued by the politicians mentioned at the beginning of this article lies in the misunderstanding that the arrival of this powerful advance in computer science as cybernetic technique brings with it a risky ambiguity whose source is the result of the first revolution of cognitive sciences.

Before explaining what the second revolution of cognitive sciences consists of, to avoid the ambiguity in which artificial intelligence is usually understood, it is necessary to delve a little into what it means for the concept of information to be relevant in this context.

In one of his latest writings on the crisis of narration in the post-industrial world, philosopher Byung-Chul Han asserts that “information lacks ontological firmness.” Citing sociologist Niklas Luhmann, he argues that the cosmology of information “is not that of being, but of contingency.” According to this author, information is additive and accumulative and, therefore, does not convey meaning. The next step is the need to adopt an epistemological position. Epistemologically, the subject of information operates as an open system that is conceived by articulating input and output processes. The subject of knowledge, on the other hand, is a subject that assumes the operational closure of its system to access a world independent of its experience, preventing it from having an instructive relationship with the environment and forcing it to construct its own meanings.

This is a turning point that artificial intelligence places us. Are we seeking information or seeking knowledge? In the former, it is a powerful technical tool; in the latter, it can be a disturbing intervention in our search. What needs to be recognized is that we constantly move along both paths.

I want to emphasize that this distinction is of paramount importance in social science, for example, when we practice pedagogy. The risk we point out with artificial intelligence is that imperceptibly it can eliminate these two aspects of the development of scientific thought in practice, because it assumes two different conceptions of the learning subject. It is different to practice pedagogy under the assumption that the cognizant subject learns as an information processor, than to assume and recognize that it is their experiences, from where they learn. This implies that it is our “captures”, our way of perceiving the world the source of our knowledge and that they are not “bits of information” or data that we process. AI is nothing more than an elaborate technique of accumulation, coordination, and processing of data. In this sense, it can help and increase the performance of the human brain in this part of the knowledge process, but it cannot perform the rest of the operations that it develops to generate knowledge.

Ronald Laing, cited by Spencer Brown, asserts that to be honest “what empirical science calls <data>, should be called captures… as they are arbitrarily selected by the nature of the already formed hypothesis…” He refers to “Data” as what is given and “Captures” as what is captured.

From the field of biocybernetic biology, Francisco Varela questions the widespread idea of the concept of information to explain the structure of knowledge, arguing that “it is not necessary to rely on an order of pre-existing things,” since the pivot of this is precisely “its ability to explain meaning and regularity.” Thus, information should not appear as an intrinsic order but as an emergent order derived from cognitive activities themselves.

This perspective of biocybernetic biologists is at the beginning of a paradigmatic change that opens up the emergence of a second revolution in cognitive sciences. Artificial intelligence is not part of this process, as it constitutes a third stage in the development of cognitive sciences (1958), which presents itself precisely as an alternative to the symbolic orientation underlying AI. According to these biologists, this new approach focuses on emergence and self-organization, that is, on connectionism, association, and network dynamics.

In this regard, Varela argues that “the thesis I would like to propose in this work is the following: there are clear indications that from the set of sciences dealing with knowledge and cognition – cognitive sciences – have slowly become aware that things have been approached backwards, and have begun a radical paradigmatic or epistemic shift. The core of this emerging vision is the conviction that the true units of knowledge are of an eminently concrete, embodied, lived nature”.

Some history of the cognitive revolution linked to cybernetics. A second moment

The emergence of this new approach focusing on the emergence and self-organization of knowledge processes, giving rise to a second moment in the development of cognitive sciences, finds its origins in the research conducted by American biologist Roger Sperry in 1943. This biologist performed a crucial experiment with a salamander, seeking to explain the different functioning of our two brain hemispheres. These investigations led him to receive the Nobel Prize in 1981. Using the organic plasticity of this urodele, Sperry rotated one of its eyes 180 degrees and observed that once rotated back into its eye socket, the salamander did not correct its accurate aim in capturing its insect prey. What the experiment shows is that the question of whether it corrects its aim is blind to the fact that the act of capturing insects is not an act of aiming at that object, but rather making an internal correlation.

Seventeen years later, scientists from the Electronics Research Laboratory and the Department of Biology at the Massachusetts Institute of Technology, MIT, published research for which they were proposed for the Nobel Prize in Science. Among these researchers was Chilean biologist Humberto Maturana, alongside Jerome Lettvin, Warren McCullog, and Walter Pitt.

The research was titled “What the frog’s eye tells the frog’s brain,” and it studied internal processes of sensorimotor coordination, confirming Sperry’s findings and showing that they depend on the structure of each subject. Based on these developments, Humberto Maturana, together with Francisco Varela, continued their research that led them to observe the autonomous functioning of living beings in their cellular processes, which they termed autopoiesis.

The result of these investigations was published in 1973 in a text with a suggestive title: “From Machines to Living Beings.” The difference between a machine that processes information and a living being, according to this research, is that they question the prevailing conception based on the computational metaphor, where the mind is considered as the software and the brain and body as the hardware. In summary, sensorimotor processes—perception and action—are fundamentally inseparable in lived cognition, and they are not simply contingently linked as input/output.

In this view, artificial intelligence can be a powerful tool to support knowledge processes, but it cannot replace the processes themselves that are executed by subjects operating autonomously with respect to the environment and with operational closure in their nervous system. Here lies the difference between machines and living beings. In my opinion, this confusion represents one of the greatest dangers posed by artificial intelligence technology.

References

Boric G. 2023, Discurso 78 período de Sesiones Asamblea de Naciones Unidas. htts:/ www.un.org

Chul Han B., 2023, “La crisis de la narración”, Ed. Herder, Barcelona

Lagos R., 2023, Inteligencia artificial y la urgencia de la política, www.latercera.com columna 30 de Septiembre 2023

Leiva C., J., 2020, “De la pedagogía del oprimido a la del suprimido”, Primera Edición, Santiago de Chile, Editorial ALTHAEA

Lettvin, J. https://es.wikipedia.org/wiki/Jerome_Lettvin

Maturana H. y  Varela F., 1973,”De máquinas y seres vivos”. Santiago, Ed. Universitaria

Spencer-Brown, G., 1973, “Laws of form”, Nueva York, Bantam

Sperry R.W. “Te problema of central nervous reorganization alternervere generation and muscletransposition”   The Quarterl y Review of Biology Vol. 20, No. 4 (Dec., 1945),

Varela F., 1996 , “Conocer Las ciencias cognitivas: tendencias y perspectivas”  Ed. Gedisa Barcelona

Varela, F., 2000,”El fenómeno de la vida” Dolmen Ediciones, Chile


Por que ocorre uma dualidade ou ambiguidade confusa com a inteligência artificial que a torna arriscada?

Jorge Leiva Cabanillas. Chile

Resumo

Neste trabalho são levantadas algumas considerações a respeito da inteligência artificial, para as quais se distinguem dois momentos ou revoluções na história do desenvolvimento das ciências cognitivas a partir da cibernética, situando a origem da IA no espaço da primeira revolução cognitiva. O objetivo é mostrar que o seu desenvolvimento é o de uma tecnologia informática e não um desenvolvimento científico da busca de um procedimento para adquirir conhecimento. Para isso, levanta-se a diferença entre informação e conhecimento, situando a primeira mais próxima do primeiro momento do desenvolvimento das ciências cognitivas e a segunda, no espaço da segunda revolução destas ciências. Nota-se que os alertas sobre o risco que o desenvolvimento da IA acarreta. baseiam-se na falta de clareza sobre a sua origem, gerando confusão sobre o seu desenvolvimento como uma ferramenta técnica suposta e erroneamente capaz de substituir a inteligência humana.

Palavras-chave: Ciências cognitivas, cibernética, informação, conhecimento

Duas declarações sobre inteligência artificial no meu país chamaram minha atenção. A primeira é do ex-presidente Lagos, que afirmou em um artigo de jornal que a IA cria “realidades” que não são “reais”. Ele argumenta que “apresentará desafios sem precedentes”. Refletindo sobre sua contribuição na medicina, ele adiciona: “mas essa mesma tecnologia produzirá mecanismos para nos proteger… Então estamos diante do desafio de gerenciar a dualidade da nova realidade que nos alcança”.

A segunda declaração é do atual Presidente Boric, em seu discurso na ONU, afirmando que “cada grande transformação na história da humanidade foi uma grande oportunidade para construir sociedades mais justas, mas também, se mal feita, pode ser fonte de novas injustiças”.

Ambas as declarações alertam que a chegada deste avanço poderoso na ciência da computação como tecnologia cibernética traz consigo uma ambiguidade arriscada. Qual é a fonte desta ambiguidade?

Acredito que a origem deste risco que a IA está colocando em jogo reside em uma dupla confusão: em primeiro lugar, em relação ao próprio conceito de inteligência, e em segundo lugar, na distinção entre processos de informação e processos de aquisição de conhecimento. Essas questões fazem parte da história das ciências cognitivas como são conhecidas hoje. Portanto, entender a IA encontrará respostas apenas ao remeter-se à sua história.

Esta história mostra uma mudança notável na compreensão moderna do desenvolvimento do conceito de mente e sua relação com a natureza. O biólogo biocibernético F. Varela aponta que foi apenas na metade do século passado que a ciência reconheceu a legitimidade da pesquisa sobre o conhecimento em si. Ele argumenta que é como resultado dessa mudança que o conhecimento se ligou a tecnologias como a inteligência artificial, que provocam mudanças nas práticas sociais.

A partir deste processo, a sociedade ocidental enfrenta questões como: a mente é uma manipulação de símbolos? Uma máquina pode entender a linguagem? Isso evidencia que essas questões afetam a vida das pessoas e não são apenas questões teóricas, explicando por que elas penetraram profundamente nas mentes das gerações mais jovens através de jogos de computador e ficção científica.

Para compreender plenamente as implicações da tecnologia expressa na IA, é necessário conhecer sua jornada histórica. Esta jornada nos mostra que na interseção da neurobiologia, psicologia e informática, é construída uma abordagem unificada aos fenômenos como percepção, conhecimento e compreensão. Surge um novo continente de conhecimento: o das ciências cognitivas, que requer uma exploração mais profunda.

Esta disciplina emergente abrange fenômenos como o funcionamento da mente humana, a explicação do comportamento animal e o desempenho dos computadores, todos sujeitos a estudos focados em uma perspectiva comum. Esta mudança na ciência foi introduzida pelas ciências cognitivas, que em seu desenvolvimento inicial chamaram essas investigações de programa cognitivo. De acordo com isso, e aqui reside a confusão, o conhecimento e os processos de como ele é adquirido foram ligados a uma tecnologia que transforma as práticas sociais que a tornam possível; a inteligência artificial é o aspecto mais visível desse processo.

Este processo das ciências cognitivas foi resultado de um intenso diálogo entre cientistas de formações muito diversas. Foi um esforço interdisciplinar sem precedentes. Estes esforços são visivelmente centrados no desenvolvimento de uma nova disciplina científica e técnica: a cibernética.

As ciências cognitivas seguem o curso deste desenvolvimento e em torno da cibernética apresentam dois momentos: uma primeira revolução cognitiva ligada à cibernética de primeira ordem, que opera em sistemas abertos, e um segundo momento que molda uma segunda revolução cognitiva ligada à cibernética de segunda ordem, que atua em sistemas operando com fechamento operacional.

Vou pausar aqui porque é crucial para entender o verdadeiro alcance da tecnologia da ciência da computação na inteligência artificial, dissipar dúvidas e resolver ambiguidades sobre sua contribuição. Também dissolve mitos como a crença de que a IA substituirá e superará a inteligência humana.

Algo da história da revolução cognitiva ligada à cibernética. Um primeiro momento

Veremos os dois momentos da revolução cognitiva ligada a dois momentos da cibernética. Vamos começar pelo primeiro. Em 1878, Claude Bernard observou analogias entre o processo de regulação das máquinas a vapor e o dos organismos vivos diante de mudanças externas ou internas que poderiam perturbar o metabolismo. Em 1932, mais de 50 anos depois, Walter Cannon cunhou o termo “homeostase” para descrever essa tendência dos organismos vivos de manter o equilíbrio interno.

O matemático e filósofo norte-americano Norbert Wiener, durante a Segunda Guerra Mundial, em 1939, juntamente com o engenheiro Julian Bigelow, a pedido das forças armadas de seu país, trabalhou na construção de dispositivos para reduzir erros de mira em combates aéreos devido ao aumento da velocidade nos novos designs aeronáuticos. Ambos concluíram que um fator muito importante na atividade voluntária é o que os engenheiros de controle chamam de feedback.

De outro campo da ciência, Arturo Rosemblueth, médico mexicano, delineou os conceitos básicos que equiparam o comportamento do sistema nervoso ao das máquinas. Como resultado de suas pesquisas, ele relatou que alguns pacientes afetados por certas lesões ou malformações do sistema nervoso apresentam comportamentos análogos aos das máquinas descritas por Wiener.

Seguindo essa linha de pesquisa em 1942, e situados dentro do mesmo quadro, a Fundação Macy organizou sua primeira conferência sobre o tema da “inibição cerebral” ligada às pesquisas de Rosemblueth.

Em 1943, a revista “Philosophy of Science” publicou um artigo deste encontro: “Behavior, Purpose and Teleology”, escrito por Wiener, Rosenblueth e Bigdelow, que estabeleceu um novo caminho científico. Eles propuseram uma abordagem compartimental dos fenômenos e reconsideraram a questão da teleologia.

Esta abordagem compartimental não tenta analisar a organização interna das entidades que estuda, sua estrutura ou propriedades, mas visa examinar apenas o comportamento observável, as relações, as saídas em relação às entradas, sem especular sobre as características internas da entidade, que consideram uma “caixa preta”. Esses cientistas propõem um ponto de vista comum, afirmando que o conceito de “feedback” é a chave para explicar todo comportamento intencional.

Em 1946, a Fundação Macy retomou as reuniões que foram interrompidas pela Segunda Guerra Mundial, o que acabou levando a uma ciência do controle: a cibernética. A primeira reunião recebeu o título de “Mecanismos Teleológicos e Sistemas Causais Circulares”. Como resultado dessas reuniões, em 1948, Wiener publicou sua obra “Cybernetics”, sintetizando as pesquisas e resultados das primeiras conferências Macy.

A partir desse momento, a palavra “cibernética” tornou-se um símbolo para todos como um símbolo de sua pesquisa comum, e os participantes decidiram adotar esse nome para as três conferências Macy seguintes. Este grupo de cientistas compartilhou a impressão de participar de um evento histórico: a criação de um “novo quadro conceitual para pesquisa científica nas ciências da vida”.

A intenção explícita do movimento cibernético era criar uma ciência da mente, levando a uma etapa subsequente: a hipótese cognitivista que molda um segundo momento no desenvolvimento histórico das ciências do conhecimento.

A intuição central do cognitivismo é que a inteligência, incluindo a inteligência humana, se assemelha tanto à tecnologia da informação que a cognição pode ser definida como computações de representações simbólicas. O argumento cognitivista é que o comportamento inteligente pressupõe a capacidade de representar o mundo de certa maneira. Esta intuição mostra que do ponto de vista da dimensão ontológica dos paradigmas, esta fase do desenvolvimento destas ciências assume a existência de um mundo independente do observador.

É neste caminho explicativo e nesta fase do desenvolvimento das ciências do conhecimento que se desenvolve o projeto de uma inteligência artificial. Como reconhecido pelo biólogo celular Francisco Varela, “a fase cibernética das ciências cognitivas (1940-1956) produziu uma variedade impressionante de resultados concretos, além de uma influência duradoura”. Ele destaca alguns resultados desta fase: A invenção de máquinas de processamento de informações, a base da inteligência artificial; o uso da lógica matemática para entender o funcionamento do sistema nervoso; o estabelecimento da metadisciplina da teoria dos sistemas, que deixou uma marca em muitos ramos da ciência, como engenharia, biologia, ciências sociais e disciplinas como economia com teoria dos jogos e administração empresarial.

A resposta ao aviso emitido pelos políticos mencionados no início deste artigo está na incompreensão de que a chegada deste poderoso avanço na ciência da computação como técnica cibernética traz consigo uma ambigüidade arriscada cuja fonte é o resultado da primeira revolução das ciências cognitivas.

Antes de explicar o que consiste a segunda revolução das ciências cognitivas, para evitar a ambiguidade em que a inteligência artificial costuma ser entendida, é necessário aprofundar um pouco sobre o que significa que o conceito de informação seja relevante neste contexto.

Em um de seus últimos escritos sobre a crise da narrativa no mundo pós-industrial, o filósofo Byung-Chul Han afirma que “a informação carece de firmeza ontológica”. Citando o sociólogo Niklas Luhmann, ele argumenta que a cosmologia da informação “não é a do ser, mas a da contingência”. De acordo com este autor, a informação é aditiva e acumulativa e, portanto, não transmite significado. O próximo passo é a necessidade de adotar uma posição epistemológica. Epistemologicamente, o sujeito da informação opera como um sistema aberto que é concebido articulando processos de entrada e saída. O sujeito do conhecimento, por outro lado, é um sujeito que assume o fechamento operacional de seu sistema para acessar um mundo independente de sua experiência, impedindo-o de ter uma relação instrutiva com o ambiente e forçando-o a construir seus próprios significados.

Este é um ponto de inflexão que a inteligência artificial nos coloca. Estamos buscando informação ou conhecimento? No primeiro caso, é uma ferramenta técnica poderosa; no segundo, pode ser uma intervenção perturbadora em nossa busca. O que precisa ser reconhecido é que estamos constantemente nos movendo por ambos os caminhos.

Quero enfatizar que esta distinção é de importância fundamental nas ciências sociais, por exemplo, quando praticamos a pedagogia. O risco que apontamos com a inteligência artificial é que, imperceptivelmente, pode eliminar esses dois aspectos do desenvolvimento do pensamento científico na prática, porque assume duas concepções diferentes do sujeito aprendiz. É diferente praticar pedagogia sob o pressuposto de que o sujeito cognoscente aprende como um processador de informação, do que assumir e reconhecer que são suas experiências, de onde aprendem. Isso implica que são nossos “captas”, nossa maneira de perceber o mundo, a fonte de nosso conhecimento e que elas não são “bits de informação” ou dados que processamos. IA não passa de uma técnica elaborada de acumulação, coordenação e processamento de dados. Neste sentido, pode ajudar e aumentar o desempenho do cérebro humano nesta parte do processo de conhecimento, mas não pode realizar o resto das operações que ele desenvolve para gerar conhecimento.

Ronald Laing, citado por Spencer Brown, afirma que para ser honesto “o que a ciência empírica chama de <dados>, deveria chamá-los de captas… pois são selecionados arbitrariamente pela natureza da hipótese já formada…” Ele se refere a “Dados” como o que é dado e a “Captas” como o que é captado.

Do campo da biologia biocibernética, Francisco Varela questiona a ideia difundida do conceito de informação para explicar a estrutura do conhecimento, argumentando que “não é necessário apoiar-se em uma ordem de coisas preexistentes”, já que o pivô é precisamente “sua capacidade de explicar o significado e a regularidade”. Assim, a informação não deve aparecer como uma ordem intrínseca, mas como uma ordem emergente e derivada das próprias atividades cognitivas.

Esta perspectiva dos biólogos biocibernéticos situa-se no início de uma mudança paradigmática que abre caminho para o surgimento de uma segunda revolução das ciências cognitivas. A inteligência artificial não faz parte deste processo, pois constitui uma terceira etapa do desenvolvimento das ciências cognitivas (1958), que se apresenta como uma alternativa à orientação simbólica subjacente à IA. De acordo com esses biólogos, este novo enfoque foca na emergência e auto-organização, ou seja, no conexionismo, na associação e na dinâmica de rede.

Neste contexto, Varela sustenta que “a tese que gostaria de apresentar neste trabalho é a seguinte: há claros indícios de que do conjunto de ciências que tratam do conhecimento e da cognição – as ciências cognitivas – lentamente foram tomando consciência de que as coisas foram colocadas ao contrário, e começaram uma virada radical paradigmática ou epistêmica. O núcleo desta visão emergente é a convicção de que as verdadeiras unidades de conhecimento são eminentemente concretas, incorporadas, vividas”.

Um pouco da história da revolução cognitiva ligada à cibernética. Um segundo momento

A emergência dessa nova abordagem, focada na emergência e auto-organização dos processos de conhecimento, dando origem a um segundo momento no desenvolvimento das ciências cognitivas, encontra suas origens nas pesquisas realizadas pelo biólogo americano Roger Sperry em 1943. Esse biólogo realizou um experimento crucial com uma salamandra, buscando explicar o funcionamento diferente de nossos dois hemisférios cerebrais. Essas investigações o levaram a receber o Prêmio Nobel em 1981. Usando a plasticidade orgânica dessa urodelo, Sperry girou um dos olhos dela em 180 graus e observou que, uma vez girado de volta para sua cavidade ocular, a salamandra não corrigia seu preciso objetivo de capturar sua presa de insetos. O que o experimento mostra é que a questão de se ela corrige seu objetivo é cega ao fato de que o ato de capturar insetos não é um ato de mirar esse objeto, mas sim fazer uma correlação interna.

Dezessete anos depois, cientistas do Laboratório de Pesquisa Eletrônica e do Departamento de Biologia do Instituto de Tecnologia de Massachusetts, MIT, publicaram uma pesquisa pela qual foram propostos ao Prêmio Nobel de Ciência. Entre esses pesquisadores estava o biólogo chileno Humberto Maturana, ao lado de Jerome Lettvin, Warren McCullog e Walter Pitt.

A pesquisa recebeu o título “O que o olho do sapo diz ao cérebro do sapo” e estudou processos internos de coordenação sensorimotora, confirmando as descobertas de Sperry e mostrando que elas dependem da estrutura de cada sujeito. Com base nesses desenvolvimentos, Humberto Maturana, juntamente com Francisco Varela, continuaram suas pesquisas que os levaram a observar o funcionamento autônomo dos seres vivos em seus processos celulares, que eles denominaram autopoiese.

O resultado dessas investigações foi publicado em 1973 em um texto com um título sugestivo: “De Máquinas a Seres Vivos”. A diferença entre uma máquina que processa informações e um ser vivo, de acordo com esta pesquisa, é que elas questionam a concepção predominante baseada na metáfora computacional, onde a mente é considerada como o software e o cérebro e o corpo como o hardware. Em resumo, processos sensorimotores – percepção e ação – são fundamentalmente inseparáveis na cognição vivida e não estão simplesmente ligados de forma contingente como entrada/saída.

Nesta visão, a inteligência artificial pode ser uma ferramenta poderosa para apoiar processos de conhecimento, mas não pode substituir os processos executados pelos próprios sujeitos que operam autonomamente em relação ao ambiente e com fechamento operacional em seu sistema nervoso. Aqui está a diferença entre máquinas e seres vivos. Na minha opinião, essa confusão representa um dos maiores perigos apresentados pela tecnologia de inteligência artificial.

Referências:

Boric G. 2023, Discurso 78 período de Sesiones Asamblea de Naciones Unidas. htts:/ www.un.org

Chul Han B., 2023, “La crisis de la narración”, Ed. Herder, Barcelona

Lagos R., 2023, Inteligencia artificial y la urgencia de la política, www.latercera.com columna 30 de Septiembre 2023

Leiva C., J., 2020, “De la pedagogía del oprimido a la del suprimido”, Primera Edición, Santiago de Chile, Editorial ALTHAEA

Lettvin, J. https://es.wikipedia.org/wiki/Jerome_Lettvin

Maturana H. y  Varela F., 1973,”De máquinas y seres vivos”. Santiago, Ed. Universitaria

Spencer-Brown, G., 1973, “Laws of form”, Nueva York, Bantam

Sperry R.W. “Te problema of central nervous reorganization alternervere generation and muscletransposition”   The Quarterl y Review of Biology Vol. 20, No. 4 (Dec., 1945),

Varela F., 1996 , “Conocer Las ciencias cognitivas: tendencias y perspectivas”  Ed. Gedisa Barcelona

Varela, F., 2000,”El fenómeno de la vida” Dolmen Ediciones, Chile


Pourquoi une dualité ou une ambiguïté confuse se produit-elle avec l’intelligence artificielle, la rendant ainsi risquée?

Jorge Leiva Cabanillas. Chile

 Résumé

Dans ce travail, quelques considérations sont soulevées concernant l’intelligence artificielle, pour laquelle deux moments ou révolutions se distinguent dans l’histoire du développement des sciences cognitives de la cybernétique, plaçant l’origine de l’IA dans l’espace de la première révolution cognitive. Le but est de montrer que son développement est celui d’une technologie informatique et non un développement scientifique de recherche d’une procédure d’acquisition de connaissances. Pour ce faire, la différence entre information et connaissance est soulevée, plaçant la première plus proche du premier moment du développement des sciences cognitives et la seconde, dans l’espace de la deuxième révolution de ces sciences. Il convient de noter les avertissements sur le risque que comporte le développement de l’IA. reposent sur un manque de clarté quant à son origine, générant une confusion quant à son développement en tant qu’outil technique censé et erronément capable de remplacer l’intelligence humaine.

Mots-clés: Sciences cognitives, cybernétique, information, connaissances

Deux déclarations sur l’intelligence artificielle dans mon pays ont attiré mon attention. La première est celle de l’ancien président Lagos, qui a affirmé dans un article de journal que l’IA crée des “réalités” qui ne sont pas “réelles”. Il soutient qu’elle “présentera des défis sans précédent”. En réfléchissant à sa contribution à la médecine, il ajoute: “mais cette même technologie produira des mécanismes pour nous protéger… Nous sommes donc confrontés au défi de gérer la dualité de la nouvelle réalité qui nous arrive”.

La deuxième déclaration est celle du président actuel Boric, dans son discours aux Nations Unies, affirmant que “chaque grande transformation de l’histoire de l’humanité a été une grande opportunité pour construire des sociétés plus justes, mais aussi, si mal faite, peut être source de nouvelles injustices”.

Ces deux déclarations avertissent que l’arrivée de cette avancée puissante dans la science informatique en tant que technologie cybernétique apporte une ambiguïté risquée. Quelle est la source de cette ambiguïté ?

Je crois que l’origine de ce risque posé par l’IA réside dans une double confusion: d’abord, en ce qui concerne le concept même d’intelligence, et ensuite, la distinction entre les processus d’information et les processus d’acquisition de connaissances. Ces questions font partie de l’histoire des sciences cognitives telles qu’elles sont connues aujourd’hui. Par conséquent, comprendre l’IA ne trouvera des réponses qu’en se référant à son histoire.

Cette histoire montre un changement notable dans la compréhension moderne du développement du concept de l’esprit et de sa relation avec la nature. Le biologiste biocybernétique F. Varela souligne que ce n’est qu’à la moitié du siècle dernier que la science a reconnu la légitimité de la recherche sur la connaissance elle-même. Il soutient que c’est à la suite de ce changement que la connaissance s’est liée à des technologies comme l’intelligence artificielle, qui provoquent des changements dans les pratiques sociales.

À partir de ce processus, la société occidentale est confrontée à des questions telles que: l’esprit est-il une manipulation de symboles ? Une machine peut-elle comprendre le langage ? Cela montre que ces questions affectent la vie des gens et ne sont pas seulement des questions théoriques, expliquant pourquoi elles ont profondément pénétré l’esprit des jeunes générations à travers les jeux informatiques et la science-fiction.

Pour une compréhension complète des implications de la technologie exprimée dans l’IA, il est nécessaire de connaître son parcours historique. Ce parcours montre qu’à l’intersection de la neurobiologie, de la psychologie et de l’informatique, une approche unifiée des phénomènes tels que la perception, la connaissance et la compréhension est construite. Un nouveau continent de connaissances émerge: celui des sciences cognitives, qui nécessite une exploration plus approfondie.

Cette discipline émergente englobe des phénomènes tels que le fonctionnement de l’esprit humain, l’explication du comportement animal et les performances des ordinateurs, tous soumis à des études axées sur une perspective commune. Ce changement dans la science a été introduit par les sciences cognitives, qui dans leur développement initial appelaient ces recherches le programme cognitif. Selon cela, et c’est là que réside la confusion, la connaissance et les processus de son acquisition ont été liés à une technologie qui transforme les pratiques sociales qui la rendent possible ; l’intelligence artificielle est l’aspect le plus visible de ce processus.

Ce processus des sciences cognitives a été le résultat d’un intense dialogue entre des scientifiques de formations très diverses. C’était un effort interdisciplinaire sans précédent. Ces efforts sont visiblement centrés sur le développement d’une nouvelle discipline scientifique et technique: la cybernétique.

Les sciences cognitives suivent le cours de ce développement et autour de la cybernétique présentent deux moments: une première révolution cognitive liée à la cybernétique de premier ordre, qui opère sur des systèmes ouverts, et un second moment qui façonne une seconde révolution cognitive liée à la cybernétique de second ordre, qui agit sur des systèmes opérant avec une fermeture opérationnelle.

Je m’arrête ici car il est crucial de comprendre la véritable portée de la technologie informatique dans l’intelligence artificielle, de dissiper les doutes et de résoudre les ambiguïtés quant à sa contribution. Cela dissipe également des mythes tels que la croyance selon laquelle l’IA remplacera et dépassera l’intelligence humaine.

 Quelque chose de l’histoire de la révolution cognitive liée à la cybernétique. Un premier moment

Nous verrons les deux moments de la révolution cognitive liée à deux moments de la cybernétique. Commençons par le premier. En 1878, Claude Bernard observe des analogies entre le processus de régulation des machines à vapeur et celui des organismes vivants face aux changements externes ou internes pouvant perturber le métabolisme. En 1932, plus de 50 ans plus tard, Walter Cannon nomme “homéostasie” cette tendance des organismes vivants à maintenir l’équilibre interne.

Le mathématicien et philosophe américain Norbert Wiener, pendant la Seconde Guerre mondiale en 1939, avec l’ingénieur Julian Bigelow, sur demande des forces armées de leur pays, travaillent sur la construction d’appareils réduisant l’erreur de tir dans les combats aériens en raison de l’augmentation de la vitesse dans les nouveaux designs aéronautiques. Ils concluent tous deux qu’un facteur très important de l’activité volontaire est ce que les ingénieurs de contrôle appellent la rétroaction.

D’un autre domaine scientifique, Arturo Rosemblueth, médecin mexicain, a tracé les concepts de base qui comparent le comportement du système nerveux à celui des machines. À la suite de ses recherches, il rapporte que certains patients atteints de certaines lésions ou malformations du système nerveux ont des comportements analogues à ceux des machines décrites par Wiener.

Poursuivant cette ligne de recherche en 1942, et situés dans le même cadre, la Fondation Macy organise sa première conférence sur le thème de “l’inhibition cérébrale”, liée aux recherches de Rosemblueth.

En 1943, le journal “Philosophy of Science” publie un article de cette rencontre: “Behavior, purpose and teleology”, écrit par Wiener, Rosenblueth et Bigdelow, qui pose les bases d’une nouvelle voie scientifique. Ils proposent une approche compartimentale des phénomènes et réexaminent la question de la téléologie.

Cette approche compartimentale ne cherche pas à analyser l’organisation interne des entités qu’elle étudie, leur structure ou leurs propriétés, mais vise à examiner uniquement le comportement observable, les relations, les sorties par rapport aux entrées, sans spéculer sur les caractéristiques internes de l’entité qu’elle considère comme une “boîte noire”. Ces scientifiques présentent un point de vue commun en affirmant que le concept de “rétroaction” est la clé pour expliquer tout comportement intentionnel.

En 1946, la Fondation Macy reprend les rencontres interrompues par la Seconde Guerre mondiale, qui aboutissent finalement à une science du contrôle: la cybernétique. La première rencontre a été intitulée “Mécanismes téléologiques et systèmes causaux circulaires”. À la suite de ces rencontres, en 1948, Wiener publie son ouvrage “Cybernetics”, où il synthétise les recherches et les résultats des premières conférences Macy.

À partir de ce moment-là, le terme “cybernétique” s’impose à tous comme un symbole de leurs recherches communes, et les participants décident d’adopter ce nom pour les trois conférences Macy suivantes. Ce groupe de scientifiques partageait l’impression de participer à un événement historique: la création d’un “nouveau cadre conceptuel de référence pour la recherche scientifique dans les sciences de la vie”.

L’intention manifeste du mouvement cybernétique était de créer une science de l’esprit, ouvrant la voie à une étape suivante: l’hypothèse cognitiviste qui configure un deuxième moment dans le développement historique des sciences du savoir.

L’intuition centrale du cognitivisme est que l’intelligence, y compris l’intelligence humaine, ressemble tellement à l’informatique que la cognition peut être définie comme des calculs de représentations symboliques. L’argument cognitiviste est que le comportement intelligent suppose la capacité de représenter le monde d’une certaine manière. Cette intuition montre que du point de vue de la dimension ontologique des paradigmes, cette phase du développement de ces sciences suppose l’existence d’un monde indépendant de l’observateur.

C’est sur ce chemin explicatif et dans cette phase du développement des sciences du savoir que se développe le projet d’intelligence artificielle. Comme le reconnaît le biologiste cellulaire Francisco Varela, “la phase cybernétique des sciences cognitives (1940-1956) a produit une variété étonnante de résultats concrets, en plus d’une influence durable”. Il mentionne certains résultats de cette phase: l’invention des machines de traitement de l’information, base de l’intelligence artificielle ; l’utilisation de la logique mathématique pour comprendre le fonctionnement du système nerveux ; l’établissement de la métadiscipline de la théorie des systèmes, qui a laissé une empreinte dans de nombreuses branches de la science, comme l’ingénierie, la biologie, les sciences sociales et dans des disciplines telles que l’économie avec la théorie des jeux et dans l’administration des entreprises.

La réponse à l’avertissement lancé par les politiciens cités au début de cet article réside dans la méconnaissance du fait que l’arrivée de cette puissante avancée de l’informatique comme technique cybernétique entraîne une ambiguïté risquée, dont la source est qu’elle est le résultat de la première révolution des sciences cognitives.

Avant d’expliquer en quoi consiste la deuxième révolution des sciences cognitives, afin d’éviter l’ambiguïté qui entoure souvent l’intelligence artificielle, il est nécessaire de se pencher un peu plus sur ce que signifie le concept d’information.

Dans l’un de ses derniers écrits sur la crise de la narration dans le monde post-industriel, le philosophe Byung-Chul Han affirme que “l’information manque de fermeté ontologique”. Citant le sociologue Niklas Luhmann, il soutient que la cosmologie de l’information “n’est pas celle de l’être, mais celle de la contingence”. Selon cet auteur, l’information est additive et cumulative et, par conséquent, ne transmet pas de sens. L’étape suivante est donc la nécessité d’adopter une position épistémologique. Épistémologiquement, le sujet de l’information fonctionne comme un système ouvert qui se conçoit en articulant des processus d’entrées et de sorties. En revanche, le sujet de la connaissance est un sujet qui assume la clôture opérationnelle de son système pour accéder à un monde indépendant de son expérience, l’empêchant d’avoir une relation d’instruction avec son environnement et l’obligeant à construire ses propres significations.

C’est un point de basculement qui place l’intelligence artificielle. Cherchons-nous de l’information ou cherchons-nous de la connaissance ? Dans le premier cas, il s’agit d’un puissant outil technique, dans le second, cela peut être une intervention perturbatrice dans notre quête. Ce qu’il faut reconnaître, c’est que nous naviguons constamment entre les deux chemins.

Je tiens à souligner que cette distinction est d’une importance capitale en sciences sociales, par exemple lors de l’exercice d’une pratique pédagogique. Le risque que nous signalons avec l’intelligence artificielle est qu’elle peut imperceptiblement éliminer dans la pratique ces deux aspects du développement de la pensée scientifique, parce que celui-ci suppose deux conceptions distinctes du sujet apprenant. Il est différent de faire de la pédagogie en supposant que le sujet connaissant apprend comme un processeur d’information, que de supposer et de reconnaître que ce sont ses expériences, à partir desquelles il apprend. Cela implique que ce sont nos “captas”, notre manière de percevoir le monde, qui est la source de notre connaissance, et qu’elles ne sont pas simplement des “bits d’information” ou des données que nous traitons. L’IA n’est rien d’autre qu’une technique élaborée d’accumulation, de coordination et de traitement des données. En ce sens, elle peut aider et améliorer les performances du cerveau humain dans cette partie du processus de connaissance, mais elle ne peut pas accomplir le reste des opérations que celui-ci développe pour générer des connaissances.

Ronald Laing, cité par Spencer Brown, affirme qu’en toute honnêteté, “ce que la science empirique appelle <données> devrait être appelé des captas… car ils sont sélectionnés arbitrairement par la nature de l’hypothèse déjà formée…” Il fait référence aux “Data” comme étant ce qui est donné et aux “Capta” comme ce qui est capté.

Du domaine de la biologie biocybernétique, Francisco Varela remet en question l’idée répandue du concept d’information pour expliquer la structure de la connaissance, soutenant que “l’on n’a pas besoin de s’appuyer sur un ordre de choses préexistant”, puisque le pivot de celle-ci est précisément “sa capacité à expliquer la signification et la régularité”. Ainsi, l’information ne doit pas apparaître comme un ordre intrinsèque mais comme un ordre émergent et dérivé des activités cognitives elles-mêmes.

Cette perspective des biologistes biocybernétiques marque le début d’un changement paradigmatique qui ouvre la voie à une deuxième révolution des sciences cognitives. L’intelligence artificielle ne fait pas partie de ce processus, car celui-ci constitue une troisième étape du développement des sciences cognitives (1958), qui se présente justement comme une alternative à l’orientation symbolique sous-jacente à l’IA. Selon ces biologistes, cette nouvelle approche met l’accent sur l’émergence et l’auto-organisation, c’est-à-dire sur le connexionnisme, l’association et la dynamique des réseaux.

À cet égard, Varela soutient que “la thèse que je voudrais avancer dans ce travail est la suivante: il existe des indications claires que, dans l’ensemble des sciences traitant de la connaissance et de la cognition – les sciences cognitives -, on prend lentement conscience que les choses ont été posées à l’envers, et on a commencé un virage paradigmatique ou épistémique radical. Le cœur de cette vision émergente est la conviction que les véritables unités de connaissance sont d’une nature éminemment concrète, incarnée, incorporée, vécue”.

Un peu d’histoire de la révolution cognitive liée à la cybernétique. Un deuxième moment

L’émergence de cette nouvelle approche, axée sur l’émergence et l’auto-organisation des processus de connaissance, donnant lieu à un deuxième moment dans le développement des sciences cognitives, trouve ses origines dans les recherches menées par le biologiste américain Roger Sperry en 1943. Ce biologiste a réalisé une expérience cruciale avec une salamandre, cherchant à expliquer le fonctionnement différent de nos deux hémisphères cérébraux. Ces recherches l’ont conduit à recevoir le prix Nobel en 1981. En utilisant la plasticité organique de cette urodèle, Sperry a tourné l’un de ses yeux de 180 degrés et a observé que, une fois retourné dans son orbite oculaire, la salamandre ne corrigeait pas son objectif précis de capturer sa proie d’insectes. Ce que montre l’expérience, c’est que la question de savoir si elle corrige son objectif est aveugle au fait que l’acte de capturer des insectes n’est pas un acte de viser cet objet, mais plutôt de faire une corrélation interne.

Dix-sept ans plus tard, des scientifiques du Laboratoire de recherche électronique et du Département de biologie du Massachusetts Institute of Technology, MIT, ont publié une recherche pour laquelle ils ont été proposés pour le prix Nobel de sciences. Parmi ces chercheurs figurait le biologiste chilien Humberto Maturana, aux côtés de Jerome Lettvin, Warren McCullog et Walter Pitt.

La recherche a été intitulée “Ce que l’œil de la grenouille dit au cerveau de la grenouille” et a étudié les processus internes de coordination sensorimotrice, confirmant les découvertes de Sperry et montrant qu’elles dépendent de la structure de chaque sujet. Sur la base de ces développements, Humberto Maturana, avec Francisco Varela, a poursuivi ses recherches qui les ont amenés à observer le fonctionnement autonome des êtres vivants dans leurs processus cellulaires, qu’ils ont appelés autopoïèse.

Le résultat de ces recherches a été publié en 1973 dans un texte au titre suggestif: “Des machines aux êtres vivants”. La différence entre une machine qui traite l’information et un être vivant, selon cette recherche, est qu’elle remet en question la conception dominante basée sur la métaphore computationnelle, où l’esprit est considéré comme le logiciel et le cerveau et le corps comme le matériel. En résumé, les processus sensorimoteurs – perception et action – sont fondamentalement indissociables dans la cognition vécue et ne sont pas simplement liés de manière contingente comme entrée/sortie.

Dans cette perspective, l’intelligence artificielle peut être un outil puissant pour soutenir les processus de connaissance, mais elle ne peut pas remplacer les processus exécutés par les sujets qui opèrent de manière autonome par rapport à l’environnement et avec une fermeture opérationnelle dans leur système nerveux. Ici réside la différence entre les machines et les êtres vivants. À mon avis, cette confusion représente l’un des plus grands dangers posés par la technologie de l’intelligence artificielle.

 Références:

Boric G. 2023, Discurso 78 período de Sesiones Asamblea de Naciones Unidas. htts:/ www.un.org

Chul Han B., 2023, “La crisis de la narración”, Ed. Herder, Barcelona

Lagos R., 2023, Inteligencia artificial y la urgencia de la política, www.latercera.com columna 30 de Septiembre 2023

Leiva C., J., 2020, “De la pedagogía del oprimido a la del suprimido”, Primera Edición, Santiago de Chile, Editorial ALTHAEA

Lettvin, J. https://es.wikipedia.org/wiki/Jerome_Lettvin

Maturana H. y  Varela F., 1973,”De máquinas y seres vivos”. Santiago, Ed. Universitaria

Spencer-Brown, G., 1973, “Laws of form”, Nueva York, Bantam

Sperry R.W. “Te problema of central nervous reorganization alternervere generation and muscletransposition”   The Quarterl y Review of Biology Vol. 20, No. 4 (Dec., 1945),

Varela F., 1996 , “Conocer Las ciencias cognitivas: tendencias y perspectivas”  Ed. Gedisa Barcelona

Varela, F., 2000,”El fenómeno de la vida” Dolmen Ediciones, Chile

About The Author

Leave a reply

Your email address will not be published. Required fields are marked *