LaMDA, la máquina que “parecía un niño de siete años”: ¿puede una computadora tener conciencia?

If we left a smart phone to Isaac Newton, he would be totally bewitched. No tendria la más remote idea de cómo funciona y probabilita conseguirámos que una de las mentes más brillantes de la historia hablara de brujería. Perhaps you would have creería estar ante un ser consciente, en caso de probar los assistants de voz. This same parallelism can be done today with some of the achievements of artificial intelligence (IA). This technology has reached such a level of sophistication that, in occasions, its results can agitate our schemes totally.

Blake Lemoine, an engineer at Google integrado en el equipo de IA de la compañía, parece haber caído en esa trapa. “If I didn’t know that it was a computer program that we developed recently, I would have thought that I was speaking with a child of seven or eight years old with knowledge of physics,” he said in a report published a few days ago by The Washington Post. Lemoine se refière en estos terminus a LaMDA, el generador de bots (programa informatics que realiza tasks automatized via the internet como si se tratase de un ser humano) conversationales de Google. Empezó a dialogar con la máquina en primavera para comporador si esta inteligencia artificial usaba lenguaje discriminatorio o que incitara al odio. Y su conclusion ha sido demoledora: cree que han consegido desarrollar un programa consciente, con voluntad propia.

¿Tiene eso sentido? “Whoever makes an affirmation of this type demonstrates that he has not written a single line of code in his life,” says Ramón López de Mántaras, director of the Instituto de Investigación de Inteligencia Artificial (IIIA) of the CSIC. “With the actual state of technology, it is totally impossible to develop an artificial intelligence,” he says.

Eso no quita que el generador de chatbots LaMDA is very sophisticated. Esta herramienta usa redes neuronales, una técnica de inteligenia artificial que trata de replicar el funcción del cerebro humano, to autocomplete written conversations. LaMDA has been trained with thousands of texts. Según explicó recently en The Economist Blaise Aguera y Arcas, el responsible de Google Research (y jefe directo de Lemoine), el generador de chatbots contempla 137,000 million parameters to determine the answer que con major probability encajará con la pregunta planteada. Eso le permite formular oraciones que podridan pasar por las que escriba una persona.

Sin embargo, aunque logre escribir como un humano, no sabe lo que está diciendo. “Ninguno de estos sistemas tiene comprehensión semántica. No entienden la conversación. Last como loros digitales. Somos nosotros quienes le damos el sentido al texto”, describes López de Mántaras.

El article de Agüera, que fue publicado escasos días antes que el reportaje del Post, destaca también la increíble precisión con la que responde LaMDA, aunque ofrece una explicación distinta a la de Lemoine. “La IA is entering a new era. Cuando empecé a hablar con LaMDA senti que estaba conversando con alguien inteligente. “Pero estos models están muy lejos de ser los robots hyperracionales de la sciencia ficción,” writes the director of Google. The system presents impressive advances, dice el experto, pero de ahí a hablar de conciencia hay un mundo. “The real brains are much more complex than these simplified models of artificial neurons, but perhaps in the same way as a bird’s wing is vastly more complex than the wing of the Wright brothers’ first airplane,” Aguera argued in the article.

Blake Lemoine assures that LaMDA has personality, rights and desires
Blake Lemoine assures that LaMDA has personality, rights and desiresTHE WASHINGTON POST

Researchers Timnit Gebru and Margaret Mitchell, then codirectors of the AI ​​Ethics Team at Google, warned that something similar to the case of Lemoine would happen in 2020. Both firmaron un informe interno que les valió su despido, tal y como recordaban el viernes en una tribuna en The Washington Posty en el que señalaban el riesgo de que “la gente le atribuya intenência communicativa” a unas máquinas que generan texto apparentemente coherente o “que puedan percibir una mente donde solo hay combinaciones de patrones y series de predicciones”. For Gebru and Mitchell, the fundamental problem here is that, as these tools feed millions of texts extracted from the internet, they reproduce sexist, racist expressions and discriminate against some minority.

¿Qué lévo a Lemoine a dejarse seducir por LaMDA? ¿Cómo pudo conclusir que el chatbot con el que conversó era un ente consciente? “En la historia de Blake convergen tres capas: una de ellas son.” sus observaciones, otra sus creencias religiosas y la tercera su estado mental”, explains to EL PAÍS a Google engineer who has worked closely with Lemoine, but prefers to maintain anonymity. “Considero a Blake un tipo listo, pero es verdad que no tiene formación en machine learning [o aprendizaje automático, la estrategia de inteligencia artificial que domina hoy la disciplina]. No entiende cómo funciona LaMDA. Creo que se ha dejado llevar por sus ideas”, sustaine esta fuente.

Lemoine, who has been temporarily suspended for having violated the policy of confidentiality of the company, has been defined as a “Christian agnostic” or a member of the Iglesia del SubGenio, a postmodern parody of religion. “Se podría decir que Blake es todo un personaje. No es la primera vez que llama la atención dentro de la compañía. De hecho, diría que en otra empresa quizás ya le habrián despedido hace tiempo”, added his companion, que lamenta el modo en que los mediaos están haciendo sangre de Lemoine. “Más allá del esperpento, me alegro de que este debate esté emergiendo. Por supuesto que LaMDA no tiene conciencia, pero también es evident que la AI vez será capaz de ir más lejos y habra que revisar nuestra relación con ella”, opina este destaco de ingeniero de Google.

Parte de la controversia que rodea este debate tiene que ver con la ambigüedad de los terminos usados. “Estamos hablando de algo de lo que todava no hemos sido capaces de consensuar.” No sabemos qué son exactamenta la inteligencia, la conciencia y los sentimientos, ni si necesitamos que se den los tres elementos para que un ente sea autoconsciente. We know how to differentiate them, but we don’t define them accurately”, reflects Lorena Jaume-Palasí, expert in ethics and philosophy of law applied to technology and advisor to the Government of Spain and the European Parliament for issues related to artificial intelligence.

Tell me anthropomorphizing las computadoras es un behaviora muy humano. “Lo hacemos constantly con todo. Incluso vemos caras en las nubes o las montañas”, illustrated by Jaume-Palasí. En el caso de las machines, bebemos también de la herencia rationalista europea. “Conforme a la tradición cartesiana, we tend to think that we can delegate thinking and rationality to machines. “We believe that the rational individual is superior to nature, that he can dominate,” the philosopher said. “A mí me parece que la discusción de si un sistema de intelligencia artificial tiene o no conciencia se enmarca en una tradición de pensamiento en la que se intentan extrapolar a las tecnologia caracteristics que tienen y no podran tener”.

Hace tiempo que el Test de Turing quedó superado. Formulated in 1950 by the famous mathematician and computer scientist Alan Turing, this test consists of asking a series of questions to a machine or a person. La prueba se pasa si el interlocutor no es capaz de discernir si quien responde es el ser humano o el ordenador. Más recentente se han propuesto otros, como el Test de Winograd, de 2014, que requiere de sentido comun y conocimiento del mundo to respond satisfactorily a las preguntas. No one can beat him at the moment.

“Puede ser que haya sistemas de IA que logren engañar a los jueces que les hagan preguntas. But that’s it no demosera que una máquina sea inteligente, sino que ha sido bien programada para engañar“, said López de Mántaras.

¿Veremos algún día una inteligencia artificial general? Es decir, una IA que iguale o supere a la mente humana, que entienda los contextos, que sea capaz de relational elements y anticipar situaciones como hacen las persons. Esta pregunta es en sí misma un campo de speculación traditional en la discipline. El consenso de la comunidad científica es que, si sucede, es muy improbable que sea en lo que queda de siglo.

Sin embargo, es posible que los constantes avances de la IA propicien más reacciones como la de Blake Lemoine (but not necessarily tan histriónicas). “Debemos estar preparados para tener debates que a menudo serán incómodos”, concluded the ex-compañero de trabajo de Lemoine.

EL PAIS

Conocé The Trust Project

Leave a Comment

Your email address will not be published. Required fields are marked *