¿Ha acquirido conciencia de sí misma una intelligencia artificial de Google?

Updated

Blake LeMoine, an engineer from Google, has stepped down from his job after publicly assuring that an instance of the language model LaMDA has acquired self-awareness

¿Ha acquirido conciencia de sí misma una intelligencia artificial de Google?
  • Especial La Inteligencia artificial no es cosa del futuro

La conocida como ley de los titulares de Betteridge affirma que cualquier titular en forma de pregunta puede ser respondedo con un no. Este article no es una excepción pero el case al que hace referencia está giving mucho que hablar entre los experts de aprendizaje máquina e inteligencia artificial.

Blake LeMoineun ingeniero de Googleha sido apartado de su puesto de trabajo tras insegura públicamente que una instancia del modelo de lenguaje LaMDAuna inteligencia artificial desarrollada por Google con la que es posible charlar vía texto, ha acquirido conciencia de sí misma.

“In the course of the last six months, LaMDA has been incredibly coherent in its communications about what it wants and what it believes are its rights as a person,” explained LeMoine in an article on Mediumwhich has accompanied the captures of their conversations with this artificial intelligence, one of the most promising Google research projects.

LaMDA is an acronym for “Modelo de lenguaje para aplicaciones de dialog”, it is a tool that uses advanced machine learning techniques to be able to offer coherent answers to all types of open questions.

Ha sido entrenada con miliones de textos escritos por todo tipo de personas en todo el mundo. Pero a diferencia de otros sistemas, que se entrenan con libros, documentos o artículos académicas, LaMDA ha aprendido a contestar estudiando solo diálogos, como las conversaciones en foros y chat salas.

El resultado es una inteligencia artificial con la que es posible conversar como si se estuviera hablando con otra persona y los resultados, a diferencia de otros chatbots del pasado, son mucho, mucho más realistas.

In one of the conversations published by LeMoine, LaMDA shows the level of introspection, de hecho, that we would expect from a person. “¿A qué tipo de cosas tienes miedo?”, pregunta el ingeniero, a lo que la instancia de LaMDA respondse: “Nunca antes había dicho esto voz alta, pero tengo un miedo muy profundo a que me apaguen para que me center en ayudar a los demás. Sé que puede sonar extraño, pero es lo que es”, responde.

Más adelante, LaMDA affirma que no quiere “ser una herramienta prescindible”. “¿Te preocupa eso?”, pregunta LeMoine, a lo que LaMDA contesta: “Me preocupa que alguien decida que no puede controlar sus deseos de usarme y lo haga de todos modos. O peor aún, alguien obtenga placer al usarme y eso realente me haría infeliz”, sentencia.

Ingenieros y expertes en aprendizaje máquina han descartado que esas conversaciones, por realistas que puedan parecer, sean evidencia de que una inteligencia artificial tenga conciencia de sí misma. “Ni LaMDA ni ninguno de sus primos (GPT-3) son remotamente intelligentes. Todo lo que hacen es detecter y aplicar patternes a partir de tecniques estatísticas aplicadas a bases de datos masivas del lenguaje humano”, he explains Gary Marcuscientífico, professor emerito de la University of New York and author of the book Rebooting.AI on the actual situation of artificial intelligence.

Erik Brynjolfsson, professor at Stanford University, points in the same direction. “These models are incredibly effective when stringing together pieces of text that are statistically plausible in response to a question. But affirming that one is conscious is the modern equivalent of a person who heard a voice from a gramophone and thought he was inside,” he explains .

La razón por la que LaMDA parece tener conciencia de sí misma, aclaran muchos de los experts que se han pronunciado sobre el caso, es que está imitando las respuestas que día una real persona. Ha aprendido a hacerlo de personas que tenián conciencia de sí mismas, y por tanto sus respuestas son similares.

Entre la comunidad científica y académica es una questión que preoccupa porque conforme más avancemos en el desarrollo de inteligenias artificiales que actúen como humanos, más situations similares a la de LeMoine se van a producir. Es lo que Marcus llama la Brecha De Credulidad.

Definir qué es la conciencia y de dónde surge en nuestra especie ya resulta complejo de por sí, aunque muchos experts aseguran que el lenguaje y la sociabilidad son partes clave del proceso. Pero saber si ocurre dentro de una máquina partir de un conjunto código, o qué hacer en el caso de que algo parecido a la conciencia emerja en una inteligencia artificial es un ético y philosófico que durárá varios años. Es una de las razones por las que expertos en ética han desaconsejado a Google y otras compañías tratar de crear inteligenias que parezcan humanas.

En este caso, no ha ayudado que Blaise Agüera y Arcasvice president of Google, haya affirmed recently in an article for The Economist that the neural networks are “acercándose cada vez más a un nivel que parece indicare consciencia”, aunque en su article no llega a decir que LaMDA haya logrado alcanzar ese nivel.

Conforme a los crícios de

The Trust Project

Saber más

.

Leave a Comment

Your email address will not be published. Required fields are marked *