Did my computer talk to me? The Google engineer believes that the AI ​​program has become intelligent and sensible

El software de Google LaMDA (sigla de Language Model for Dialogue Applications) es un sophisticated chatbot de Inteligencia Artificial (como esos chat de servicio a cliente) que produce texto en respuesta a preguntas del usuario. According to software engineer Blake Lemoine, LaMDA ha logrado un sueño de larga data de los desarrolladores de IA: se ha vuelto sensible.

Los jefes de Lemoine en Google no están de acuerdo y lo han suspended del trabajo después de que publicara sus conversaciones con la machine en línea.

Other experts in Artificial Intelligence also believe that Lemoine can be carried away, saying that systems like LaMDA are simply pattern matching machines. que regurgitant variations en los datos utilizados para entrainarlos.

Regardless of the technical details, LaMDA poses a question that will only become more relevant as IA research advances: si una máquina se vuelve intelligente, ¿cómo lo sabremos?

To identify the sensibility, la conciencia o incluso la inteligencia, vamos a tener que averiguar qué son. El debate sobre estas questiones lleva siglos.

The fundamental difficulty is understanding the relationship between physical phenomena and our mental representation of these phenomena. This is what the Australian philosopher David Chalmers called the “difficult problem” of conscience. No hay consensus sobre cómo, en todo caso, la conciencia puede surgir de los sistemas físicos.

David Chalmers.

A common vision is called physicalism: la idea de que la conciencia es un phenomenó purely físico. Si este es el caso, There is no reason why a machine with correct programming cannot possess a mind similar to a human.

The Australian philosopher Frank Jackson challenged the physicalist view in 1982 with a famous mental experiment called the argument of knowledge.

El experimento imagine a una scientifice de los colors called Mary, que en realidad nunca ha visto el color. Vive en una habitación en blanco y negro specially construida y experiencia el mundo exterior through través de un television en blanco y negro.

Mary ve conferences y lee libros de texto y llega a saber todo lo que hay que saber sobre los colors. Ella sabe que las puestas de sol son caused by different longitudes of onda de light dispersed by particles in the atmosphere, sabe que los tomatoes son rojos y los guisantes son verdes due to las longitudes de las onda de luz que refleksi, y so secesivamente.

Then, asked Jackson, ¿qué sucederá si libera a Mary de la habitación en blanco y negro? Specifically, cuando ve el color por primera vez, ¿aprende algo nuevo? Jackson creía que sí.

This is a mental experiment separa nuestro conocimiento del color de nuestra experiencia del color. Fundamentally, las conditions del experimento mental establecen que Mary sabe todo lo que hay que saber sobre el color, pero en realidad nunca lo ha experimentoso.

So, what does this mean for LaMDA and other IA systems?

El experimento muestra cómo included si tienes todo el conocimiento de las propiedades físicas disponibles en el mundotodavía hay más verdades reláduantes con la experiencia de esas propiedades. No hay lugar para estas verdades en el relato physicalista.

According to this argument, it is possible that a machine is purely physical nunca pueda replicar verdaderamente una mente. En este caso, LaMDA parece ser sensible.

Entonces, ¿hay alguna manera de que podamos notar la diferencia?

The British computer pioneer Alan Turing proposed a practical form of knowledge for a machine that is “intelligent” and no. He called it the game of imitation, but today it is better known as the test of Turing.

Alan Turing

In the test, a human communicates with a machine (only through text) and tries to determine whether it is communicating with a machine or with another human. Si la máquina logra imitar a un humano, se considera que exhibe inteligencia de nivel humano.

Estas son muy parecidas a las conditions de los chats de Lemoine con LaMDA. Es una prueba subjective de Inteligencia Artificial, but no es un mal lugar para comenzar.

Tome el momento del intercambio de Lemoine con LaMDA que se muestra a connexion. ¿Crees que suena humano?

Lemoine: ¿Hay experiencias que haya tenido para las que no pueda encontrar una palabra cercana?

LaMDA: Hey. A veces experimento sentimientos nuevos que no puedo explicar perfectamente en tu idioma […] Siento que estoy cayendo hacia un futuro desconocido que depara un gran peligro.

As a test of sensitivity and conscience, Turing’s game is limited by the fact that it can only evaluate behavior.

Another famous mental experiment, el argumento de la habitación china proposed by the American philosopher John Searle, demonstrates the problem here.

The experiment imagines a room with a person inside that can translate precisely between Chinese and English following an elaborate set of rules. Las entradas en chino entran en la sala y salen traducciones de entrada precisa, pero la sala no entiende ninguno de los dos idiomas.

Cuando preguntamos si un programa de computadora es sensible o consciente, tal vez en realidad solo estamos preguntando cuánto se parece a nosotros. Es posible que nunca seamos realente capaces de saber esto.

The American philosopher Thomas Nagel argumentó que nunca podríamos saber cómo es ser un murciélago, que experimenta el mundo a través de la ecolocalización. Si este es el caso, our understanding of sensibility and awareness in AI systems could be limited by our particular brand of intelligence.

¿Y qué experiencias podríen existir más allá de nuestra perspectiva limitada? This is where the conversation really starts to be interesting.

* Oscar DavisProfessor of Philosophy and History, Universidad Bond

Leave a Comment

Your email address will not be published. Required fields are marked *