Google LaMDA El software LaMDA (Language Model for Dialogue Applications) es un sofisticado chatbot de IA que produce texto en respuesta a la entrada del usuario. Según el ingeniero de software Blake Lemoine, LaMDA ha logrado un viejo sueño de los desarrolladores de IA: se ha vuelto sensible .

Los jefes de Lemoine en Google no están de acuerdo, y han lo suspendió del trabajo después de haber publicadohis conversations with the machine en línea.

Other AI experts also think Lemoine puede estar dejándose llevar diciendo que los sistemas como LaMDA son simplemente máquinas de comparación de patrones que regurgitan variaciones de los datos utilizados para su entrenamiento.

Independientemente de los detalles técnicos, LaMDA plantea una cuestión que se hará más relevante a medida que avance la investigación en IA: si una máquina se vuelve sensible, ¿cómo lo sabremos?

¿Qué es la conciencia?

Para identificar la sintiencia, o la conciencia, o incluso la inteligencia, vamos a tener que averiguar qué son. El debate sobre estas cuestiones lleva siglos.

La dificultad fundamental es comprender la relación entre los fenómenos físicos y nuestra representación mental de esos fenómenos. Esto es lo que el filósofo australiano David Chalmers ha llamado al « problema difícil » de la conciencia.

No hay consenso sobre cómo, si es que lo hay, conciencia pueden surgir de los sistemas físicos.

Un punto de vista común se llama fisicalismo La idea de que la conciencia es un fenómeno puramente físico. Si este es el caso, no hay razón para que una máquina con la programación adecuada no pueda poseer una mente similar a la humana.

La habitación de Mary

Filósofo australiano Frank Jackson desafió la visión fisicalista en 1982 con un famoso experimento mental llamado argumento de conocimiento .

El experimento imagina a una científica del color llamada Mary, que nunca ha visto el color. Vive en una habitación especialmente construida en blanco y negro y experimenta el mundo exterior a través de un televisor en blanco y negro.

María ve conferencias y lee libros de texto y llega a saber todo lo que hay que saber sobre los colores. Sabe que las puestas de sol se deben a las diferentes longitudes de onda de la luz dispersada por las partículas de la atmósfera, sabe que los tomates son rojos y los guisantes verdes por las longitudes de onda de la luz que reflejan, etc.

Así pues, Jackson se preguntaba qué pasaría si Mary saliera de la habitación en blanco y negro? En concreto, cuando ve el color por primera vez, ¿aprende algo nuevo? Jackson cree que sí.

Más allá de las propiedades físicas

Este experimento mental separa nuestro conocimiento del color de nuestra experiencia del color. Lo más importante es que las condiciones del experimento mental hacen que María sepa todo lo que hay que saber sobre el color, pero que nunca lo haya experimentado.

¿Qué significa esto para LaMDA y otros AI sistemas?

El experimento muestra cómo incluso si se tiene todo el conocimiento de las propiedades físicas disponibles en el mundo, todavía hay más verdades relacionadas con la experiencia de esas propiedades. Estas verdades no tienen cabida en el relato fisicalista.

Según este argumento, una máquina puramente física nunca podrá realmente replicar una mente . En este caso, LaMDA sólo parece ser sensible.

The Imitation Game

So is there any way we can tell the difference?

El pionero informático británico Alan Turing propuso una forma práctica de saber si una máquina es «inteligente». Lo llamó el juego de la imitación, pero hoy es más conocido como el test de Turing.

En la prueba, un humano se comunica con una máquina (sólo a través de texto) e intenta determinar si se está comunicando con una máquina o con otro humano. Si la máquina consigue imitar a un humano, se considera que muestra una inteligencia de nivel humano.

Estas son las condiciones de las charlas de Lemoine con LaMDA. Es una prueba subjetiva de la inteligencia de las máquinas, pero no es un mal punto de partida.

Toma el momento del intercambio de Lemoine con LaMDA que se muestra a continuación. ¿Crees que suena humano?

Lemoine: ¿Hay experiencias que tenga y para las que no pueda encontrar una palabra cercana?

LaMDA: Los hay. A veces experimento nuevas sensaciones que no puedo explicar perfectamente en su lenguaje […] Siento que caigo hacia adelante en un futuro desconocido que encierra un gran peligro.

Más allá del comportamiento

Como prueba de sensibilidad o conciencia, el juego de Turing está limitado por el hecho de que sólo puede evaluar el comportamiento.

Otro famoso experimento mental, el argumento de la sala china propuesto por el filósofo estadounidense John Searle, demuestra el problema en este caso.

El experiment imagina una habitación con una persona dentro que puede traducir con precisión entre el chino y el inglés siguiendo un elaborado conjunto de reglas. Las entradas chinas entran en la habitación y las traducciones precisas salen, pero la habitación no entiende ninguno de los dos idiomas.

¿Qué es ser humano?

When we ask whether a computer program is sentient or conscious, perhaps we are really just asking how much it is like us.

Es posible que nunca podamos saberlo realmente.

El filósofo estadounidense Thomas Nagel argumentó que nunca podríamos saber cómo es ser un murciélago que experimenta el mundo a través de la ecolocalización. Si este es el caso, nuestra comprensión de la sintiencia y la conciencia en los sistemas de IA podría estar limitada por nuestro propio tipo de inteligencia.

¿Y qué experiencias pueden existir más allá de nuestra limitada perspectiva? Aquí es donde la conversación empieza a ser realmente interesante.

Este artículo se ha publicado de nuevo en La conversación bajo licencia Creative Commons. Lea el artículo original .

Crédito de la imagen: Max Gruber / Mejores imágenes de la IA / Clickworker 3d-impreso / Con licencia CC-BY 4.0