Cuando lees una frase como ésta, tu experiencia pasada te dice que está escrita por un humano que piensa y siente. Y, en este caso, hay efectivamente un humano escribiendo estas palabras: [¡Hola!]. Pero hoy en día, algunas frases que parecen extraordinariamente humanas son generadas en realidad por inteligencia artificial sistemas entrenados con cantidades masivas de texto humano.

La gente está tan acostumbrada a asumir que la fluidez idioma proviene de un ser humano que piensa y siente, por lo que la evidencia de lo contrario puede ser difícil de entender. ¿Cómo puede la gente navegar por este territorio relativamente inexplorado? Debido a la persistente tendencia a asociar la expresión fluida con el pensamiento fluido, es natural -pero potencialmente engañoso- pensar que si un modelo de IA puede expresarse con fluidez, eso significa que piensa y siente igual que los humanos.

Thus, it is perhaps unsurprising that a former Google engineer recently claimed that Google’s AI system LaMDA has a sense of self because it can eloquently generate text about its purported feelings. This event and la posterior cobertura mediática llevó a un número de escépticos con razón artículos y puestos sobre la afirmación de que los modelos computacionales del lenguaje humano son sensibles, es decir, capaces de pensar, sentir y experimentar.

La cuestión de lo que significaría que un modelo de IA fuera sensible es complicada ( véase, por ejemplo, la opinión de nuestro colega ), y nuestro objetivo aquí no es resolverlo. Pero como idioma investigadores En este sentido, podemos utilizar nuestro trabajo en la ciencia cognitiva y la lingüística para explicar por qué es demasiado fácil para los seres humanos caer en la trampa cognitiva de pensar que una entidad que puede utilizar el lenguaje con fluidez es sensible, consciente o inteligente.

Utilizar la IA para generar un lenguaje similar al humano

El texto generado por modelos como LaMDA de Google puede ser difícil de distinguir del texto escrito por humanos. Este impresionante logro es el resultado de un programa de décadas para construir modelos que generen un lenguaje gramatical y significativo.

una captura de pantalla que muestra un diálogo de texto
El primer sistema informático para hacer dialogar a las personas fue un software de psicoterapia llamado Eliza, construido hace más de medio siglo. Crédito de la imagen: Rosenfeld Media/Flickr CC BY

Las primeras versiones, que se remontan al menos a la década de 1950, conocidas como modelos de n-gramas, se limitaban a contar las apariciones de frases específicas y las utilizaban para adivinar qué palabras eran más probables en determinados contextos. Por ejemplo, es fácil saber que «mantequilla de cacahuete y mermelada» es una frase más probable que «mantequilla de cacahuete y piñas». Si tienes suficiente texto en inglés, verás la frase «peanut butter and jelly» una y otra vez, pero puede que nunca veas la frase «peanut butter and pineapples».

Los modelos actuales, conjuntos de datos y reglas que se aproximan al lenguaje humano, difieren de estos primeros intentos en varios aspectos importantes. En primer lugar, se entrenan básicamente con todo Internet. En segundo lugar, pueden aprender relaciones entre palabras muy distantes entre sí, no sólo entre palabras vecinas. En tercer lugar, se ajustan mediante un gran número de «mandos» internos, tantos que incluso a los ingenieros que los diseñan les resulta difícil entender por qué generan una secuencia de palabras en lugar de otra.

La tarea de los modelos, sin embargo, sigue siendo la misma que en los años 50: determinar qué palabra es probable que vaya a continuación. Hoy en día, son tan buenos en esta tarea que casi todas las frases que generan parecen fluidas y gramaticales.

¿Mantequilla de cacahuete y piñas?

Preguntamos a un gran modelo lingüístico, GPT-3 para completar la frase «Mantequilla de cacahuete y piñas___». Decía: «La mantequilla de cacahuete y la piña son una gran combinación. Los sabores dulce y salado de la mantequilla de cacahuete y la piña se complementan perfectamente». Si una persona dijera esto, se podría deducir que ha probado la mantequilla de cacahuete y la piña juntas, se ha formado una opinión y la ha compartido con el lector.

Pero, ¿cómo se le ocurrió a GPT-3 este párrafo? Generando una palabra que se ajustaba al contexto que le proporcionamos. Y luego otra. Y luego otra más. El modelo nunca vio, tocó o probó las piñas, sólo procesó todos los textos de Internet que las mencionan. Y sin embargo, la lectura de este párrafo puede llevar a la mente humana -incluso a la de un ingeniero de Google- a imaginar GPT-3 como un ser inteligente que puede razonar sobre platos de mantequilla de cacahuete y piña.

El cerebro humano está programado para inferir las intenciones detrás de las palabras. Cada vez que entras en una conversación, tu mente construye automáticamente un modelo mental de tu interlocutor. A continuación, utiliza las palabras que dicen para completar el modelo con los objetivos, sentimientos y creencias de esa persona.

El proceso de salto de las palabras al modelo mental es fluido, y se activa cada vez que recibes una frase completa. Este proceso cognitivo te ahorra mucho tiempo y esfuerzo en la vida cotidiana, facilitando enormemente tus interacciones sociales.

Sin embargo, en el caso de los sistemas de IA, falla, construyendo un modelo mental de la nada.

Un poco más de investigación puede revelar la gravedad de este fallo. Considere la siguiente pregunta: «La mantequilla de cacahuete y las plumas saben muy bien juntas porque___». GPT-3 continuó: «La mantequilla de cacahuete y las plumas saben muy bien juntas porque ambas tienen un sabor a nuez. La mantequilla de cacahuete también es suave y cremosa, lo que ayuda a compensar la textura de la pluma».

El texto en este caso es tan fluido como nuestro ejemplo con las piñas, pero esta vez el modelo está diciendo algo decididamente menos sensato. Uno empieza a sospechar que GPT-3 nunca ha probado la mantequilla de cacahuete y las plumas.

Atribuir inteligencia a las máquinas, negarla a los humanos

Una triste ironía es que el mismo sesgo cognitivo que hace que las personas atribuyan humanidad a la GPT-3 puede hacer que traten a los seres humanos reales de forma inhumana. La lingüística sociocultural -el estudio del lenguaje en su contexto social y cultural- demuestra que asumir un vínculo demasiado estrecho entre la expresión fluida y el pensamiento fluido puede llevar a prejuicios contra las personas que hablan de forma diferente.

Por ejemplo, las personas con acento extranjero suelen ser se percibe como menos inteligente y tienen menos probabilidades de conseguir los trabajos para los que están cualificados. Existen prejuicios similares contra hablantes de dialectos que no se consideran prestigiosas, como el inglés del sur en los Estados Unidos, contra personas sordas que utilizan el lenguaje de signos y contra las personas con problemas de habla como la tartamudez .

Estos prejuicios son profundamente dañinos, a menudo conducen a suposiciones racistas y sexistas, y se ha demostrado una y otra vez que son infundados.

Un lenguaje fluido por sí solo no implica humanidad

¿Llegará la IA a ser sensible algún día? Esta pregunta requiere una profunda reflexión, y de hecho los filósofos han reflexionó it durante décadas . Lo que los investigadores han determinado, sin embargo, es que no se puede confiar simplemente en un modelo de lenguaje cuando le dice lo que siente. Las palabras pueden ser engañosas, y es demasiado fácil confundir un discurso fluido con un pensamiento fluido.La conversación

Este artículo se ha publicado de nuevo en La conversación bajo licencia Creative Commons. Lea el artículo original .

Crédito de la imagen: Tancha / Shutterstock.com