SAN FRANCISCO (AFP) – Una pelea interna sobre si Google construyó una tecnología con conciencia humana ha salido a la luz, exponiendo las ambiciones y los riesgos inherentes a la inteligencia artificial que puede parecer demasiado real.
El gigante de Silicon Valley suspendió la semana pasada a uno de sus ingenieros que argumentó que el sistema de IA de la empresa, LaMDA, parecía “sentiente”, una afirmación con la que Google discrepa oficialmente.
Varios expertos dijeron a la AFP que también eran muy escépticos sobre la afirmación de la conciencia, pero dijeron que la naturaleza humana y la ambición podrían confundir fácilmente la cuestión.
“El problema es que… cuando nos encontramos con cadenas de palabras que pertenecen a los idiomas que hablamos, les damos sentido”, dijo Emily M. Bender, profesora de lingüística de la Universidad de Washington.
“Hacemos el trabajo de imaginar una mente que no está ahí”, añadió.
LaMDA es un sistema de gran potencia que utiliza modelos avanzados y un entrenamiento sobre más de 1,5 billones de palabras para poder imitar cómo se comunica la gente en los chats escritos.
El sistema se basa en un modelo que observa cómo se relacionan las palabras entre sí y luego predice qué palabras cree que vendrán después en una frase o párrafo, según la explicación de Google.
“Todavía es, en cierto nivel, solo una coincidencia de patrones”, dijo Shashank Srivastava, profesor asistente de ciencias de la computación en la Universidad de Carolina del Norte en Chapel Hill.
“Seguro que puedes encontrar algunos hilos de lo que realmente parecería una conversación significativa, algún texto muy creativo que podrían generar. Pero en muchos casos se desvía rápidamente”, añade.
Sin embargo, asignar la conciencia es complicado.
A menudo se ha recurrido a parámetros como el test de Turing, que se considera que una máquina ha superado si un humano mantiene una conversación escrita con ella, pero no puede decirlo.
“En realidad es una prueba bastante fácil de superar para cualquier IA de nuestra cosecha en 2022”, afirma Mark Kingwell, profesor de filosofía de la Universidad de Toronto.
“Una prueba más difícil es la del contexto, el tipo de cosas con las que los sistemas actuales parecen tropezar, el conocimiento del sentido común o las ideas de fondo, el tipo de cosas con las que los algoritmos tienen dificultades”, añadió.
No hay respuestas fáciles
La IA sigue siendo un tema delicado dentro y fuera del mundo de la tecnología, que puede provocar asombro pero también un poco de incomodidad.
Google, en un comunicado, fue rápido y firme al restar importancia a si LaMDA es autoconsciente.
“Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases, y pueden rifar sobre cualquier tema fantástico”, dijo la compañía.
“Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos constancia de que nadie haya hecho… afirmaciones de gran alcance, ni antropomorfizado a LaMDA”, añadió.
Al menos algunos expertos consideraron la respuesta de Google como un esfuerzo por cerrar la conversación sobre un tema importante.
“Creo que el debate público sobre el tema es extremadamente importante, porque la comprensión pública de lo irritante que es la cuestión es clave”, dijo la académica Susan Schneider.
“No hay respuestas fáciles a las preguntas sobre la conciencia en las máquinas”, añadió el director fundador del Centro para el Futuro de la Mente de la Universidad Atlántica de Florida.
La falta de escepticismo de los que trabajan en el tema también es posible en un momento en que la gente está “nadando en una tremenda cantidad de bombo y platillo de la IA”, como dijo el profesor de lingüística Bender.
“Y se está invirtiendo mucho dinero en esto. Así que la gente que trabaja en ella tiene una señal muy fuerte de que está haciendo algo importante y real”, lo que hace que no necesariamente “mantengan el escepticismo adecuado”, añadió.
En los últimos años, la IA también ha sufrido las consecuencias de las malas decisiones: Bender citó una investigación que descubrió que un modelo lingüístico podía captar prejuicios racistas y antiinmigrantes al realizar un entrenamiento en Internet.
Kingwell, profesor de la Universidad de Toronto, dijo que la cuestión de la sensibilidad de la IA tiene parte de “Un mundo feliz” y parte de “1984”, dos obras distópicas que tocan temas como la tecnología y la libertad humana.
“Creo que mucha gente no sabe qué camino tomar, y de ahí la ansiedad”, añadió.