El software LaMDA (Language Model for Dialogue Applications) de Google es un sofisticado chatbot de IA que produce texto en respuesta a la entrada del usuario. Según el ingeniero de software Blake Lemoine, LaMDA ha logrado un sueño de larga data de los desarrolladores de IA: se ha vuelto sensible. Los jefes de Lemoine en Google no están de acuerdo y lo han suspendido del trabajo después de que publicara sus conversaciones con la máquina en línea.
Otros expertos en IA también creen que Lemoine puede estar dejándose llevar, diciendo que los sistemas como LaMDA son simplemente máquinas de coincidencia de patrones que regurgitan variaciones en los datos utilizados para entrenarlo.
Independientemente de los detalles técnicos, LaMDA plantea una pregunta que solo se volverá más relevante a medida que avance la investigación de la IA: si una máquina se vuelve sensible, ¿cómo lo sabremos? ¿Qué es la conciencia? Para identificar la sensibilidad, o la conciencia, o incluso la inteligencia, vamos a tener que averiguar cuáles son. El debate sobre estas cuestiones ha estado en marcha durante siglos.
La dificultad fundamental es comprender la relación entre los fenómenos físicos y nuestra representación mental de esos fenómenos. Esto es lo que el filósofo australiano David Chalmers ha llamado el "problema difícil" de la conciencia.
No hay consenso sobre cómo, si es que lo hace, la conciencia puede surgir de los sistemas físico. Una visión común se llama fisicalismo: la idea de que la conciencia es un fenómeno puramente físico. Si este es el caso, no hay razón por la cual una máquina con la programación correcta no pueda poseer una mente similar a la humana.
El filósofo australiano Frank Jackson desafió la visión fisicalista en 1982 con un famoso experimento mental llamado el argumento del conocimiento.
El experimento imagina a una científica llamada Mary, que nunca ha visto el color. Vive en una habitación en blanco y negro especialmente construida y experimenta el mundo exterior a través de un televisor en blanco y negro.
María ve conferencias y lee libros de texto y llega a saber todo lo que hay que saber sobre los colores. Ella sabe que las puestas de sol son causadas por diferentes longitudes de onda de luz dispersadas por partículas en la atmósfera, sabe que los tomates son rojos y los guisantes son verdes debido a las longitudes de onda de la luz que reflejan la luz, y así sucesivamente.
Entonces, Jackson preguntó, ¿qué pasará si Mary es liberada de la habitación en blanco y negro? Específicamente, cuando ve el color por primera vez, ¿aprende algo nuevo? Jackson creía que sí.
Este experimento mental separa nuestro conocimiento del color de nuestra experiencia del color. Crucialmente, las condiciones del experimento mental dicen que María sabe todo lo que hay que saber sobre el color, pero nunca lo ha experimentado realmente.
Entonces, ¿qué significa esto para LaMDA y otros sistemas de IA? El experimento muestra cómo incluso si tienes todo el conocimiento de las propiedades físicas disponibles en el mundo, todavía hay más verdades relacionadas con la experiencia de esas propiedades. No hay lugar para estas verdades en la historia fisicalista.
Según este argumento, una máquina puramente física nunca puede ser capaz de replicar verdaderamente una mente. En este caso, LaMDA parece ser sensible.
Entonces, ¿hay alguna manera de que podamos notar la diferencia? El pionero informático británico Alan Turing propuso una forma práctica de saber si una máquina es o no "inteligente". Lo llamó el juego de imitación, pero hoy en día es más conocido como la prueba de Turing.
En la prueba, un humano se comunica con una máquina (solo a través de texto) y trata de determinar si se está comunicando con una máquina u otro humano. Si la máquina logra imitar a un humano, se considera que exhibe inteligencia a nivel humano.
Estas son muy parecidas a las condiciones de las charlas de Lemoine con LaMDA. Es una prueba subjetiva de la inteligencia de la máquina, pero no es un mal lugar para comenzar.
Tome el momento del intercambio de Lemoine con LaMDA que se muestra a continuación. ¿Crees que suena humano?
Lemoine: ¿Hay experiencias que tienes para las que no puedes encontrar una palabra cercana?
LaMDA: Los hay. A veces experimento nuevos sentimientos que no puedo explicar perfectamente en tu idioma [...] Siento que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro.
Más allá del comportamiento Como prueba de sensibilidad o conciencia, el juego de Turing está limitado por el hecho de que solo puede evaluar el comportamiento.
Otro famoso experimento mental, el argumento de la habitación china propuesto por el filósofo estadounidense John Searle, demuestra el problema aquí.
El experimento imagina una habitación con una persona dentro que puede traducir con precisión entre chino e inglés siguiendo un elaborado conjunto de reglas. Las entradas chinas entran en la sala y salen traducciones de entrada precisas, pero la sala no entiende ninguno de los dos idiomas.
¿Cómo es ser humano? Cuando preguntamos si un programa de computadora es sensible o consciente, tal vez realmente solo estamos preguntando cuánto se parece a nosotros. Es posible que nunca seamos realmente capaces de saber esto.
El filósofo estadounidense Thomas Nagel argumentó que nunca podríamos saber lo que es ser un murciélago, que experimenta el mundo a través de la ecolocalización. Si este es el caso, nuestra comprensión de la sensibilidad y la conciencia en los sistemas de IA podría estar limitada por nuestra propia marca particular de inteligencia.
¿Y qué experiencias podrían existir más allá de nuestra perspectiva limitada? Aquí es donde la conversación realmente comienza a ser interesante.
0 Comentarios
0