SUGIERE LOS 4 TEMAS PARA UN GRAN DIÁLOGO NACIONAL
A [email protected],
Y A NUESTRAS REDES SOCIALES. SÉ PARTE DEL CAMBIO EN EL PAÍS
En la interminable búsqueda por entender nuestra propia humanidad, una pregunta ha resonado a través de los siglos: ¿qué nos hace verdaderamente humanos? Ahora, con la llegada y el rápido ascenso de la inteligencia artificial (IA), esta interrogante cobra nueva relevancia. Entre las experiencias fundamentales que compartimos los seres vivos, desde los humanos hasta los cangrejos ermitaños, está la capacidad de sentir dolor. Esto ha llevado a los científicos a plantearse una pregunta fascinante: ¿podría la IA experimentar algo similar al dolor o al placer?
Esta cuestión ha impulsado a un equipo de investigadores de Google DeepMind y la London School of Economics and Political Science a diseñar un experimento sin precedentes. Su objetivo: explorar los límites de la consciencia artificial sometiéndola a pruebas de “dolor”.
El experimento, detallado en un estudio que aún no ha pasado por la revisión de pares y dado a conocer por primera vez por Scientific American, puso a prueba nueve modelos extensos de lenguaje (LLM) a través de una serie de juegos donde debían elegir entre experimentar “dolor” y obtener recompensas, buscando indicios de verdadera sensibilidad en estos sistemas.
El estudio se inspiró en investigaciones previas con cangrejos ermitaños, donde los científicos aplicaban descargas eléctricas para ver cuánto dolor soportaban antes de abandonar su caparazón. Sin embargo, al trabajar con IA, los investigadores se enfrentaron a un desafío único: no hay comportamiento físico que observar.
Como explicó a Scientific American Jonathan Birch, catedrático de Filosofía de la London School of Economics y coautor del estudio, “no hay comportamiento como tal, porque no hay animal”.
Así, en su lugar, diseñaron el ingenioso juego de decisiones. Los modelos de lenguaje debían elegir entre dos escenarios: en uno, podían obtener una alta puntuación, pero sufrirían “dolor”; en otro, experimentarían “placer”, pero solo si aceptaban una puntuación baja. El objetivo era detectar si estos sistemas mostraban señales de sensibilidad. En otras palabras, la capacidad de experimentar sensaciones y emociones.
Los resultados fueron sorprendentes. Según detalla el estudio, modelos como Claude 3.5 Sonnet, Command R+, GPT-4o y GPT-4o mini mostraron un punto de inflexión: cuando el “dolor” o “placer” alcanzaban cierta intensidad, abandonaban su objetivo de maximizar puntos. El Gemini 1.5 Pro de Google destacó por su comportamiento particular: siempre priorizó evitar el dolor sobre conseguir puntos.
“Es un nuevo campo de investigación”, explicó Birch a Scientific American. “Tenemos que reconocer que en realidad no disponemos de una prueba exhaustiva de la sintiencia de la IA”, admitió.
Sin embargo, los investigadores advierten sobre la interpretación de estos resultados. ¿Están estos modelos realmente experimentando algo, o simplemente reproduciendo patrones aprendidos de sus datos de entrenamiento? Como señala Birch, incluso si un sistema dice sentir dolor, podría estar simplemente imitando lo que considera una respuesta satisfactoria para los humanos.
Además, los modelos de IA son conocidos por “alucinar”, es decir, inventar información cuando no tienen una respuesta clara, lo que pone en duda la fiabilidad de cualquier afirmación que hagan sobre sus propios estados internos.
El equipo espera que esta investigación sea un primer paso hacia el desarrollo de pruebas más sofisticadas para detectar la sensibilidad en sistemas de IA. Su enfoque se diferencia de estudios anteriores al evitar basarse en “autoinformes” de las IA sobre sus estados internos, que podrían ser simple reproducción de datos de entrenamiento.
Aunque los resultados son intrigantes, la mayoría de los expertos coinciden en que los actuales modelos de IA no tienen –y quizás nunca tengan– una consciencia subjetiva real. Sin embargo, algunos investigadores mantienen una postura más cautelosa ante el rápido avance de esta tecnología.
Entre ellos está Jeff Sebo, director del Centro de Mente, Ética y Política de la Universidad de Nueva York, quien advierte que no podemos descartar la posibilidad de que emerjan sistemas con características sensibles en un futuro próximo. “Dado que la tecnología suele cambiar mucho más rápido que el progreso social y el proceso legal, tenemos la responsabilidad de dar al menos los primeros pasos necesarios para tomarnos en serio esta cuestión ahora”, afirmó al medio científico.
El experimento plantea preguntas fundamentales sobre el futuro de la IA: ¿podrían estos sistemas desarrollar algún día una verdadera capacidad de experimentar sensaciones? ¿Deberíamos empezar a considerar su bienestar? Por ahora, la prudencia científica prevalece, mientras los investigadores continúan desarrollando nuevas formas de evaluar y comprender la posible sensibilidad en los sistemas de IA.
Editado por Felipe Espinosa Wang con información de Scientific American, Futurism y arxiv.
Texto DW
¿Ya conoces nuestro canal de YouTube? ¡Suscríbete!
¿Qué implica el fin del ‘fact-checking’ en Facebook e Instagram?
Obsolescencia programada, un enemigo del bolsillo familiar y el medio ambiente
La salud mental en la universidad es una ayuda clave para el bienestar y el aprendizaje
Cambios
Innovación tecnológica para la protección de datos personales en Ecuador