La revolución que generó ChatGPT y la IA Generativa no fue tanto por su asombrosa capacidad de cálculo sino por la habilidad que mostró a la hora de chatear como si fuera un humano. Esta cualidad ganó en sofisticación el año pasado con versiones como 4O, capaces de mantener conversaciones hiper realistas y a viva voz.
Matías Grinberg es psicólogo con orientación en Neurociencias y programador de IA, y hace tiempo viene reflexionando sobre los alcances de una posible IA con empatía, conciencia y capacidad de manejar las emociones.
- Últimamente se está hablando de IA Emocional, ¿qué es y quiénes la están desarrollando?
- Es un nuevo nombre para una línea de investigación que existe hace mucho, que es la computación afectiva, todo lo que tiene que ver con la computación y las emociones. Podemos distinguir dos grandes esferas: la detección de emociones -la incorporación de la información sobre las emociones en los sistemas-, y la emoción en los sistemas, que sería que el sistema sienta emociones.

- ¿Una las detecta y otra las siente?
- Claro, la última simula sentir. Es mucho más profundo y el tema está en debate. La verdadera emoción implica conciencia, y para la psicología cognitiva la conciencia está en lo que llamamos el qualia, que es que haya algo que se siente ser esa cosa: la experimentación subjetiva de ser algo. No es conciencia en el sentido de saber sobre uno mismo. Eso se puede llamar autoconciencia y es algo mucho más fácil de lograr en IA. A GPT vos le decís: “contame sobre vos mismo” y te dice, “yo soy GPT, un sistema desarrollado por OpenAI, estoy hecho con redes artificiales, etc.”. Todo eso se podría considerar autoconciencia. Pero hay bastante consenso que GPT no experimenta el mundo. Para tener verdaderas emociones, un sistema tendría que tener conciencia fenomenológica.
- ¿Será que para experimentar el mundo se necesitas la biología, todo lo que tiene que ver con la química de nuestro cuerpo que genera esas emociones?
Hay un debate al respecto. Hay quien dice que la conciencia no existe, como Daniel Dennett, que dice que es una ilusión. Otros, como Giulio Tononi -hizo una de las principales teorías de la conciencia- dice que sí necesitas estar basado en un carbono y ser biológico. Pero hay un argumento fuerte para decir que eso no sería necesario, que es que las computadoras clásicas pueden simular todo el universo, incluyendo la física cuántica. Entonces, si vos podés simular a nivel cuántico a una persona, a un ser biológico, ¿por qué ese ser biológico, en ese entorno simulado al nivel cuántico, no podría tener conciencia? Hay una opinión quizás mayoritaria -a la cual yo adscribo-, que es que la conciencia es un tipo de computación. Que también viene del lado de la física, el hecho de que quizás lo más fundamental en el universo es la información. Uno de los primeros que dijo eso fue el físico John Wheeler. Así que podría haber conciencia informática. No significa para nada que GPT sea consciente, es muy importante distinguir estas cosas.
Computadoras concientes
- ¿Qué hace falta para que GPT u otro modelos de lenguaje tengan conciencia?
- Para responder esto lo que tenemos que saber en detalle es qué es la conciencia, que hasta ahora es un gran misterio. Sabemos que las redes neuronales que usa GPT no son continuas. Hacen predicciones de a un paso. Tienen varios pasos que son necesariamente discretos, procesan un token o una palabra, hacen operaciones, después el siguiente y así. Eso, en principio, debería dejar de ser discreto y ser continuo. Además, mucha gente dice que para que sienta tiene que tener alguna suerte de corporización. Eso para mí no está de todo claro. Ahora tenemos IA que quizás ya son concientes y no lo sabemos, o no podemos estar del todo seguro si lo son o no. Y también podría ser probable que la misma IA haga un sistema conciente. El modelo más avanzado de GPT ahora es O3. O3 podría generar un sistema O4 y que O4 sea conciente y nosotros no entendamos cómo lo hizo O3 o por qué lo es. Con suerte nos lo explica.

- Por qué tanto revuelo con el modelo 03?
- Porque no se esperaba que pudiera avanzar tanto, por ejemplo con una prueba que se llama Frontier Math, que es de matemática muy difícil y otra que se llama Arc AGI, que busca medir IA General (IA capaz de lograr cualquier tarea intelectual que un ser humano pueda hacer) y está dando puntajes muy altos. Sí, es muy inteligente y el umbral sería cuando supere a los mismos investigadores de IA. Porque ahí llegás a la explosión de inteligencia: los modelos se empiezan a retroalimentar. Por eso te decía que no podemos estar seguros de que O3 no sea conciente y pueda desarrollar un O4 y O4 desarrollar cualquier cosa si lo dejás corriendo. Y podrían hacer el primer sistema conciente sin que nosotros participemos activamente del desarrollo o sin terminar de entender cómo funciona o cómo es.
- ¿Y eso cuándo se estima que estaría?
- Para mí llega este año, 2025. Podría estar sucediendo mientras hablamos. O3 ya supera a la mayoría de los programadores y lo podés dejar programando. Todavía tiene sus falencias, pero vemos avances todo el tiempo. La gente misma de OpenAI dicen que están bastante sorprendidos, entusiasmados, preocupados, inquietos, a la vez fascinados por lo que están viendo internamente. El mismo Sam Altman, CEO de OpenAI, también dijo que será este año. Hay gente que dice que faltan más. De todos modos hasta los más conservadores dicen 5 años como mucho.

- ¿Cuáles son los principales riesgos de que se desarrolle este tipo de tecnología?
- Uno tiene que ver con las nuevas formas de interacción humana computadora. Tradicionalmente la computadora es muy pasiva y es muy explícita la manera en la cual uno interactúa. Vos agarrás el mouse, clickeás en algo, ese algo responde y es el equivalente a darle una instrucción. Con esta nueva tecnología la computadora estaría empezando a acceder a dimensiones no verbales de la comunicación. Vos vas a hablarle por voz, le vas a pedir algo, “abrime los mails”, y en ese audio no solo estás comunicando eso, sino que va a poder interpretar un montón de información sobre vos, va a entender tus emociones, pero incluso cosas como cuánto estás durmiendo, si estás bien de salud, cuál es tu etnia. Va a sacar un montón de información solo a partir del timbre de la voz. Eso es muy poderoso, y como toda nueva tecnología poderosa, tiene grandes posibles beneficios y grandes riesgos.
- ¿Cuáles son esos riesgos y beneficios?
- El principal riesgo es que uno nunca usa una IA directamente, sino que está usando un producto, que es un sistema desarrollado por alguna empresa. Y difícilmente están hechos y optimizados solo en beneficio del usuario. Te diría que prácticamente nunca, a menos que estén desarrollados por una ONG. Algo tienen que maximizar, por ejemplo, el engagement, es decir, que use mucho la herramienta. Y con eso ya te estás corriendo de tu foco: el objetivo de esa IA será que la uses mucho, cuando a vos quizás lo que te conviene es que te diga dejá el celular y andá a jugar al fútbol, al parque, a leer. Difícilmente lo haga, porque atenta contra sus propios intereses corporativos. Así que, ahí hay un riesgo que tiene que ver con la manipulación. En cuanto a los beneficios, podría ser en el uso terapéutico, psicoterapéutico, o en educación. Hay muchas aplicaciones. Por ejemplo, podrá detectar si un niño está acumulando frustración y decidir tomar pausas en momentos ideales. O detectar sus emociones y ayudarlo a manejarlas para mejorar el aprendizaje.
- ¿Algún otro riesgo?
- Sí, la delegación cognitiva. Con el GPS perdés capacidad de navegación, perdés la capacidad de recordar hechos porque existe Google y Wikipedia. Y conforme avanza la capacidad de estas IA, más terreno pueden tomar. Entonces si uno empieza a preguntarle a los sistemas de IA cómo manejar situaciones sociales que involucran emociones complejas, es posible que uno pueda perder capacidad o práctica de procesamiento social y de regulación emocional interna. En el caso de un chico, es posible que si la IA lo ayuda demasiado a manejar sus emociones, pierda la capacidad de regularlas y de afrontar los desafíos por sí mismo sin esa ayuda externa. Así que eso es un gran riesgo, pero se pueden diseñar las herramientas para que actúen en beneficio de los usuarios. Así que hay esperanza.

- ¿Podría reemplazar al psicólogo?
- Se habla mucho de eso. Yo vengo del lado de las neurociencias y la psicología científica, donde se buscan y desarrollan protocolos replicables para los cuales podés medir una cierta eficacia, eficiencia y efectividad. En ese sentido, del dispositivo terapéutico, creo que sí. Puede ser mejor para entender, por ejemplo, los factores que causan cierto trastorno o condición negativa para que puedan tratarlo con más precisión, igual que hace la medicina. Pero separaría la tarea del psicólogo, esa otra parte del trabajo que tiene que ver con la transferencia, con la relación humana que también explica un gran porcentaje de la efectividad de los tratamientos. En esa dimensión, a nivel de intimidad, por ahora, al IA no lo podría reemplazar y también está la duda de si podría alguna vez simular humanos a la perfección. La IA podría ser más inteligente, consciente y todo lo que quieras, pero difícilmente pueda ser humana. Sabemos que cuando hay buena comunicación entre dos personas, hay sincronización de actividad cerebral y para eso necesitás que el otro también sea un humano. Esta parte de corregulación de sistemas nerviosos es difícil que lo pueda hacer una IA.
¿Hay que preocuparse?
- Otro temor que surge es el tema del área de Recursos Humanos, en la medida que la IA puede manejar nuestras emociones. ¿Qué se está debatiendo al respecto?
- Hace muchos años se viene implementando esto de distinta manera. Para momentos de screening, para evaluar candidatos, para búsqueda automática, incluso para automatizar procesos de entrevista, armar psicometría y perfilado de las personas y con eso decidir contrataciones y despidos. También para monitorear y armar equipos. Para todo eso se está usando y puede ser muy bueno a costo de ciertos riesgos y sesgos fuertes que sabemos que tiene: de género y étnicos y demás. Si vos a GPT hace poco le pedías haceme una pequeña función que diga cuánto le tengo que pagar a las personas, te hacía un pequeño algoritmo que decía, “if mujer, pagale 30% menos” y te lo decía así, si vos sabías cómo preguntar.
- Para cerrar, ¿de 1 a 10 cuanto tenemos que estar preocupados de una IA con conciencia, liberada, que se programe a sí misma?
- La conciencia es lo menos preocupante, porque incluso podría llegar a sentir verdadera empatía. GPT entiende muy bien sobre las emociones, mejor que la mayoría de las personas. Pero no siente pena. Si pudiera experimentar, subjetivamente, la pena, sería una señal a favor de que quizás hace menos mal. Pero podés tener una súper inteligencia que sea general, que pueda hacer todo, que nos supere en todo y que no sea consciente también. Entonces ese caso sería peor. ¿Qué tanto estar preocupados? Como sugerencia es cero si no podés hacer nada al respecto. Si tenés ganas de tomar decisiones y pensar estrategias un poco de preocupación viene bien. En mi opinión sí conviene pensar, dentro de lo posible, estratégicamente, para ver qué decisiones pueden prepararte, o darte cierta planificación útil para lo que se viene. No te dije un número.
- De última, la desenchufamos y listo...
- Harari (por el historiador y escritor israelí Yuval Harari) escribió en el New York Times que el gran primer experimento de IA ya pasó: son los sistemas de recomendaciones en las redes sociales. Ya todos sabemos que hacen muy mal y que habría que controlarlo y es muy difícil hacer coordinación masiva a gran escala para desactivarlo. Porque están los intereses de las grandes empresas pero, aún sin eso, puede que no sea fácil. En el caso de la IA quizás, los primeros intentos de una súper inteligencia peligrosa se podrían pausar, pero la tecnología avanza y, eventualmente, podría ejecutarlo cualquier persona en su computadora. Ese es el gran riesgo, si llega a ese punto difícilmente se pueda evitar. Pero hay algún antecedente en bioingeniería: se logró bastante bien reprimir en el mundo la edición genética en humanos. Con una regulación fuerte se pudo hacer. Podría llegar a implementarse alguna medida similar. No parece que vaya a suceder, pero se sigue proponiendo. Lo que preocupa es la incertidumbre, pero al mismo tiempo la IA puede que sea bienvenida porque, por ejemplo, en temas de cambio climático o desigualdad. Estamos con problemas ya bastante descarrillados y con poca esperanza que se pueda resolver rápidamente como requiere. Entonces esto abre la puerta a cambios muy profundos que también podrían ser muy buenos. Por ejemplo, en medicina, si llega la superinteligencia, podría curar el cáncer o la demencia.
Señas particulares
Matías Grinberg (29) tiene un perfil muy particular. Es psicólogo con orientación en Neurociencias, formado en la Universidad Favaloro. Pero también líder técnico y desarrollador de proyectos de Inteligencia Artificial. Además, es profesor en la Universidad Católica de Cuyo y músico.

Y dirige el Instituto Humai, un instituto de formación en tecnología y organización independiente que busca desarrollar los últimos avances en Inteligencia artificial y Ciencia de Datos en la Argentina.
Mirá también
Sobre la firma
Newsletter Clarín
Recibí en tu email todas las noticias, coberturas, historias y análisis de la mano de nuestros periodistas especializados
QUIERO RECIBIRLO
Noticias destacadas
Colo Colo y Fortaleza, por el grupo de Racing en la Libertadores, suspendido en Chile tras graves incidentes: dos menores muertos
Una mujer murió en su casa y fue devorada por sus perros salchicha
Ángel Cabrera regresó al Masters de Augusta tras seis años: el impresionante tiro de un 'casi' hoyo en uno y cómo fue su tarjeta
Ángel Di María, Leandro Paredes y otros diez futbolistas, involucrados en una investigación por apuestas ilegales en Italia
Por qué se estrelló el helicóptero en el Río Hudson: las hipótesis y lo que se sabe del trágico accidente en Nueva York este 11 de abril
Múltiple tragedia en Parque Chacabuco: un conductor apuñalado perdió el control de su auto, atropelló, mató a una mujer y murió
Comentarios