Un equipo de científicos permitió que varias inteligencias artificiales se interrumpieran entre sí y, contra todo pronóstico, empezaron a razonar mejor

Compartir

Las conversaciones entre inteligencias artificiales suelen seguir reglas rígidas y previsibles. Un nuevo estudio explora qué ocurre cuando esas normas cambian y las máquinas empiezan a interactuar de una forma mucho más parecida a la de las personas.

Fuente: ChatGPT

Eugenio Manuel Fernández Aguilar


Creado:


Actualizado:

Los sistemas de inteligencia artificial que conversan entre sí suelen funcionar de una forma sorprendentemente rígida. Cada agente espera su turno, genera una respuesta completa y solo entonces interviene el siguiente. Este esquema ordenado resulta fácil de programar y controlar, pero también se aleja bastante de cómo se desarrollan las conversaciones humanas reales, donde las interrupciones, los silencios y los cambios espontáneos de turno forman parte del flujo natural del diálogo.

Un grupo de investigadores japoneses decidió examinar qué ocurriría si ese comportamiento más humano se introdujera en sistemas de inteligencia artificial que debaten entre sí. El estudio, presentado por científicos de la University of Electro-Communications y del National Institute of Advanced Industrial Science and Technology, propone un nuevo marco de debate para agentes basados en grandes modelos de lenguaje. La idea consiste en permitir que la dinámica de conversación sea más flexible y menos mecánica, incorporando rasgos de personalidad y decisiones espontáneas sobre cuándo intervenir.

Cuando las máquinas debaten entre sí

En los últimos años han aparecido sistemas de inteligencia artificial diseñados para trabajar en grupo mediante conversaciones estructuradas. En estos entornos, varios agentes analizan una pregunta o un problema, intercambian argumentos y finalmente generan una respuesta conjunta. Este enfoque, conocido como sistemas multiagente, se utiliza para mejorar la capacidad de razonamiento de los modelos de lenguaje y reducir errores.

En la mayoría de estos sistemas, sin embargo, la conversación sigue un patrón extremadamente ordenado. Cada agente habla en un turno previamente asignado y produce una respuesta completa antes de que otro pueda intervenir. Este mecanismo facilita la programación, pero también introduce una limitación importante: las interacciones carecen de la espontaneidad típica de las conversaciones humanas.

Los investigadores detrás del nuevo trabajo partieron de esa observación. Según explican en el artículo científico, “los sistemas multiagente actuales suelen percibirse como artificiales porque carecen de la dinámica caótica y en tiempo real de las conversaciones humanas”. Esa diferencia llevó al equipo a plantear una pregunta sencilla pero relevante: si las máquinas discutieran de una forma más parecida a los humanos, ¿podrían tomar mejores decisiones colectivas?

Para explorar esta posibilidad, el equipo diseñó un nuevo marco de debate en el que varios agentes de inteligencia artificial intercambian argumentos con mayor libertad. En lugar de limitarse a turnos estrictos, los agentes pueden decidir si intervenir inmediatamente, esperar o incluso permanecer en silencio cuando no tienen nada relevante que aportar.

Los agentes de IA debaten de manera más efectiva cuando se les dan personalidades y la capacidad de interrumpir. Fuente: Yuichi Sei

Un experimento con personalidades artificiales

El sistema propuesto introduce un elemento poco habitual en este tipo de arquitecturas: rasgos de personalidad inspirados en la psicología humana. Cada agente recibe características derivadas del conocido modelo de los cinco grandes rasgos de personalidad —apertura, responsabilidad, extraversión, amabilidad y neuroticismo—, lo que influye en su forma de participar en la conversación.

Estos rasgos no se utilizan para simular emociones humanas en sentido estricto, sino para modificar el comportamiento del agente durante el debate. Algunos agentes tienden a intervenir con mayor frecuencia, mientras que otros adoptan una actitud más reflexiva y prefieren escuchar antes de hablar. El objetivo es generar una interacción más variada y menos predecible entre los participantes.

Para hacer posible esta dinámica, los investigadores también modificaron el modo en que los modelos procesan las respuestas. En lugar de generar un mensaje completo antes de enviarlo, el sistema analiza la conversación frase a frase, lo que permite reaccionar a lo que dicen los demás agentes en tiempo real.

Este enfoque introduce un mecanismo adicional denominado “puntuación de urgencia”, que determina cuándo un agente considera necesario intervenir. Si el sistema detecta un posible error o un argumento importante, el valor de urgencia aumenta y el agente puede tomar la palabra incluso si no era su turno. En cambio, cuando el valor es bajo, el agente puede optar por no intervenir y evitar así saturar la conversación con aportaciones redundantes.

Un resultado inesperado en las pruebas de razonamiento

Para evaluar el comportamiento del sistema, los investigadores recurrieron a un conjunto de pruebas muy utilizado en investigación en inteligencia artificial: el benchmark MMLU (Massive Multitask Language Understanding). Este conjunto de preguntas abarca numerosas disciplinas, desde ciencias naturales hasta humanidades, y se utiliza para medir la capacidad de razonamiento de los modelos de lenguaje.

Los experimentos compararon tres configuraciones distintas de debate entre agentes. En la primera, los participantes seguían un orden fijo de intervención. En la segunda, el orden era dinámico, aunque cada agente seguía esperando su turno. En la tercera, además de ese orden dinámico, se permitían interrupciones cuando el sistema detectaba una alta urgencia para intervenir.

Los resultados mostraron diferencias claras entre los tres modelos. Cuando un agente comenzaba la discusión con una respuesta incorrecta, el sistema con turnos estrictos alcanzaba una precisión del 68,7 %, mientras que el modelo con interrupciones elevaba ese valor hasta el 79,2 %. En escenarios aún más complejos, donde dos agentes empezaban con respuestas equivocadas, la precisión también mejoraba de forma notable.

Estos resultados sugieren que la dinámica de conversación influye directamente en la calidad del razonamiento colectivo. Cuando los agentes pueden reaccionar de inmediato ante un error o un argumento relevante, el grupo corrige antes los fallos y llega con mayor rapidez a una conclusión adecuada. En otras palabras, el aparente desorden de las interrupciones puede favorecer una discusión más eficiente.

Fuente: ChatGPT

Una nueva forma de diseñar inteligencia artificial colaborativa

El trabajo también plantea implicaciones interesantes para el diseño de futuros sistemas de inteligencia artificial. Muchas aplicaciones emergentes —desde asistentes virtuales hasta sistemas de análisis científico— podrían beneficiarse de múltiples agentes especializados que colaboran para resolver problemas complejos.

En ese contexto, el estudio sugiere que la interacción entre agentes no debería limitarse a turnos rígidos y completamente predecibles. Al introducir elementos propios de la comunicación humana, como la interrupción estratégica o el silencio deliberado, los sistemas pueden adaptarse mejor al desarrollo de la conversación.

Además, la presencia de rasgos de personalidad artificiales podría ayudar a distribuir roles dentro de un grupo de agentes. Algunos podrían especializarse en detectar errores, otros en evaluar argumentos y otros en sintetizar conclusiones, generando así dinámicas de debate más ricas y productivas.

Los autores señalan que el siguiente paso consiste en aplicar este marco a tareas más complejas, especialmente en contextos de colaboración creativa o toma de decisiones colectivas. Según indican en el trabajo, “en el futuro los agentes de inteligencia artificial interactuarán cada vez más entre sí y con los humanos en entornos colaborativos”, lo que hace especialmente relevante comprender cómo influyen las dinámicas sociales en su comportamiento.

Read More

Leer más

Mas noticias