¿Alguna vez has consultado a una inteligencia artificial sobre cómo resolver un conflicto en tu equipo? ¿Has pedido a Chat GPT que te ayude a facilitar una reunión difícil? ¿O a resolver un conflicto o a interpretar el silencio incómodo de un grupo? Si tu respuesta es sí, sigue probando suerte.
Esta escena se repite cada vez más: personas con puestos de liderazgo, profesionales de la docencia, de la consultoría y miembros de equipos recurren a la IA en busca de respuestas rápidas. En busca de consejos o incluso diagnósticos sobre el clima grupal de los grupos o equipos que acompañan. Entendemos la necesidad de respuestas, máxime cuando tratamos de salir o solventar una situación difícil. La pregunta es si sabemos qué puede y qué no puede hacer la IA por los mortales en materia de grupos. ¿Dónde están sus límites? y ¿por qué sigue siendo insustituible el arte de la facilitación en algunos -por no decir casi todos- los procesos humanos grupales?
En este artículo te invitamos a una reflexión crítica y didáctica sobre los límites de la inteligencia artificial frente a la facilitación de grupos. Analizamos los límites de la IA en contextos humanos complejos, los riesgos de confiar ciegamente en sus respuestas y el valor añadido de la facilitación
SI PREGUNTAS A la IA sobre tus problemas de equipo…
… siento decirte que igual no deberías de prestarle mucho rédito a sus respuestas. Esta conclusión parte de una reflexión que no nace ahora por qué sí y porque esté de moda hablar de IA. Nosotras mismas llevamos desde la pandemia explorando las bondades de la tecnología para la facilitación. Tanto que en abril de 2023 incluso nos fuimos al META World Congress de Madrid para explorar las opciones que el metaverso, la realidad virtual y la inteligencia artificial nos ofrecían como facilitadoras de procesos grupales. Y spoiler: aunque hemos digitalizado mucho en nuestros procesos, seguimos gastando muchos post-its y poniendo sillas en círculo.
IA y facilitación de grupos: promesas, realidades y preguntas incómodas
La inteligencia artificial ha dejado de ser una promesa futurista para convertirse en una herramienta cotidiana. Asistentes virtuales, algoritmos que recomiendan películas, chatbots que resuelven dudas administrativas, y un sin fin de aplicaciones. La IA está presente en casi todos los ámbitos de nuestra vida. En el mundo de la gestión y el acompañamiento de equipos la tentación de delegar en la IA tareas como la organización de reuniones, la resolución de conflictos o la interpretación de dinámicas grupales es cada vez mayor. Y preocupante a la vez.
¿Por qué? Básicamente porque no cuestionamos con el suficiente criterio las limitaciones de esta tecnología, muy útil para algunas cuestiones pero no tanto para otras. ¿Puede una IA captar las sutilezas de la comunicación humana, interpretar dobles señales, detectar estructuras informales de poder o gestionar emociones complejas? ¿Puede sustituir la presencia, la escucha profunda y la intervención ética de una facilitadora experimentada cuando algo ya complejo de por sí se complica ?
La respuesta, como veremos, es mucho más compleja de lo que parece. Y, sobre todo, nos invita a repensar el valor de la facilitación humana en un mundo que aspira a estar cada vez más automatizado.
¿Qué no puede hacer la IA en la facilitación de grupos? Una visión crítica
1. Interpretar dobles señales y la ambigüedad comunicativa
Uno de los grandes retos de la facilitación es la interpretación de la ambigüedad y de las dobles señales -contradictorias por supuesto- que emergen en la comunicación humana. Los grupos, por naturaleza, son espacios de ambivalencia: lo que se dice no siempre es lo que se piensa, y lo que se calla puede ser tan relevante como lo que se expresa abiertamente. Ya sabéis, me refiero a todo lo que se puede decir en un silencio…
La IA, incluso en sus versiones más avanzadas, sigue teniendo dificultades para captar estos matices. Aunque los modelos de procesamiento del lenguaje natural han mejorado en la detección de emociones y en el análisis semántico, su comprensión sigue siendo estadística y basada en patrones, no en una experiencia vivida del contexto. Por ejemplo, ante una frase ambigua o una ironía, la IA puede acertar si ha sido entrenada con suficientes ejemplos similares, pero no comprende realmente el trasfondo cultural, la historia del grupo o las intenciones ocultas detrás de las palabras.
En la facilitación de grupos, esta limitación es crucial. Quienes facilitamos podemos leer entre líneas, captar silencios significativos, detectar tensiones no verbalizadas y adaptar nuestras intervenciones en tiempo real. La IA, por el contrario, solo puede inferir probabilidades a partir de datos previos, sin acceso a la riqueza del aquí y ahora grupal.
2. Detección y gestión de emociones complejas en grupos
La inteligencia artificial emocional (IAE) ha avanzado notablemente en el reconocimiento de emociones básicas a través del análisis de texto, voz o imágenes. Sin embargo, la comprensión profunda de las emociones humanas -especialmente en contextos grupales- sigue siendo un territorio vedado para las máquinas.
La IAE ya puede detectar patrones de tristeza, alegría o enfado, pero no puede experimentar ni comprender la complejidad de las emociones humanas en su contexto social y cultural. La empatía artificial es, en el mejor de los casos, una simulación estadística: la IA responde con frases como «entiendo cómo te sientes», pero no siente ni comprende realmente el dolor, la alegría o la ambivalencia de las personas.
Además, la gestión de emociones en grupos requiere habilidades como la contención, la validación, la creación de espacios seguros y una intervención alejada de la pretensión de salvar a nadie ante situaciones de vulnerabilidad. Estas competencias, profundamente humanas, no pueden ser replicadas por algoritmos, por muy sofisticados que sean.
3. Identificación de estructuras informales de poder y estatus
En todo grupo existen estructuras formales e informales de poder, estatus y liderazgo. Ya sabes si nos has leído que estas dinámicas son casi siempre invisibles, y sin embargo influyen notablemente en la toma de decisiones, la participación y la resolución de conflictos. Un buen facilitador/a es capaz de detectar quién tiene influencia real en el grupo, quién ejerce poder desde la sombra, quién es escuchado y quién es ignorado, más allá de los roles explícitos.
La IA, por su parte, puede analizar patrones de comunicación, frecuencia de intervenciones o redes de interacción, pero carece de la sensibilidad para captar las sutilezas del poder informal, las alianzas tácitas que se dan en la red de afinidad o las micro dinámicas de exclusión e inclusión. Además, los algoritmos pueden reproducir y amplificar sesgos existentes si se entrenan con datos históricos que reflejan desigualdades de género, raza o estatus. Lo veremos más adelante.
En la facilitación de procesos grupales, la capacidad de leer el «campo» -ese entramado invisible de relaciones, emociones y tensiones- es básico para intervenir de manera efectiva y también ética. La IA, por ahora, solo puede ofrecer mapas superficiales, sin acceso a la profundidad relacional que caracteriza a los grupos humanos como sistemas vivos y por ende complejos
4. Gestión de conflictos y negociación en contextos humanos complejos
La resolución de conflictos es uno de los terrenos donde más se ha intentado aplicar la IA, desde chatbots mediadores hasta plataformas de negociación automatizada. Me entra la risa ante el nivel de ingenuidad de quiénes creyeron en la remota posibilidad de éxito de estas tecnologías. Tales pruebas sólo demuestran la falta de conocimiento en materia de conflictos de quiénes lo intentaron desarrollar. ¿Por qué digo esto?
Porque los conflictos humanos son mucho más que problemas lógicos a resolver. Implican emociones que todavía las IAE no pueden identificar, historias compartidas que no pueden ni intuir y heridas pasadas que no pueden acompañar ni sostener. Los conflictos también implican valores en juego y, la mayor parte de veces, la necesidad de reconocimiento y reparación. Todo ello en contextos que conllevan fuentes de tensión añadidas al plano interpersonal si miramos los conflictos desde una perspectiva integral.
La IA puede sugerir soluciones basadas en datos, proponer acuerdos o identificar patrones de conflicto, pero no puede sustituir la presencia, la escucha activa y la capacidad para generar un espacio seguro que aportan un facilitador/a. En contextos de alta complejidad como los conflictos, la intervención humana sigue siendo insustituible.
5. Sesgos, equidad y riesgos de confiar ciegamente en la IA
Uno de los riesgos más documentados en el uso de la IA en contextos humanos es la reproducción y amplificación de sesgos existentes. Sabemos lo sesgados que están los datos y la información de la que beben las IAs. Como resultado, éstas pueden discriminar a mujeres en procesos de selección, identificar erróneamente a personas de color en sistemas de reconocimiento facial o perpetuar estereotipos en la asignación de roles grupales. Esto está más que identificado en procesos de selección y sin embargo sigue pasando.
Además, la tendencia a confiar ciegamente en la «autoridad» de la IA -el llamado sesgo de automatización- puede llevar a decisiones injustas, a la pérdida de pensamiento crítico y a la delegación irresponsable de la responsabilidad ética.
Lo humano no se automatiza, o no se debería
Con todo esto la pregunta a hacernos ya no es si la IA puede ayudarnos en la gestión de los asuntos y relaciones humanas, pues son bastantes evidentes sus limitaciones para hacerlo todavía. La cuestión es qué dejamos de ver las personas cuando le pedimos a la IA que nos indique el camino a seguir ante una determinada situación de equipo. Y aquí me mostraré tajante:
Cuando delegamos en una máquina la interpretación de un conflicto, la lectura de un silencio o la gestión de una tensión emocional, no sólo estamos sobreestimando sus capacidades: estamos subestimando la complejidad de lo humano.
No lo decimos sólo nosotras. Los principales marcos éticos internacionales llevan años advirtiendo de ello. La UNESCO, en su Recomendación sobre la Ética de la Inteligencia Artificial (2021), señala explícitamente que la IA no debe utilizarse para sustituir procesos que requieren juicio humano, especialmente en ámbitos sensibles donde hay vulnerabilidad, poder o impacto emocional. En la Ley de IA de la UE la Comisión Europea clasifica como “alto riesgo” cualquier sistema que pueda influir en decisiones que afecten a derechos fundamentales, relaciones laborales o bienestar psicológico. Y organismos como el Consejo de Europa insisten en que la IA no puede asumir funciones que impliquen acompañamiento emocional, mediación o intervención en dinámicas humanas complejas.
Es decir, los propios marcos regulatorios reconocen que hay límites que no deben cruzarse. No porque la tecnología sea mala, sino porque no está diseñada para comprender la profundidad de nuestras relaciones, nuestras heridas o nuestras tensiones colectivas cuando ni siquiera la ciencia ha podido explicar muchas de ellas.
La IA puede ser una herramienta útil para ordenar ideas, proponer dinámicas o ayudarnos a pensar alternativas. Pero no puede ni debe ocupar el lugar de quien acompaña procesos donde hay vulnerabilidad, poder, historia compartida, heridas abiertas o decisiones que afectan a personas reales. Confiar ciegamente en sus respuestas, especialmente en asuntos relacionales, es una forma de desresponsabilizarnos ante la responsabilidad de acompañar personas, en grupo en este caso. Y eso, en tiempos de automatización acelerada, es un riesgo que no podemos permitirnos.
La facilitación de procesos grupales: algo profundamente humano
La facilitación requiere un trabajo ad hoc, casi “artesanal” para cada grupo, cada momento y cada situación. No hay dos procesos iguales, igual que no hay dos grupos iguales. Quiénes facilitamos necesitamos saber cuándo intervenir y cuándo callar, cuándo abrir espacio y cuándo protegerlo, cuándo sostener una tensión y cuándo ayudar a liberarla. Y eso no se programa, se entrena pasando muchas horas acompañando procesos reales, con personas y equipos reales, con sus historias, sus dolores, sus tensiones, sus resistencias y sus posibilidades.
Así, y aún ahora que abundan los artículos de todas las profesiones que desaparecerán con la llegada de la IA, yo me arriesgo a decir, sin miedo ni grandilocuencia, que la facilitación será una de esas profesiones que sobrevivirán a la automatización. No porque sea inmune a la tecnología, sino porque pertenece a ese territorio donde lo humano no puede ser abstraído ni comprimido en un patrón, por mucho que nuestras relaciones estén definidas por múltiples patrones. Igual que en la especia de Arrakis solo puede ser custodiada por quienes conocen Dune y su naturaleza profunda, lo humano necesita ser cuidado por humanos. No hay atajos.
Si has leído hasta aquí ya sabes de todos los límites de la inteligencia artificial frente a la facilitación de grupos. Si lideras proyectos o equipos, o si formas parte de un grupo que quiere trabajar mejor, ya deberías de intuir que contar con una persona facilitadora formada y sensata no es un lujo para según qué circunstancias, sino que es una condición para que el proceso sea seguro, transformador y efectivo.
Y si eres de las personas que consultan a la IA para resolver los marrones de tu equipo, quizá deberías de pensar en dos cosas:
- si quieres seguir usando la IA para estos menesteres con todo lo que os hemos contado, y
- si no sería mejor idea adquirir herramientas para poder acompañar equipos y procesos para poder hacerlo con mayor criterio del que te ofrece la AI. (En tal caso recuerda que llevamos años formando a facilitadores y facilitadoras. Y que es bastante probable que te puedas sumar a alguna de nuestras propuestas formativas)
