Vés al contingut
Portada » Blog » Límits de la intel·ligència artificial enfront de la facilitació de grups

Límits de la intel·ligència artificial enfront de la facilitació de grups

Límites IA facilitación

Alguna vegada has consultat a una intel·ligència artificial sobre com resoldre un conflicte en el teu equip? Has demanat a Xat GPT que t’ajudi a facilitar una reunió difícil? O a resoldre un conflicte o a interpretar el silenci incòmode d’un grup? Si la teva resposta és sí, continua provant sort.

Aquesta escena es repeteix cada vegada més: persones en càrrecs de lideratge, professionals de la docència, de la consultoria i membres d’equips recorren a la IA a la recerca de respostes ràpides. A la recerca de consells o fins i tot diagnòstics sobre el clima grupal dels grups o equips que acompanyen. Entenem la necessitat de respostes, màximament quan tractem de sortir o solucionar una situació difícil. La pregunta és si sabem què pot i què no pot fer la IA pels mortals en matèria de grups. On estan els seus límits? i per què continua sent insubstituïble l’art de la facilitació en alguns -per no dir gairebé tots- els processos humans grupals?

En aquest article et convidem a una reflexió crítica i didàctica sobre els límits de la intel·ligència artificial enfront de la facilitació de grups. Analitzem els límits de la IA en contextos humans complexos, els riscos de confiar cegament en les seves respostes i el valor afegit de la facilitació

SI PREGUNTES A la IA sobre els teus problemes d’equip…

… sento dir-te que igual no hauries de donar-li molt rèdit a les seves respostes. Aquesta conclusió parteix d’una reflexió que no neix ara per què sí i perquè estigui de moda parlar de IA. Nosaltres mateixes portem des de la pandèmia explorant les bondats de la tecnologia per a la facilitació. Tant que a l’abril de 2023 fins i tot ens vam anar al META World Congress de Madrid per a explorar les opcions que el metavers, la realitat virtual i la intel·ligència artificial ens oferien com a facilitadores de processos grupals. I spoiler: encara que hem digitalitzat molt els nostres processos, continuem gastant molts post-its i posant cadires en cercle.

IA i la facilitació de grups: promeses, realitats i preguntes incòmodes

La intel·ligència artificial ha deixat de ser una promesa futurista per a convertir-se en una eina quotidiana. Assistents virtuals, algoritmes que recomanen pel·lícules, bots que resolen dubtes administratius, i un sense fi d’aplicacions. La IA està present en gairebé tots els àmbits de la nostra vida. En el món de la gestió i l’acompanyament d’equips la temptació de delegar en la IA tasques com l’organització de reunions, la resolució de conflictes o la interpretació de dinàmiques grupals és cada vegada major. I preocupant alhora.

Per què? Bàsicament perquè no qüestionem amb el suficient criteri les limitacions d’aquesta tecnologia, molt útil per a algunes qüestions però no tant per a unes altres. Pot una IA captar les subtileses de la comunicació humana, interpretar dobles senyals, detectar estructures informals de poder o gestionar emocions complexes? Pot substituir la presència, l’escolta profunda i la intervenció ètica d’una facilitadora experimentada quan una cosa ja complexa de per si mateix es complica?

La resposta, com veurem, és molt més complexa del que sembla. I, sobretot, ens convida a repensar el valor de la facilitació humana en un món que aspira a estar cada vegada més automatitzat.

Què no pot fer la IA en la facilitació de grups? Una visió crítica

1. Interpretar dobles senyals i l’ambigüitat comunicativa

Un dels grans reptes de la facilitació és la interpretació de l’ambigüitat i de les dobles senyals -contradictòris per descomptat- que emergeixen en la comunicació humana. Els grups, per naturalesa, són espais d’ambivalència: el que es diu no sempre és el que es pensa, i el que calla pot ser tan rellevant com el que s’expressa obertament. Ja sabeu, em refereixo a tot el que es pot dir en un silenci…

La IA, fins i tot en les seves versions més avançades, continua tenint dificultats per a captar aquests matisos. Encara que els models de processament del llenguatge natural han millorat en la detecció d’emocions i en l’anàlisi semàntica, la seva comprensió continua sent estadística i basada en patrons, no en una experiència viscuda del context. Per exemple, davant una frase ambigua o una ironia, la IA pot encertar si ha estat entrenada amb suficients exemples similars, però no comprèn realment el rerefons cultural, la història del grup o les intencions ocultes darrere de les paraules.

En la facilitació de grups, aquesta limitació és crucial. Les persones que facilitem podem llegir entre línies, captar silencis significatius, detectar tensions no verbalitzades i adaptar les nostres intervencions en temps real. La IA, per contra, només pot inferir probabilitats a partir de dades prèvies, sense accés a la riquesa de l’aquí i ara grupal.

2. Detecció i gestió d’emocions complexes en grups

La intel·ligència artificial emocional (IAE) ha avançat notablement en el reconeixement d’emocions bàsiques a través de l’anàlisi de text, veu o imatges. No obstant això, la comprensió profunda de les emocions humanes -especialment en contextos grupals- continua sent un territori vedat per a les màquines.

L’IAE ja pot detectar patrons de tristesa, alegria o empipament, però no pot experimentar ni comprendre la complexitat de les emocions humanes en el seu context social i cultural. L’empatia artificial és, en el millor dels casos, una simulació estadística: la IA respon amb frases com “entenc com et sents”, però no sent ni comprèn realment el dolor, l’alegria o l’ambivalència de les persones.

A més, la gestió d’emocions en grups requereix habilitats com la contenció, la validació, la creació d’espais segurs i una intervenció allunyada de la pretensió de salvar a ningú davant situacions de vulnerabilitat. Aquestes competències, profundament humanes, no poden ser replicades per algorismes, per molt sofisticats que siguin.

3. Identificació d’estructures informals de poder i estatus

En tot grup existeixen estructures formals i informals de poder, estatus i lideratge. Ja saps si ens has llegit que aquestes dinàmiques són gairebé sempre invisibles, i no obstant això influeixen notablement en la presa de decisions, la participació i la resolució de conflictes. Un bon facilitador/a és capaç de detectar qui té influència real en el grup, qui exerceix poder des de l’ombra, qui és escoltat i qui és ignorat, més enllà dels rols explícits.

La IA, per part seva, pot analitzar patrons de comunicació, freqüència d’intervencions o xarxes d’interacció, però li manca la sensibilitat per a captar les subtileses del poder informal, les aliances tàcites que es donen en la xarxa d’afinitat o les micro dinàmiques d’exclusió i inclusió. A més, els algoritmes poden reproduir i amplificar biaixos existents si s’entrenen amb dades històriques que reflecteixen desigualtats de gènere, raça o estatus. Ho veurem més endavant.

En la facilitació de processos grupals, la capacitat de llegir el “camp” -aquest entramat invisible de relacions, emocions i tensions- és bàsic per a intervenir de manera efectiva i també ètica. La IA, ara com ara, només pot oferir mapes superficials, sense accés a la profunditat relacional que caracteritza als grups humans com a sistemes vius i per tant complexos.

4. Gestió de conflictes i negociació en contextos humans complexos

La resolució de conflictes és un dels terrenys on més s’ha intentat aplicar la IA, des de bots mediadors fins a plataformes de negociació automatitzada. M’entra el riure davant el nivell d’ingenuïtat de qui va creure en la remota possibilitat d’èxit d’aquestes tecnologies. Tals proves només demostren la falta de coneixement en matèria de conflictes de qui ho van intentar desenvolupar. Per què dic això?

Perquè els conflictes humans són molt més que problemes lògics a resoldre. Impliquen emocions que encara les IAE no poden identificar, històries compartides que no poden ni intuir i ferides passades que no poden acompanyar ni sostenir. Els conflictes també impliquen valors en joc i, la major part de vegades, la necessitat de reconeixement i reparació. Tot això en contextos que comporten fonts de tensió afegides al pla interpersonal si mirem els conflictes des d’una perspectiva integral.

La IA pot suggerir solucions basades en dades, proposar acords o identificar patrons de conflicte, però no pot substituir la presència, l’escolta activa i la capacitat per a generar un espai segur que aporten un facilitador/a. En contextos d’alta complexitat com els conflictes, la intervenció humana continua sent insubstituïble.

5. Biaixos, equitat i riscos de confiar cegament en la IA

Un dels riscos més documentats en l’ús de la IA en contextos humans és la reproducció i amplificació de biaixos existents. Sabem l’esbiaixades que estan les dades i la informació de la qual beuen les IAs. Com a resultat, aquestes poden discriminar dones en processos de selecció, identificar erròniament a persones de color en sistemes de reconeixement facial o perpetuar estereotips en l’assignació de rols grupals. Això està més que identificat en processos de selecció i tanmateix continua passant.

A més, la tendència a confiar cegament en l'”autoritat” de la IA -l’anomenat biaix d’automatització- pot portar a decisions injustes, a la pèrdua de pensament crític i a la delegació irresponsable de la responsabilitat ètica.

Allò humà no s’hauria d’automatitzar

Amb tot això la pregunta a fer-nos ja no és si la IA pot ajudar-nos en la gestió dels assumptes i relacions humanes, perquè són bastantes evidents les seves limitacions per a fer-ho encara. La qüestió és què deixem de veure les persones quan li demanem a la IA que ens indiqui el camí a seguir davant una determinada situació d’equip. I aquí em mostraré categòrica:

Quan deleguem en una màquina la interpretació d’un conflicte, la lectura d’un silenci o la gestió d’una tensió emocional, no sols estem sobreestimant les seves capacitats: estem subestimant la complexitat de l’humà.

No ho diem només nosaltres. Els principals marcs ètics internacionals porten anys advertint d’això. La UNESCO, en la seva Recomanació sobre l’Ètica de la Intel·ligència Artificial (2021), assenyala explícitament que la IA no ha d’utilitzar-se per a substituir processos que requereixen judici humà, especialment en àmbits sensibles on hi ha vulnerabilitat, poder o impacte emocional. En la Lley de IA de la UE la Comissió Europea classifica com a “alt risc” qualsevol sistema que pugui influir en decisions que afectin drets fonamentals, relacions laborals o benestar psicològic. I organismes com el Consell d’Europa insisteixen que la IA no pot assumir funcions que impliquin acompanyament emocional, mediació o intervenció en dinàmiques humanes complexes.

És a dir, els propis marcs reguladors reconeixen que hi ha límits que no han de creuar-se. No perquè la tecnologia sigui dolenta, sinó perquè no està dissenyada per a comprendre la profunditat de les nostres relacions, les nostres ferides o les nostres tensions col·lectives quan ni tan sols la ciència ha pogut explicar moltes d’elles.

La IA pot ser una eina útil per a ordenar idees, proposar dinàmiques o ajudar-nos a pensar alternatives. Però no pot ni ha d’ocupar el lloc de qui acompanya processos on hi ha vulnerabilitat, poder, història compartida, ferides obertes o decisions que afecten persones reals. Confiar cegament en les seves respostes, especialment en assumptes relacionals, és una forma de desresponsabilitzar-nos davant la responsabilitat d’acompanyar persones, en grup en aquest cas. I això, en temps d’automatització accelerada, és un risc que no podem permetre’ns.

La facilitació de processos grupals: una cosa profundament humana

La facilitació requereix un treball ad hoc, gairebé “artesanal” per a cada grup, cada moment i cada situació. No hi ha dos processos iguals, igual que no hi ha dos grups iguals. Qui facilitem necessitem saber quan intervenir i quan callar, quan obrir espai i quan protegir-ho, quan sostenir una tensió i quan ajudar a alliberar-la. I això no es programa, s’entrena passant moltes hores acompanyant processos reals, amb persones i equips reals, amb les seves històries, els seus dolors, les seves tensions, les seves resistències i les seves possibilitats.

Així, i encara ara que abunden els articles de totes les professions que desapareixeran amb l’arribada de la IA, jo m’arrisco a dir, sense por ni grandiloqüència, que la facilitació serà una d’aquestes professions que sobreviuran a l’automatització. No perquè sigui immune a la tecnologia, sinó perquè pertany a aquest territori on l’humà no pot ser abstret ni comprimit en un patró, per molt que les nostres relacions estiguin definides per múltiples patrons. Igual que en l’espècia de Arrakis només pot ser custodiada pels qui coneixen Dune i la seva naturalesa profunda, l’humà necessita ser cuidat per humans. No hi ha dreceres.

Si has llegit fins aquí ja saps de tots els límits de la intel·ligència artificial davant la facilitació de grups. Si lideres projectes o equips, o si formes part d’un grup que vol treballar millor, ja hauries d’intuir que comptar amb una persona facilitadora formada i assenyada no és un luxe per a segons quines circumstàncies, sinó que és una condició perquè el procés sigui segur, transformador i efectiu.

I si ets de les persones que consulten a la IA per a resoldre els problemes del teu equip, potser hauries de pensar en dues coses:

  • si vols continuar usant la IA per a aquests menesters amb tot el que us hem explicat, i
  • si no seria millor idea adquirir eines per a poder acompanyar equips i processos per a poder fer-ho amb major criteri del qual t’ofereix l’AI. (En tal cas recorda que portem anys formant a facilitadors i facilitadores. I que és bastant probable que et puguis sumar a alguna de les nostres propostes formatives

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *