Andrea Cattabriga


Un sistema IA può aiutarci a mediare tra posizioni diverse?

È appena uscito uno studio interessante dei ricercatori di Google DeepMind di Londra che hanno cercato di capire se l’intelligenza artificiale possa essere in grado di aiutare gruppi di persone nel contesto di confronti democratici, a raggiungere consenso comune intorno a temi divisivi, generando sintesi più chiare ed “eque” di quelle scritte da mediatori umani. Un algoritmo per la facilitazione dei negoziati verbali, diciamo. Habermas Machine – così hanno chiamato il modello linguistico – ha avuto successo nel produrre concetti più efficaci se confrontato con esperti umani. La prospettiva e la facile ricaduta sarebbe: ok, allora facciamo fare a questo algoritmo la mediazione di qualsiasi confronto, dibattito, processo di ingaggio e sintesi, perchè è più performante. Mi sono chiesto cosa significhi performance qui: è solo questione di quanto sono scritte meglio certe frasi (che permettono un più ampio consenso intorno a un tema dibattuto)? Sicuramente si, lo studio misura questo ed è chiara questa limitazione.

Bello, ma c’è un grande però.

Il rischio è quello di sempre: confondere la capacità di allineare il linguaggio con quella di far emergere una vera comprensione condivisa, come se bastasse trovare le parole giuste per risolvere le divergenze. La realtà è più complessa: il sensemaking collettivo - quel processo attraverso cui le comunità costruiscono significati condivisi - non è solo questione di sintesi linguistica. È un processo sociale, culturale, relazionale. E fino a che non ci trasformeremo tutti in pezzi di software (ma perchè poi?!), e fino a che avremo dei corpi fisici (che sono parte della nostra intelligenza), avremo bisogno di modalità più complesse per dare senso alle cose, per capire la realtà e quindi mettere basi solide alle nostre decisioni.

Perché?

  1. Il contesto conta Non si può separare la comprensione dalle relazioni, dall’ambiente, dalle esperienze vissute. Un’AI può riassumere punti di vista, ma non può replicare quel tessuto di fiducia che si costruisce quando le persone lavorano insieme attraverso le differenze.

  2. Il processo è importante quanto il risultato Il valore non sta solo nel punto di arrivo - il consenso - ma nel percorso: condividere storie, costruire gradualmente modelli mentali comuni (e anche non!), tessere ponti tra prospettive diverse. Sono questi i passaggi che creano comprensione duratura, e che ci permettono pure di aprire spazi di divergenza, immaginazione e alternativi: mentre proviamo a spiegarci, accendiamo negli altri connessioni nuove tra idee e concetti, attivando nell’interazione continua un crescendo creativo.

  3. La conoscenza ha molte forme Le comunità danno senso alla realtà attraverso canali diversi: racconti, dati, esperienze vissute, immagini e anche evidenze scientifiche. Un approccio che non sterilizzi questa ricchezza deve saper integrare le diverse forme di conoscenza, non solo trovare un linguaggio comune.

  4. Serve un pensiero sistemico e adattivo La maggior parte delle questioni complesse coinvolge fattori interconnessi che non possono essere ridotti a semplici dichiarazioni di consenso. Servono approcci che aiutino i gruppi a capire queste relazioni sistemiche e come le diverse prospettive si inseriscono nel quadro più ampio. Navigare queste relazioni non è solo ricerca delle cause, del determinismo, ma anche semplicemente esercizio di esplorazione della complessità e adattabilità continua dei nostri mondi. Da questi sforzi riescono ad emergere le proprietà emergenti dei sistemi, quelle che non possiamo osservare scomponendo e mettendo in provetta pezzi della realtà, ma soltanto osservando tutti i pezzi lavorare insieme.

Questo significa che l’AI può avere un ruolo importante, ma invece di vederla come sostituto della facilitazione umana, dovremmo considerarla uno strumento in una cassetta degli attrezzi più ampia per l’intelligenza collettiva. I contesti in cui è necessario mediare e negoziare sono diversi, è anche un tema di performance dell’interazione da costruire con sempre più attenzione rispetto alle dimensioni di:

  • senso: perchè scegliamo un algoritmo (qual’è il significato dell’operazione che compie) o perchè dobbiamo far fare alle persone un certo passaggio?
  • adeguatezza: qual’è il modo più accettabile e comprensibile da tutti per fare funzionare una interazione? Come deve essere fatta un’interfaccia o le informazioni di supporto?
  • efficacia: a quali metriche e obiettivi obbedisco nel costruire un’interazione fra persone e sistemi?
  • equità: il modo che abbiamo scelto è rispettoso di tutti i soggetti impattati o crea più distanze di quelle che dovrebbe colmare? E’ giusto per quella specifica comunità o territorio, come impatta sul suo capitale culturale?

L’innovazione vera sta nel combinare in modo consapevole le capacità degli algoritmi con metodi adatti all’ingaggio sensoriale e cognitivo delle specie con cui si vuole interagire: gli umani hanno un’intelligenza fatta di percezione del mondo fisico, cognitiva e anche culturale, quindi non solo astratta, ma concreta, fisica. Non si tratta di scegliere tra umani e macchine, ma di trovare modi per aumentare le competenze di ciascuno, mantenendo gli elementi essenziali del nostro modo di interagire con le informazioni, coi modi attraverso cui la nostra specie riesce a dare senso e a ritrovarcisi (il resto sarebbe soltanto faticoso ed inutilmente costoso, o un esperimento di laboratorio che ci aiuta a capire cose, ma solo in parte).

Come spesso succede con la tecnologia emergente, la vera sfida non è tecnica ma sociale: capire come integrarla nei processi esistenti, capire cosa rimane valido e cosa invece ridisegna il sistema emergente.