Andrea Cattabriga


AI e la via catastrofica

Riflettendo sul livello del dibattito relativo all’intelligenza artificiale trovo sempre più difficile accettare la deriva catastrofista, fondata su di una presunta agentività “della macchina” e dell’inesorabile inclinazione del piano verso l’annichilimento dell’uomo. Primo perché l’assunto della macchina come di un UNO dotato di intenzionalità mi pare totalmente fuori luogo (o figlio di un livello di ingenuità anche tecnica, non più perdonabile), e secondo perché la scusa della macchina dotata di agentività sottende un vuoto nella capacità umana di dare senso al proprio interagire con essa (o peggio, una percezione dell’AI stregonesca, mitologica e divinatoria).

Essendo un paio di anni che mi sento alla rincorsa di un pezzo di ragionamenti filosofici sull’AI, ho deciso di fermarmi e di capire se sono davvero io che non trovo il bandolo della matassa o se c’è una più ampia responsabilità di molti “addetti” che non vogliono sgonfiare la speculazione intellettuale. Guardiamo forse alla filosofia – giustamente – per creare senso, senza però chiederle abbastanza rigore? Senza chiederle abbastanza interazioni, interconnessioni e apertura? (le uniche “vere garanzie” garanzie dal punto di vista etico che dobbiamo pretendere, che coincidono un pò con le stesse mancanze che oggi giustamente attribuiamo alle “corporation”, ai pregiudizi degli sviluppatori e dei data scientist). (Mi sembra ci sia un pasticciaccio brutto nei pressi delle sovrapposte e fumose definizioni di agentività, con la complicità di altrettanto estreme manipolazioni o storpiature delle varie teorie degli assemblaggi. Un pizzico di ANT e nuovo materialismo quanto basta, ed ecco che ti volti e non capisci più chi abbia sparato il colpo.) Io sono giunto ad una – seppur temporanea – posizione di cauto sospetto verso gli stregoni (quelli che vendono l’olio di serpente nelle piazze, per capirci), accompagnata da una crescente percezione che ci stiamo servendo dell’ignoranza degli stregoni stessi per mascherare una catena di cattive teorie date un pò per buone troppo alla leggera nei decenni (dall’idea della mente come computer alla natura “aliena” dell’AI) e la nostra diffusa tendenza a parlare delle cose avendo letto solo i titoli. Forse è proprio ai non-filosofi che oggi dovremmo chiedere un pò più di coraggio nel contribuire a dare senso ai fenomeni emergenti.

Alcune cose, in ordine sparso, da cui partire:

  • non serve lavorare sulle definizioni, serve lavorare sul senso (se l’AI è essa stessa un concetto che definiamo per inferenza, e ne parliamo senza ancora un’idea chiara di cosa sia la nostra intelligenza, dobbiamo stare dentro questa incertezza e va bene così);
  • l’AI è un fenomeno socio-tecnologico, quindi non va lasciata né solo in mano ai tecnici né solo in mano a chi osserva dall’esterno: è una cosa complessa, ma è di tutti “da smazzare”: il vuoto he lasci tu lo riempie sempre qualcun altro…
  • se si vuole, anche le reti neurali sono ormai del tutto leggibili (vedi nuovi strumenti di OpenAI API che documentano CLIP);
  • presto saranno anche del tutto spiegabili i process delle reti neurali (quindi a nudo rimarranno come sempre i problemi di progettazione e di intenzionalità/cultura dei progettisti, non il pensiero “alieno”);
  • l’idea che sia possibile andare avanti solo con modelli che si nutrono di dataset enormi è un altro preconcetto (che il ritorno di interesse verso modelli che si ibridano con approcci simbolici sta mettendo in discussione);
  • la dislocazione degli effetti causati dalle infrastrutture fisiche a supporto di tecnologie AI-based è tecnicamente tracciabile e documentabile, ma serve volontà politica (si, la politica);
  • dobbiamo fare uno sforzo maggiore di educazione (non indirizzato solo al reclutamento di studenti per il settore, ma anche al rendere accessibile per il grande pubblico buona parte del discorso);
  • l’illusione della modularizzazione universale delle tecnologie digitali creerà qualche problema quando si parla di utilizzo di AI per risolvere problemi locali/territoriali nel contesto di problemi più ampi e sistemici. Ad esempio perché modelli pre-allenati su dati e contesti diversi non funzionano sempre se ricontestualizzati (viva l’open source e le risorse a basso costo, ma guardiamo sempre dentro alle scatole prima di comprare…). Serve un grande lavoro sul fronte della cultura del dato e di riconnessione con la “conoscenza situata” , mettendo in relazione fonti e strutture informative eterogenee, dai big-data, ai sensori alla conoscenza scientifica, alle relazioni ecosistemiche (sto lavorando su questa cosa qua nella mia ricerca di phd)
  • ci sono praterie per intellettuali e creativi, nel lavoro interpretativo da compiere a livello di significati e di ruolo attivo dell’uomo nella cognisfera, in termini di valori e di agentività attiva, colmando il vuoto che oggi riempiamo attribuendone una “alla macchina” (a patto di non buttare benzina sul fuoco delle fregnacce e di sporcarsi le mani davvero);
  • l’etica è necessaria per un’AI giusta, ma serve sporcarsi di più le mani col codice (parlo a chi ci lavora da prospettive non-software), perché altrimenti diamo per scontate troppe fregnacce;
  • serve una maggiore prontezza nel battezzare le fregnacce.

L’elenco può essere ancora lungo, aiutatemi. 🙂