Perché anche noi siamo l’Intelligenza Artificiale
febbraio 6, 2026 in Approfondimenti, Recensioni da Mateo Hernandez George
Vedere l’IA come pratica, anche di soggettivazione, e non solo come Macchina, a partire da Carlo Sini
Tra le molte questioni aperte (o mai chiuse) che l’intelligenza artificiale sembra imporre al pensiero, una è sicuramente quella della sua velocità. O, meglio ancora, della sua costitutiva lentezza. Come spesso capita, sembra che il pensiero — qui inteso come pensiero critico, cioè allontanamento dalla cosa stessa per vederla meglio — sia arrivato e arrivi un po’ in ritardo. Un tema, questo, della velocità del pensiero, più che fondamentale nella società contemporanea.
Se da un lato il pensiero arriva per forza più tardi rispetto alla contingenza — poiché quando si pensa, si pensa sempre al di là del tempo, anche se “nel” e “del” tempo — la realtà contemporanea, invece, sembra aver avuto un’accelerazione senza precedenti e non sembra intenzionata a fermarsi, anzi. Nell’epoca in cui viviamo, quella dell’accelerazione scientifica, tecnica e comunicativa, il pensiero, costitutivamente lento, sembra sempre, e sempre di più, in ritardo.
Quel che manca, in fondo, è un certo potere predittivo che avevamo assegnato, nel Novecento e non solo, al ruolo dell’intellettuale: colui che indicava, al di là dei processi contingenti, una trama più fitta, ma nascosta, in cui idealmente si riconoscevano processi storici che avrebbero portato le loro conseguenze nel tempo a venire. La società “predittiva” è ora sostituita da una società dell’accelerazione: un’accelerazione che ci lascia senza strumenti linguistici, concettuali e predittivi — oltreché politici — e che genera un senso di angoscia e di perdita di orientamento.
Le pratiche (come l’intelligenza artificiale) hanno nella caratteristica della velocità una loro definizione interna. Come ogni pratica, l’intelligenza artificiale è un’operazione concreta — gestuale, tecnica, linguistica — che istituisce contemporaneamente l’oggetto di cui parla e il soggetto che la compie.
Ovviamente l’intelligenza artificiale non è la prima pratica tecnica che i social hanno introdotto nella nostra vita. Una ben più sottaciuta — sospetto anche a causa dell’età avanzata dei nostri intellettuali, accademici ed editori — eppure rivoluzionaria, quasi del tutto ignorata, è stata quella dell’introduzione delle Stories nei social network.
Anche qui, la velocità non è solo nella definizione stessa della pratica, ma anche nella propagazione del fenomeno: prima negli Stati Uniti, con Snapchat nel biennio 2013-2014, poi, nell’agosto del 2016, su Instagram, e successivamente su WhatsApp, Facebook, Messenger, YouTube e via via altri.
Cosa sono le Stories? Contenuti brevi — foto, video, testo, audio o combinazioni — pubblicati dagli utenti in un flusso temporaneo, visibili per un tempo di 24 ore. Le Stories hanno cambiato, con un successo immediato, la definizione stessa di social network. Potremmo pensare, semplificando, ai social pre-Stories come a luoghi di “memoria”, anche solo perché postare qualcosa era un atto pensato per rimanere. Le Stories, invece, hanno radicalmente trasformato questo modello, imponendone uno più legato alla “presenza”.
Dall’archivio di rappresentanza e di memoria — narrativo e retrospettivo — si passa a un modello di totale e completa esposizione. Non coerenza narrativa, ma espressione del sé nel qui e ora: un’identità assolutamente performativa.
I social diventano ancora più palcoscenico; l’attenzione è breve e immediata. Il tempo diventa consumo, e tutti siamo in gara nel raccontare parti della nostra esistenza. Inoltre — ed è uno dei punti fondamentali — il racconto non è legato solo a una presa diretta della realtà, ma ci modella.
La vita diventa racconto, un racconto in piena regola: con cesure, cambiamenti, bugie e strappi alla realtà che diventano la realtà stessa. Un meccanismo così pervasivo mostra chiaramente il collegamento tra pratiche e microfisica del potere. Attraverso questa pratica, apparentemente neutra, il potere prende possesso dei nostri corpi, modellandoci come soggetti in un palcoscenico perenne e proponendoci modelli di vita consumistici, accompagnati da reazioni irreali, sia positive sia negative, comunque legate a dinamiche di interazione e modernizzazione. La vita, esposta totalmente, diviene merce totale: non più di scambio, ma di cinica usufruizione, e perde l’autenticità del reale non performativo.
Se le Stories rappresentano una pratica fondamentale, l’intelligenza artificiale è ben più sfidante. E la filosofia non si sottrae al compito di catturarla nel pensiero, anche nella sua velocità, perché la forza del pensiero — quello vero — non è mai limitata.
Questo è il compito che il filosofo milanese Carlo Sini si pone nel suo saggio Intelligenza artificiale e altri scritti (Jaca Book, Milano, 2024). In esso Sini tenta di mettere ordine ad alcuni pensieri — talvolta del senso comune, talvolta della scienza — che ci farebbero presagire o l’inferno o il paradiso terrestre. Le cose, come sempre intrecciate tra loro, nel loro farsi e pensarsi, in pratiche e discorsi infiniti, sono più complesse.
Non seguo qui tutto il ragionamento di Sini — per quello c’è il libro — che è del resto un commento a più testi (AA.VV., Intelligenza artificiale, a cura di Stefano Quintarelli, Bollati Boringhieri, Torino 2020; Kevin Warwick, Intelligenza artificiale. Le basi, a cura di Carlo Alberto Avizzano, Dario Flaccovio Editore, Palermo 2015; AA.VV., Intelligenza artificiale: distingue frequenter. Uno sguardo interdisciplinare, Consulta scientifica del Cortile dei Gentili, Edizioni del CNR, Roma 2023, in particolare l’introduzione di Cinzia Caporale e il saggio di Eugenio Mazzarella), ma che ha la forza di portare alla luce alcune delle questioni più interessanti, da tenere a mente quando parliamo, appunto, di intelligenza artificiale: un vero e proprio vocabolario critico sull’argomento.
Le pratiche, qualsiasi pratica, rendono possibile il pensiero. Il pensiero non è al di là della contingenza dei nostri giorni, non è una facoltà né naturale né interiore. Non c’è, insomma, la “mente” che poi usa gli “strumenti”. Anche il pensiero, del resto, è una pratica strumentale tra le altre.
Dobbiamo, per seguire il ragionamento siniano, smettere di pensare in maniera superstiziosa: sono le pratiche stesse, particolari anch’esse nelle loro condizioni storiche, che rendono il pensiero possibile. Anche l’intelligenza artificiale, dunque, andrebbe considerata come una nuova soglia strumentale, non un “salto”, ma una possibile nuova organizzazione di ciò che chiamiamo “pensare” (come lo sono state la scrittura, il contatto, il registrare, il classificare e il calcolare).
Insomma: il pensiero umano è, che ne dicano Heidegger e Severino, sempre già tecnico (su questo rimando a Inizio, Carlo Sini, Jaca Book, 2016).
Per pensare alle pratiche dobbiamo quindi allontanarci, una volta per tutte — anche se è complicatissimo — dalla vecchia e rassicurante superstizione linguistica, che crede che le parole stiano per le cose, che la realtà sia “là fuori” e che noi, grazie ai nostri sensi e ai nostri neuroni, la riceviamo e la organizziamo attribuendo etichette.
In realtà, le parole stesse nascono da pratiche condivise, da coordinamenti operativi complessi e dall’utilizzo degli strumenti con cui ci orientiamo nel mondo.
L’intelligenza, dunque, che uniamo al termine “artificiale”, non esiste in sé — neppure applicata all’umano — se non nel fatto che, grazie a questa parola, noi riusciamo a fare qualcosa, a praticarla.
Quando usiamo il linguaggio applicandolo alle “macchine” e diciamo che esse sono “intelligenti”, che prendono “decisioni” o che sono “creative”, non dobbiamo cadere nella finzione che queste parole indichino qualcosa “in sé”: sono termini più operativi che ideali.
Per parlare di intelligenza artificiale, come per molte questioni filosofiche, dovremmo comprendere anzitutto che il linguaggio è più complesso di quanto immaginiamo, che non giunge mai all’essenza delle cose, ma è intreccio di fare, storia e relazioni. Non c’è eternità, non c’è essenza, non c’è definizione ultima o fondamento: c’è ciò che viviamo, con la sua storia, le sue traslazioni di significati dal giusto al vero, e le sue continue cadute nello sbagliato e nel falso. E così all’infinito.
L’intelligenza artificiale, in questo senso, è una produzione di infiniti campi di pratiche che portano con sé lotte di saperi e di poteri — e dunque anche lotte concettuali, non solo economiche o politiche. Se si vuole fare un’analisi seria, bisogna considerare l’intelligenza artificiale come un campo di pratiche che si produce e si allarga, non come un oggetto isolato, un fenomeno totalmente nuovo o privo di storia.
Quello che pensiamo essere il salto dalla normale ricerca su Google all’intelligenza artificiale generativa è, quindi, un processo creativo e generativo — ma non del soggetto, e ovviamente non della macchina.
Domandarsi se l’intelligenza artificiale sia creativa o meno ha la stessa dignità del chiedersi se la penna “scrive” o il libro “pensa”. La creatività e la generatività risiedono nella complessità della situazione complessiva: nello scambio tra strumenti e pratiche inseriti in contesti densi di lotte, aspettative e interpretazioni.
La creatività consiste nel rendere possibile una nuova configurazione, mai vista e per questo inquietante, fra strumenti, testi e criteri di valutazione. È la situazione — con la sua genealogia umana, dunque tecnica, e la sua storia — a essere generativa. È con questo tutto che dobbiamo fare i conti.
Dobbiamo, quindi, vigilare su questo punto, che è ineludibile e che va oltre ogni trasformazione proposta tanto dai pionieri quanto dai detrattori dell’IA: l’IA trasforma la realtà. Ma non è interessante solo questa asserzione. La realtà, del resto, non è mai “una” e, figuriamoci, mai “neutra”. Sono le pratiche — anche l’IA, dunque — che producono regimi di realtà e determinano verità e falsità.
Questo è, in effetti, il problema: quale sia la realtà che l’IA decide essere reale, quale realtà essa produca. Ed è qui che Sini ci mette in guardia: attenzione a pensare che la “realtà” dell’IA, fatta di dati, correlazioni e probabilità, sia da considerarsi reale — o peggio, più reale delle altre.
Anche l’IA è un problema enorme, soprattutto se viene fatta passare come neutrale o “più vera” di altre. Gli algoritmi non si limitano a riflettere ciò che pensiamo (o ciò che “pensano” che noi pensiamo), ma creano i campi del sapere e le condizioni di esistenza entro cui le opinioni possono nascere.
Sini chiama questo fenomeno “gerrymandering delle opinioni”: la profanazione e l’ottimizzazione dei dati portano a una polarizzazione funzionale che ridistribuisce il pensabile.
Certo è che l’intelligenza artificiale vive di dati, che non sono “raccolti”, ma scelti e, in qualche modo, prodotti, attraverso procedure di esclusione e selezione di priorità che non sono neutrali. I dati che l’IA utilizza portano già con sé una vera teoria e pratica del mondo, e quindi pregiudizi inevitabili, tipici di qualunque processo di classificazione o raccolta.
Anche qui, pensare a una neutralità dell’intelligenza artificiale è non solo sbagliato, ma soprattutto pericoloso.
Le aziende e le società che producono questi strumenti devono essere sorvegliate soprattutto per la loro presunzione di neutralità. Esse sono portatrici di immensi interessi politici ed economici e, come tali, non possono essere neutrali. Nessuno strumento — soprattutto se lavora con dati e parole — lo è mai.
È di questo che dovremo occuparci con grande sforzo: non solo fare in modo che un utente sappia se una foto o un video è stato generato dall’IA, ma garantire trasparenza nella pratica di scrittura stessa — sui modelli, le fonti, i pregiudizi e i dati che l’IA utilizza.
Se essa è destinata a trasformare radicalmente gli strumenti del pensiero, i pregiudizi che questi strumenti implicano devono essere chiari e sottoposti non alle leggi del mercato, ma al controllo democratico.
In definitiva: senza scrittura alfabetica, pratiche di numerazione, archiviazione e formalizzazione — cornici di ogni pratica umana — l’intelligenza artificiale non esisterebbe. Essa è forse l’esito estremo della pratica alfabetica occidentale, che porta alla luce, in piena visibilità, la sua stessa storia. Ma proprio sapendo questo, la nostra attenzione deve posarsi sulle questioni giuste.
Se assumiamo l’intelligenza artificiale come pratica, dobbiamo responsabilizzarci nel riconoscere che ogni pratica è inserita non in una neutralità, ma in rapporti di potere e di sapere, che sono — e devono essere — anche luoghi di conflitto. Ogni pratica cambia profondamente l’uomo, che è fatto egli stesso di pratiche.
Questo implica, sapendo che non esiste un’essenza dell’uomo né un’ontologia, una scelta sulle forme di soggettivazione che esse producono.
Forse in Sini la questione non diventa mai esplicitamente politica, ma lo è, profondamente. La consapevolezza di questo può portarci a liberarci dalle superstizioni e a guardare meglio, con sguardo più critico, un fenomeno che porta all’estremo una pratica che già esiste e che, quindi, già siamo.
Non è la macchina, né la tecnica, ma siamo noi, gli uomini, i processi soggettivanti, a essere al centro di questa pratica, a esserne il punto. Questo è il compito etico: si parla di noi, non delle macchine.
di Mateo Hernandez George – Libreria “Tempi nuovi”





