La grande ingiustizia della tecnologia

Il Saggiatore

Nonostante siano spesso considerati strumenti neutri e oggettivi, i sistemi informatici più importanti della nostra epoca – a partire dall’intelligenza artificiale – sono invece frutto di scelte sociali ben precise. E portatori di pregiudizi e stereotipi molto difficili da superare. Intervista con Diletta Huyskes, autrice di Tecnologia della rivoluzione (Il Saggiatore).

da Quants n. 18 (2025)

Nel 1964, il filosofo Herbert Marcuse denunciava nel saggio L’uomo a una dimensione il modo in cui la tecnologia, e la sua razionalità percepita come inevitabile e sacra, diventava un’ideologia al servizio dei gruppi sociali dominanti, trasformandosi in un’accettazione acritica di essa.

È un’ideologia nella quale siamo ancora oggi immersi e che viene spesso definita “determinismo tecnologico”: l’idea secondo cui, sintetizzando brutalmente, i dispositivi tecnologici siano degli artefatti piovuti dal cielo, che influenzano la società senza essere da quest’ultima a loro volta influenzati.

Questa interpretazione è ancora oggi dominante e ha condizionato enormemente il dibattito sulla tecnologia più innovativa della nostra epoca: l’intelligenza artificiale. Considerata da molti pensatori – tra cui spiccano figure come quella dello storico Yuval Noah Harari – un “agente” invece che uno “strumento”, e caratterizzata da una percepita oggettività e infallibilità, l’intelligenza artificiale è invece un dispositivo sociale: risultato, appunto, della società che lo ha prodotto.

Ma non c’è bisogno di arrivare a una tecnologia complessa e per certi versi ineffabile come l’intelligenza artificiale per individuare queste caratteristiche. Le stesse si ritrovano, come vedremo, in tecnologie semplici come la bicicletta, il microonde, la lavatrice e tutti quegli strumenti che, lungi dall’essere “neutri”, sono invece il risultato di scelte ben precise.

«Il nostro approccio prevede ancora di non fare niente, di considerare la tecnologia inevitabile e di vederla soltanto come qualcosa che rimpiazza dei compiti che prima svolgevamo noi».

Smontare la visione deterministica della tecnologia è uno degli obiettivi del saggio Tecnologia della rivoluzione. Progresso e battaglie sociali dal microonde all’intelligenza artificiale (Il Saggiatore), scritto dalla ricercatrice ed esperta di etica della tecnologia e dell’intelligenza artificiale Diletta Huyskes, che nelle pagine del suo primo libro ripercorre in chiave storica, filosofica e soprattutto femminista il modo in cui la società ha determinato la tecnologia, caricandola anche di tutti i suoi pregiudizi e stereotipi.

Sono passati sessant’anni da quando Marcuse ha denunciato la visione deterministica della tecnologia. Eppure, ancora oggi, siamo completamente immersi in questa ideologia. Com’è possibile?

Innanzitutto è abbastanza deprimente. Ed è anche una cosa che torna più volte nel libro: mostrare ciò che veniva detto decenni e decenni fa per far capire come oggi non sia cambiato nulla. La ragione è che non è cambiato, in primo luogo, il modo in cui ci approcciamo alla tecnologia e come decidiamo di governarla e gestirla. Il nostro approccio, di fatto, prevede ancora di non fare niente, di considerare la tecnologia inevitabile e di vederla soltanto come qualcosa che rimpiazza dei compiti che prima svolgevamo noi: dalla lavatrice fino all’intelligenza artificiale. Non è così: la tecnologia è invece qualcosa che dobbiamo continuare a controllare, governare e supervisionare. Solo che non abbiamo ancora idea di come mettere in pratica questi princìpi.

C’è un allievo di Marcuse che cito nel libro, Andrew Feenberg, di cui mi è rimasto impresso un ragionamento: Feenberg ritiene che nel momento in cui abbiamo deciso di incasellare o installare la tecnologia sul piano dello sviluppo economico, abbiamo anche deciso che non doveva rispondere alle esigenze delle persone, ma doveva agire soltanto sul piano della competitività e dello sviluppo. Da lì, abbiamo allontanato la tecnologia dall’esperienza, dal reale, dalle condizioni empiriche che le persone chiedono, e dai bisogni dei singoli.

Quindi non abbiamo sviluppato una cultura che sia legata al bisogno. Anche le pubbliche amministrazioni, in Italia e all’estero, non partono mai da ciò di cui abbiamo bisogno per poi chiedere, per esempio, a degli sviluppatori di programmarlo. Si parte invece sempre dalla tecnologia.

«La tecnologia è qualcosa che dobbiamo continuare a controllare, governare e supervisionare».

Alla dominante visione deterministica della tecnologia tu contrapponi, problematicizzandola, una visione sociale, specificando anche come considerare la tecnologia neutra, qualcosa che cioè dipende solo dall’uso che se ne fa, sia profondamente sbagliato. Come sintetizzeresti questi due aspetti, tra loro collegati?

Fondamentalmente, il determinismo, che è ancora il paradigma dominante, considera la tecnologia come la componente che, nel rapporto con la società, la determina. Se volessimo disegnare uno schema, è come se ci fosse la tecnologia e poi una freccia che conduce alla società. Gli altri approcci – penso per esempio al costruttivismo, che ha iniziato a mettere in discussione il determinismo – aggiungono una componente sociale prima del pezzo tecnologico. Non è un rapporto unidirezionale, ma è come se fosse un cerchio: c’è la società, poi c’è la tecnologia e poi c’è ancora la società. Perché, di fatto, ciò che i costruttivisti hanno iniziato a chiedersi è: chi crea la tecnologia? Non è che casca da qualche parte o che si materializza all’improvviso. C’è qualcuno che la costruisce, qualcuno che la progetta, qualcuno che la crea. Non solo immaginando la parte tecnica, ma anche tutta una serie di sovrastrutture politiche, culturali, sociali ed economiche che influenzano lo sviluppo di questa tecnologia. Tutto quell’ammasso sociale che viene prima della tecnologia è qualcosa che va necessariamente tenuto in considerazione nel valutare poi la parte sociale che viene dopo la tecnologia, cioè l’impatto sulla società.

«Nel momento in cui abbiamo deciso di incasellare o installare la tecnologia sul piano dello sviluppo economico, abbiamo anche deciso che non doveva rispondere alle esigenze delle persone, ma agire soltanto sul piano della competitività e dello sviluppo».

Il determinismo considerava, e considera ancora oggi, questo impatto prettamente tecnologico. Prendiamo il mondo delle piattaforme: tutti i comportamenti che emergono dalle nostre attività online vengono considerati come qualcosa a cui le piattaforme, di per sé, ci costringono, e non come qualcosa che era già pensato e previsto. Il rapporto, in realtà, è quindi di costruzione reciproca: non è solo la tecnologia che determina il comportamento dell’utente. L’errore è considerare la tecnologia come un elemento autonomo, che decide da solo, o che è inevitabilmente costruito in quel modo, e quindi porta inevitabilmente a un determinato risultato. E invece la tecnologia viene decisa, pensata e costruita più o meno consapevolmente.

E così arriviamo al tema, centrale nel tuo libro, del rapporto tra la tecnologia e le questioni di genere. Tu infatti scrivi – citando le studiose Anne-Jorun Berg e Merete Lie – che «gli artefatti vengono al mondo tendenzialmente con un’idea chiara di chi dovrà utilizzarli». Fino ad adesso siamo rimasti sulla teoria, ma questo in che modo si ripercuote, concretamente, sull’uso quotidiano delle tecnologie e sui rapporti di genere che si creano?

Dipende molto dalla tecnologia di cui stiamo parlando e chiaramente non è una cosa che si può generalizzare. Per introdurre il tema io sono partita da una tecnologia non sospetta, che è il forno a microonde: un esempio che mostra benissimo cosa significa questa dinamica in pratica. Nelle fabbriche del tempo i progettisti dicevano di immaginarsi l’utente finale come «una persona che ha uno chignon e una gonna»: è un’immagine molto forte di cosa significhi proiettare l’immagine di un utente dentro una tecnologia, mentre la stai sviluppando.

Oggi, probabilmente, questo aspetto è molto più sfumato, però se ti siedi al tavolo con un qualsiasi programmatore o programmatrice secondo me è probabile che alcuni elementi vengano dati ancor più per scontati. E questo perché il microonde e tante altre tecnologie che cito nel libro avevano un elemento molto forte di consumo: erano tecnologie, ma erano ancora prima oggetti di consumo. Quindi quell’idea di marketing e quell’idea di invogliare il cliente finale a comprarli era molto più forte.

Ma questo ragionamento si può fare anche per le piattaforme o un qualunque smartphone: è chiaro che tutte le idee su come dev’essere l’utente continuano a esserci, anche se sono molto più frammentate perché l’utente è diventato una categoria molto più vaga nel consumo.

Citando Sadie Plant scrivi invece che «le tecnologie hanno sempre avuto lo scopo di preservare o migliorare lo status quo, non certo quello di sovvertirlo». È una citazione che io ritrovo molto in ciò che oggi avviene parlando di intelligenza artificiale. Ciò che mi ha invece spiazzato è che, leggendo il tuo libro, si capisce come ciò si applichi anche alle tecnologie di consumo più banali. La lavatrice viene solitamente considerata un elettrodomestico che ha liberato, in parte, le donne dalle incombenze domestiche più pesanti e ne ha permesso l’ingresso in massa nel mondo del lavoro salariato. E invece la situazione che si è verificata è completamente diversa…

La lavatrice prometteva una rivoluzione e una liberazione per la donna che non si è verificata, perché in realtà sono cambiati gli standard di pulizia: si è preteso sempre di più. Ed è un trend che vediamo in crescita esponenziale, ragion per cui oggi ci diciamo tutti che non ne possiamo più, che siamo stanchi, siamo stravolti, ma questi standard continuano comunque a salire. La lavatrice è un esempio di questo percorso: i dati ci dicono che gli standard sono cambiati: prima ci si metteva una vita per lavare i panni, ma si lavavano una volta a settimana, adesso abbiamo uno strumento che in un’ora ci fa fare un carico e quindi laviamo, stendiamo e stiriamo magari anche più volte al giorno.

È una dinamica molto indicativa e che vediamo anche oggi. Quando durante le presentazioni del libro ho fatto l’esempio della lavatrice, è capitato più di una volta che le persone presenti mi facessero notare che, per loro, la stessa dinamica si sta verificando oggi con ChatGPT. Nel senso che l’hanno promesso come uno strumento che faceva scrivere le email più velocemente, con il risultato che però oggi si scrivono molte più email.

Sicuramente la lavatrice ha liberato la donna e ci ha messo tantissimo per farlo, perché dalla tinozza a oggi c’è stato molto adattamento e molta stabilizzazione di questa tecnologia, però all’epoca la reazione non è stata «adesso posso fare qualsiasi altra cosa», ma «ci si aspetta da me che io faccia di più».

«L’errore è considerare la tecnologia come un elemento autonomo, che decide da solo, o che è inevitabilmente costruito in quel modo, e quindi porta inevitabilmente a un determinato risultato».

Torniamo un attimo ai discorsi sulla neutralità della tecnologia e sulla loro capacità di conservare lo status quo. Oggi questi aspetti li ritroviamo soprattutto nell’intelligenza artificiale e l’impressione è che la tecnologia più innovativa che abbiamo a disposizione sia per molti versi anche la più retrograda. E che anche in questo caso le ragioni siano sociali. Tu per esempio citi l’ansia di classificazione che aumenta all’aumentare della complessità del mondo: un’ansia che sembra prestarsi perfettamente all’uso dell’intelligenza artificiale, che è anche uno strumento di categorizzazione. Da che cosa deriva quest’ansia di classificazione e secondo te quali sono gli aspetti negativi?

Come ho provato a ricostruire, noi in realtà classifichiamo da sempre. Dieci anni fa, però, non avevamo a disposizione le informazioni che abbiamo oggi e che vanno poi classificate e catalogate. Tutta la parte di classificazione – che affascina studiose e studiosi da sempre, perché c’è tutta la questione legata all’oggettività e alla scienza, alla costruzione del sapere – comunque è evidentemente aumentata a causa dell’aumento della disponibilità dei dati e dell’informazione. Quindi io non credo che sia un trend nuovo che ci contraddistingue, semplicemente è un’amplificazione di qualcosa che esisteva già. Quest’ansia di classificare è anche un po’ il paradosso che cito nell’ultimo capitolo: da una parte è importante rivendicare la fluidità e il non essere classificati, dall’altra è però necessario identificarsi e quindi trovare un’etichetta per tutto. Ma trovare un’etichetta per tutto significa poi essere classificate o classificati.

È un paradosso fortissimo, sul quale non ho una risposta, ma che fa gioco enormemente ai sistemi di profilazione e classificazione che inevitabilmente, a questo punto, targettizzano alcuni gruppi. Sicuramente vengono messi in difficoltà i sistemi di classificazione classici, che sono binari per definizione, ma comunque si presentano moltissime altre forme di classificazione e categorizzazione.

Nel libro segnali come per cambiare questo approccio della tecnologia nei confronti di alcune specifiche categorie – e qui torniamo, per esempio, alla discriminazione dei sistemi di intelligenza artificiale nei confronti di donne o minoranze – non è sufficiente una politica di inclusività spiccia, che semplicemente inserisca più donne o più persone appartenenti a minoranze nei team di sviluppatori. Questo perché si dovrebbero comunque adeguare alle regole esistenti del sistema. E quindi?

Una parte delle difficoltà è legata alla visione dei legislatori, che – convinti che oggi ci sia più tecnologia di una volta – si limitano a pensare che sia necessario incentivare una carriera nelle materie informatiche o scientifiche. In realtà c’è sempre stato questo problema e si è sempre ricorso a questi strumenti di incentivo, senza pensare che ci sono problemi più strutturali che escludono a prescindere categorie come le donne da queste discipline, e c’è un lavoro da fare sia su questo sia sulla cultura: un lavoro sul fatto che la tecnologia viene ancora vista come una cultura maschile. Non un oggetto, ma una cultura: una forma di immaginario, di mondo, che è maschile.

Non possiamo far finta che sfruttare gli esempi femminili che ce l’hanno fatta possa essere in qualche modo salvifico. Perché la narrativa dell’eroina, di quella che ce l’ha fatta, non può essere la norma. Da una parte c’è questo. Dall’altra parte, c’è il mondo del lavoro: non puoi pensare di inserire una donna in una cultura maschile, che ha certe regole del gioco – tendenzialmente molto brutte e che possono essere anche violente – senza fare un lavoro su come la scienza e la tecnologia dovrebbero lavorare in un modo più umano. Questo può essere un punto di partenza o un punto di arrivo, ma bisogna necessariamente ripensare tutto il processo.

Giornalista classe 1982, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per Wired, Domani, Esquire e altri. È autore del podcast "Crash: la chiave per il digitale" (Vois Network).