Il futuro dei chip è il futuro dell’umanità

Laura Ockel

I chip sono sempre più al centro del nostro mondo, ma il loro futuro non è affatto garantito. Tra sfide tecnologiche e geopolitiche, come può evolvere questo settore?

Da Quants numero 14, 2024

Tra le tante scoperte che ci ha imposto l’esperienza della pandemia c’è anche quella dell’estrema dipendenza delle nostre società dai microchip (o chip, o semiconduttori, o circuiti integrati). Quando i lockdown del 2020/21, e una serie di altre circostanze legate al dissesto climatico, hanno attaccato i centri nervosi della filiera globale dei chip, principalmente negli Stati Uniti e nell’Indo-Pacifico, l’onda lunga del dissesto si è propagata nello spazio e nel tempo per mesi e migliaia di chilometri. A risentire del rallentamento della produzione di chip sono state pressoché tutte le attività del mondo. Questo poiché, da almeno trent’anni, i microchip sono ormai ovunque, e lo saranno sempre di più in futuro. Sono nel computer da cui scrivo, nello smartphone con cui apriamo un social, nelle console con cui ci svaghiamo, negli elettrodomestici che tutti abbiamo in casa, nelle tecnologie “intelligenti” delle nostre città “smart”, nel libro della giungla parlante di mio figlio, nelle auto che guidiamo. Sono, soprattutto, nei processi energetici alternativi al combustibile fossile, nei data center dove si raffinano le reti neurali delle intelligenze artificiali, nei sistemi d’arma sempre più sofisticati con cui si combattono le guerre del presente e del futuro. I chip sono la frontiera più calda della sfida geopolitica tra Cina e Stati Uniti e una delle principali ragioni per cui Taiwan, sede della principale azienda di manifattura di chip al mondo, è l’isola più concupita sul pianeta. 

Il paradosso dei chip è che, a fronte di un’enorme importanza, la continuità del loro sviluppo è tutto fuorché assicurata. L’avanzamento tecnologico del settore dei chip dipende infatti dal processo di miniaturizzazione dei transistor che contengono. Un processo già oggi fantascientifico, che richiede il ricorso a macchinari da centinaia di milioni di dollari e che ci ha permesso di arrivare a chip che contengono, in pochi millimetri quadrati, centinaia di miliardi di transistor, ciascuno da pochi nanometri, ovvero 1 miliardesimo di metro. Parliamo di dimensioni più piccole di un virus, vicine ormai alla soglia dell’atomo. 

Sono nel computer da cui scrivo, nello smartphone con cui apriamo un social, nelle console con cui ci svaghiamo, negli elettrodomestici che tutti abbiamo in casa, nelle tecnologie “intelligenti” delle nostre città “smart”, nel libro della giungla parlante di mio figlio, nelle auto che guidiamo.

Come scrivo nel mio libro Il re invisibile (LUISS, 2024), dedicato proprio alla vicenda dello sviluppo dei chip, se c’è un singolo bit d’informazione (espressione quantomai indicata dato l’argomento di questo pezzo) che quasi tutti conoscono a proposito dei semiconduttori è la famigerata “legge di Moore”. Formulata nel 1965 da Gordon Moore, uno dei due fondatori di Intel, essa postula che la potenza di calcolo dei chip raddoppia, in media, ogni due anni in virtù del raddoppio del numero di transistor (ovvero gli interruttori che switchando tra alto e basso voltaggio esprimono gli 1 e gli 0 della computazione) che essi contengono. Ciò che non tutti sanno è che, dal punto di vista epistemologico, la “legge di Moore” è tutto fuorché  una “legge”. Essa infatti venne formulata da Moore semplicemente come osservazione di una tendenza iniziale dello sviluppo dei chip e, come ha ammesso lo stesso Moore, neppure lui si aspettava che tale tendenza durasse così a lungo, quasi sessant’anni (l’orizzonte di validità inizialmente previsto da Moore non superava i dieci).
Il problema attuale è che dopo una serie di miracolose scoperte, ricerche e invenzioni per protrarla il più a lungo possibile, oggi la legge di Moore sembra davvero prossima al capolinea. Non fosse altro perché sempre più si avvicina l’ultima frontiera, quella davvero invalicabile, ovvero la dimensione subatomica. Oltre la quale si apre il mondo dell’indeterminazione quantistica, là dove lo spostamento degli elettroni su cui si basa il funzionamento dei chip smette di rispondere alle regole che conosciamo e si comporta in modo imprevedibile e impossibile da controllare.
Secondo alcuni, peraltro, non è neppure necessario giungere alla frontiera quantistica per dichiarare la fine della legge di Moore. A pensarla così è nientemeno che Jensen Huang, il fondatore di NVIDIA, l’azienda americana che produce le famose GPU, i processori super-potenti nati per calcolare la grafica dei videogiochi e con cui oggi si addestrano invece le AI. Anche per questo attualmente NVIDIA, secondo il mercato, vale qualcosa come 2,23 triliardi di dollari. Ebbene, qualche mese fa Jensen Huang ha dichiarato che «la legge di Moore è morta». Se non lo era ancora dal punto di vista strettamente fisico e tecnologico, lo era, a detta di Huang, senz’altro da quello economico. Come ha dichiarato Huang: «la capacità della legge di Moore di fornire, ogni anno e mezzo, il doppio delle prestazioni allo stesso costo, o la stessa performance, a metà del costo, è esaurita. È completamente finita. L’idea che il prezzo dei chip diminuisca nel tempo, sfortunatamente, è una storia del passato».

Dopo una serie di miracolose scoperte, ricerche e invenzioni per protrarla il più a lungo possibile, oggi la legge di Moore sembra davvero prossima al capolinea. Non fosse altro perché sempre più si avvicina l’ultima frontiera, quella davvero invalicabile, ovvero la dimensione subatomica.

Di tutt’altro avviso è tuttavia il CEO di Intel, Pat Gelsinger, il quale ha ancora più di recente dichiarato che la “legge” è “alive and well”, “viva e vegeta”. Aldilà delle discordanze tra figure di tale peso, che la legge di Moore sia “viva” o “morta” è una materia di non secondaria importanza non solo per chi produce chip. Come detto, dall’evoluzione dei chip dipendono tecnologie cruciali per il futuro. Che la “legge di Moore” abbia una continuità, o quantomeno degli eredi, è insomma nell’interesse di tutti.
Tuttavia tale continuità è oggi affidata a strumentazioni sempre più estreme e difficili da implementare, come, per esempio, la litografia ultravioletta estrema, una tecnologia che ha richiesto quasi vent’anni e più di dieci miliardi d’investimenti in ricerca. Simili tecnologie sono il risultato di sfide ingegneristiche estreme che non è scontato vincere sempre. Per questo, oggi, l’opinione degli esperti sul destino della legge di Moore si divide in tre grandi categorie che si riconoscono in altrettante etichette: il partito dei “more Moore”, quello dei “more than Moore” e, infine, quello dei “beyond Moore”. Vediamo in cosa crede ciascuno di questi schieramenti e che tecnologie prospetta per il futuro della computazione.
I “more Moore” sono i sostenitori dell’idea, sottoscritta come detto dal CEO di Intel, che la legge di Moore sia viva e vegeta e si possa ancora estendere a lungo grazie a nuove scoperte fisiche e a strumenti – incluse nuove tecniche a ultravioletto ancora più estremo – capaci di garantire ulteriori step di miniaturizzazione dei transistor. Un’altra strada perorata dai “more Moore” passa dall’abbandonare quello che è stato il supporto fisico del 90% dei chip prodotti nella storia, il silicio, in favore di una classe di materiali noti con l’acronimo inglese TMDS (Transition Metal Dichalcogenides). I TMDS sono infatti materiali quasi bidimensionali, sottilissimi, dallo spessore di appena un atomo che, in teoria, renderebbero possibile realizzare transistor ancora più piccoli degli attuali senza per questo scendere al di sotto della soglia quantistica.
Il problema di simili soluzioni, sostengono i critici e i fan della filosofia “more than Moore” (a cui appartiene Huang), è che non solo richiedono potenzialmente decenni per vedere la luce, ma necessitano d’investimenti di tale portata da inficiare implicitamente lo spirito della “legge” che puntano a preservare. L’alternativa più logica a questo problema, a loro dire, non va cercata nella produzione di chip tecnologicamente ancora più estremi, e per questo costosi, ma nella necessità di rendere quelli a disposizione più intelligenti ed efficienti (more than Moore, dopotutto, vuol dire proprio “più di Moore”). Come? Integrandoli all’interno di sistemi di computazione più sofisticati e capaci di auto-regolamentare l’uso della propria potenza di calcolo. Un esempio in tal senso sono i software CUDA con cui proprio NVIDIA ha reso maggiormente controllabili, e programmabili, le proprie GPU. Un altro chiodo fisso dell’approccio MtM è la specializzazione funzionale dei chip, ovvero lo sviluppo di semiconduttori progettati con in mente, fin dal principio, l’area di applicazione ed uso a cui essi sono destinati (acronimo ASIC: Application-Specific Integrated Circuit). Questa idea si basa sulla constatazione che le decisioni progettuali che rendono i chip universali possono rivelarsi sub-ottimali per alcuni specifici compiti. Per fare un esempio: i chip universali faticano più di quelli specializzati nello svolgimento delle numerose computazioni in parallelo richieste dall’addestramento delle AI.

Per quanto fantascientifica possa sembrare, l’idea della computazione biologica ha in realtà una lunga tradizione e solidissime fondamenta scientifiche, basate sulle analogie tra il funzionamento dell’informatica e quello dei processi biologici.

In fin dei conti la velocità e l’efficienza di qualunque processo di computazione sono determinate da quanto velocemente degli elettroni si muovono da un punto A a un punto B per completare una determinata istruzione. E dunque non c’è ragione che il percorso dal punto A al punto B – ovvero l’architettura del chip – sia lo stesso per tutti i chip anche quando essi devono completare istruzioni molto diverse tra loro.

Chiudiamo la carrellata con quello che è forse il partito che propone le soluzioni più affascinanti e visionarie del lotto, ovvero quello dei “beyond Moore” (oltre Moore). Per i suoi sostenitori non si tratta più di puntare a miglioramenti incrementali e scalari nel campo della progettazione e della produzione di nuovi chip, ma di prepararsi a un salto in dimensioni completamente nuove e inesplorate delle tecnologie computative. Nella classe delle tecnologie perorate dai “beyond Moore” rientrano alcuni dei campi di ricerca sull’informatica più avanzati al mondo: dalla computazione quantistica, ovvero il tentativo di volgere a proprio favore gli stessi fenomeni di indeterminazione quantistica che minacciano l’evoluzione dei chip tradizionali, a quella fotonica, l’utilizzo della luce anziché dell’elettricità come “traduttore” degli 0 e degli 1 della computazione, fino a quello che è forse il campo più affascinante ma anche, al momento, fantascientifico, ovvero il biocomputing: calcolatori che utilizzino specifici transistor, chiamati transcriptor, in grado di regolare il flusso dell’RNA polimerasi tramite enzimi, così da fargli svolgere funzioni simili a quelle della porta logica di un chip. Per quanto fantascientifica possa sembrare, l’idea della computazione biologica ha in realtà una lunga tradizione e solidissime fondamenta scientifiche, basate sulle analogie tra il funzionamento dell’informatica e quello dei processi biologici. Il DNA, per esempio, grazie alla sua enorme capacità di registrare informazioni, potrebbe in potenza contenere tutta l’informazione del mondo in uno spazio poco più grande di una scatola da scarpe. Mentre le cellule degli organismi biologici sono di fatto i chip più sofisticati e potenti sul pianeta, con l’ulteriore straordinaria caratteristica di richiedere pochissima energia per i loro processi. 

Anche per il biocomputing il passaggio dalla teoria alla pratica è costellato di grandi ostacoli tecnici, scientifici ed economici. A meno di radicali incrementi nel tasso d’innovazione, il superamento di tali ostacoli non pare in agenda almeno fino al prossimo decennio. All’incirca la stessa timeline che contraddistingue la tabella di avvicinamento al quantum computing, ai circuiti ottico-fotonici, ai materiali 2D e via dicendo. Chi arriverà per primo a risolvere i problemi che frenano lo sviluppo di ciascuno di questi campi, avrà il potere di influenzare il futuro della computazione e dunque dell’umanità.

Giornalista, scrittore e curatore di contenuti. Si interessa dell'interazione tra tecnologia, economia e politica internazionale. Nel 2023 ha pubblicato "La signora delle merci" (LUISS University Press), un libro sulla storia della logistica e il suo ruolo nei meccanismi della globalizzazione.