Intelligenza artificiale, Federico Faggin parla agli studenti: “Lavorare su coscienza e libero arbitrio per capire chi siamo”

www.ilrestodelcarlino.it

Intelligenza artificiale,

Federico Faggin parla agli studenti:

“Lavorare su coscienza e libero arbitrio

per capire chi siamo”

Bologna, lezione magistrale dell’inventore del microprocessore e della tecnologia touch screen a oltre mille ragazzi delle superiori: “La macchina non ha e non avrà mai le proprietà che contraddistinguono l’uomo, in primis il nostro modo di pensare, apprendere e agire”
Bologna, 6 maggio 2024 – Si sente sempre più spesso parlare di intelligenza artificiale, oggi il tema è accostato a quello della coscienza e delle emozioni umane e una delle domande più spontanee è: potrà mai sostituire l’uomo nel campo del libero arbitrio? Secondo il professore Federico Faggin, l’inventore del microprocessore e della tecnologia touch pad e touch screen, non corriamo nessun pericolo perché “la macchina non ha e non avrà mai le proprietà che contraddistinguono l’uomo, in primis il nostro modo di pensare, apprendere e agire. I computer non pensano, eseguono i comandi impartiti muovendosi tra i simboli per arrivare ad un risultato, il loro scopo è tutto lì”.
Un altro grande tema è l’applicazione di queste nuove intelligenze, i campi sono moltissimi e vanno dalla sanità all’organizzazione passando per, nel caso della Regione, ‘Savia’, un progetto che su iniziativa dell’Assemblea legislativa dell’Emilia-Romagna utilizza sistemi di intelligenza artificiale nel supporto alla qualità delle leggi regionali. Bologna già da diversi anni è al lavoro per diventare la più importante Data Valley d’Europa, un esempio è ben rappresentato dal supercomputer ‘Leonardo’.
Ecco che allora, ancora una volta, il tema dello sviluppo dell’intelligenza artificiale e delle sue applicazioni torna in primo piano. Il professore ha poi concluso lanciando un appello ai più di mille studenti provenienti da trentacinque scuole secondarie di secondo grado dislocate in tutte le province dell’Emilia-Romagna, spronandoli a “lavorare sulla coscienza e sul libero arbitrio per capire chi siamo. Noi non siamo una macchina, siamo molto di più e dobbiamo riuscire a comprenderlo, solo così potremmo usare le macchine per il bene di tutti. I computer sono creati dall’intelligenza naturale, la nostra, che parte dalla coscienza, senza di essa si parla di coscienza artificiale che da sola non vale niente. C’è sempre l’uomo dietro all’apprendimento delle macchine e questo è e rimane un punto fondamentale”.
L’incontro, organizzato dall’Assemblea legislativa dell’Emilia-Romagna, ha lo scopo di offrire agli studenti una panoramica sulla rivoluzione scientifica dell’intelligenza artificiale e sulle sue implicazioni etiche, sociali ed economiche. Una preziosa occasione di riflessione e approfondimento sulle sfide e sulle opportunità che l’intelligenza artificiale comporta, con un invito a non disgiungere mai lo sviluppo scientifico-tecnologico dagli interrogativi di ordine etico e sociale. Partendo da un assunto: nemmeno la forma più evoluta di Intelligenza artificiale potrà mai sostituire l’uomo. Perché nell’essere umano esiste qualcosa di irriducibile al sapere delle macchine: la coscienza di sé, il libero arbitrio, il dubbio, i sentimenti.
Tra le 35 scuole che hanno preso parte alla lezione ben nove sono bolognesi: il Liceo Copernico, l’Istituto tecnico Aldini Valeriani, l’Istituto di istruzione superiore Rosa Luxemburg, le Scuole Manzoni, l’Istituto di istruzione superiore Belluzzi Fioravanti, il Liceo Artistico Arcangeli, l’Istituto di istruzione superiore Crescenzi Pacinotti Sirani, l’Istituto Enrico Mattei di San Lazzaro di Savena e l’Istituto di istruzione superiore Giordano Bruno di Budrio.
La lezione magistrale del professor Faggin conclude il primo anno di iniziative promosse dall’Assemblea legislativa sul tema dell’Intelligenza artificiale, con un’attenzione particolare alla formazione dei giovani, che hanno visto il coinvolgimento di duemila fra studenti e docenti delle scuole dell’Emilia-Romagna.

***
da L’Arena
27 maggio 2024

Federico Faggin:

«L’intelligenza artificiale

ha bisogno della nostra coscienza»

di Elisabetta Papa
L’inventore del microprocessore e imprenditore hi-tech parla dei nuovi chip «mostruosi» in termini di performance e di ChatGpt
Federico Faggin, classe 1941, vicentino, dal 1968 residente negli Stati Uniti, è conosciuto in tutto il mondo come il padre del microprocessore e della tecnologia degli schermi «touch». Fisico, inventore, ricercatore ed imprenditore, è però anche uno scienziato capace di unire al rigore scientifico-tecnologico ricerche con risvolti di ordine etico e sociale. Da molti anni si dedica infatti allo studio della coscienza, tema sul quale ha recentemente pubblicato una innovativa teoria con il professor Giacomo Mauro D’Ariano e il besteseller «Irriducibile» (Mondadori, 2022).
Di questo aspetto Faggin, che per Bill Gates è stato colui senza il quale «la Silicon Valley sarebbe rimasta solo Valley», ha parlato in particolare nel corso di una recente Lectio magistralis al liceo Cotta di Legnago dove sono stati tanti gli studenti che lo hanno avvicinato per ulteriori approfondimenti e addirittura per chiedergli l’autografo. Il nostro giornale ha colto l’occasione per porgli alcune domande.
Professor Faggin, quando è arrivato nella Silicon Valley ha creato la tecnologia Mos (Metal Oxide Semiconductor) con porta di silicio (Sgt), che ha permesso di realizzare circuiti integrati cinque volte più potenti di prima. Grazie ad essa, tra la fine del 1970 e inizi del 1971, ha progettato il primo Cpu- on-a-chip al mondo, l’Intel 4004: un microprocessore a 4 bit che conteneva circa 2300 transistor a logica casuale. Già allora lei aveva intuito che il futuro fosse lì?
In effetti sì, ero consapevole che la Mos avrebbe aperto le porte ad una tecnologia ancora più avanzata. Dopo il primo microprocessore ho curato i progetti di 8008, 4040 e dell’8080, che ha permesso di creare i pc su scala industriale. Quando sono uscito dall’Intel e ho avviato la mia prima ditta, la Zilog, ho progettato lo Z80, un cpu di terza generazione che conteneva circa 10.000 transistor e aveva un ciclo di istruzione di un microsecondo. E se ho fondato altre due ditte, la Cygnet Technologies e nel 1986 la Synaptics con cui negli anni Novanta furono sviluppati i primi touchpad e touchscreen, è stato proprio perché ero convinto che quello fosse il futuro.
Ed è stato sempre lì che ha iniziato a interessarsi alle reti neurali quando tanti scienziati si dimostravano invece scettici?
Volevo creare computer che «imparassero» da soli, anche se in realtà il verbo imparare è qui un modo di dire. C’era l’idea di queste reti neurali, cioè strutture artificiali fisiche fatte con i circuiti integrati che operano un po’ come il nostro cervello che ha reti neurali biologiche. Gli studi hanno permesso di fare notevoli passi in avanti anche se poi non si riuscì ad andare oltre perché ci sarebbero voluti computer molto più potenti di quelli esistenti all’epoca: stiamo parlando della seconda metà degli anni Ottanta.
Quali avanzamenti si sono già ottenuti in questo settore e quali altri risultati secondo lei si potranno raggiungere?
Il passo enorme è stato fatto alla fine del 2022 con ChatGpt3. Adesso ci sono già ChatGpt4 e Gemini Advanced. Siamo ancora in fase di grandi trasformazioni. La tecnologia è in grado di portare avanti tutto ciò per oltre 10 anni senza limitazioni fondamentali perché ormai i chip per «imparare» usano 1000 Watt. Sono veramente dei mostri. Quanto alle dimensioni non potremo andare molto oltre, visto che siamo arrivati quasi al limite. Però possiamo creare sistemi più sofisticati diventando anche maggiormente creativi nel realizzarli.
La gara tra quali Paesi si gioca?
Non c’è dubbio: tra Stati Uniti e Cina. La spinta non si lega solo ai cervelli, ma ai capitali. Per esempio quest’anno nella Silicon Valley gli investimenti di ingegnerizzazione di sistemi informatici non mi sorprenderei se fossero un po’ meno di 10 miliardi di dollari: intendo quelli destinati alla ricerca e sviluppo, non per la realizzazione di prodotti. Sono numeri enormi. Senza contare le somme che questi colossi aziendali devono investire per creare computer di una potenza incredibile. Meta ha già dichiarato che creerà un super computer per IA con 60mila chip avanzatissimi dell’Nvidia che consumano ciascuno 1000 watt. Alla fine avremo 60megawatt di calore generato per cui occorreranno almeno altri 60megawatt per eliminarlo, mantenendo temperature che non vadano oltre i 55 gradi centigradi per chip. Ecco dove sta arrivando l’industria. Quanto ai costi, ci aggiriamo appunto intorno ai miliardi di dollari.
Negli anni Novanta lei ha deciso di iniziare uno studio approfondito sulla coscienza e libero arbitrio grazie al quale ha poi sviluppato una teoria che rovescia quella che è la consueta prospettiva della scienza. Da dove è partito e a quali convinzioni è arrivato?
Dopo un’esperienza personale molto forte, ho capito che l’idea del mondo che la scienza mi aveva insegnato, cioè che noi uomini siamo macchine e che la coscienza è un epifenomeno del cervello per cui quando questo muore non esiste più nemmeno la coscienza, non poteva essere vera. Al termine dei primi vent’anni di studi sono arrivato alla conclusione che la coscienza ed il libero arbitrio, parti integranti dell’autocoscienza, devono essere fondamentali cioè non possono derivare dal cervello, ma è il cervello che deriva da loro: esattamente l’opposto di quanto sostiene la scienza. Così, nel 2008/2009 ho deciso di vendere anche la mia ultima ditta, di togliermi dai Cda delle altre aziende di cui facevo parte, e dedicarmi interamente allo studio della coscienza. Ho cercato a lungo di comprendere come essa potesse derivare da segnali elettrici, constatando invece che questi ultimi possono solo produrne altri oppure generano la forza o il movimento, ma mai sensazioni e sentimenti. Sulla base di questo, è chiaro che la coscienza deve essere una proprietà fondamentale, esattamente come l’elettricità.
Lei a questo proposito ha sviluppato una teoria della coscienza. Su cosa si basa e a quali conclusioni porta?
L’esperienza cosciente è qualcosa di privato che non può essere trasferita all’esterno se non in piccola parte. Se io dico a qualcuno che gli voglio bene posso esternare appena un po’ di quello che davvero provo. Questa realtà può essere rappresentata solo dall’informazione quantistica. E lo stato quantistico puro ha le sue stesse tre proprietà. Si presenta cioè come uno stato ben definito, non è riproducibile e la massima informazione che si può avere nel misurare un sistema quantistico è un bit per ogni quantum bit, dove il quantum bit è un’infinità di stati possibili, mentre il bit è 0 o 1. Quindi, l’informazione che possiamo misurare e mostrare agli altri è appena una piccola parte di ciò che proviamo dentro di noi. I computer non si compongono di informazione quantistica, ma di informazione classica trasferibile, per cui possiamo riprodurre programmi e dati per quanto vogliamo. Una macchina di questo tipo non può dunque avere un’esperienza cosciente perché essa non è riproducibile.
Quindi l’intelligenza artificiale, anche nella forma più avanzata, non dovrebbe mai sostituirsi all’uomo? Possiamo stare tranquilli anche anche per i posti di lavoro?
Di posti di lavoro se ne perderanno, ma al contempo ne saranno creati altri. Il punto che preoccupa molto è invece l’opinione comune che guarda all’uomo come fosse una macchina: un’idea del tutto errata. Noi non siamo macchine perché abbiamo per l’appunto una coscienza. La comprensione dei simboli, il dubbio e il libero arbitrio esistono solo nella coscienza di un sé, non in un meccanismo. Questo è un concetto fondamentale per smontare la teoria di coloro che con l’unico intento di monetizzarci sostengono che siamo macchine. Questo fa purtroppo parte del mondo di oggi e di una mentalità legata al business come viene concepito attualmente. E quel che è peggio è che la scienza, o per meglio dire lo scientismo, sostiene questa visione. Noi non siamo solo corpo, ma molto di più. Continuano a ripeterci che l’IA supererà l’uomo, che addirittura arriverà a sostituirlo. Un modo simile di vedere la realtà ed un lasciarsi andare all’accettazione passiva di tutto può portare a grandi guai in futuro. Occorre perciò sviluppare senso critico ed impegnarsi perché l’IA sia un coadiuvante per l’uomo, uno strumento utile alla sua crescita, e non qualcosa che finisca per sottometterlo.
Lei cosa suggerisce?
Di sicuro un dialogo ancora più serrato attraverso la fisica quantistica. In 34 anni, proprio con i miei studi sulla coscienza, sono riuscito a fare un balzo in avanti nella comprensione della natura della realtà che, come i fisici già sanno bene, è per l’appunto quantistica. E questa natura quantistica che nessuno capisce perché deve essere così è invece comprensibilissima nel momento in cui ci si accorge che la realtà deve avere alla base coscienza e libero arbitrio. Questa è la chiave di lettura per renderci conto di chi siamo e quindi per proteggerci dall’incursione di un’intelligenza artificiale non a servizio dell’uomo, ma usata solo per far soldi e quindi per dominare. In sostanza, per utilizzare bene l’IA, dobbiamo saperla più lunga. Se invece ci convinciamo che sia in grado di superarci, un po’ alla volta finiremo con l’essere sottomessi a chi la controlla. È tutto molto chiaro.

Commenti chiusi.