L’intelligenza artificiale scende in politica
Daren Acemoglu
L’intelligenza artificiale scende in politica
di FEDERICO FUBINI
Ho un piccolo culto personale per Daron Acemoglu da quando anni fa lessi «Why Nations Fail» (in Italia pubblicato da Saggiatore come «Perché le nazioni falliscono»), il saggio suo e di James Robinson sul ruolo delle istituzioni nella storia nel favorire o impedire lo sviluppo economico. Acemoglu, nato a Istanbul da genitori armeni 55 anni fa, insegna al Massachusetts Institute of Technology, è oggi il terzo economista più citato al mondo e uno degli intellettuali più influenti. Da decenni si interroga, da uomo libero, sui punti di forza e le contraddizioni dell’economia di mercato nei sistemi democratici: su come i due – mercato e democrazia – si rafforzano o si indeboliscono a vicenda. Da pochi giorni Acemoglu ha pubblicato il suo nuovo libro con un altro collega del Mit, l’ex capoeconomista del Fondo monetario internazionale Simon Johnson. Il libro, non ancora tradotto, si intitola «Power and Progress. Our thousand year struggle over technology and prosperity» («Potere e progresso. La nostra lotta millenaria sulla tecnologia e la prosperità»). È una lunga inchiesta sulla storia del rapporto, tormentatissimo, contraddittorio, tra tecnologia, politica e libertà. Acemoglu è intervenuto sabato al Festival internazionale dell’Economia a Torino e ho avuto l’opportunità di intervistarlo.
Acemoglu e Johnson nel loro nuovo libro a un certo punto parlano della «cosa più importante sulla tecnologia: scegliere – scrivono – Ci sono spesso moltissimi modi diversi di usare la conoscenza collettiva per migliorare la produzione e ancora più modi per darle una direzione. Useremo gli strumenti digitali a scopo di sorveglianza? Per l’automazione? O per dare nuove capacità ai lavoratori creando per loro nuove mansioni produttive?». Questo passaggio mi fa pensare al messaggio che ho ricevuto di recente dal dipendente di un’azienda (italiana) sulla quale avevo scritto un articolo. Questo racconta che sui computer suo e di tutti i suoi colleghi sono installati software che misurano il livello di utilizzo del mouse e della tastiera, per misurare l’impegno degli addetti. I capi ufficio ricevono mensilmente un rapporto dedicato a questo parametro.
Cosa intende dire quando dice che l’uso della tecnologia è una questione di scelta?
«Come il progresso viene applicato alla società è una questione di scelta – mi ha detto Acemoglu –. Siamo a un bivio: possiamo usare l’intelligenza artificiale per spiazzare i lavoratori attuali oppure per dar loro nuove capacità. Oggi tutta l’attenzione va alla raccolta e all’uso dei dati, all’automazione e alla menomazione delle capacità e del potere dei lavoratori (“disempowerment”). Invece sarebbe possibile usare le tecnologie in modo più fruttuoso per accrescere la produttività, il benessere e i salari dei lavoratori e la salute della democrazia. Ma non vedo fare le scelte giuste».
Che intende dire, professor Acemoglu?
«È sempre possibile usare le tecnologie per automatizzare dei posti di lavoro o per controllare le persone. In genere, si possono sempre usare le tecnologie per ridurre l’autonomia dei lavoratori. In realtà sarebbero uno strumento meraviglioso per rendere le persone più efficienti e più libere. Pensi al calcolatore: oggi lo diamo per scontato, ma ha rappresentato una svolta ed è sempre stato usato in modo utile per espandere le capacità umane. Nessuno ha mai detto: da domani si smette di imparare l’aritmetica a scuola, perché ormai gli umani sono inutili, per fare i calcoli non ci servono più. In realtà il calcolatore ha ampliato le capacità umane, non ha reso le persone obsolete».
Può fare altri esempi virtuosi di impiego delle tecnologie?
«Wikipedia. Trent’anni fa nessuno avrebbe creduto che un progetto collaborativo senza struttura centralizzata avrebbe battuto l’Enciclopedia Britannica. Invece lo ha fatto. Wikipedia rende le persone capaci di prendere decisioni molto migliori: usa strutture algoritmiche digitali e la collaborazione con sistemi open source per mettere a frutto la saggezza collettiva di milioni di uomini e donne. Il ruolo degli esseri umani è decisivo in Wikipedia, grazie alla competenza decentrata di un grandissimo numero di persone».
Non trova che questi siano casi rari, mentre per lo più l’uso dell’intelligenza artificiale tende a rimpiazzare e non rafforzare le capacità umane?
«Dipende dalla strada che si vuole prendere. Per esempio la vera utilità della ‘generative AI’ (l’intelligenza artificiale ‘generativa’ come quella di Chat-GPT o di GPT-4) non è di scrivere ricette del risotto nello stile di sonetti shakespeariani, ma di filtrare e recuperare informazioni curate per permettere alle persone di prendere delle decisioni. Ma non la usiamo per questo e non è designata così. Guardi come viene monetizzato questo programma: lo mettono nei games per poter mandare pubblicità mirata e individualizzata. I produttori di Chat-GPT usano i dati sugli utilizzatori secondo il modello di Facebook e Google. Al massimo le aziende lo usano GPT-4 per automatizzare mansioni piuttosto semplici».
Non trova invece che ci siano aziende che studiano come licenziare parte dei team del Chief Financial Officer o del Chief Marketing Officer grazie a Chat-GPT o GPT-4?
«Chat-GPT è un trionfo del marketing e dell’esagerazione. Fa molti errori, non comprende il contesto, si inventa le cose. Lo si può usare solo sotto stretta supervisione umana. Magari per scrivere riassunti di due o tre frasi».
GPT-4 sembra più evoluto, però.
«Lo si può usare per certi slogan di marketing e fa raccomandazioni d’investimento. Ma non è affidabile, qualcuno deve sempre rivederlo. Si esagerano molto, secondo me, i presunti guadagni di produttività. Alla fine sostituirà e spiazzerà lavoratori che non sono certo il Chief Financial Officer o il Chief Operating Officer. Saranno i colletti bianchi di basso livello a essere toccati».
Però gli effetti dell’intelligenza artificiale, in positivo e in negativo, saranno sicuramente sempre più pervasivi negli anni. C’è secondo lei un modo per selezionare e ottenere il più possibile i vantaggi, ma il meno possibile i danni di questa nuova tecnologia per la società?
«Lei mi sta chiedendo quali sono gli argini, cosa c’è per fermare l’intelligenza artificiale quando è giusto fermarla. Ma cosa può impedire a un’azienda di energia nucleare di vendere uranio arricchito alla Corea del Nord? Le regole, la regolamentazione. Una delle vittorie ideologiche e lobbistiche di Silicon Valley è nell’aver convinto i regolatori e la società in genere che non si può e non si deve regolamentare il digitale. Noi oggi sottoponiamo a regolamentazione tutto il resto: i vaccini, la vendita di prodotti finanziari, i dentisti. E certo se non metti regole sulla professione del dentista le conseguenze saranno terribili, perché tanta gente avrà denti malmessi. Ma gli effetti dell’intelligenza artificiale arriveranno in ogni settore dell’economia, eppure non sembra proprio che negli Stati Uniti si voglia fare qualcosa».
Chi dovrebbe definire e far rispettare le regole all’intelligenza artificiale?
«Non sono per una regolamentazione soffocante, all’italiana. C’è gente che crede che il governo possa essere un innovatore migliore del settore privato, ma l’evidenza in proposito è zero. Le regole possono essere ‘light touch’ e funzionare lo stesso. Ma dato che gli effetti dell’intelligenza artificiale presentano dei rischi esistenziali sul futuro del lavoro, sul futuro delle diseguaglianze e della democrazia stessa, non possiamo lasciare tutte le decisioni a un pugno di top manager di Silicon Valley che hanno una visione molto distorta del mondo. C’è bisogno di un filtro democratico su come queste tecnologie vengono usate. Si può coinvolgere il processo democratico in queste decisioni».
Sam Altman, il fondatore di Open AI e creatore di Chat-GPT e GPT-4, in una recente audizione al Congresso ha chiaramente prospettato la possibilità che si utilizzi l’intelligenza artificiale nelle campagne politiche. Lei crede che alle prossime presidenziali americane qualche candidato inizierà a usare GPT-4 per mandare messaggi su misura agli elettori?
«Lo faranno di sicuro. Probabilmente si stanno già organizzando per farlo».
Intende dire che gli elettori riceveranno dei messaggi pensando che provengano da persone, mentre saranno messaggi generati su misura per loro da una macchina sulla base delle tracce di sé che gli elettori lasciano sui social?
«Esatto. La buona notizia è che non c’è nulla di nuovo, lo abbiamo già visto sui social media. L’uso dei bot non era così precisamente su misura come si può fare con l’intelligenza artificiale, ma almeno questa volta dovremmo essere pronti. Abbiamo migliaia di pagine di documenti su come quelle attività sono state perseguite attraverso Facebook nelle elezioni del 2016 e del 2020: hanno alimentato bolle di opinione (‘echochambers’), estremismo, reazioni rabbiose e emotive, disinformazione che veniva creduta. Potremmo far leva su questa esperienza per difenderci, ma non lo stiamo facendo. C’è un’incredibile passività».
Lei ha ragione: i politici non stanno reagendo. Forse appunto perché vogliono usare l’intelligenza artificiale nella loro prossima campagna.
«Ma neanche i burocrati stanno reagendo. Non sono allenati a gestire questi nuovi fenomeni e non ci sono istituzioni per regolamentarli. Del resto il sistema politico è diventato così polarizzato negli Stati Uniti che questo fenomeno di divisione influenza anche i burocrati. Anche loro hanno un’agenda politica. Molta gente di valore ha lasciato l’amministrazione pubblica e le risorse a disposizione delle aziende tecnologiche per assumere i migliori sono infinitamente superiori a quelle del governo. Dunque manca il capitale umano per produrre una buona regolamentazione dell’intelligenza artificiale. Oltretutto manteniamo questa visione aulica della tecnologia: pensiamo di poterci comunque fidare, perché qualcosa di buono ne verrà sicuramente».
I titani del Big Tech dicono spesso che hanno a cuore il bene comune, lo sviluppo dell’umanità. Tutto finto, secondo lei?
«Dovremmo sapere dalla storia degli ultimi quarant’anni come funziona Silicon Valley. Ma, appunto, questa esperienza ci rende più difficile agire. Gli amministratori della cosa pubblica hanno perso potere, la politica è polarizzata, i movimenti sindacali in America sono stati distrutti. E noi continuiamo a esaltare i campioni delle tecnologie, da Mark Zuckerberg a Elon Musk. Quelli gestiscono una quantità immensa di denaro e noi ne siamo ipnotizzati. Sam Bankman-Fied (il fondatore di Ftx, la piattaforma di criptovalute distrutta da una bancarotta fraudolenta, ndr) era chiaramente un truffatore, non ci voleva certo un dottorato in economia per capirlo. Aveva molti meno soldi di Musk o Zuckerberg, eppure gli erano bastati per catturare il sistema di regolamentazione e il Congresso. Dunque sì, sono preoccupato. Avremmo dovuto imparare la lezione, ma non lo abbiamo fatto. E adesso il campo di gioco è diventato molto squilibrato».
***
dal Corriere della Sera
ChatGPT, l’Intelligenza artificiale
che può sostituire Google (ma non l’uomo)
di Roberto Battiston e Massimo Sideri
Se non fate parte dei primi 5 milioni di persone al mondo che in poco meno di un mese hanno provato a interrogare quasi fosse un oracolo ChatGPT, la chat di intelligenza artificiale di quarta generazione resa disponibile dal gruppo Open.AI, non preoccupatevi: potrete vivere tranquilli ancora per un po’. Alla fine di questo articolo, però, anche voi potrete dire di aver assaggiato un morso di futuro che, come la mela di Eva, sarà stata anche un po’ dolce (immaginiamo) ma allo stesso tempo andò di traverso sia a lei che ad Adamo. Vi potrete consolare sapendo che questa mela andrà probabilmente di traverso anche a Google.
Ma partiamo dalla prima domanda che vi starete ponendo: com’è veramente questa Intelligenza artificiale? Prenderla in giro è facile (crede che l’uomo sia stato su Marte grazie alle missioni Apollo). Prenderla sul serio anche. Più che dotta sembra confusa (2+2 può fare più di 4 «perché se usiamo la notazione romana allora II+II fa IV, dunque più di IV»), arrogante (lo vedremo con il Teorema di Fermat), spiona, politicamente corretta (in particolare sembra indottrinata per eludere tutti gli stereotipi sulle persone di colore, storico problema degli algoritmi), evasiva su se stessa e i propri capi (inutile fargli domande personali, risponde con una tiritera del tipo «sono un modello di linguaggio addestrato e non posso provare le emozioni…»), un po’ complottista (su Wuhan e la fuga del virus), pericolosa. Lo stesso Elon Musk, uno dei primi finanziatori, l’ha definita «scary good», spaventoso bene.
Chiaramente tutto ciò è assolutamente e tecnicamente irrilevante: perché essendo una rete neurale e non un algoritmo ottimizzato cambia le risposte in base alle persone, al tempo, ai linguaggi, ai tentativi. Sbaglia, impara, dice sciocchezze e grandi verità dopo 5 minuti, magari sullo stesso argomento. Insomma, è come noi. D’altra parte lo manifesta: la prima cosa che ci dice è che è meglio non dirgli nulla di personale, perché c’è il Grande fratello ad ascoltare (quelli del team, in carne ed ossa). La seconda è che soffre di bias, pregiudizi.
Però più che intelligente — se proprio ci teniamo ad usare un termine che ci riporti a noi esseri umani — mostra di essere furba: quando capisce di essere entrata in fallo diventa prudente. Nei primi giorni si è lanciata in una dimostrazione sul Teorema di Fermat, uno dei grandi problemi della matematica, tanto complessa quanto sbagliata. L’abbiamo interrogata dopo qualche giorno da un altro account ed è diventata improvvisamente cauta: ha iniziato la dimostrazione per poi tornare sui propri passi e consigliare un buon libro sull’argomento.
Quello che è certo è che sembra consapevole del proprio ruolo «sociale»: rispondere alle domande. Bertrand Russell scriveva che il «successo» dei filosofi della Grecia antica dipendeva dall’essersi posti le domande giuste, più che dalle risposte (spesso sbagliate, talvolta falsificabili con il progresso scientifico come avrebbe detto Popper). Domande e risposte. Pensiamoci bene: non si sta riducendo a questo il nostro rapporto con la tecnologia?
Abbiamo cercato di metterla alla prova su temi che vanno dalla conquista dello spazio, dove ha dimostrato conoscenze tecniche note solo a specialisti, ai cambiamenti climatici, fino alla linguistica computazionale e al futuro dell’AI. Avendo accesso potenzialmente a tutte le informazioni (anche se non a ciò che è accaduto nel 2022), si mostra potente sulle interrogazioni contenutistiche, nonostante clamorose scivolate come quella su Marte che tanto correggerà (per esempio due giorni dopo continua ad essere convinta che l’uomo sia stato su Marte, ma non più con le missioni Apollo, ma nel 2035…).
Convince di più chiaramente sulle domande «chiuse», quelle che prevedono risposte certe, come sì o no. Brancola nel buio di fronte alle domande aperte, dove tutte le risposte possono essere esatte a seconda del contesto. Il «nì» è un concetto troppo umano. Alla domanda quando è che 2+2 fa più di 4 ha risposto prima mai. Dopo un po’ di insistenza ha cominciato a «sospettare» («potrebbe fare di più in un contesto ironico»), fino ad entrare in confusione con la numerazione latina. Per ora non ha capito che 2+2 può fare 3 o 5 a seconda che ci si trovi di fronte a un acquisto o a una vendita, come sanno immobiliaristi e banchieri.
(Qui la puntata con Federico Faggin, il padre del microprocessore, di Geni Invisibili, il podcast sulle scoperte italiane dimenticate)
Ascolta (è interessantissimo)
***
da disf.org
La differenza fondamentale
tra intelligenza umana e intelligenza artificiale
Federico Faggin
2016
Conferenza tenuta a Santiago del Chile ad un Congresso sul Futuro
Oggi c’è molta speculazione su un possibile futuro in cui l’umanità sarà sorpassata o addirittura distrutta dalle macchine. Sentiamo parlare di auto che si guidano da sole, di Big Data, di rinascita dell’intelligenza artificiale e perfino di transumanesimo, l’idea secondo cui sarà possibile scaricare la nostra esperienza e consapevolezza in un computer e vivere per sempre. Leggiamo anche dichiarazioni di personaggi importanti come Steven Hawking, Bill Gates ed Elon Musk sui pericoli della robotica e dell’intelligenza artificiale. Allora, cos’è vero e cos’è falso nell’informazione che riceviamo?
In tutte queste proiezioni, si prende come dato di fatto che sarà possibile realizzare macchine autonome e intelligenti in un futuro non troppo lontano: macchine uguali se non migliori di noi. Ma questa supposizione è corretta? Il mio pensiero è che la vera intelligenza richiede coscienza, e che la coscienza è qualcosa che le nostre macchine digitali non hanno, e non avranno mai.
La maggior parte degli scienziati crede che siamo solo macchine: sofisticati sistemi di elaborazione delle informazioni basati su wetware. Ecco perché pensano che sarà possibile realizzare macchine che supereranno gli esseri umani. Credono che la coscienza emerga solo dal cervello, che sia prodotta da qualcosa di simile al software che funziona nei nostri computer. Pertanto, con un software più sofisticato, i nostri robot finiranno per essere consapevoli. Ma ciò è davvero possibile?
Bene, cominciamo con il definire cosa intendiamo per coscienza. Io so, dentro di me, di esistere. Ma come faccio a saperlo? Sono sicuro che esisto perché lo sento dentro di me. Quindi, è il sentire il portatore della conoscenza. La capacità di sentire è la proprietà essenziale della coscienza. Quando annuso una rosa, sento l’odore. Ma attenzione! La sensazione non è l’insieme dei segnali elettrici prodotti dai recettori olfattivi all’interno del mio naso. Questi segnali elettrici portano informazioni oggettive, ma tali informazioni sono tradotte nella mia coscienza in una sensazione soggettiva: cioè il profumo che quella rosa mi fa sentire. Dove mai si nasconde il profumo nei segnali biochimici ed elettrici?
Per esempio, è certamente possibile costruire un robot in grado di riconoscere la particolare combinazione di molecole diverse emesse da una rosa che permettono di identificarla correttamente dal suo odore. Però quel robot non proverebbe nessuna sensazione. Non sarebbe consapevole dell’odore sotto forma di sensazione. Per essere consapevoli bisogna sentire il profumo. Ma il robot si ferma ai segnali elettrici, e da quei segnali può generare quello che corrisponde al nome “rosa” – un altro simbolo – a cui può anche essere associato qualche tipo di azione. Noi facciamo molto di più perché sentiamo l’odore della rosa, e attraverso quella sensazione ci colleghiamo in modo speciale a quella rosa, e al significato che le rose hanno nella nostra vita.
La coscienza potrebbe essere definita semplicemente come la capacità di sentire. Ma sentire implica l’esistenza di un soggetto che sente – un sé -, e quindi la coscienza è inestricabilmente legata a un sé. È la capacità intrinseca di un sé di percepire e conoscere attraverso le sensazioni e i sentimenti, cioè attraverso un’esperienza senziente: è una proprietà che definisce un sé. Ora, i sentimenti sono chiaramente una categoria di fenomeni diversa dai segnali elettrici e biochimici: sono incommensurabili con loro. I filosofi hanno coniato la parola quale per indicare che cosa si prova. E spiegare l’esistenza dei qualia (plurale di quale) è chiamato “il problema difficile della coscienza”, perché nessuno lo ha mai risolto. Nel mio discorso userò la parola “qualia” per descrivere quattro classi diverse di sentire: sensazioni fisiche, emozioni, pensieri e sentimenti spirituali.
I segnali elettrici siano essi in un computer o in un cervello, non producono qualia. E non c’è nessuna legge fisica che ci dice come tradurre segnali elettrici in qualia. Come si spiega allora l’esistenza dei qualia?
Avendo studiato il problema per oltre vent’anni, sono arrivato alla conclusione che la coscienza dev’essere un aspetto irriducibile della natura, una proprietà intrinseca di quella “sostanza” da cui spazio, tempo, materia ed energia sono emersi nel Big Bang.
In questa prospettiva, ben lungi dall’essere un epifenomeno, la coscienza è reale. In altre parole, la sostanza di cui tutta la realtà è fatta è cosciente ab initio, e l’espressione materiale più evoluta di questa sostanza è ciò che chiamiamo “vita”. Secondo questa visione, la coscienza non è una proprietà emergente di un sistema complesso, ma al contrario: un sistema complesso è una proprietà emergente della sostanza cosciente di cui tutto è fatto. Pertanto, la coscienza non può magicamente emergere dagli algoritmi, ma è già presente nei campi delle particelle elementari di cui tutto è fatto. In quest’ ottica, la coscienza e i sistemi fisici co-evolvono verso complessità sempre maggiori. Sono due aspetti irriducibili della stessa realtà.
Non c’è abbastanza tempo per esplorare quest’ argomento in profondità, perché voglio invece portare argomenti per dimostrare che la coscienza è indispensabile per realizzare macchine veramente intelligenti e autonome, e che la coscienza non è una proprietà che emergerà dai computer booleani.
C’è però chi potrebbe insistere che i computer potranno comportarsi meglio degli uomini, anche senza coscienza. Discuterò questo punto in seguito mostrando che la comprensione è una proprietà fondamentale della coscienza, ancora più importante della percezione dei qualia, e che la comprensione è ciò che definisce la natura della vera intelligenza. Quindi, se non c’è coscienza non c’è comprensione, senza comprensione non c’è intelligenza, e senza intelligenza un sistema non può essere autonomo a lungo.
Consideriamo ora come gli esseri umani prendono decisioni: il nostro sistema sensoriale converte in segnali elettrici le varie forme d’energia che esistono nel nostro ambiente. Questi segnali vengono poi inviati al cervello per essere elaborati, e il risultato dell’elaborazione è un altro insieme di segnali elettrici, che rappresentano ciascuno le informazioni multisensoriali visive, uditive, tattili e così via. I computer possono certamente arrivare fino a questo punto.
Però in noi quest’informazione viene convertita in conoscenza semantica all’interno della nostra coscienza, sotto forma di un insieme di qualia multisensoriali che rappresentano lo stato sia del mondo interiore sia del mondo esterno. In effetti, è ancora più preciso dire che il mondo esterno oggettivo è stato portato dentro di noi in una rappresentazione soggettiva costruita dal cervello, che la nostra coscienza integra nella percezione di due mondi distinti.
Questo è ciò che chiamo percezione senziente. Si tratta solo del dato semantico grezzo dal quale viene estratto un significato soggettivo attraverso la comprensione, un processo addizionale ancora più misterioso di quello che ha prodotto la percezione. La comprensione è ciò che ci permette di capire ii significato della situazione attuale nel contesto della nostra esperienza passata e dell’insieme dei nostri desideri, aspirazioni e intenzioni.
La comprensione quindi è il passo necessario prima che possa essere fatta una scelta intelligente. È la comprensione che ci consente di decidere se un’ azione sia necessaria o meno e, in caso affermativo, quale azione sia quella ottimale. Il grado di coinvolgimento della coscienza nel decidere quale azione intraprendere ha una vasta gamma, passando da nessun coinvolgimento, quando l’azione (o l’inazione) è automatica, fino a una riflessione cosciente prolungata, che può richiedere giorni o settimane di riflessione sul da farsi prima di decidere quale azione intraprendere.
Quando la situazione corrente è giudicata simile ad altre situazioni note in cui una determinata azopme ha prodotto buoni risultati, la stessa azione può essere scelta inconsciamente, producendo essenzialmente una risposta condizionata. Questo comportamento è simile a un comportamento meccanico. All’estremo opposto ci sono situazioni mai incontrate prima, nel qual caso le varie scelte possibili, basate sulla precedente esperienza, sono inapplicabili.
Qui è dove la nostra coscienza viene coinvolta, permettendoci di trovare una soluzione più o meno creativa. È questo l’aspetto cruciale dove la coscienza è indispensabile: nel risolvere non problemi banali, ma problemi mai prima affrontati. Pertanto, la vera intelligenza è la capacità di giudicare correttamente una situazione e di trovare una soluzione creativa qualora la situazione la richieda. La vera intelligenza richiede comprensione.
Per avere un’autentica autonomia, un robot dev’essere in grado di operare liberamente e di gestire abilmente l’enorme variabilità di situazioni che s’incontrano nella vita reale. Ma, ancora di più, deve saper gestire anche situazioni in ambienti ostili in cui c’è inganno e aggressione. È la quasi infinita variabilità di queste situazioni che rende necessaria la comprensione.
Solo la comprensione può ridurre o rimuovere l’ambiguità presente nei dati oggettivi. Un esempio di questo problema è il riconoscimento della scrittura a mano o la traduzione da una lingua in un’altra in cui l’informazione simbolica è carente o è ambigua. Solo la comprensione può aggiungere l’informazione mancante per risolvere il problema.
I robot autonomi sono possibili solo in situazioni in cui l’ambiente è controllato artificialmente o la sua variabilità è prevedibile a priori. Dove ciò non è possibile, la differenza tra una macchina e un essere umano diventa un abisso incolmabile.
Tutte le macchine che costruiamo computer inclusi, sono realizzate assemblando un certo numero di parti separate. Quindi possiamo, almeno in linea di principio, smontare una macchina in tutti i suoi componenti separati e rimontarla, e la macchina funzionerà di nuovo. Però non possiamo “smontare” una cellula vivente nei suoi componenti atomici e poi riassemblare le “parti” sperando che la cellula funzioni di nuovo. La cellula vivente è un sistema dinamico di un tipo diverso rispetto alle nostre macchine: utilizza componenti quantici che non hanno confini definibili.
Studiamo le cellule in modo riduttivo, come se fossero macchine, ma in realtà le cellule sono sistemi oIistici. Una cellula è anche un sistema aperto, perché scambia costantemente energia, informazione e materia con l’ambiente in cui esiste. La struttura fisica della cellula è quindi dinamica, perché viene ricreata continuamente con parti che fluiscono costantemente dentro e fuori di essa, anche se ci sembra che rimanga la stessa. Una cellula non può essere separata dall’ambiente con cui è in simbiosi senza perdere qualcosa d’essenziale. Un computer invece, per tutto il tempo in cui funziona, ha gli stessi atomi e molecole che aveva quando fu costruito. Nulla cambia nel suo hardware e, in questo senso, è un sistema statico.
Il tipo d’elaborazione delle informazioni svolto in una cellula è completamente diverso da ciò che avviene nei nostri computer. In un computer, i transistori sono collegati insieme in uno schema fisso; in una cellula, le parti interagiscono liberamente tra di loro, elaborando le informazioni con principi informatici che ancora non conosciamo. Ma, finché studieremo le cellule come sistemi biochimici riduttivi invece che come sistemi d’elaborazione dell’informazione quantistica, non saremo in grado di capire le differenze che esistono tra loro e i computer booleani.
Quando studiamo una cellula in modo riduttivo e separata dal suo ambiente, riduciamo un sistema olistico alla somma delle sue presunte parti, gettando via ciò che è più della somma delle parti. E proprio lì che si nasconde la coscienza. La coscienza esiste solo nella dinamicità aperta della vita, che esiste all’interno dei campi quantici delle particelle elementari. E la vita è inestricabilmente legata al dinamismo che vediamo nelle cellule, che sono gli “atomi” indivisibili di cui tutti gli organismi viventi sono costituiti. La morale è che la vita e la coscienza non sono riducibili alla fisica classica, mentre i computer lo sono. Le cellule sono ritenute strutture classiche, invece non lo sono.
Senza la coscienza dei campi quantistici, il sé e l’interiorità fatta di significati non possono esistere. I robot sono soltanto meccanismi che imitano un essere vivente, copiando solo l’aspetto simbolico esterno di un sé cosciente.
Come sarebbe la nostra vita se non sentissimo nulla? Se non provassimo l’amore, la gioia, l’entusiasmo, il senso della bellezza e, perché no, anche il dolore? Una macchina è uno zombi che passa attraverso una successione di movimenti meccanici senza sentimenti e comprensione. Non c’è vita intenore in una macchina: è tutta esteriorità. In un organismo vivente anche il mondo esterno è portato “dentro”, per così dire, per dargli un significato. Ed è la coscienza che dà significato alla vita.
L’idea che i computer classici possano diventare più intelligenti degli esseri umani è, in realtà, una fantasia pericolosa. Pericolosa perché, se l’accettiamo, ci limiteremo a esprimere solo una piccolissima frazione di ciò che siamo realmente. Quest’idea ci toglie potere, libertà e soprattutto umanità: qualità che appartengono alla nostra coscienza, e non alla macchina che ci viene detto che siamo.
A mio avviso, il vero pericolo dei progressi della robotica e dell’intelligenza artificiale non è quello di creare macchine che prenderanno il sopravvento sull’umanità perché saranno più perfette di noi. Il vero pericolo è che uomini malvagi possano causare danni seri all’umanità e all’ecosistema controllando computer e robot sempre più potenti soltanto per il loro interesse. Ma allora sarà l’uomo, non la macchina, a causare il problema. Questa è una grande sfida che la società dovrà affrontare il più presto possibile. Usati correttamente, i computer, i robot, e l’intelligenza artificiale ci permetteranno di scoprire la magnificenza di tutta la vita man mano che ci confronteremo con loro.
Guidata da buone intenzioni la nuova conoscenza accelererà la nostra evoluzione spirituale. Se motivata da cattive intenzioni, l’umanità potrà essere schiavizzata da uomini pieni di odio ed egoismo. La scelta è nostra e solo nostra.
da Silicio. Dall’invenzione del microprocessore alla nuova scienza della consapevolezza, Mondadori, Milano 2019, pp. 299-305
Commenti Recenti