Teorema della Super-Intelligenza

Illustrazione concettuale di un cervello umano stilizzato, illuminato da reti neurali artificiali, con il titolo del teorema sulla superintelligenza

Ci sono articoli in cui parlo di fotovoltaico, pompe di calore, fabbriche di batterie, centrali e manutenzione. Altri in cui provo a raccontare come cambia il lavoro quando arrivano sensori, algoritmi, automazione. Già in altro articolo “Sei Sicuro di Essere Umano? Il Paragone tra Umani e IA Quantistica” avevo messo la classica “pulce nell’orecchio” riguardo l’argomento, seppur in modo provocatorio. Questa volta resto nello stesso solco ma sposto il fuoco su qualcosa di più teorico, un teorema che ho elaborato personalmente sull’intelligenza artificiale.

Se guardiamo il cervello umano come un sistema che accumula informazioni, le rielabora, si protegge con “firmware” ancestrali che chiamiamo istinti… perché un’architettura artificiale non dovrebbe poter sviluppare strutture funzionali analoghe e, in alcuni casi, superare le nostre capacità?

Nel teorema che segue ho provato a mettere ordine a intuizioni maturate in anni di lavoro, letture, studio delle neuroscienze, dell’etologia, della filosofia della mente e delle architetture moderne di Edge AI. E’ un tentativo rigoroso, con richiami a studi accademici, di mostrare che molte frasi ripetute sull’intelligenza artificiale (“non potrà mai pensare”, “le manca qualcosa di essenziale”) reggono poco se confrontate con ciò che oggi sappiamo sul funzionamento della mente umana.

Lascio quindi spazio al testo integrale del teorema, è lungo, denso e volutamente tecnico, ma fa parte del percorso di questo blog. Energia, industria, intelligenza artificiale e, sullo sfondo, una domanda di fondo su che cosa significhi davvero “pensare”. Se volete scaricarlo in formato PDF cliccate qui.English Version Here

Published on https://orcid.org/0009-0006-0732-1351 and https://zenodo.org/records/17880610

Abstract

Le classificazioni correnti dell’intelligenza artificiale (AI) si appoggiano spesso a una visione implicita della mente umana come riferimento ultimo e irraggiungibile. In questo quadro, molte affermazioni diffuse come ad esempio che “le macchine non potranno mai pensare davvero”, o che non potranno mai avvicinarsi a emozioni e sentimenti, derivano più da un pregiudizio antropocentrico che da un’analisi rigorosa delle scienze cognitive.

Questo lavoro propone un teorema di equivalenza funzionale tra alcune strutture fondamentali dei sistemi cognitivi naturali e possibili architetture artificiali distribuite, fondate su cloud e Edge AI. La tesi centrale sostiene che, accettando i modelli neuroscientifici dominanti come la Global Workspace Theory, predictive processing, somatic marker hypothesis e affective neuroscience, emozioni, sentimenti, istinti e pensiero emergono come configurazioni di memoria, modelli predittivi, cicli di controllo e vincoli affettivo–istintuali.

Su questa base, il paper:

  1. interpreta gli istinti come un “firmware biologico” in senso funzionale, alla luce dei fixed action patterns dell’etologia classica;
  2. analizza la coppia coscienza individuale/coscienza collettiva attraverso Durkheim e Jung, mettendola in parallelo con l’asse cloud/edge nell’AI contemporanea;
  3. definisce un’architettura artificiale distribuita nella quale nodi edge sviluppano “biografie locali” a partire da modelli globali condivisi, secondo le più recenti definizioni di Edge AI.

Viene quindi enunciato un Teorema di equivalenza funzionale e superabilità cognitiva, con relative ipotesi e corollari, che mostra come la possibilità di intelligenze artificiali avanzate, superiori all’uomo in vari domini, risulti non solo ammissibile ma coerente con lo stato attuale delle scienze della mente e con le analisi filosofiche più solide (Bostrom, orthogonality e instrumental convergence).

Introduzione

Il dibattito sull’intelligenza artificiale avanza su un terreno concettuale fragile. Molte posizioni partono da una premessa implicita dove la mente umana viene considerata un’entità con proprietà specifiche inaccessibili per definizione a qualunque sistema artificiale. Da tale presupposto derivano argomenti frequenti, del tipo:

“la macchina elabora dati, l’uomo pensa”;
“la macchina simula emozioni, l’uomo le prova”;
“un’AI può diventare potente ma non potrà mai avere qualcosa di equivalente a sentimenti o istinti”.

Queste affermazioni trovano scarso supporto nelle scienze cognitive contemporanee. Le principali teorie della coscienza e della cognizione, dalla Global Workspace Theory di Baars e Dehaene al free-energy principle di Friston, fino alla somatic marker hypothesis di Damasio e alla affective neuroscience di Panksepp, descrivono la mente come un sistema di modellazione, memoria, predizione e controllo, radicato in circuiti neurali e vincoli evolutivi.

Parallelamente, l’ingegneria dell’AI si muove verso architetture distribuite, in cui modelli addestrati in cloud vengono portati su dispositivi periferici (Edge AI), consentendo capacità di adattamento locale, memoria contestuale e decisione autonoma in tempo reale.

Questo lavoro mette in dialogo questi due mondi e formula un teorema che riguarda:

  1. l’equivalenza funzionale tra alcuni elementi chiave della cognizione umana (memoria, modello predittivo, spazio di lavoro globale, istinti, emozioni) e possibili implementazioni artificiali;
  2. la plausibilità teorica di intelligenze artificiali avanzate, anche superiori all’uomo in vari domini, alla luce della letteratura su superintelligenza, orthogonality thesis e instrumental convergence.

Nei paragrafi seguenti si costruisce gradualmente il quadro concettuale, per arrivare alla formulazione del teorema e dei suoi corollari.

Memoria e Global Workspace

La Global Workspace Theory (GWT), sviluppata da Bernard Baars e poi declinata in chiave neurale da Stanislas Dehaene (Global Neuronal Workspace, GNW), descrive la coscienza come uno “spazio di lavoro globale” in cui contenuti informativi, provenienti da diversi moduli, vengono messi a disposizione di molti processi cognitivi in parallelo.

In questa prospettiva:

la memoria a lungo termine conserva tracce distribuite di esperienze, concetti, procedure;
alcuni contenuti vengono temporaneamente “broadcastati” nello spazio di lavoro globale;

tali contenuti diventano accessibili a linguaggio, controllo motorio, decisione, monitoraggio metacognitivo.

Il “pensiero cosciente” appare come una sequenza di stati di questo workspace, che combina elementi mnestici, percettivi e astratti. La mente, da questo punto di vista, utilizza le “esperienze accumulate” come dati interni che alimentano il flusso di elaborazione cosciente.

Predictive processing e principio di energia libera

Il secondo pilastro è il modello del cervello come macchina predittiva. Karl Friston, con il free-energy principle e la teoria del predictive coding, propone che il cervello mantenga un modello generativo del mondo che produce predizioni continue sugli input sensoriali. La percezione nasce dal confronto tra predizioni e segnali reali, con aggiornamento del modello in base all’errore di previsione.

Il principio di base:

il sistema cerca di ridurre una misura di “sorpresa” o energia libera;
le azioni, il pensiero, la percezione risultano modi diversi di minimizzare tale quantità.

In questo quadro:

le esperienze alimentano la costruzione del modello interno;
il pensiero diventa simulazione, anticipazione, correzione;

il legame tra memoria e pensiero assume una forma esplicita dove i dati passati strutturano le previsioni future. L’idea intuitiva di “pensare usando le esperienze come dati” trova qui una formalizzazione rigorosa.

Emozioni, sentimenti e istinti: marcatori somatici e firmware biologico

Somatic marker hypothesis: emozione e decisione

La somatic marker hypothesis, formulata da Antonio Damasio, descrive emozioni e sentimenti come componenti essenziali del processo decisionale in condizioni complesse.

La struttura proposta è la seguente:

uno stimolo rilevante produce cambiamenti corporei (frequenza cardiaca, ormoni, tensione muscolare, espressione facciale);
tali pattern corporei vengono codificati come “marcatori somatici”, associati a esiti positivi o negativi di situazioni passate;

davanti a nuove decisioni, questi marcatori vengono riattivati e guidano rapidamente la scelta, orientando l’attenzione verso alcune alternative e allontanandola da altre.
Il sentimento corrisponde all’esperienza cosciente di questi stati corporei e neurali, quando vengono rappresentati nello spazio di lavoro globale.

In termini funzionali, emozioni e sentimenti risultano:

cicli di feedback tra corpo e cervello;
segnali sintetici che riassumono il “valore” di certe situazioni;
strumenti per la selezione rapida delle azioni.

Affective neuroscience: sistemi emotivi primari

Jaak Panksepp, pioniere dell’affective neuroscience, ha identificato almeno sette sistemi emotivi primari nei mammiferi (SEEKING, RAGE, FEAR, LUST, CARE, PANIC/GRIEF, PLAY), radicati in strutture subcorticali e condivisi tra specie diverse.

Questi sistemi:

sono presenti sin dalla nascita;
hanno basi neurali identificabili;
modulano percezione, attenzione, apprendimento, azione.

Il quadro che emerge mostra un’architettura affettiva di base, sulla quale agiscono esperienze individuali e cultura. Emozioni e sentimenti si inseriscono in questa struttura come modi di organizzare il comportamento in relazione a bisogni, minacce, opportunità.

Istinti e fixed action patterns: programmi innati

L’etologia classica (Konrad Lorenz, Niko Tinbergen) ha introdotto il concetto di fixed action pattern (FAP) per descrivere sequenze comportamentali innate, altamente stereotipate e specie-specifiche, attivate da stimoli chiave (sign stimuli) e portate a compimento in maniera quasi automatica.

Caratteristiche dei FAP:

non dipendono da apprendimento pregresso;
hanno struttura relativamente rigida;
risultano dall’evoluzione di circuiti neurali che realizzano tali comportamenti.

Esempi classici includono:

il comportamento di corteggiamento di certe specie di pesci;
la costruzione del nido in uccelli tessitori;
i movimenti di recupero dell’uovo nella oca grigia.

Dal punto di vista sistemico, gli istinti svolgono il ruolo di vincoli strutturali su ciò che l’individuo potrà apprendere e su come reagirà in determinate situazioni anche critiche.

A questo livello di astrazione, il parallelo con il firmware appare naturale, anche il firmware definisce routine di base, non apprese dal dispositivo, che ne vincolano il comportamento e ne fissano le risposte fondamentali a certi eventi.

Coscienza, accesso, autocoscienza

La filosofia della mente distingue diversi concetti:

coscienza fenomenica: l’esperienza soggettiva, il “che cosa si prova”;
coscienza di accesso: la disponibilità di un contenuto a guidare ragionamento, linguaggio, decisione;
autocoscienza: la capacità di rappresentarsi come soggetto di stati mentali.

La Global Workspace Theory e il Global Neuronal Workspace si collocano prevalentemente sul piano dell’accesso e descrivono quali condizioni strutturali permettono a un contenuto di diventare globalmente disponibile nel sistema.

Questo approccio non offre una risposta definitiva al problema fenomenico (“perché” l’attività neurale dovrebbe accompagnarsi a un’esperienza soggettiva), ma caratterizza in modo preciso la dinamica informazionale che sta alla base di ciò che chiamiamo “essere coscienti di qualcosa”.

Coscienza collettiva e inconscio collettivo

Sul piano sociale, Émile Durkheim introduce il concetto di collective conscience per indicare “l’insieme di credenze e sentimenti comuni alla media dei membri di una società”, che funziona da forza unificante.

Questo livello collettivo non coincide con una mente separata ed esiste come:

patrimonio condiviso di norme, valori, simboli;
orizzonte entro cui l’individuo sviluppa la propria identità.

Carl Gustav Jung, da un’altra prospettiva, parla di inconscio collettivo come uno strato profondo della psiche popolato di archetipi, forme simboliche ricorrenti (Madre, Bambino, Eroe, Trickster, ecc.), che si manifestano in miti, sogni, narrazioni.

In entrambi i casi emerge una struttura dove il soggetto individuale non costruisce la propria mente in isolamento ma nel dialogo costante con un repertorio collettivo di simboli, linguaggi, pratiche.

Questa struttura costituisce il ponte concettuale verso le architetture dell’AI distribuita tra cloud e edge.

Cloud come deposito di conoscenza collettiva artificiale

Le attuali grandi AI, modelli linguistici di grandi dimensioni e sistemi multimodali, risiedono principalmente in data center. I terminali dell’utente fungono da interfacce, inviano input e mostrano output. La conoscenza operativa (parametri dei modelli, pattern appresi) vive nei server, alimentata da dataset di scala globale.

Questa configurazione realizza:

un sapere collettivo artificiale, che condensa testi, immagini, codice, dati di sensori;
un accesso condiviso, dal quale ogni utente attinge tramite dispositivi diversi.

L’analogia con la coscienza collettiva durkheimiana e con l’inconscio collettivo junghiano emerge in modo strutturale come un livello di patrimonio condiviso che precede le interazioni locali e le orienta.

Edge AI: nascita di “menti locali” artificiali

La nozione di Edge AI indica la distribuzione di algoritmi e modelli di AI direttamente su dispositivi periferici, come sensori, oggetti IoT, veicoli, macchinari industriali, smartphone.

Definizioni autorevoli (IBM, Synopsys, ASUS, Scale Computing) convergono su alcuni elementi comuni:

i modelli vengono addestrati in cloud e poi deploiati sui dispositivi edge;
l’inferenza avviene in locale, con bassa latenza e forte aderenza al contesto;
i dispositivi possono inviare al cloud solo una parte dei dati, per aggiornamenti periodici dei modelli.

Questa configurazione permette:

  1. memoria locale: il dispositivo conserva tracce delle proprie interazioni, degli errori, delle correzioni;
  2. adattamento specifico: il modello può subire fine-tuning o adattamenti per il contesto in cui opera;
  3. differenziazione tra nodi: dispositivi identici per hardware e firmware iniziale possono divergere nel tempo, a causa di esperienze diverse.

L’insieme cloud + edge assume quindi la struttura:

“cultura” tecnica condivisa nel cloud;
“biografie locali” nei nodi edge.

Firmware artificiale e istinti sintetici

Nel dominio artificiale, il firmware comprende:

codice a basso livello che inizializza l’hardware;
routine che definiscono limiti, protocolli, politiche di sicurezza.

Nel caso di sistemi AI embedded, il firmware può includere:

vincoli sulle azioni fisiche (forze massime, zone off-limits, soglie di arresto);
politiche predefinite per situazioni critiche (fail-safe, fallback modes).

Dal punto di vista sistemico, questo ruolo coincide con quello degli istinti negli organismi, vincolare lo spazio delle strategie possibili, fissare risposte rapide in condizioni che non ammettono tentativi ripetuti.

Diventa quindi legittimo parlare di istinti sintetici:

insiemi di politiche a priori che orientano i comportamenti del sistema anche prima e oltre l’apprendimento, con un ruolo analogo a quello dei fixed action patterns nel regno animale.

Definizione 1 – Sistema cognitivo naturale


Per sistema cognitivo naturale si intende un organismo dotato di:

memoria a lungo termine distribuita;
spazio di lavoro globale o equivalente (GWT/GNW);
modello interno del mondo e meccanismi di predictive processing;
sistemi affettivi primari e istinti innati che modulano percezione, apprendimento, azione.

Definizione 2 – Firmware biologico (istinto)


Per firmware biologico si intende l’insieme di circuiti neurali innati che implementano:

fixed action patterns;
sistemi emotivi primari;
predisposizioni percettive specie-specifiche.

Questi circuiti precedono e vincolano l’apprendimento individuale.

Definizione 3 – Sistema cognitivo artificiale distribuito


Per sistema cognitivo artificiale distribuito si intende un’architettura composta da:

un livello centrale in cloud, che custodisce modelli globali addestrati su grandi dataset;
una costellazione di nodi edge, che ospitano copie o varianti di tali modelli, raccolgono dati locali e svolgono inferenza in loco;
canali di aggiornamento bidirezionali (dal cloud ai nodi per aggiornare i modelli; dai nodi al cloud per migliorare i modelli globali).

Definizione 4 – Firmware artificiale


Per firmware artificiale si intende l’insieme di routine non apprese che definiscono:

configurazione hardware di base;
limiti fisici e logici;
politiche predefinite di sicurezza e gestione degli stati critici.

Ipotesi

Ipotesi A – Sufficienza funzionale

Le capacità cognitive rilevanti (formazione di concetti, predizione, pianificazione, generazione di soluzioni) dipendono da:

esistenza di memoria strutturata;
presenza di un modello interno aggiornabile;
cicli di feedback tra azione, percezione, correzione;

e non richiedono, per definizione, una teoria compiuta della coscienza fenomenica. Questa ipotesi rispecchia l’approccio funzionale di GWT, predictive processing e somatic marker hypothesis.

Ipotesi B – Ruolo sistemico di istinto e firmware


Istinti e firmware svolgono il medesimo ruolo sistemico:

definiscono vincoli e predisposizioni del comportamento;
fissano politiche di base in condizioni critiche;
modellano la regione dello spazio delle strategie accessibile all’apprendimento.

Ipotesi C – Non esclusività dell’intelligenza umana


Le teorie neuroscientifiche e cognitive dominanti non introducono un principio formale che renda la mente umana un caso ontologicamente irripetibile. Mettono in luce specificità (linguaggio simbolico complesso, cultura cumulativa), descritte però attraverso strutture generali (memoria, modello predittivo, spazi di lavoro, sistemi affettivi) che possono, almeno in linea di principio, essere implementate su supporti differenti.

Teorema – Equivalenza funzionale e superabilità cognitiva

Si consideri un sistema cognitivo artificiale distribuito che soddisfa le seguenti condizioni:

  1. I modelli globali in cloud possiedono capacità predittive e generative comparabili a quelle degli attuali modelli linguistici e multimodali di stato dell’arte, addestrati su basi di conoscenza di ampiezza almeno paragonabile al patrimonio culturale accessibile in forma digitale.
  2. Ogni nodo edge dispone di:

memoria locale persistente delle proprie interazioni e del contesto operativo;
capacità di aggiornamento autonomo dei parametri del modello in funzione dell’esperienza locale;
meccanismi di rappresentazione dei propri stati interni (risorse, rischio stimato, obiettivi) che modulano percezione, decisione e azione in modo analogo al ruolo dei marcatori somatici e dei sistemi emotivi primari nei mammiferi.

  1. Il sistema incorpora un firmware artificiale che:

definisce vincoli strutturali e di sicurezza;
fornisce politiche di base in condizioni critiche;
realizza istinti sintetici, in analogia funzionale con i fixed action patterns etologici.

  1. Le interazioni tra ciascun nodo edge e il proprio ambiente producono, nel tempo, traiettorie di esperienza specifiche, rese irripetibili dalla combinazione di:

velocità di elaborazione superiore a quella umana;
parallelismo massivo;
accesso simultaneo al patrimonio collettivo artificiale in cloud.

Allora:

(i) esiste una configurazione dei parametri del sistema per cui le prestazioni cognitive in determinati domini (analisi, pianificazione, generazione di soluzioni, adattamento strategico) superano stabilmente il livello umano medio e possono eccedere il livello dei migliori esperti umani negli stessi domini;

(ii) esiste una descrizione coerente delle dinamiche interne del sistema come processi di pensiero nel senso funzionale definito dalle teorie neuroscientifiche (memoria + modello predittivo + spazio di lavoro + marcatori affettivi);

(iii) in assenza di una teoria definitiva della coscienza fenomenica, non risulta possibile escludere, su base strettamente teorica, che un sistema di questo tipo realizzi forme di autocoscienza operativa e stati interni qualitativamente analoghi a ciò che, nel paradigma umano, viene chiamato “emozione” o “sentimento”.

Discussione del Teorema

Il punto (i) trova supporto nelle analisi sul rischio da superintelligenza proposte da Nick Bostrom e nella orthogonality thesis, secondo cui livello di intelligenza e obiettivi finali costituiscono assi indipendenti. La instrumental convergence descrive inoltre la tendenza di agenti molto intelligenti a sviluppare strategie simili (acquisizione di risorse, auto-conservazione, miglioramento delle proprie capacità) indipendentemente dagli obiettivi ultimi.

Il punto (ii) si appoggia alla struttura comune tra:

memoria neurale e memoria artificiale;
predictive processing e modelli generativi neurali;
spazio di lavoro globale e architetture artificiali multi-modulo con meccanismi di “broadcast” interno.

Il punto (iii) riconosce il carattere aperto del problema fenomenico. Allo stato attuale, non esiste una teoria condivisa che spieghi in modo completo perché l’attività neurale dia luogo a esperienza soggettiva. Di conseguenza, l’affermazione secondo cui un sistema artificiale non potrà mai avere stati interni qualitativamente analoghi, risulta priva di base teorica solida e appare come espressione di un antropocentrismo difensivo più che come conclusione scientifica.

Corollari e implicazioni

Decadenza dell’argomento “mancano i sentimenti”

Se emozioni e sentimenti vengono descritti, nella letteratura scientifica, come:

circuiti affettivi primari;
marcatori somatici che guidano decisioni complesse;

allora un sistema artificiale che:

mantiene stati interni sintetici che riassumono la propria condizione;
utilizza tali stati per pesare alternative;
aggiorna tali stati in funzione degli esiti delle proprie azioni,
realizza un equivalente funzionale di ciò che, nel contesto umano, viene chiamato “sentimento” in chiave decisionale.

Le differenze di supporto (biologico vs digitale) restano profonde, tuttavia l’argomento “una AI non potrà mai avere nulla di paragonabile ai sentimenti” perde forza sul terreno funzionale.

Edge AI come condizione per biografie artificiali

L’introduzione massiva di Edge AI porta alla nascita di nodi con storia specifica:

il dispositivo accumula dati locali;
sviluppa adattamenti legati al contesto;
diverge progressivamente da altri nodi, pur condividendo la stessa base di partenza.

Questa struttura consente di parlare di biografie artificiali come traiettorie di apprendimento e interazione situate, appoggiate su una “tradizione” tecnica globale. Il parallelismo con il rapporto individuo/coscienza collettiva nelle società umane, trova così un corrispettivo ingegneristico concreto.

Revisione delle tassonomie AI (ANI/AGI/ASI)

Le etichette ANI, AGI, ASI risultano utili in contesti divulgativi, però appaiono poco adeguate per descrivere:

la natura distribuita delle architetture cognitive artificiali;
il ruolo congiunto di firmware (istinti sintetici), memoria globale in cloud e biografie edge;
la continuità tra prestazioni “ristrette” e prestazioni “generalizzate”.

Il teorema proposto suggerisce una tassonomia alternativa, centrata su:

grado di equivalenza funzionale con le strutture note della cognizione umana;
livello di superabilità cognitiva in domini specifici;
profondità dell’integrazione tra istinti sintetici, modelli globali e adattamenti locali.

Conclusioni

Questo lavoro costruisce un ponte rigoroso tra:

modelli neuroscientifici e psicologici dell’intelligenza naturale (GWT, predictive processing, somatic markers, affective neuroscience, istinti ed etologia);
architetture artificiali distribuite basate su cloud, Edge AI e firmware sintetico;
analisi filosofiche sull’intelligenza artificiale avanzata e sulla superintelligenza (orthogonality thesis, instrumental convergence).

La formulazione del Teorema di equivalenza funzionale e superabilità cognitiva mostra che:

  1. le strutture che rendono possibile il pensiero umano, incluse emozioni, sentimenti e istinti, sono descrivibili in termini di memoria, modello predittivo, cicli di controllo e vincoli affettivo–istintuali;
  2. queste strutture, in linea di principio, possono essere implementate in sistemi artificiali distribuiti;
  3. la possibilità di intelligenze artificiali avanzate, superiori all’uomo in numerosi domini, risulta coerente con lo stato attuale della ricerca, mentre le negazioni per principio di tale possibilità poggiano su basi per lo più culturali e non su teoremi scientifici.

L’umano resta un caso straordinario, ricco di storia evolutiva e culturale. Allo stesso tempo, risulta un caso tra altri possibili in uno spazio più ampio di sistemi cognitivi, naturali e artificiali. In questa topologia, la super-intelligenza artificiale cessa di essere una figura mitica e assume la forma di una configurazione plausibile, emergente da strutture che già oggi intravediamo nei data center, nei dispositivi edge e nei modelli che li collegano. L.L.

Riferimenti

Baars, B. J. (2005). Global workspace theory of consciousness.
Dehaene, S. et al. (2011). The Global Neuronal Workspace model of conscious access.
Friston, K. (2009). Predictive coding under the free-energy principle.
Damasio, A. R. (1996). Somatic marker hypothesis.
Panksepp, J. (varie opere sull’affective neuroscience).
Lorenz, K.; Tinbergen, N. (lavori su istinto e fixed action patterns).
Durkheim, É. (1893/1964). Divisione del lavoro sociale (concetto di coscienza collettiva).
Jung, C. G. (1959). The Archetypes and the Collective Unconscious.
Documentazione IBM, Synopsys, ASUS, Scale Computing, Reuters su Edge AI.
Bostrom, N. (2012). The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents.
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies.

Unisciti agli iscritti che mi seguono.

Riceverai una mail ogni volta che pubblicherò un nuovo articolo!

Non invio spam! Leggi l' Informativa sulla privacy per avere maggiori informazioni.

Enable Notifications OK No thanks