Da oltre trent’anni collabora con aziende globali di servizi digitali, seguendo con passione le evoluzioni dell’universo tecnologico e la trasformazione delle relazioni tra uomo e macchina, in particolare dell’Intelligenza Artificiale nei suoi risvolti etici e culturali. Il suo pensiero è orientato all’esplorazione della complessità del vivente e ad una visione sistemica dei fenomeni. E’ socio dell’Associazione Italiana di Epistemologia e Metodologie Sistemiche e scrive di tecnologia e umanità.
Sommario
Partendo dagli attuali utilizzi dei nuovi sistemi di Intelligenza Artificiale, che pongono irrisolti problemi etici e sociali, l’articolo sosterrà la necessità di un cambio paradigmatico. Una prospettiva sistemica, declinata nel favorire un modello di governo legato al concetto di “beni comuni”, può gettare le basi per un impiego dell’IA vicino agli interessi reali delle comunità.
Parole chiave
intelligenza artificiale, sistemica, beni comuni, etica, relazione.
Summary
Starting from the current uses of new AI systems, which pose unresolved ethical and social problems, the article will argue the need for a paradigm shift. A systemic perspective, declined in fostering a model of governance linked to the concept of “commons,” can lay the groundwork for the use of AI close to the real interests of communities.
Keywords
artificial intelligence, systemics, commons, ethics, relationship.
Molti anni orsono alcuni ricercatori fecero un esperimento: presero un grande calderone d’acqua e lo misero sul fuoco; quando l’acqua arrivò a ebollizione gettarono dentro alla pentola alcune rane vive, che immediatamente ne schizzarono fuori per salvarsi. A quel punto ripeterono l’esperimento, con una differenza: le rane questa seconda volta furono messe nell’acqua subito, quando era ancora fredda, facendo salire la temperatura pian piano, a fuoco lento. Gli animali non si accorsero della situazione di pericolo se non quando era troppo tardi, ovvero quando il calore, inizialmente piacevole, li aveva indeboliti a tal punto da non aver più le forze sufficienti per saltare fuori dal contenitore, morendo bollite.
L’avvento dei sistemi software chiamati comunemente “IA generativa”, ha segnato una repentina e straordinaria accelerazione di cambiamenti sociali già in atto, legati all’innovazione digitale. Al momento della scrittura di questo articolo, ogni professione, attività e contesto sociale è interessata dalla diffusione di questi software, anche amplificata dalle narrazioni mediatiche che prospettano, grazie proprio a queste tecnologie, un nuovo e roseo futuro per l’Umanità.
Parte Prima
L’IA e lo scenario contemporaneo
Già oggi, la quasi totalità degli utenti di internet usa, spesso inconsapevolmente, strumenti di IA generativa in un panorama tecnologico che è in larghissima parte dominato da pochi attori, appartenenti a Stati Uniti e Cina. Sono molte le cause del successo di questi software ma un ruolo non secondario lo riveste la loro estrema facilità di utilizzo, grazie al mascheramento di tutta l’imponente macchina tecnologica, sociale ed estrattiva coinvolta. Altro fattore di successo, soggetto in questi mesi a rapida evoluzione, è la simulazione umana che questi software sono programmati a mostrare, il che riduce le diffidenze degli utenti e apre ad un’accettazione acritica dei loro prodotti. Queste caratteristiche, associate alle dimensioni globali di questo che possiamo considerare un vero e proprio fenomeno planetario globalizzato, rendono ancora più critici alcuni aspetti strutturali generalmente ignorati dal pubblico e sottovalutati dagli esperti.
Dati
Questo è un tema centrale di analisi nella definizione di ogni sistema informativo che nell’IA generativa assume dimensioni enormi. Questi sistemi si basano infatti su logiche matematiche e statistiche, processando enormi quantità di dati, raccolti dalle aziende loro produttrici ovunque siano presenti dati digitali o digitalizzabili. Quello che accade ad esempio con i diffusissimi Large Language Model (es. ChatGPT, Claude, Copilot, ecc.) è che, rispetto ad un approccio tradizionale allo sviluppo informatico, che richiede lunghi tempi di analisi di singole fonti di dati per concordare una semantica del dato, questi sistemi tentano di dedurre la semantica dalle correlazioni di una parola con il suo contesto, a valle di un cosiddetto “addestramento” eseguito su quantità enormi di dati, rivelandosi estremamente veloci e flessibili.
Pregiudizi
Sin dal loro affacciarsi al grande pubblico, questi sistemi hanno sollevato perplessità per la sistematica tendenza a riprodurre pregiudizi, errori, insensatezze (impropriamente definite allucinazioni) nelle loro risposte. Tuttavia, le logiche descritte sommariamente nei paragrafi precedenti ci permettono di intuire che quello che appare come errore agli occhi di un utente è in realtà l’effetto inemendabile di funzioni matematico/statistiche. Ma un secondo aspetto, decisamente più importante, è quello delle accuse che sono state indirizzate agli output di questi sistemi di essere faziosi e non obiettivi. A titolo di mero esempio è stata notata la tendenza delle IA cinesi a evitare di fornire informazioni sugli accadimenti del 1989 relativi a piazza Tienanmen (Lu, 2025) Simmetricamente i sistemi di IA statunitensi offrono notizie parziali o evasive riguardanti le campagne di disinformazione messe in atto dal governo. (Gwyn, 2025). Anche in questi casi ci si dimentica spesso che “faziosità” e “obiettività” sono opinioni dell’osservatore e non sono parte del dominio dei sistemi informativi.
“I modelli sono opinioni radicate nella matematica.” (O’Neill, 2017, p. 33)
Etica
Gli aspetti legati all’etica sono un altro elemento estremamente critico di questi sistemi, esaltati a fini pubblicitari ma raramente presi in considerazione. Le principali società del settore affidano esclusivamente ad uffici interni l’applicazione di regole etiche, generando un evidente conflitto di interessi che spesso porta a depotenziare gli stessi. (Metz, 2021) Infine, seppur non ci possa essere una concezione universale di principi etici, generalmente ve ne sono alcuni condivisi e pubblicizzati ma puntualmente disattesi. (Rossi, 2023)
Spiegabilità e trasparenza
I sistemi che stiamo descrivendo sono, per ammissione dei loro stessi creatori, delle “black box”. L’enorme quantità dei dati, la numerosità dei paramenti coinvolti in ogni elaborazione e la loro variabilità rendono nei fatti impraticabile quella che è chiamata genericamente XAI (eXplainable Artificial Intelligence). Inoltre, il concetto di trasparenza, che riguarda sia i dati di origine sia il loro trattamento, è semplicemente ignorato. Ogni azienda produttrice considera necessario non divulgare informazioni precise sulle fonti e sulle configurazioni di questi sistemi per motivazioni legate alla concorrenza.
Supervisione e determinazione umana
Uno dei grandi vantaggi percepiti dall’impiego di questi sistemi è che generalmente non richiedono intervento umano per il loro funzionamento. Autonomia è infatti la parola che ricorre più spesso negli ambiti tecnologici e la stessa propaganda di mercato propone l’impiego di questi strumenti per prima ridurre e poi sostituire l’intervento umano. Oggi, diversi sistemi di IA, addirittura in ambito bellico, dove la ragione imporrebbe estrema cautela, sono impiegati ad un livello di autonomia tale da individuare il potenziale bersaglio e innescare azioni corrispondenti. (Santarelli, 2025) (IRPA, 2024) (Civitella, 2024)
Diritto alla privacy e alla protezione dei dati
Nell’attuale sistema di credenze spesso per i dati si usa l’appellativo “the new oil”, a qualificarli come risorsa estrattiva da accumulare. Il generale atteggiamento predatorio in questo senso è ampiamente documentato e fa il paio con la mancanza di trasparenza già menzionata. In questa visione ogni tipo di dato diviene monetizzabile e questo rende conto dei continui tentativi di appropriazione di informazioni anche personali da parte delle big tech. (GPDP, 2025)
Equità e non discriminazione
Questo è un aspetto particolarmente discusso dato che questi termini sono soggetti ad ampia interpretazione personale. Esempio emblematico di un mutamento di prospettiva repentino è quello del cambiamento di orientamento dell’amministrazione statunitense a valle dell’elezione del nuovo presidente. Archivi governativi, comunicazioni ufficiali, informazioni e notizie sono state “ricalibrate” per riflettere il nuovo indirizzo politico in particolare proprio sui temi di discriminazione ed equità. Naturalmente tutti questi sono dati raccolti nei Big Data che alimentano le IA statunitensi e che quindi ne ereditano gli orientamenti (Armelli, 2025). La non adesione a questi principi emerge altresì dalle procedure di acquisizione e marcatura dei dati (tagging), necessarie a predisporre questi sistemi ed eseguite sovente con il supporto attivo di migliaia di lavoratori sottopagati e localizzati nelle aree meno sviluppate del pianeta (Carmignani, 2025) (Crawford, 2021)
Responsabilità
Ad oggi le aziende produttrici dei sistemi di IA non sono considerate responsabili degli output da questi ultimi prodotti. Un’avvertenza è generalmente mostrata agli utenti che segnala la possibile presenza di errori e di fatto gliene trasferisce la responsabilità. Ulteriore esempio è l’assegnazione di responsabilità ai genitori per un eventuale uso improprio che i loro figli minorenni, addirittura al di sotto dei tredici anni, possono fare dell’IA. (Singer, 2025) Contemporaneamente è presente quasi ovunque una forte pressione nei confronti degli organi legislativi per eliminare le responsabilità dei produttori e far riconoscere un’agentività autonoma a questi sistemi, al fine di farli considerare come persone giuridiche autonome. (AI4Business, 2025)
“Dove domina la scarsità, l’etica è ridotta a cifre e utilità. Inoltre, le persone impegnate a manipolare formule matematiche perdono l'orecchio per le sfumature etiche e diventano moralmente sordi.” (Illich, 2013, pag. 222)
Paradigmi
Lo scenario che fa da contesto abilitante per gli aspetti appena descritti emerge dall’intreccio del capitalismo occidentale, dalla teoria economica dominante e dagli equilibri geopolitici contemporanei. Tuttavia, c’è un altro, fondante aspetto spesso trascurato che, se possibile, si radica ancora più profondamente alle origini di certi comportamenti, come quelli appena descritti e che potremmo definire disfunzionali. Si tratta della visione del mondo dal punto di vista filosofico ed epistemologico.
L’intero quadro concettuale che ha favorito lo sviluppo impressionante dell’ICT e della cosiddetta intelligenza artificiale nasce da una visione di mondo anglosassone neopositivista, terreno fertile per gli sviluppi della cibernetica statunitense nel secondo dopoguerra, della teoria dell’informazione e del cognitivismo HIP, fondata a sua volta su un empirismo ingenuo, come da tempo rivelato dalla stessa filosofia americana (Quine, 1953).
Le premesse invisibili e, come tali, acriticamente accettate di questa visione consistono nel credere che il mondo sia composto da oggetti (numeri, parole, ecc.) chiamati “informazioni” e che queste informazioni possano o no “contenere” in sé la proprietà della “Verità” (l’uso dell’iniziale maiuscola indica la verità intesa come assoluta). L’unione di parole compone frasi e queste frasi statiche possono anch’esse contenere Verità o no. Da ciò consegue naturalmente che anche i prodotti del linguaggio (di qualunque natura esso sia), abbiano questa caratteristica, in una ricerca spasmodica dell’ontologia. Una visione posta radicalmente in discussione ormai da tempo ma universalmente diffusa proprio grazie alla sua semplicità e particolarmente utile anche per diffondere posizioni politiche spacciandole per verità assolute (Bortoletto, 2025).
“Il positivismo quindi si è sviluppato componendo un insieme di narrazioni mitologiche che hanno caratteristiche di universalità, modularità e soprattutto semplicità. Universalità perché non fanno riferimento ad elementi culturali contingenti ma si associano a figure mitologiche potenzialmente valide per chiunque in quanto costruite proprio come 'asettiche'. La Ragione, la Tecnica, il Progresso sono solo alcune delle figure che prendono parte alle narrazioni positiviste. La modularità permette di usare la figura mitologica utile al momento. La semplicità, elemento determinante per la sua diffusione, è quella che deriva dall'impostazione di relazioni lineari ed elementari di causa effetto.” (Morin, 2007, pag. 188)
Parte seconda
Il cambiamento
Quanto descritto sommariamente finora è substrato comune ed invisibile della cultura in cui siamo immersi, tuttavia, proprio dalla ricerca e dalle scienze è possibile trovare un’alternativa, potenzialmente meno dannosa per gli interessi della comunità e dell’ecosistema.
“La filosofia è una battaglia contro l'incantamento del nostro intelletto, per mezzo del nostro linguaggio.”
(Wittgenstein, 2021, pag. 51)
In questo la sistemica, con il suo focus su relazioni e processi piuttosto che su oggetti e ontologie, ci viene in soccorso e può rappresentare il robusto fondamento su cui costruire alternative viabili.
“L'osservatore entra nel sistema definendo il proprio scopo, si sposta all'interno ed è il sistema che sposta il proprio dominio cognitivo: l'osservatore è il sistema. Ciò che era ritenuto una caratteristica dell'oggetto diventa una proprietà appartenente all'osservatore. La conoscibilità del sistema passa attraverso il riconoscimento delle distinzioni che hanno portato alla creazione di quel sistema: per conoscere dobbiamo cominciare a conoscere noi stessi che ci rapportiamo al mondo.” (Telfener, 1987, pag. 30)
Verità
Assumendo una prospettiva sistemica i semplificanti concetti espressi nei precedenti paragrafi perdono immediatamente consistenza e si compie un salutare bagno nella complessità del reale.
“Il punto unificante sembra essere il fatto che la trama del mondo non viene dagli oggetti, ma dalle relazioni fra gli oggetti, e dai processi. L'idea di "oggetto", di "sostanza", così cara alla metafisica occidentale, si sta sciogliendo in rivoli diversi, messa in questione da discipline che vanno dalla fisica alle scienze che studiano il cervello, dalla filosofia della scienza alla biologia. Pensare il mondo come un insieme di oggetti sembra funzionare sempre meno.” (Rovelli, 2014)
Le cosiddette “informazioni” tornano ad essere bit, le parole associazioni di caratteri e le frasi perdono il loro presunto status ontologico e divengono costruzioni che mantengono la loro coerenza e validità all’interno di un preciso contesto socioculturale e storico.
“…anche quei dati dell’osservazione che si suppone siano del tutto genuini e immediati sono mescolati con ogni genere di rappresentazioni e modelli concettuali, teorie o comunque costrutti cui potete dare il nome che volete.” (Bertalanffy, 2004, pag. 244)
Conseguenze
La nuova postura, andando a incidere pesantemente con i costrutti del singolo (Kelly, 2004, p. 379), è chiaramente applicabile solo dopo un significativo percorso di cambiamento personale, ma è foriera di visioni di mondo (weltanschauung) alternative e promettenti.
Varietà e pluralismo
La creduta esistenza dell’ontologia viene riconosciuta come colonialismo culturale. La diversità, la varietà, sono invece rivalutate come risorse prolifiche e abilitanti ad un ripristino della biodiversità culturale oggi depauperata.
“Il problema del pluralismo è, in un certo senso, il problema dell’altro. […] il pluralismo non consiste nel trovare un posto per tutti, ma piuttosto nell’esperienza della mia finitudine, della mia contingenza, dell’impotenza di una lingua e di una filosofia pretestuosamente universali e di una comprensione comune. Nel fare questa esperienza della nostra limitatezza, lasciamo uno spazio aperto per altre concezioni della realtà.” (Panikkar, 1990, pag. 56)
Conseguenza evidente è la necessità di moltiplicare le zone in cui il linguaggio assume senso compiuto, evitando la globalizzazione culturale, le visioni assolute e di abbandonare il controllo della comunicazione nelle mani di pochi.
“Una testimonianza flagrante del mythos colonialista, ancora vigente, è la credenza che la cosiddetta cultura moderna, predominantemente "scientifica", sia neutra e universale. L'essenza del colonialismo è proprio il monoculturalismo - le altre culture ridotte a " folclore" o chiamate in seguito "sottosviluppate", " in via di sviluppo" o, peggio ancora, "culture di Paesi emergenti", dimostrando ogni volta di più l'impostazione di un modello unico.” (Panikkar, 2008, pag. 194)
Beni comuni
Una nuova visione spinge verso la ricerca di nuovi strumenti, procedure e comportamenti, più funzionali rispetto al rinnovato sistema di credenze. A questo scopo ci viene in soccorso il seminale lavoro di Elinor Ostrom (Ostrom, 2006), premio Nobel per l’economia nel 2009, dedicato al governo dei beni comuni. Suo merito è stato indubbiamente portare di nuovo al centro del dibattito sociale e politico questo delicato tema e di offrire proposte organiche per il suo sviluppo e diffusione.
A questo proposito è utile ricordare che, molto sommariamente, la Ostrom ha descritto i beni comuni come risorse materiali o immateriali condivise, ovvero risorse che tendo a essere non esclusive e non rivali e che quindi sono prodotte o fruite da comunità più o meno ampie.
Da questa definizione scaturisce la sua proposta per un governo dei beni comuni attraverso alcuni principi progettuali fondamentali.
• Chiara definizione fisica dei confini.
• Congruenza tra le regole di appropriazione e di fornitura e le condizioni locali.
• Metodi di decisione collettiva.
• Efficace e costante monitoraggio.
• Sanzioni progressive.
• Meccanismi di risoluzione dei conflitti.
• Riconoscimento dei diritti di organizzarsi.
• Organizzazioni articolate su più livelli.
I successori della Ostrom hanno ulteriormente sviluppato le sue idee e ampliato l’ambito dei beni comuni (commons), classificando quelli che sono chiamati “new commons”, risorse non naturali ma che, dal punto di vista sociale possono esserne assimilati ereditandone la possibilità di gestione. Alcuni esempi di questi sono le infrastrutture, la cultura, i mercati, la conoscenza. (Hess, 2008).
Molti sono i frutti di questi approcci che, seppur con premesse epistemologiche diverse, hanno trovato la loro applicazione in molteplici contesti. Esempi noti in ambito tecnologico e digitale ne sono il movimento Opensource (Open Source Initiative, 2024) (UN, 2025), la rete Creative Commons, il cooperativismo di piattaforma (OECD, 2023), il neomutualismo (PICO, 2024), le cooperative dei dati (Università di Bologna, 2024) e le proposte di una IA open. (Faccioli, 2025)
Non è quindi peregrina l’idea di immaginare un diverso governo dell’intelligenza artificiale, un’intelligenza artificiale sociale (Sbaraglia, 2025), non più basato sulla bulimica concentrazione di dati e potere, ma su una distribuzione dei dati e degli algoritmi su più comunità e a più livelli. Il modello reticolare che ne deriverebbe non a caso ricorda molto la prima rete Internet che connetteva diversi centri di ricerca senza una gerarchia definita, al dichiarato scopo di garantirne l’indipendenza, la libertà, la scalabilità, la resilienza in ogni condizione per preservare e diffondere la conoscenza mondiale.
I punti della Ostrom precedentemente elencati sono perfettamente calzanti con questo scenario, dove potrebbero garantire il giusto compromesso tra libertà della singola comunità e tutela delle relazioni e dei patrimoni. Allo stesso tempo, una visione comunitaria potrebbe sfuggire alle logiche dei “free riders”, come li definisce la Ostrom e creare le premesse per una visione più a lungo termine dei risultati rispetto a quella attuale, legata al profitto immediato.
“...abbiamo prove di complessi monumentali in tempi preagricoli e prestatali come Göbekli Tepe in Turchia che, di nuovo, mostrano realizzazioni operate da gruppi umani il cui fine sembra non tanto l’arrivo finale alla cosa da fare, ma proprio il farla assieme. Un registro, questo, che ritroviamo in molte opere monumentali del tempo profondo. Questo fare slegato dal tempo del risultato sarebbe oggi di grande aiuto per sviluppare adattamento alla nuova complessità del mondo, poiché molte delle cose da fare richiedono appunto di essere fatte nella cooperazione tra più generazioni.” (Fagan, 2025, pag. 80)
Nuova etica
Possiamo a questo punto prendere di nuovo in considerazione gli aspetti etici, particolarmente critici nelle odierne intelligenze artificiali e osservarli alla luce della nuova proposta:
“Possiamo immaginare un mondo esterno e separato da noi sul quale interveniamo, un mondo dei sistemi osservati. Possiamo alternativamente immaginare di partecipare ad un mondo in cui l’attore agisce su se stesso perché è incluso nell’organizzazione del mondo stesso. Saltare da un modo di pensare all’altro ha come conseguenza un salto nelle fondamenta epistemologiche dell’etica.” (Foerster, 1990)
Spiegabilità e trasparenza
Se gli aspetti tecnologici già descritti non beneficiano di un nuovo modello di governo, lo stesso non si può dire per la trasparenza che invece ne trae enorme beneficio. Ove infatti il software, le configurazioni, le tracce elaborative (log), le origini dati, i dati e i trattamenti a cui sono stati sottoposti sono di libero accesso, la trasparenza è garantita.
Supervisione e determinazione umana.
La forma organizzativa di governo della cosa comune, non avendo il profitto come obiettivo assoluto, può essere in grado di trovare il giusto compromesso tra produttività, efficienza e tutela degli utenti potendo disporre di una visione più articolata e a lungo termine sugli impatti delle singole scelte sulla comunità.
Diritto alla privacy e alla protezione dei dati
La trasparenza descritta al primo punto garantisce appieno ogni tipo di esigenza di questo tipo. Il modello organizzativo a più livelli, il monitoraggio e il sistema di sanzioni si fanno garanti di queste tutele.
Equità e non discriminazione
Nel modello proposto trova espressione la singola comunità e la diversità tra le varie comunità. Gli organi di controllo avranno il compito di garantire l’equilibrio tra necessità identitarie e colloquio con il diverso.
Responsabilità
Trattandosi a tutti gli effetti di beni comuni, nel nuovo disegno vengono a mancare tutti quegli elementi potenzialmente tossici che spingono a non assumersi le giuste responsabilità. Inoltre, avere al centro dei propri interessi la comunità stessa permette di valutare razionalmente la relazione che gli utenti finali, anch’essi membri della comunità, stabiliscono con questi software e intraprendere le eventuali opportune azioni.
In questo scritto abbiamo voluto evidenziare come, una diversa prospettiva epistemologica, può permettere di considerare con una luce diversa fenomeni oggi esistenti e riconsiderarli in maniera completamente diversa. Questa stessa postura consente di collegarsi prolificamente a diversi movimenti e iniziative già attive, anche in ambito tecnologico, proponendo un modello di governo delle intelligenze artificiali che vada realmente incontro agli interessi delle comunità umane.
Di fronte al "potenziale immenso" dell'intelligenza artificiale, bisogna avere “responsabilità e discernimento per orientare gli strumenti al bene di tutti, così che possano produrre benefici per l'umanità. E questa responsabilità riguarda tutti, in proporzione all'età e ai ruoli sociali.” (Papa Leone XIV, 2025)
Definendosi come fenomeno planetario, l’intelligenza artificiale richiede un governo altrettanto esteso che necessita di essere articolato su vari livelli. Una visione coerente non può prescindere da un coinvolgimento attivo di organizzazioni internazionali intergovernative come le Nazioni Unite, peraltro già attive in questi contesti, ad esempio nella formazione con la Facoltà di Intelligenza Artificiale a Roma facente capo all’Università della Pace dell’ONU (UPeace).
Concludendo
La visione illuminante della Ostrom risulta estremamente prolifica proprio nel delicato momento che stiamo vivendo, nel pieno della tempesta in cui, per l’avvento di queste nuove tecnologie, sono coinvolte istituzioni, professioni, relazioni, geopolitica e interessi planetari. Con il coraggio di portare avanti posizioni non gradite ai gruppi di potere dominanti, è possibile immaginare un futuro di maggiore varietà, biodiversità culturale e dialogo, riducendo al contempo i rischi di concentrazioni di potere e derive tecnocratiche (Rinaldi, 2025). Si considera realizzabile un profondo cambiamento a patto di radicarlo in una nuova visione di mondo. Una visione la cui costruzione può essere grandemente favorita dall’adozione dei paradigmi della sistemica: relazionali, decentrati, comunicativi.
“Occorre smettere di costruire torri e torrioni inseguendo il vano sogno di una artificiosa umanità unitaria. Il pluralismo è alla radice delle cose; nessuna verità, ideologia o religione può avanzare una pretesa totale sull'Uomo, e le lingue sono state giustamente confuse.” (Panikkar, 1984)
Oggi viviamo un momento di svolta storico che può rivelarsi propizio. L’avvento dell’intelligenza artificiale corrisponde alla fiamma che si alza improvvisamente sotto al calderone dove sono le rane.
Solo creando nuovi “luoghi comuni” dell’intelligenza artificiale riusciremo a saltarne fuori.
Bibliografia e sitografia
AI4Business, 2025. La Commissione europea ritira dall’esame l’AI Liability Directive. https://www.ai4business.it/intelligenza-artificiale/la-commissione-europea-ritira-dallesame-lai-liability-directive/
Armelli P., 2025. Tutte le parole proibite dall'amministrazione Trump, tra questioni di genere e crisi climatica. https://www.wired.it/article/parole-proibite-amministrazione-trump-elenco/
Bertalanffy, L. von, 2004. Teoria generale dei sistemi: fondamenti, sviluppo, applicazioni. Milano: Oscar Mondadori.
Bortoletto F., 2025. Se l’intelligenza artificiale è un pappagallo della propaganda di Pechino.
https://www.eunews.it/2025/01/31/deepseek-cina-disinformazione-newsguard/
Carmignani M., 2025. Annotatori, validatori, utenti: ecco tutto il lavoro umano dietro l’AI. https://www.agendadigitale.eu/cultura-digitale/annotatori-validatori-utenti-ecco-tutto-il-lavoro-umano-dietro-lai/
Civitella A., 2024. Intelligenza artificiale e diritto internazionale umanitario: l’uso di Lavender nel conflitto Israelo-palestinese. http://www.sidiblog.org/2024/06/03/intelligenza-artificiale-e-diritto-internazionale-umanitario-luso-di-lavender-nel-conflitto-israelo-palestinese/
Crawford K., 2021. Né intelligente né artificiale. Il lato oscuro dell’IA. Il Mulino.
Faccioli A., 2025. Open source: la chiave per una vera sovranità digitale nell’era dell’AI. https://www.agendadigitale.eu/cultura-digitale/open-source-la-chiave-per-una-vera-sovranita-digitale-nellera-dellai/
Fagan P., 2025. Benvenuti nell’era complessa. Mappe e strumenti del pensiero per esplorare il mondo nuovo in formazione. DIARKOS.
Foerster H. von, 1990. Ethics and Second Order Cybernetics, relazione al Convegno internazionale Systems and Family Therapy: Etique, Ideologies, Nouvelles Méthodes, Parigi 4-6 ottobre.
GPDP - Garante per la protezione dei dati personali, 2025, comunicato stampa, intelligenza artificiale, Garante privacy: Da fine maggio Meta addestrerà i suoi sistemi utilizzando i dati personali degli utenti che non si saranno opposti https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10125702
Gwyn M., 2025. Stati Uniti, i dubbi sul chatbot Grok e la censura alle critiche a Elon Musk e a Donald Trump https://it.euronews.com/my-europe/2025/03/03/stati-uniti-i-dubbi-sul-chatbot-grok-e-la-censura-alle-critiche-a-elon-musk-e-a-donald-tru
Hess C., 2008. Mapping the new commons. http://surface.syr.edu/cgi/viewcontent.cgi?article=1023&context=sul
Kelly G., 2004. La psicologia dei costrutti personali: teoria e personalità. Milano: Raffaello Cortina.
Illich, I., 2013. La perdita dei sensi. Firenze: Libreria editrice fiorentina.
IRPA – Istituto di Ricerche sulla Pubblica Amministrazione, 2024, L’impiego dell’intelligenza artificiale nei conflitti armati: problematicità e sviluppi recenti. https://www.irpa.eu/limpiego-dellintelligenza-artificiale-nei-conflitti-armati-problematicita-e-sviluppi-recenti/
Lu D., 2025. We tried out DeepSeek. It worked well, until we asked it about Tiananmen Square and Taiwan. https://www.theguardian.com/technology/2025/jan/28/we-tried-out-deepseek-it-works-well-until-we-asked-it-about-tiananmen-square-and-taiwan
Metz R., CNN, 2021. Google is trying to end the controversy over its Ethical AI team. It’s not going well https://edition.cnn.com/2021/02/19/tech/google-ai-ethics-investigation/index.html
Morin, E., 2007. Il metodo 3, la conoscenza della conoscenza, Milano: Raffaello Cortina.
O’Neil, C., 2017. Armi di distruzione matematica: come i Big Data aumentano la disuguaglianza e minacciano la democrazia. Milano: Bompiani.
OECD, 2023. Platform cooperatives and employment: An alternative for platform work, OECD Local Economic and Employment Development (LEED) Papers, No. 2023/16, OECD Publishing, Paris https://doi.org/10.1787/3eab339f-en
Open Source Initiative, 2024. Principi dell’Opensource https://opensource.org/osd
Ostrom E., 2006. Governare i beni collettivi, 1990, Marsilio Editore. Ostrom E., 1990, Governing the commons, Cambridge University Press https://ia802902.us.archive.org/8/items/governingthecommons/Governing%20the%20Commons.pdf
Ostrom E., 2020. Beni comuni: diversità, sostenibilità, governance, 2. ed. Firenze: goWare.
Panikkar R., 2008. Mito, simbolo, culto. 1. ed. ital. Opera omnia Mistero ed ermeneutica, Jaca Book.
Panikkar R., 1990. La Torre di Babele. Pace e pluralismo, Edizioni Cultura della Pace, San Domenico di Fiesole.
Panikkar R., 1984. Il mito del pluralismo: la torre di Babele. Una meditazione sulla non violenza. http://www.gianfrancobertagni.it/materiali/raimonpanikkar/graziababele.htm
Papa Leone XIV, 2025. incontro con i giornalisti. 12 maggio https://www.ansa.it/amp/sito/notizie/politica/2025/05/12/il-papa-responsabilita-e-discernimento-di-fronte-allia_ce67925d-6a81-400c-a8cc-0e12dae46f9d.html
PICO, 2024. Legacoop – Il neo mutualismo in dieci tesi https://pico.coop/wp-content/uploads/2024/07/Il-manifesto-del-neo-mutualismo-in-10-tesi_Ita.pdf
Quine W. V., 1953. From a logical point of view, Cambridge, Mass: Harvard University Press
https://www.ousia.it/SitoOusia/SitoOusia/TestiDiFilosofia/TestiPDF/Quine/Empirismo.pdf
Rinaldi V., 2025. Papa Leone XIV, salvare l’umano dall’intelligenza artificiale https://www.agendadigitale.eu/cultura-digitale/papa-leone-xiv-salvare-lumano-dallintelligenza-artificiale/#_ftn5
Rovelli C., 2014. Ogni cosa è informata https://st.ilsole24ore.com/art/cultura/2014-04-01/ogni-cosa-e-informata-085339.shtml
Rossi F., 2023. Un’IA etica è possibile? Ecco i principi a tutela degli esseri umani https://www.agendadigitale.eu/cultura-digitale/unia-etica-e-possibile-ecco-i-principi-a-tutela-degli-esseri-umani/
Santarelli M., 2025. Israele, è controverso l’uso dell’AI nel conflitto di Gaza https://www.cybersecurity360.it/nuove-minacce/israele-e-controverso-luso-dellai-nel-conflitto-di-gaza/
Sbaraglia E., 2025. Istruzioni per l’uso di un’IA sociale, democratica e civile https://www.collettiva.it/copertine/culture/intelligenza-artificiale-sociale-intervista-vanni-rinaldi-rbl18xpi
Singer N., 2025. Google Plans to Roll Out Its A.I. Chatbot to Children Under 13 https://www.nytimes.com/2025/05/02/technology/google-gemini-ai-chatbot-kids.html
Telfener U. in Foerster H. von, 1987, Sistemi che osservano. Roma: Astrolabio
UN, 2025. United Nations Le Bureau de L'informatique et des Communications, France Becomes First Government to Endorse UN Open Source Principles, Joined by 19 Organizations
https://unite.un.org/fr/news/france-becomes-first-government-endorse-un-open-source-principles-joined-19-organizations
Università di Bologna, 2024. Cooperative di dati. Perché scegliere una cooperativa di dati?
Upeace – Università per la Pace dell’ONU, L’Intelligenza Artificiale per un Futuro Etico e Sostenibile
https://www.upeace.ai/
Wittgenstein L., 2021. Ricerche filosofiche. Einaudi.