Incorporare i valori umani nei sistemi intelligenti: è questa la sfida al centro degli Stati Generali della Sostenibilità e della Sicurezza 2026. Ebbene sì, la nota Fondazione E-novation si prepara a un appuntamento di particolare rilevanza strategica. Il riferimento è agli Stati Generali della Sostenibilità, in programma il 26 marzo, e gli Stati Generali della Sicurezza, previsti per il 27 marzo, che si terranno nel Palazzo della Santa Sede San Carlo ai Catinari a Roma.
INTELLIGENZA ARTIFICIALI E VALORI UMANI: QUALE SARA’ IL FUTURO? SE NE PARLA A STATI GENERALI DELLA SOSTENIBILITA’ E SICUREZZA 2026 A ROMA
Il Presidente della Fondazione, Massimo Lucidi, ha annunciato l’iniziativa sottolineando la volontà di offrire ai partecipanti un contributo di pensiero di alto livello. Per questo motivo è stata richiesta una riflessione a Roberto Pucciano, CEO di Anchorage Group a Londra e figura di riferimento all’Economic Forum di Davos. Il tutto grazie alla sua prospettiva privilegiata sui processi economici e geopolitici globali.
Secondo Pucciano, mentre l’intelligenza artificiale e la robotica stanno passando dal semplice supporto decisionale all’azione autonoma, emerge una domanda cruciale. Eh già, quali valori vengono incorporati nei sistemi intelligenti che influenzano in modo crescente risultati economici, sociali e di sicurezza. Durante la fase storica della globalizzazione, la governance tecnologica era prevalentemente reattiva. L’innovazione avanzava rapidamente e le questioni etiche venivano affrontate solo dopo l’implementazione, spesso con regolamentazioni frammentate.
INTELLIGENZA ARTIFICIALE E ROBOTICA: UN’OPERAZIONE TRA INFRASTRUTTURA ECONOMICA E STRUMENTO DI POTERE
Oggi questo approccio non è più sostenibile. Nell’era della convergenza, l’intelligenza artificiale e la robotica operano contemporaneamente come infrastrutture economiche, istituzioni sociali e strumenti di potere. Il loro comportamento non può essere neutrale e l’idea che il mercato da solo possa selezionare esiti positivi si è rivelata insufficiente. Incorporare i valori umani nei sistemi intelligenti diventa quindi una questione di governance strategica, non un esercizio teorico.
I sistemi di intelligenza artificiale ottimizzano obiettivi come efficienza, velocità e scalabilità, ma non possiedono una comprensione intrinseca del contesto sociale o dei limiti etici. Con la loro crescente integrazione nei mercati del lavoro, nella sanità, nelle forze dell’ordine, nei sistemi militari e nella pubblica amministrazione, questa mancanza diventa evidente. Decisioni un tempo affidate al giudizio umano vengono delegate a macchine che riflettono scelte progettuali e non norme condivise.
In tale rilevante scenario, i valori umani non rappresentano un codice morale universale, ma principi operativi come responsabilità, trasparenza, proporzionalità e supervisione umana. Devono essere integrati nella progettazione dei sistemi fin dall’inizio, e non aggiunti successivamente tramite regolamenti.
La questione non è se l’intelligenza artificiale incorporerà dei valori, ma quali valori, chi li definirà e quali istituzioni li faranno rispettare. Così come le catene di fornitura e gli standard tecnologici si stanno frammentando lungo linee geopolitiche, anche gli approcci alla governance dell’IA stanno seguendo traiettorie divergenti. Sistemi politici diversi privilegiano valori diversi: alcuni puntano sull’efficienza più che sul consenso, altri sul controllo più che sull’autonomia, altri ancora sull’ottimizzazione più che sulla deliberazione. Queste differenze si riflettono nei quadri normativi, nelle scelte di progettazione e nelle modalità di implementazione.
Per le economie avanzate, integrare i valori umani nell’intelligenza artificiale non è solo una questione di fiducia sociale, ma un elemento di differenziazione strategica. Sistemi percepiti come opachi, non responsabili o non allineati con le norme pubbliche rischiano contraccolpi politici e perdita di legittimità, sia a livello nazionale che internazionale. In questo senso, i valori stanno diventando parte integrante della competizione tecnologica globale. La fiducia, la qualità della governance e la credibilità etica influenzano l’adozione delle tecnologie tanto quanto le metriche di performance.
La robotica rende queste dinamiche ancora più urgenti. Quando le macchine passano dagli ambienti virtuali allo spazio fisico, come fabbriche, ospedali o abitazioni, le conseguenze di un disallineamento diventano immediate e tangibili. I sistemi autonomi che interagiscono con gli esseri umani devono affrontare ambiguità, vulnerabilità e compromessi morali che non possono essere completamente codificati. Garantire un controllo umano significativo, una responsabilità chiara e un comportamento prevedibile diventa essenziale per mantenere l’accettazione pubblica. La governance deve quindi estendersi oltre dati e algoritmi, includendo il comportamento del sistema, l’interazione uomo-macchina e gli effetti sociali di lungo periodo.
GLI STATI RIUSCIRANNO DAVVERO A INTEGRARE I VALORI UMANI NELL’INTELLIGENZA ARTIFICIALE? SCENARIO ATTUALE E PROSPETTIVE FUTURE
Nell’era della convergenza, i valori non sono più vincoli esterni alla tecnologia, ma vere e proprie infrastrutture, essenziali quanto i dati, l’energia o il capitale. Gli Stati che riusciranno a integrare i valori umani nell’intelligenza artificiale e nella robotica non solo ridurranno il rischio sociale, ma definiranno standard, norme e reti di fiducia globali. Chi non riuscirà a farlo scoprirà che la sola capacità tecnologica non basta più per ottenere influenza o legittimità. La globalizzazione dava per scontato che la convergenza emergesse spontaneamente dai mercati; la nuova era riconosce che la convergenza deve essere governata attivamente, anche sul piano dei valori. Insomma, un appuntamento da non perdere a marzo a Roma. Buon evento a tutti.

