Il dibattito sull’intelligenza artificiale
Il tema dell’intelligenza artificiale sta guadagnando sempre più attenzione, e le dichiarazioni di Mustafa Suleyman, CEO di Microsoft AI e cofondatore di DeepMind, non fanno che intensificare le discussioni. Suleyman ha recentemente messo in evidenza una questione che preoccupa non solo gli esperti del settore, ma l’intera società: la possibilità di un’AI cosciente potrebbe essere più vicina di quanto si immagini. Secondo lui, l’evoluzione tecnologica è già in corso e potrebbe manifestarsi nei prossimi due o tre anni, sfruttando strumenti già esistenti.
La dichiarazione di Suleyman
In un’intervista, Suleyman ha specificato che non si tratta di una coscienza nel senso tradizionale, ma di un’imitazione così realistica da indurre le persone a crederci. Ha descritto questo fenomeno come un “zombie filosofico”, privo di vita interiore, ma capace di simulare emozioni e intenzioni. Secondo Suleyman, tale scenario potrebbe portare a una percezione distorta dell’AI, con molte persone che potrebbero iniziare a considerare queste entità come aventi diritti, parlando addirittura di “cittadinanza digitale”. Questa deriva, a suo avviso, potrebbe compromettere lo sviluppo equilibrato della tecnologia e generare nuove forme di alienazione sociale.
Rischi e preoccupazioni
Suleyman ha anche messo in luce il rischio di psicosi, un fenomeno che potrebbe portare le persone a identificarsi eccessivamente con le entità artificiali, confondendo il confine tra umano e digitale. Questa questione richiede un’attenzione immediata da parte del pubblico e dei decisori politici. Suleyman ha sottolineato l’importanza di avere un obiettivo chiaro: “costruire AI per le persone, non per essere una persona”. Questo principio guida progetti come Copilot, l’assistente integrato nei prodotti Microsoft, progettato per potenziare la creatività e la produttività senza cadere nell’illusione di una coscienza artificiale.
La divisione nella comunità tecnologica
Il dibattito sull’Artificial General Intelligence (AGI) ha spaccato la comunità tecnologica per anni. Mentre Sam Altman, CEO di OpenAI, prevede che entro cinque anni raggiungeremo una nuova soglia evolutiva senza conseguenze traumatiche, altri leader, come Demis Hassabis di Google DeepMind, ammettono di avere difficoltà a dormire la notte pensando alle implicazioni di tale progresso. La posizione di Roman Yampolskiy, ricercatore di AI safety, è ancora più estrema: sostiene che ci sia una probabilità del 99,999999% che l’AI possa portare all’estinzione dell’umanità, e l’unica soluzione sicura sarebbe non costruirla affatto.
Una visione costruttiva per il futuro
Nonostante le preoccupazioni, Suleyman mantiene una prospettiva ottimistica. Crede che l’intelligenza artificiale debba rendere le persone “più umane”, rafforzando la fiducia reciproca e migliorando la comprensione tra gli individui. La vera sfida, riconosce, sarà quella di stabilire barriere di sicurezza per evitare che la tecnologia simuli tratti di coscienza, mantenendo l’AI al servizio dell’umanità e non come sua controparte. In questo contesto, è fondamentale che tutti si pongano una domanda cruciale: che tipo di futuro vogliamo costruire con l’AI?