"Legge intelligenza artificiale Italia: esperti avvertono sui poteri del Governo"
Italia nel 2025 approva la legge sull'intelligenza artificiale, ma esperti avvertono sui rischi di concentrazione di potere nel Governo

Italia approva la legge sull’intelligenza artificiale, ma esperti avvertono: potere al Governo.

L’Italia ha compiuto un passo significativo nel 2025, diventando il primo Paese europeo a introdurre una legge nazionale per la regolamentazione dell’intelligenza artificiale. Questa iniziativa, che anticipa l’entrata in vigore dell’AI Act dell’Unione Europea, è stata ufficialmente approvata e mira a stabilire norme chiare per l’utilizzo di questa tecnologia in settori fondamentali come il lavoro, la sanità e la giustizia. Tuttavia, non sono mancate le polemiche, con esperti che avvertono sui potenziali rischi legati a una governance centralizzata.

I principi fondamentali: L’uomo al centro, almeno sulla carta

La legge si fonda su un principio cardine: l’innovazione deve sempre rispettare i diritti dei cittadini. Il testo normativo si propone di allinearsi a due pilastri europei, ovvero l’AI Act e il GDPR, il regolamento sulla protezione dei dati personali. La supervisione sarà affidata a due organismi principali: l’AgID (Agenzia per l’Italia Digitale) e l’ACN (Agenzia per la Cybersicurezza Nazionale), che avranno il compito di monitorare l’applicazione delle norme.

Il Sottosegretario Alessio Butti ha evidenziato l’importanza di questo passo, affermando che l’Italia si posiziona come leader in Europa in questo ambito. Tuttavia, la centralizzazione del potere decisionale ha già suscitato preoccupazioni. I critici temono che questa struttura possa portare a una sorveglianza di massa, con il governo che potrebbe esercitare un controllo eccessivo sulle tecnologie emergenti.

Lavoro: Cosa cambia con l’AI?

Uno dei temi più controversi riguarda l’impatto dell’intelligenza artificiale sul mercato del lavoro. La nuova legge introduce regole specifiche per garantire che l’uso dell’AI non comprometta i diritti dei lavoratori. Tra le principali disposizioni, si evidenziano:

  • Trasparenza obbligatoria: Le aziende che utilizzano algoritmi per analizzare curriculum o valutare la produttività devono informare i dipendenti su come funzionano questi sistemi.
  • Nessuna decisione finale: Sebbene l’AI possa supportare il processo decisionale, le decisioni finali riguardanti assunzioni, promozioni o licenziamenti devono rimanere in mano agli esseri umani.
  • Osservatorio sul lavoro: Sarà istituito un osservatorio presso il Ministero del Lavoro per monitorare l’uso dell’AI e prevenire possibili discriminazioni.
  • Professioni intellettuali: L’uso dell’AI è consentito, ma è obbligatoria una revisione umana, con l’obbligo di informare il lettore o cliente finale.

Queste misure mirano a garantire che l’AI non diventi un sostituto del giudizio umano, ma piuttosto uno strumento di supporto.

Sanità: L’AI può decidere sulla salute?

Il settore sanitario è tra i più delicati e la legge prevede regole severe per evitare che l’intelligenza artificiale possa influenzare decisioni cruciali. Tra i punti salienti:

  • Accesso alle cure: È vietato utilizzare l’AI per decidere chi ha diritto a prestazioni mediche o per limitare l’accesso alle cure. Nessun algoritmo potrà creare liste d’attesa o escludere pazienti.
  • Decisione medica umana: Diagnosi e terapie rimangono di competenza esclusiva del personale sanitario, con l’AI che può solo fungere da supporto.
  • Ricerca scientifica: I dati personali possono essere utilizzati per la ricerca, ma solo dopo l’approvazione di un comitato etico e previa notifica al Garante della Privacy.

Queste norme mirano a proteggere i diritti dei pazienti e a garantire che le decisioni mediche siano sempre umane.

Giustizia: L’AI in tribunale?

Anche nel sistema giudiziario, l’applicazione dell’AI sarà limitata per prevenire possibili abusi. Le regole stabiliscono che:

  • Niente atti giudiziari: È vietato utilizzare l’AI per redigere sentenze o atti legali.
  • Nessuna valutazione dei fatti: Gli algoritmi non possono essere utilizzati per valutare prove o decidere pene.
  • Uso amministrativo limitato: L’AI potrà essere impiegata in alcuni procedimenti amministrativi, ma la responsabilità finale rimarrà sempre umana.

Queste restrizioni sono pensate per mantenere l’integrità del sistema giudiziario e garantire che le decisioni siano sempre frutto di un’analisi umana.

La battaglia contro i deepfake: Pene severe

La legge introduce anche misure severe contro gli abusi legati ai deepfake. Chiunque diffonda contenuti alterati con l’intento di ingannare rischia pene che vanno da 1 a 5 anni di carcere. Inoltre, è previsto l’obbligo di etichettare i contenuti generati o alterati con intelligenza artificiale, per garantire la massima trasparenza.

Critiche e preoccupazioni: Un’occasione mancata?

Nonostante le buone intenzioni, le critiche non si sono fatte attendere. L’opposizione politica, in particolare il Partito Democratico, ha definito questa legge come un'”occasione mancata”, sottolineando che non sono stati stanziati fondi per sostenere la ricerca e lo sviluppo nel settore. Il senatore Lorenzo Basso ha evidenziato come altri Paesi, come Francia e Gran Bretagna, stiano investendo miliardi, mentre l’Italia si limita a introdurre reati.

Anche i difensori dei diritti digitali hanno espresso preoccupazioni, affermando che la legge potrebbe dare un controllo eccessivo al governo sull’AI. Secondo loro, la mancanza di un organo di vigilanza indipendente potrebbe aprire la strada a scenari inquietanti, come la sorveglianza biometrica e possibili abusi nei confronti dei cittadini.

In questo contesto, l’Italia si trova a un bivio: riuscirà a bilanciare innovazione e diritti civili, o rischia di diventare un semplice spettatore della rivoluzione tecnologica?