"Anthropic modifica politiche per migliorare Claude, l'AI che richiede accesso ai dati."
Anthropic aggiorna le politiche di Claude, richiedendo accesso ai dati per migliorare le capacità dell'intelligenza artificiale nel 2025

Anthropic modifica le sue politiche: Claude chiede accesso ai dati per potenziare l’AI

Cambiamenti nelle politiche di privacy di Anthropic

Anthropic, l’azienda creatrice del modello linguistico Claude, ha recentemente introdotto un’importante modifica alle sue politiche di privacy. Da oggi, gli utenti si trovano di fronte a una decisione fondamentale: condividere le proprie conversazioni per contribuire al progresso dell’intelligenza artificiale o preservare la propria privacy. Questa scelta dovrà essere effettuata entro il 28 settembre 2025, segnando un cambiamento significativo per chi utilizza il servizio.

Un nuovo corso per Anthropic

In passato, la posizione di Anthropic era chiara: i dati delle conversazioni non venivano utilizzati per addestrare i modelli. Le interazioni venivano eliminate automaticamente dopo 30 giorni, a meno di specifiche eccezioni legali o violazioni delle policy. Tuttavia, l’azienda ha ora deciso di adottare un approccio diverso. Non solo prevede di utilizzare le chat e le sessioni di programmazione per lo sviluppo, ma intende anche estendere il periodo di conservazione dei dati a cinque anni per coloro che non si opporranno.

Il bene comune o una necessità aziendale?

La giustificazione ufficiale per questa nuova politica è presentata come un’iniziativa per il “bene comune”. Anthropic afferma che l’intento è quello di migliorare la sicurezza dei modelli, affinare le capacità di ragionamento e analisi, e rendere più efficaci i sistemi di rilevamento dei contenuti nocivi. In sostanza, si chiede agli utenti di collaborare per migliorare il prodotto che utilizzano. Tuttavia, dietro questa facciata altruista si nasconde una necessità più pragmatica: le aziende che sviluppano modelli linguistici di grandi dimensioni necessitano di dati, in particolare di dati di alta qualità provenienti da interazioni reali.

La competizione nel settore dell’AI

Le conversazioni e le sessioni di codice generate dagli utenti di Claude rappresentano una risorsa preziosa per affinare l’intelligenza artificiale e mantenere la competitività rispetto a giganti come OpenAI e Google. In un contesto di crescente pressione competitiva e di un controllo sempre più rigoroso sulla gestione dei dati, le aziende affrontano sfide significative. Un esempio emblematico è la battaglia legale in corso tra OpenAI e il New York Times, che ha portato a un’ordinanza del tribunale che obbliga l’azienda a non cancellare le conversazioni di ChatGPT. Per tutelarsi, OpenAI ha già differenziato le proprie politiche: mentre gli utenti gratuiti e a pagamento di ChatGPT sono soggetti a queste dinamiche, i clienti business godono di una protezione maggiore, un percorso che anche Anthropic sembra voler seguire.

Consenso informato e cambiamenti silenziosi

Le politiche d’uso nel settore dell’AI stanno cambiando rapidamente, spesso in modo silenzioso, tra notizie e aggiornamenti aziendali. Molte persone non si rendono conto che le regole a cui hanno acconsentito sono state modificate. L’introduzione della nuova politica di Anthropic segue un modello già visto in altre aziende: i nuovi utenti possono scegliere la propria preferenza durante l’iscrizione, mentre per quelli esistenti appare un pop-up che evidenzia un grande pulsante “Accetta”, con un piccolo interruttore per il permesso di utilizzo dei dati, impostato automaticamente su “On”. Questo design incoraggia l’utente a cliccare “Accetta” senza nemmeno leggere le nuove condizioni.

Le sfide della privacy nell’AI

Gli esperti di privacy avvertono da tempo che la complessità del settore dell’AI rende quasi impossibile ottenere un vero e proprio “consenso informato” da parte degli utenti. Con queste nuove politiche, Anthropic si inserisce in un panorama in continua evoluzione, dove la gestione dei dati e la privacy degli utenti diventano sempre più centrali nel dibattito pubblico.