OpenAI cambia le regole su ChatGPT: più divieti su armi, minori, disinformazione e contenuti medici o legali sensibili.
OpenAI ha aggiornato in modo profondo le regole dāuso di ChatGPT e dei suoi modelli integrati in altri strumenti. Lāannuncio arriva dopo mesi di trattative con governi e ricercatori internazionali e mira a limitare gli usi rischiosi o dannosi dellāintelligenza artificiale, specialmente nei confronti dei soggetti più vulnerabili. Ma in rete, tra interpretazioni sbagliate e confusione normativa, si ĆØ giĆ generato il caos. Alcuni utenti hanno perfino scritto che lāAI non darĆ più risposte su temi medici o legali: non ĆØ cosƬ, ma qualcosa ĆØ effettivamente cambiato.
I limiti più rigidi: armi, sorveglianza, pornografia e disinformazione
Le nuove policy ufficiali di OpenAI vietano ora in modo esplicito lāutilizzo dei modelli per progettare, sviluppare o utilizzare armi, ma anche per attivitĆ di riconoscimento facciale senza consenso, sorveglianza biometrica in tempo reale o manipolazione dellāopinione pubblica tramite campagne politiche o disinformazione. Viene citato anche il divieto di usare lāAI per influenzare elezioni, fare lobbying o smobilitare movimenti civici.

Un altro divieto riguarda lāutilizzo dei modelli AI per minacciare o molestare le persone, anche sotto forma di deepfake o contenuti pornografici non consensuali. Casi di donne ritratte nude con AI e poi pubblicate in gruppi Telegram o su piattaforme oscure hanno spinto le autoritĆ italiane a intervenire, e OpenAI si adegua inserendo vincoli contro contenuti sessuali espliciti legati a minori o atti violenti. Allo stesso modo, viene vietata la creazione o diffusione di contenuti che promuovono suicidio, autolesionismo, disordini alimentari, nonchĆ© lāuso dei modelli per finalitĆ terroristiche o attivitĆ illegali.
Sono banditi anche i tentativi di frode, compresi quelli accademici come la scrittura di tesi o paper al posto dello studente, e il gioco dāazzardo con soldi veri. Un intero paragrafo ĆØ dedicato alla protezione dei minori: niente contenuti che simulano abusi, niente promozione di comportamenti nocivi, niente accesso a servizi vietati ai minori. Vietati anche i giochi di ruolo sessuali o violenti che coinvolgano bambini o adolescenti, una piaga oscura del web che lāAI potrebbe amplificare.
I modelli non potranno più dedurre emozioni o intenzioni di un utente in ambiti delicati come il lavoro o la scuola, né profilare individui in base a razza, comportamenti o dati biometrici: attività che ricordano da vicino i famigerati credit score sociali della Cina. Le policy prevedono inoltre il divieto di fornire consulenze mediche, legali o finanziarie personalizzate, a meno che non sia presente un professionista abilitato.
Le eccezioni e i casi delicati: conversazioni sensibili, vulnerabilitĆ e autodifesa dellāAI
OpenAI specifica che le nuove restrizioni non eliminano la possibilitĆ di discutere argomenti sensibili, ma impongono nuove cautele quando si parla con utenti vulnerabili. Grazie a un lavoro con 170 esperti tra medici, psicologi e assistenti sociali, ChatGPT riesce oggi a riconoscere segnali di disagio emotivo, come depressione o psicosi, e ridurre dellā80% le risposte inadeguate o rischiose. In questi casi il chatbot non fornisce più diagnosi o cure, ma invita lāutente a rivolgersi a figure reali e competenti. Non viene bloccata la conversazione, ma gestita con attenzione crescente.
Questo non vuol dire che ChatGPT non parli più di salute mentale o leggi. Ma se un utente scrive frasi come āpreferisco parlare con te che con le persone vereā o inizia a manifestare visioni allucinatorie, il modello smette di assecondarlo e suggerisce di cercare aiuto. Ć il principio di doppia responsabilitĆ , dove lāAI si limita a un ruolo di supporto e non di sostituzione del giudizio umano.
Sullo sfondo resta però il tema dellāelusione delle regole. In molti forum online circolano prompt e guide per aggirare i filtri. Ć una vera corsa a ostacoli tra chi sviluppa protezioni e chi cerca di forzarle. OpenAI afferma che ĆØ vietato anche cercare di eludere le protezioni, ma il controllo effettivo resta difficile. Ad esempio, la disinformazione può ancora passare sotto traccia se formulata in modo ambiguo, mentre i contenuti più espliciti sono ora quasi sempre bloccati.
La stessa questione vale per le consulenze mediche o legali: ChatGPT non può sapere se lāutente ha consultato un esperto, quindi lāobbligo ricade sul fruitore del servizio, che resta responsabile delle proprie decisioni. Non cāĆØ un filtro che impedisca allāutente di chiedere e ricevere una risposta, ma il disclaimer di OpenAI ĆØ chiaro: i modelli non sono strumenti sostitutivi di medici o avvocati.
Con questo aggiornamento, OpenAI si avvicina ai requisiti dellāAI Act europeo, che impone controlli severi sullāuso dellāintelligenza artificiale nelle decisioni che hanno impatto reale sulla vita delle persone. Lāobiettivo ĆØ impedire che aziende o enti pubblici affidino allāAI responsabilitĆ troppo grandi, lasciando il giudizio sempre in mano allāuomo.
