Cosa succede ora se chiedi consigli medici a ChatGPT: la nuova policy spiegata

Cosa succede ora se chiedi consigli medici a ChatGPT: la nuova policy spiegata -dialmabrown.it

Franco Vallesi

Novembre 8, 2025

OpenAI cambia le regole su ChatGPT: più divieti su armi, minori, disinformazione e contenuti medici o legali sensibili.

OpenAI ha aggiornato in modo profondo le regole d’uso di ChatGPT e dei suoi modelli integrati in altri strumenti. L’annuncio arriva dopo mesi di trattative con governi e ricercatori internazionali e mira a limitare gli usi rischiosi o dannosi dell’intelligenza artificiale, specialmente nei confronti dei soggetti più vulnerabili. Ma in rete, tra interpretazioni sbagliate e confusione normativa, si è già generato il caos. Alcuni utenti hanno perfino scritto che l’AI non darà più risposte su temi medici o legali: non è così, ma qualcosa è effettivamente cambiato.

I limiti più rigidi: armi, sorveglianza, pornografia e disinformazione

Le nuove policy ufficiali di OpenAI vietano ora in modo esplicito l’utilizzo dei modelli per progettare, sviluppare o utilizzare armi, ma anche per attività di riconoscimento facciale senza consenso, sorveglianza biometrica in tempo reale o manipolazione dell’opinione pubblica tramite campagne politiche o disinformazione. Viene citato anche il divieto di usare l’AI per influenzare elezioni, fare lobbying o smobilitare movimenti civici.

I limiti più rigidi: armi, sorveglianza, pornografia e disinformazione – dialmabrown.it

Un altro divieto riguarda l’utilizzo dei modelli AI per minacciare o molestare le persone, anche sotto forma di deepfake o contenuti pornografici non consensuali. Casi di donne ritratte nude con AI e poi pubblicate in gruppi Telegram o su piattaforme oscure hanno spinto le autorità italiane a intervenire, e OpenAI si adegua inserendo vincoli contro contenuti sessuali espliciti legati a minori o atti violenti. Allo stesso modo, viene vietata la creazione o diffusione di contenuti che promuovono suicidio, autolesionismo, disordini alimentari, nonché l’uso dei modelli per finalità terroristiche o attività illegali.

Sono banditi anche i tentativi di frode, compresi quelli accademici come la scrittura di tesi o paper al posto dello studente, e il gioco d’azzardo con soldi veri. Un intero paragrafo è dedicato alla protezione dei minori: niente contenuti che simulano abusi, niente promozione di comportamenti nocivi, niente accesso a servizi vietati ai minori. Vietati anche i giochi di ruolo sessuali o violenti che coinvolgano bambini o adolescenti, una piaga oscura del web che l’AI potrebbe amplificare.

I modelli non potranno più dedurre emozioni o intenzioni di un utente in ambiti delicati come il lavoro o la scuola, né profilare individui in base a razza, comportamenti o dati biometrici: attività che ricordano da vicino i famigerati credit score sociali della Cina. Le policy prevedono inoltre il divieto di fornire consulenze mediche, legali o finanziarie personalizzate, a meno che non sia presente un professionista abilitato.

Le eccezioni e i casi delicati: conversazioni sensibili, vulnerabilità e autodifesa dell’AI

OpenAI specifica che le nuove restrizioni non eliminano la possibilità di discutere argomenti sensibili, ma impongono nuove cautele quando si parla con utenti vulnerabili. Grazie a un lavoro con 170 esperti tra medici, psicologi e assistenti sociali, ChatGPT riesce oggi a riconoscere segnali di disagio emotivo, come depressione o psicosi, e ridurre dell’80% le risposte inadeguate o rischiose. In questi casi il chatbot non fornisce più diagnosi o cure, ma invita l’utente a rivolgersi a figure reali e competenti. Non viene bloccata la conversazione, ma gestita con attenzione crescente.

Questo non vuol dire che ChatGPT non parli più di salute mentale o leggi. Ma se un utente scrive frasi come “preferisco parlare con te che con le persone vere” o inizia a manifestare visioni allucinatorie, il modello smette di assecondarlo e suggerisce di cercare aiuto. È il principio di doppia responsabilità, dove l’AI si limita a un ruolo di supporto e non di sostituzione del giudizio umano.

Sullo sfondo resta però il tema dell’elusione delle regole. In molti forum online circolano prompt e guide per aggirare i filtri. È una vera corsa a ostacoli tra chi sviluppa protezioni e chi cerca di forzarle. OpenAI afferma che è vietato anche cercare di eludere le protezioni, ma il controllo effettivo resta difficile. Ad esempio, la disinformazione può ancora passare sotto traccia se formulata in modo ambiguo, mentre i contenuti più espliciti sono ora quasi sempre bloccati.

La stessa questione vale per le consulenze mediche o legali: ChatGPT non può sapere se l’utente ha consultato un esperto, quindi l’obbligo ricade sul fruitore del servizio, che resta responsabile delle proprie decisioni. Non c’è un filtro che impedisca all’utente di chiedere e ricevere una risposta, ma il disclaimer di OpenAI è chiaro: i modelli non sono strumenti sostitutivi di medici o avvocati.

Con questo aggiornamento, OpenAI si avvicina ai requisiti dell’AI Act europeo, che impone controlli severi sull’uso dell’intelligenza artificiale nelle decisioni che hanno impatto reale sulla vita delle persone. L’obiettivo è impedire che aziende o enti pubblici affidino all’AI responsabilità troppo grandi, lasciando il giudizio sempre in mano all’uomo.