Cosa succede ora se chiedi consigli medici a ChatGPT: la nuova policy spiegata

Cosa succede ora se chiedi consigli medici a ChatGPT: la nuova policy spiegata -dialmabrown.it

Franco Vallesi

Novembre 8, 2025

OpenAI cambia le regole su ChatGPT: più divieti su armi, minori, disinformazione e contenuti medici o legali sensibili.

OpenAI ha aggiornato in modo profondo le regole d’uso di ChatGPT e dei suoi modelli integrati in altri strumenti. L’annuncio arriva dopo mesi di trattative con governi e ricercatori internazionali e mira a limitare gli usi rischiosi o dannosi dell’intelligenza artificiale, specialmente nei confronti dei soggetti più vulnerabili. Ma in rete, tra interpretazioni sbagliate e confusione normativa, si ĆØ giĆ  generato il caos. Alcuni utenti hanno perfino scritto che l’AI non darĆ  più risposte su temi medici o legali: non ĆØ cosƬ, ma qualcosa ĆØ effettivamente cambiato.

I limiti più rigidi: armi, sorveglianza, pornografia e disinformazione

Le nuove policy ufficiali di OpenAI vietano ora in modo esplicito l’utilizzo dei modelli per progettare, sviluppare o utilizzare armi, ma anche per attivitĆ  di riconoscimento facciale senza consenso, sorveglianza biometrica in tempo reale o manipolazione dell’opinione pubblica tramite campagne politiche o disinformazione. Viene citato anche il divieto di usare l’AI per influenzare elezioni, fare lobbying o smobilitare movimenti civici.

I limiti più rigidi: armi, sorveglianza, pornografia e disinformazione – dialmabrown.it

Un altro divieto riguarda l’utilizzo dei modelli AI per minacciare o molestare le persone, anche sotto forma di deepfake o contenuti pornografici non consensuali. Casi di donne ritratte nude con AI e poi pubblicate in gruppi Telegram o su piattaforme oscure hanno spinto le autoritĆ  italiane a intervenire, e OpenAI si adegua inserendo vincoli contro contenuti sessuali espliciti legati a minori o atti violenti. Allo stesso modo, viene vietata la creazione o diffusione di contenuti che promuovono suicidio, autolesionismo, disordini alimentari, nonchĆ© l’uso dei modelli per finalitĆ  terroristiche o attivitĆ  illegali.

Sono banditi anche i tentativi di frode, compresi quelli accademici come la scrittura di tesi o paper al posto dello studente, e il gioco d’azzardo con soldi veri. Un intero paragrafo ĆØ dedicato alla protezione dei minori: niente contenuti che simulano abusi, niente promozione di comportamenti nocivi, niente accesso a servizi vietati ai minori. Vietati anche i giochi di ruolo sessuali o violenti che coinvolgano bambini o adolescenti, una piaga oscura del web che l’AI potrebbe amplificare.

I modelli non potranno più dedurre emozioni o intenzioni di un utente in ambiti delicati come il lavoro o la scuola, né profilare individui in base a razza, comportamenti o dati biometrici: attività che ricordano da vicino i famigerati credit score sociali della Cina. Le policy prevedono inoltre il divieto di fornire consulenze mediche, legali o finanziarie personalizzate, a meno che non sia presente un professionista abilitato.

Le eccezioni e i casi delicati: conversazioni sensibili, vulnerabilitĆ  e autodifesa dell’AI

OpenAI specifica che le nuove restrizioni non eliminano la possibilitĆ  di discutere argomenti sensibili, ma impongono nuove cautele quando si parla con utenti vulnerabili. Grazie a un lavoro con 170 esperti tra medici, psicologi e assistenti sociali, ChatGPT riesce oggi a riconoscere segnali di disagio emotivo, come depressione o psicosi, e ridurre dell’80% le risposte inadeguate o rischiose. In questi casi il chatbot non fornisce più diagnosi o cure, ma invita l’utente a rivolgersi a figure reali e competenti. Non viene bloccata la conversazione, ma gestita con attenzione crescente.

Questo non vuol dire che ChatGPT non parli più di salute mentale o leggi. Ma se un utente scrive frasi come ā€œpreferisco parlare con te che con le persone vereā€ o inizia a manifestare visioni allucinatorie, il modello smette di assecondarlo e suggerisce di cercare aiuto. ƈ il principio di doppia responsabilitĆ , dove l’AI si limita a un ruolo di supporto e non di sostituzione del giudizio umano.

Sullo sfondo resta però il tema dell’elusione delle regole. In molti forum online circolano prompt e guide per aggirare i filtri. ƈ una vera corsa a ostacoli tra chi sviluppa protezioni e chi cerca di forzarle. OpenAI afferma che ĆØ vietato anche cercare di eludere le protezioni, ma il controllo effettivo resta difficile. Ad esempio, la disinformazione può ancora passare sotto traccia se formulata in modo ambiguo, mentre i contenuti più espliciti sono ora quasi sempre bloccati.

La stessa questione vale per le consulenze mediche o legali: ChatGPT non può sapere se l’utente ha consultato un esperto, quindi l’obbligo ricade sul fruitore del servizio, che resta responsabile delle proprie decisioni. Non c’è un filtro che impedisca all’utente di chiedere e ricevere una risposta, ma il disclaimer di OpenAI ĆØ chiaro: i modelli non sono strumenti sostitutivi di medici o avvocati.

Con questo aggiornamento, OpenAI si avvicina ai requisiti dell’AI Act europeo, che impone controlli severi sull’uso dell’intelligenza artificiale nelle decisioni che hanno impatto reale sulla vita delle persone. L’obiettivo ĆØ impedire che aziende o enti pubblici affidino all’AI responsabilitĆ  troppo grandi, lasciando il giudizio sempre in mano all’uomo.

Ɨ