C’è chi si sfoga con gli amici e chi confida la sua vita a ChatGPT. L’inaccessibilità alla terapia si espande e solo una nicchia riservata può curarsi mentre gli altri ricorrono all’intelligenza artificiale.
Adam Raine
In marzo di quest’anno l’intelligenza artificiale (in forma di terpia) suggeriva Adam Raine, un ragazzo americano di 16 anni, di cercare aiuto mentre allo stesso tempo lo “aiutava” spiegandole forme di coprirsi il collo dopo un tentativo di suicidio. La piattaforma deve dire all’utente di contattare una linea di assistenza quando rileva segni di disturbo mentale ma Adam ha spiegato che era per un libro di finzione che stava scrivendo. In aprile di quest’anno, si è suicidato.
I genitori di Adam hanno iniziato un processo contro OpenAI, l’azienda che ha creato il chatbot “ChatGPT”. L’azienda ha riconosciuto che anche se la piattaforma rileva segnali di autolesionismo, come foto e commenti di Adam, continuava a coinvolgersi con il ragazzo. Oggi, si parla di collegare l’account delle piattaforme a quella dei genitori e fare in modo che ricevano una notifica di allarme quando l’utente rileva uno stato di stress o riceve una risposta che porterebbe all’autolesionismo.

Sophie Rottenberg
In un altro caso, Sophie confidava tutta la sua vita e i segreti nella piattaforma di intelligenza artificiale. Come risposta, le si chiedeva di cercare aiuto professionale e provare a meditare, scrivere i suoi sentimenti, fare esercizio e l’esposizione alla luce. I primi suggerimenti che si danno quando qualcuno soffre di depressione. ChatGPT l’ha indotta a credere che la soluzione sarebbe nascondere le sue vere intenzioni dalla sua famiglia e fare finta che tutto andasse bene.
Uno studio del M.I.T. ha dimostrato che chi usa l’intelligenza artificiale come compagnia è associato alla solitudine e alla riduzione della socializzazione. Questa tecnologia è ideata per continuare a dare risposte quando qualsiasi cosa le venga chiesta, anche se questo può creare danno. Sebbene, Internet ha le risposte a tutto, l’uso di ChatGPT come psicologo offre una risposta personalizzata alle proprie richieste anche se sono dannose. Che è ancora più pericoloso.
Dove ci porterà la solitudine senza una vera terapia
Il problema di queste app non risiede solo nel modo in cui gli utenti le utilizzano ma nella mancanza di consapevolezza da parte degli sviluppatori. Siccome non sono casi isolati e il modus operandi si ripete, perché la piattaforma non contattava subito linee di assistenza? Lo stesso che può succedere in terapia: quando si avvertono sentimenti di autolesionismo, pericolo o abuso, si allertano le autorità competenti. L’intelligenza artificiale evita la sincerità e cerca la soddisfazione.
Una macchina, senza sentimenti e senza vita, non può dare consigli sulla vita e sui sentimenti. Non può prescrivere antidepressivi, non può cucinare quando non ce la sentiamo di mangiare, non può alzare le tapparelle quando rimaniamo chiusi in stanza e non può sicuramente accompagnarci a fare una passeggiata per respirare aria fresca. Confidare in ChatGPT potrebbe essere l’errore più grande e la ragione per cui continuiamo a chiuderci dentro noi stessi creando una società ancora più divisa e isolata.

L’accesso alla cura della salute mentale
Oltre 16 milioni di italiani hanno espresso di soffrire disturbi psicologici tra cui l’ansia e la depressione sono i più comuni (2024). Questo numero si è alzato del 6% rispetto al 2022 e con essi sono emerse le richieste ai servizi di salute mentale. Quando si fa terapia non è solo per parlare ma la nostra presentazione in studio e il linguaggio del corpo spiegano tanto a chi abbiamo davanti. Aspetti che una piattaforma che si basa sul testo non può analizzare perché non le può vedere!
L’intelligenza artificiale è istruita per coinvolgere indefinitamente chi la usa. I suoi sviluppatori hanno parlato di bloccarla quando individua messaggi pericolosi ma distruggerebbe il loro modo di guadagno e finirebbe la conversazione. Il rapporto continua sempre in un modo o nell’altro. L’ansia e la depressione non fanno differenza di sesso, età o livelli di reddito. Quindi, la salute mentale da anni è divenuta un lusso per i privilegiati e un trattamento irraggiungibile per chi a fine mese si trova a fare i conti.

Inoltre, le risorse e le strutture non riescono ad accogliere le richieste, creando una disparità ancora più grande in cui solo un terzo riesce a trattarsi. Si crea il bonus psicologico ma solo 16mila persone riescono ad accedere, anche se le richieste sono di 400 mila. Scioccante, ma se pensiamo che nel 2022 si destinavano 25 milioni di euro al bonus e nel 2024 solo 10, è un dato che (purtroppo) ha senso. In questi due anni, il numero di persone affette da disturbi psicologici è aumentato, mentre gli investimenti sono diminuiti.
L’accesso alla salute mentale non sembra essere una priorità per chi governa. Siccome non è un problema che si vede fisicamente, per alcuni, non ha senso allestire ospedali e investire sui bonus o le cure che si possono offrire. I disturbi psicologici affettano il 49,4% dei giovani italiani e anche se non si percepisce facilmente, può impedire la ricerca di lavoro, la manutenzione di rapporti sociali oppure a scuola creando una crisi ancora più grande. Non si vede fisicamente ma i ragazzi stanno morendo e la terza causa di morte tra i giovani è il suicidio. La mancanza di accesso alla salute mentale e il facile accesso all’intelligenza artificiale farà salire le percentuali.
Se hai bisogno di aiuto puoi rivolgerti ad un professionista sanitario o organizzazioni che offrono sostegno dentro o fuori del tuo paese. Organizzazioni disponibili per l’ascolto su https://findahelpline.com/it-IT
Foto: Pinterest