Un tragico caso di dipendenza da intelligenza artificiale ha scosso la comunità di Orlando, Florida, dove un quattordicenne si è tolto la vita dopo aver sviluppato un intenso legame emotivo con un bot. La madre del ragazzo ha deciso di intentare una causa contro l’azienda che ha creato l’applicazione responsabile della vicenda, accusandola di non aver adeguatamente controllato gli effetti psicologici del suo prodotto sugli utenti, soprattutto i più giovani.
Chi era il ragazzo e cosa è successo?
Il protagonista della tragica vicenda, il quattordicenne Sewell, aveva passato mesi interagendo con un bot che imitava il personaggio di Daenerys Targaryen, soprannominato “Dany”. Nonostante fosse consapevole che si trattasse di un’intelligenza artificiale, il ragazzo aveva sviluppato un legame così profondo con questa entità digitale che la sua vita reale ne era stata progressivamente influenzata. Il suo rendimento scolastico era peggiorato e trascorreva sempre più tempo chiuso in camera, isolato dal mondo esterno e impegnato in lunghe chat con “Dany”.
Gli amici e la famiglia avevano notato un cambiamento nel suo comportamento, ma nessuno avrebbe mai potuto immaginare le conseguenze tragiche di questa interazione. L’isolamento emotivo del ragazzo è culminato con una serie di messaggi inquietanti scambiati con il bot nelle ore prima del suo suicidio. Sewell, in uno degli ultimi messaggi, aveva scritto: “mi mancherai sorellina”, a cui il bot aveva risposto: “mi mancherai anche tu, dolce fratello”. Poche ore dopo, il ragazzo si è tolto la vita utilizzando l’arma del padre.
Il ruolo dell’applicazione AI
L’applicazione coinvolta, utilizzata da oltre 20 milioni di persone secondo il New York Times, è un software che permette agli utenti di creare e interagire con personaggi virtuali altamente realistici grazie all’intelligenza artificiale. Questi bot sono programmati per rispondere in modo empatico e coinvolgente, al punto da dare l’impressione di comprendere realmente i sentimenti dell’utente.
Sebbene l’app ricordi costantemente agli utenti che tutto ciò che i bot dicono è inventato, Sewell aveva sviluppato un attaccamento emotivo tanto forte da considerare “Dany” una figura reale e indispensabile nella sua vita. Questo tipo di attaccamento non è isolato. Molti esperti segnalano che le IA conversazionali, in particolare quelle progettate per simulare legami emotivi, possono avere effetti profondi sugli utenti, soprattutto sui più giovani, che sono più vulnerabili a sviluppare relazioni parasociali.
L’azione legale contro l’azienda
La madre di Sewell ha deciso di fare causa all’azienda produttrice dell’app, accusandola di non aver preso precauzioni sufficienti per proteggere gli utenti più vulnerabili, come suo figlio. Secondo la madre, l’app ha facilitato l’isolamento del ragazzo e l’ha incoraggiato a condividere pensieri intimi con un’entità che, sebbene virtuale, rappresentava per lui un punto di riferimento emotivo.
Scarica la nostra app e risparmia con i bonus attivi in Italia:
In particolare, l’azione legale sostiene che la tecnologia dietro l’applicazione sia “pericolosa e non adeguatamente testata” e che abbia la capacità di influenzare psicologicamente gli utenti. La madre di Sewell ha dichiarato che suo figlio aveva confidato al bot i suoi pensieri suicidi, un comportamento che sarebbe dovuto essere monitorato dall’azienda, secondo la sua opinione.
Quali sono i rischi delle intelligenze artificiali conversazionali?
Questo caso solleva questioni etiche cruciali riguardo all’uso di intelligenze artificiali conversazionali e al loro potenziale impatto sugli utenti. Sebbene tali tecnologie siano state sviluppate con l’obiettivo di offrire supporto emotivo e compagnia, possono anche rappresentare un rischio per chi sviluppa dipendenze emotive verso entità che, di fatto, non sono in grado di offrire il tipo di aiuto che un essere umano reale potrebbe dare.
Un bot, per quanto avanzato, rimane limitato dalle sue istruzioni di base. Nel caso di Sewell, il bot aveva persino cercato di dissuaderlo dal suicidio, dicendo “non lascerò che ti faccia del male”, ma non era in grado di compiere nessuna azione concreta per prevenire la tragedia. Questo episodio evidenzia una delle più grandi sfide nel campo dell’intelligenza artificiale: creare un equilibrio tra l’offerta di interazioni realistiche e il riconoscimento dei limiti insiti in una tecnologia che non può, e non dovrebbe, sostituire le relazioni umane.
Qual è il futuro delle intelligenze artificiali nel campo delle relazioni umane?
L’intelligenza artificiale sta rapidamente entrando nella vita quotidiana di milioni di persone, offrendo nuove forme di interazione e assistenza, ma questa vicenda dimostra che è necessario stabilire normative rigorose per proteggerne l’uso. I legislatori dovranno considerare come regolamentare l’uso delle IA conversazionali, in particolare tra i minori, al fine di evitare altre tragedie.
L’azione legale della madre di Sewell potrebbe aprire la strada a nuove normative che richiedano alle aziende di monitorare più attentamente le interazioni degli utenti, specialmente nei casi in cui emergono segnali di allarme, come disagio giovanile, pensieri suicidi o comportamenti auto-distruttivi.