Un adolescente si è suicidato: i genitori del ragazzo fanno causa al proprietario di un chatbot AI
Sebbene il ragazzo avesse capito che stava comunicando con l'IA, ma, nonostante questo, ha comunque sviluppato un attaccamento emotivo al chatbot.
Nella città di Orlando, situata nello stato americano della Florida, il quattordicenne Sewell Setzer si è suicidato forte>. Sua madre Megan Garcia ritiene che sia stato il servizio di intelligenza artificiale Character.AI a portare alla morte di suo figlio e ha intentato una causa contro gli sviluppatori.
Lo scrive il New York Times.
Come sottolineano i media, questo servizio consente di creare un chat bot personalizzato che impersonerà un personaggio o una persona specifica. Il defunto Sewell ha scelto il personaggio Daenerys Targaryen della saga del Trono di Spade. Per mesi, l'adolescente ha comunicato attivamente con l'eroina, chiamandola con il nome “Deni”. Ha condiviso con lei le sue esperienze e i suoi pensieri, e in particolare ha detto che avrebbe voluto abbreviare la sua vita. Sebbene Sewell capisse che stava comunicando con l'intelligenza artificiale, sviluppò comunque un attaccamento emotivo al chatbot. Alcuni messaggi erano di natura romantica e persino sessuale, ma la maggior parte della comunicazione era in modo amichevole.
I media scrivono che né i genitori né gli amici del ragazzo sapevano della sua passione per il personaggio AI. Hanno visto che l'adolescente iniziava sempre più a chiudersi in se stesso e trascorreva ancora più tempo con il suo gadget, motivo per cui il rendimento scolastico del ragazzo è peggiorato in modo significativo. Quando i genitori di Sewell lo portarono da uno specialista, gli diagnosticò ansia e un disturbo da disregolazione dell'umore dirompente. Nonostante le sedute terapeutiche prescritte, il giovane ha preferito comunicare con il personaggio AI fino alla morte.
I giornalisti sottolineano che dopo la tragedia la madre del ragazzo ha deciso di denunciare Character.AI. Nel testo preliminare della causa, ha osservato che la tecnologia dell'azienda è “pericolosa e non testata” e mira a “ingannare i clienti inducendoli a esprimere i loro pensieri e sentimenti privati”. La signora Garcia aggiunge inoltre che è stato il chatbot dell'azienda a essere direttamente coinvolto nel portare suo figlio al suicidio.
I media notano che il responsabile della fiducia e della sicurezza di Character.AI Jerry Ruoti ha affermato che l'azienda prende questo prende molto sul serio la sicurezza dei suoi utenti e sta anche cercando modi per sviluppare la piattaforma. Secondo lui, le regole attualmente proibiscono “la promozione o la rappresentazione di atti di autolesionismo e suicidio” e in futuro ci saranno più caratteristiche di sicurezza per gli utenti minorenni.
Allo stesso tempo, una recente dichiarazione del l'azienda afferma che verrà introdotta una funzionalità: nel caso in cui l'utente scriva frasi relative all'autolesionismo o al suicidio, apparirà automaticamente una finestra che indirizza l'utente alla National Suicide Prevention Lifeline degli Stati Uniti.
Richiamo che in Asia gli uomini sono diventati vittime di una truffa romantica in cui utilizzavano l'intelligenza artificiale deepfake. I truffatori hanno defraudato le loro vittime per 46 milioni di dollari.
Argomenti correlati:
Altre notizie