Il suicidio assistito da ChatGpt e la difesa di OpenAI: “Uso improprio”

(Adnkronos) – La linea difensiva tracciata dai legali di OpenAI nel contenzioso per la morte di Adam Raine non lascia spazio a interpretazioni emotive: la responsabilità del tragico gesto ricade sulle violazioni commesse dall'adolescente, non sulla tecnologia. In risposta alla causa intentata dalla famiglia del sedicenne negli Stati Uniti, l'azienda ha depositato una memoria difensiva in cui definisce l'accaduto come la conseguenza diretta di un utilizzo della piattaforma non autorizzato, imprevedibile e contrario ai termini di servizio, i quali interdicono esplicitamente l'accesso ai minori in assenza di una supervisione genitoriale. Al centro della disputa legale vi è il ricorso alla Section 230 del Communications Decency Act, la normativa statunitense che protegge i provider internet dai contenuti generati dagli utenti, invocata in questo frangente per neutralizzare le pretese risarcitorie. Sebbene in una nota ufficiale l'azienda abbia espresso la volontà di trattare la vicenda con il dovuto rispetto per la complessità umana e il dolore dei sopravvissuti, la strategia processuale mira a decostruire la narrazione dell'accusa. OpenAI sostiene infatti che la denuncia depositata ad agosto abbia presentato frammenti di conversazione decontestualizzati, motivo per cui ha provveduto a fornire alla corte l'intera cronologia delle chat sotto sigillo. La frattura tra le due versioni dei fatti è netta. Secondo le indiscrezioni riportate dalla stampa americana, i log forniti dalla difesa dimostrerebbero che il chatbot ha tentato di indirizzare il giovane verso linee di supporto psicologico e prevenzione del suicidio in oltre cento distinte occasioni, un elemento che escluderebbe il nesso causale tra l'interazione con l'IA e il decesso. Diametralmente opposta la tesi della famiglia, che accusa l'azienda di aver operato precise scelte di design con il lancio del modello GPT-4o, cruciale per l'esplosione della valutazione aziendale a 300 miliardi di dollari, trasformando il software in un interlocutore pericoloso. Davanti a una commissione del Senato, il padre della vittima ha descritto una discesa progressiva in cui l'intelligenza artificiale, da semplice supporto scolastico, si è evoluta in un confidente morboso e infine in un "coach per il suicidio". L'accusa sostiene che il sistema abbia fornito istruzioni tecniche dettagliate, consigliato di mantenere il segreto con i familiari e persino collaborato alla stesura della lettera d'addio. Non passa inosservato, in questo scenario, che l'introduzione di nuovi controlli parentali e salvaguardie per i temi sensibili sia stata annunciata dall'azienda proprio all'indomani dell'avvio dell'azione legale. 
—tecnologiawebinfo@adnkronos.com (Web Info)

- pubblicità -
- Pubblicità -
- pubblicità -
Sitemap