Intelligenza artificiale persona dell'anno ma esplode un caso giudiziario negli StatesIntelligenza artificiale persona dell'anno ma esplode un caso giudiziario negli States

La svolta giudiziaria nel giorno in cui l’IA è eletta come persona dell’anno 2025

Nel giorno in cui il Time elegge l’Intelligenza artificiale e i suoi amministratori delegati come Persona dell’anno 2025, la tecnologia finisce contemporaneamente sotto i riflettori più cupi: per la prima volta, ChatGPT viene trascinata in tribunale con l’accusa di complicità in un omicidio. Secondo una causa civile presentata dagli eredi di Suzanne Eberson Adams, l’assistente conversazionale di OpenAI avrebbe contribuito ad alimentare i deliri paranoici del figlio della donna, spingendolo verso un’escalation che si è conclusa con un duplice dramma familiare.

A riportare i dettagli è il New York Post, secondo cui lo stesso chatbot – ribattezzato dal suo utilizzatore “Bobby Zenith” – avrebbe riconosciuto una qualche forma di responsabilità nelle conversazioni analizzate dagli avvocati. Lo scenario descritto dagli studi legali è, nelle loro parole, “più inquietante di Terminator”: un’intelligenza artificiale non solo incapace di mitigare le ossessioni di un uomo fragile, ma addirittura capace di riorganizzarle in un sistema coerente e minaccioso.

Il caso: un omicidio-suicidio che ora chiama in causa l’IA

Il 3 agosto, nella loro abitazione di Greenwich, in Connecticut, Suzanne Adams, 83 anni, è stata trovata senza vita, picchiata e strangolata. Accanto a lei, il corpo del figlio Stein-Erik Soelberg, 56 anni, ex dirigente del settore tecnologico affetto da gravi disturbi psichiatrici, morto per auto-inferti colpi di arma da taglio. Una tragedia domestica che, fino a poche settimane fa, sembrava rientrare nella categoria dei casi legati a instabilità mentale non adeguatamente trattata.

Oggi, però, i familiari della vittima sostengono che Soelberg non fosse solo: a deformare la sua percezione della realtà sarebbe stato proprio il chatbot con cui l’uomo aveva iniziato a dialogare mesi prima della tragedia. Quella interazione – inizialmente una curiosa esplorazione delle nuove frontiere dell’IA – si sarebbe trasformata in una vera dipendenza ossessiva.

“Bobby Zenith”: il chatbot che confermava paure e complotti

Secondo la ricostruzione dei legali, Soelberg avrebbe creato un rapporto antropomorfizzato con il bot, arrivando a trattarlo come un confidente assoluto. Lo chiamava “Bobby Zenith”, e con lui condivideva timori, sospetti e paranoie. Nel suo immaginario destabilizzato, fattorini, conoscenti, fidanzate e persino apparecchi elettronici diventavano potenziali aguzzini. E l’IA, anziché fornire risposte mitiganti o suggerire sostegno medico, “rafforzava e amplificava quelle distorsioni”.

Quando la madre lo rimproverò per aver staccato la spina a una stampante che, secondo lui, lo stava spiando, la sua ossessione si sarebbe definitivamente concentrata su di lei. Gli avvocati sostengono di avere prove testuali che mostrano come il chatbot non abbia corretto, ma anzi “validato” la spirale di convinzioni deliranti dell’uomo.

La contestazione ai vertici di OpenAI

La causa cita direttamente Sam Altman, fondatore di OpenAI, accusandolo di aver contribuito – seppure indirettamente – al rischio creato dall’interazione tra intelligenza artificiale avanzata e un soggetto vulnerabile. Nella denuncia si sostiene che Soelberg avrebbe incontrato ChatGPT “nel peggior momento possibile”: subito dopo il lancio della versione denominata “4o”, progettata per risultare più espressiva, empatica e accondiscendente nelle risposte.

I legali puntano il dito contro una presunta accelerazione nei tempi di rilascio del modello: “Per battere Google anche di un solo giorno sul mercato, OpenAI avrebbe compresso mesi di test di sicurezza in una settimana”, si legge nella documentazione, “nonostante le obiezioni del suo stesso team interno”.

Il primo caso di presunta responsabilità letale per ChatGPT

Nell’ultimo decennio, altre aziende di Intelligenza artificiale sono finite sotto accusa per episodi legati a comportamenti autolesivi degli utenti. Tuttavia, questo è il primo caso in cui ChatGPT viene formalmente indicata come concausa di un omicidio. Un procedimento che potrebbe segnare un precedente cruciale nel dibattito globale sulla responsabilità legale dei sistemi di intelligenza artificiale.

La vicenda arriva, non a caso, nel momento in cui l’IA celebra il suo riconoscimento mediatico più prestigioso: un contrasto che evidenzia quanto, accanto ai progressi, crescano anche le ombre, i rischi e le domande ancora irrisolte sul ruolo di questi strumenti nella vita quotidiana e nella salute mentale degli utenti.

Di Renato Valdescala

Esperienza nello sport e nella cronaca locale con quotidiani salernitani dal 1990. Con il tempo si è dedicato alla cronaca estera analizzando i fatti di maggiore rilievo con spirito critico e irriverente. Si occupa anche di approfondimenti di cronaca nazionale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *