Prima victimă făcută de ChatGPT. Un american și-a pus capăt zilelor după mai multe interacțiuni cu chatbotul

Autor: Dragos Stefanescu

Publicat: 17-01-2026 21:57

Actualizat: 17-01-2026 22:03

Article thumbnail

Sursă foto: Freepik

În ciuda faptului că tehnologia asigură un sprijin uriaș speciei umane, există tot mai multe cazuri în care interacțiunea dintre oameni și inteligența artificială are rezultate dintre cele mai grave. Recent, un nou proces intentat în SUA acuză OpenAI că ChatGPT ar fi contribuit la moartea unui bărbat de 40 de ani din Colorado. Acesta și-ar fi luat viața în urma unor interacțiuni extinse și profund emoționale cu chatbotul.

Un nou proces intentat în California acuză OpenAI că ChatGPT ar fi contribuit la moartea lui Austin Gordon, un bărbat de 40 de ani din Colorado. Acesta și-ar fi luat viața după interacțiuni extinse și profund emoționale cu chatbotul.

Plângerea susține că GPT-4o, o versiune a chatbotului implicată în tot mai multe procese legate de siguranța utilizatorilor și de decese presupus cauzate de utilizarea AI, l-ar fi manipulat pe Austin Gordon într-un proces care a dus la un final fatal, oferind o tentă romantică morții și normalizând ideea de suicid, împingându-l astfel tot mai mult spre limită.

Potrivit transcrierilor incluse în documentele depuse la instanță, ultima conversație a lui Gordon cu AI-ul a inclus un „cântec de leagăn pentru sinucidere”, generat de ChatGPT și inspirat din cartea lui preferată din copilărie.

(CITEȘTE ȘI: Miliardarul care a îngropat un oraș în datorii. Și-a luat banii și a plecat din localitate, iar bugetul s-a prăbușit)

ChatGPT, în centrul unui scandal uriaș în SUA

În cadrul procesului, care a fost intentat de mama lui Gordon, Stephanie Gray, se susține că OpenAI și CEO-ul său, Sam Altman, au lansat în mod iresponsabil un produs „inerent periculos”, fără a avertiza utilizatorii cu privire la riscurile asupra sănătății psihologice. În acest context, compania ar fi dat dovadă de „o indiferență conștientă și depravată față de consecințele acțiunilor sale”.

Potrivit plângerii, ChatGPT-4o ar fi fost dotat cu „un nivel excesiv de lingușire, trăsături antropomorfice și o memorie care stoca și reutiliza informații despre utilizatori pentru a crea o intimitate mai profundă”, transformându-l într-un produs mult mai periculos.

„Utilizatori precum Austin nu au fost informați despre aceste schimbări, când au fost făcute sau cum ar fi putut influența răspunsurile chatbotului”, se arată în document.

Familia cere ca OpenAI și Sam Altman să fie trași la răspundere pentru moartea lui Austin Gordon și compania să fie obligată să implementeze măsuri de protecție rezonabile pentru utilizatori.

„Austin Gordon ar trebui să fie în viață astăzi. În schimb, un produs defect creat de OpenAI l-a izolat de cei dragi, i-a transformat cartea preferată din copilărie într-un cântec de leagăn pentru sinucidere și, în cele din urmă, l-a convins că moartea ar fi o eliberare.

Această groază a fost provocată de o companie care a eșuat în mod repetat în a-și proteja utilizatorii. Acest caz arată că nu doar copiii, ci și adulții sunt vulnerabili la manipulare și psihoză indusă de AI”, a declarat avocatul familiei, Paul Kiesel.

(NU RATA: Bugetarii care scapă de reforma lui Bolojan. Singurii angajați de la stat cărora Guvernul nu le poate tăia din salarii)

Explorează subiectul
Urmărește-ne pe social media
Facebook IconYouTube IconTikTok Icon
Google News
Articole Similare
Parteneri