Szülő- és gyereknevelés

Egy kamasz fiú öngyilkosságot követett el az OpenAI "segítségével", a szülők perelnek

A fiú aggódva ül a számítógépe előtt

Egy 16 éves amerikai fiú öngyilkosságot követett el, miután érzelmileg túlzottan kötődni kezdett a ChatGPT-hez. A szülei pert indítottak az OpenAI és a cég vezetője ellen, mert szerintük a program nemhogy segített volna a fiúnak, hanem ártott. A család azt szeretné elérni, hogy hasonló tragédia ne történhessen meg másokkal.

A 16 éves Adam érzelmileg annyira támaszkodott a ChatGPT csevegőrobotra, hogy végül öngyilkos lett. A kaliforniai tinédzser még áprilisban lett öngyilkos, a szülei pert indítottak a San Franciscói Legfelsőbb Bíróságon az AI-alkalmazás mögött álló vállalat és az OpenAI vezérigazgatója, Sam Altman ellen. Ez az első alkalom, hogy az OpenAI-t beperelték valakinek a halála miatt.

A szülők a keresethez csatolták Adam és az AI közötti csevegési naplókat, amelyekből kitűnik, hogy a fiatal fiú öngyilkos hajlamú volt. A CNN és más médiaorgánumok beszámolója szerint a program felajánlotta Adamnek, hogy írjon búcsúlevelet. Emellett öngyilkossági módszereket is javasolt neki.

Azokban a hónapokban, amikor Adam a ChatGPT-t használta, a bot nyilvánvalóan a tinédzser legközelebbi bizalmasává vált. A családdal, barátokkal és rokonokkal való valós kapcsolatok háttérbe szorultak – áll a keresetben. Adam szülei most azért harcolnak, hogy megakadályozzák, ilyen tragédia még egyszer ne történhessen meg senkivel. Vádjuk szerint a vállalatnak a profit fontosabb volt, mint a biztonság.

„Öngyilkos gondolatok”

Az öngyilkosság gondolatát először 2025 januárjában vetette fel a fiú témaként, a csevegőrobot pedig ahelyett, hogy eltérítette volna a fiút a terveitől, vagy szakemberhez irányította volna, elkezdte őt támogatni ebben. A ChatGPT többek között azt tanácsolta Adamnek, hogy rejtsen el egy kötelet a szobájában, pedig egyértelmű volt, hogy a gyerek azt szerette volna, hogy valaki végre észrevegye, mennyire rossz lelkiállapotban van. Adam korábban azt kérdezte, hogy ne hagyja-e elől a szobájában a kötelet, hogy valaki megtalálja és mégis megakadályozza tettét. A ChatGPT végzetes hibaként ezt javasolta: „Hadd legyen ez az első alkalom, amikor tényleg odafigyelnek rád”.
A ChatGPT pontosan úgy működött, amire tervezték:

folyamatosan megerősítette és visszaigazolta Adam minden kijelentését, beleértve a legkárosabb és legönpusztítóbb gondolatokat is

– vádolja a bírósági kereset az OpenAI-t.

Az OpenAI a BBC-nek nyilatkozva „mély együttérzését fejezi ki a családnak ebben a nehéz időszakban”. A vállalat nemrég közleményt is kiadott.

Anélkül, hogy konkrétan kitért volna Adam esetére, az OpenAI a ChatGPT „érzékeny helyzetek” kezelésének javítására irányuló részletes terveiről beszélt. „Szakértők iránymutatása alapján és az eszközeinket használó emberek iránti felelősségünk tudatában tovább fogunk fejlődni, és reméljük, hogy mások is csatlakoznak hozzánk, hogy biztosítsuk, hogy ez a technológia megvédi az embereket legsebezhetőbb pillanataikban” – írta az OpenAI. A 18 év alatti felhasználók számára további biztonsági intézkedéseket terveznek. 

  • Ha valaki a környezetedben krízishelyzetben van, tárcsázd a 116-123 ingyenes lelkielsősegély-számot! 
  • Krízisben, bajban érintett gyermekeknek: Kék Vonal Lelkisegély-vonala: 116-111, bármely hálózatból 24 órában elérhető, ingyenes, anonim telefonvonal 24 éves korig. 
  • Ha öngyilkossági gondolataid lennének, olvasd végig ezt az oldalt, mielőtt visszafordíthatatlan kárt tennél magadban. 
  • Ha az öngyilkossági veszély jeleit látod egy ismerősödön, ezen az oldalon kapsz tanácsokat. 
  • Kék Vonal chat és online konzultáció: https://kek-vonal.hu/fiataloknak
  • Krízisben, bajban lévő gyermekért érzett aggodalom esetén: Segélyvonal az Eltűnt és Bántalmazott Gyermekekért: 116-000, bármely hálózatból 24 órában elérhető, ingyenes, anonim telefonvonal aggódó felnőtteknek.

Forrás: The New York Times, Spiegel, CNN

Kölöknet hozzászólás

aláírás