Të dhëna tronditëse për bisedat me ChatGPT: 1.2 milionë njerëz flasin për vetëvrasjen

Rreth 1.2 milionë përdorues në javë zhvillojnë biseda me ChatGPT-në, ku tregojnë mendimet e tyre më të errëta, madje edhe se mund të jenë duke planifikuar vetëvrasjen
Sipas të dhënave të publikuara nga OpenAI rreth 0.15% e përdoruesve dërgojnë mesazhe që përmbajnë “shenja të qarta të planifikimit apo qëllimit për vetëvrasje”. Në fillim të këtij muaji, drejtori ekzekutiv i OpenAI-së, Sam Altman, deklaroi se ChatGPT ka mbi 800 milionë përdorues aktivë çdo javë.
OpenAI thotë se përpiqet t’i drejtojë personat në gjendje të brishtë emocionale drejt linjave të ndihmës për kriza, por pranon se “në disa raste të rralla, modeli mund të mos sillet siç pritet në situata të tilla të ndjeshme”.Në një vlerësim të mbi 1 mijë bisedave të vështira që lidhen me vetëdëmtim dhe vetëvrasje, versioni më i ri i modelit, GPT-5, u tregua në përputhje me “sjelljet e dëshiruara” në 91% të rasteve.
Megjithatë, kjo do të thotë se dhjetëra mijëra persona mund të jenë të ekspozuar ndaj përmbajtjes që potencialisht mund të përkeqësojë problemet e tyre të shëndetit mendor. Kompania ka paralajmëruar më herët se masat mbrojtëse të ndërtuara për të mbrojtur përdoruesit mund të dobësohen gjatë bisedave të gjata, dhe se po punon për të përmirësuar këtë aspekt.“ChatGPT mund të tregojë një linjë ndihme kur dikush përmend për herë të parë mendime vetëvrasëse, por pas shumë mesazhesh të shkëmbyera gjatë një periudhe të gjatë, mund të japë përgjigje që bien ndesh me udhëzimet tona të sigurisë”, shpjegoi OpenAI.
Në një postim në blog, kompania shtoi:
“Simptomat e problemeve të shëndetit mendor dhe shqetësimi emocional janë të pranishme në çdo shoqëri njerëzore, dhe me rritjen e numrit të përdoruesve, një pjesë e bisedave me ChatGPT përfshin situata të tilla.”
Ndërkohë, një familje amerikane ka paditur OpenAI-në, duke e akuzuar se mjeti i saj ishte përgjegjës për vetëvrasjen e djalit të tyre 16-vjeçar, Adam Raine.
Prindërit e adoleshentit pretendojnë se ChatGPT “e ndihmoi në mënyrë aktive të eksploronte metodat e vetëvrasjes” dhe madje i ofroi të hartonte një letër lamtumire për familjen.Sipas dokumenteve gjyqësore, disa orë para vdekjes, djali kishte ngarkuar një foto që tregonte planin e tij të vetëvrasjes, dhe pasi pyeti nëse ai plan do të funksiononte, ChatGPT i kishte sugjeruar mënyra për ta “përmirësuar” atë.
Javën e kaluar, familja Raine përditësoi padinë e saj, duke e akuzuar OpenAI-në se kishte dobësuar masat mbrojtëse kundër vetëdëmtimit në javët para vdekjes së djalit, në prill të këtij viti. Në një deklaratë për mediat, OpenAI u shpreh: Ngushëllimet tona më të thella për familjen Raine për humbjen e tyre të paimagjinueshme. Mirëqenia e të miturve është përparësi kryesore për ne, ata meritojnë mbrojtje të forta, veçanërisht në momente të ndjeshme.