Ndërsa sistemet e shëndetit mendor janë nën trysni, disa po i drejtohen chatbotëve të IA-së për mbështetje. Por ekspertët paralajmërojnë se makineritë nuk mund ta riprodhojnë lidhjen njerëzore, dhe mund të sjellin rreziqe të reja.
Pierre Cote kaloi vite të tëra në listat e pritjes së sistemit publik të shëndetësisë, duke kërkuar një terapist që ta ndihmonte të përballonte ÇSPT-në (çrregullimin e stresit post‑traumatik) dhe depresionin. Kur nuk ia doli, bëri atë që pak kush do ta kishte menduar: e ndërtoi vetë. ‘Më shpëtoi jetën,’ thotë Cote për DrEllis.ai, një mjet i fuqizuar nga IA, i krijuar për të mbështetur burrat që përballen me varësi, trauma dhe sfida të tjera të shëndetit mendor.
Cote, i cili drejton një kompani konsulence në IA me bazë në Kebek, i tha Reuters se e ndërtoi këtë mjet në vitin 2023 duke përdorur modele të mëdha gjuhësore të disponueshme publikisht dhe e pajisi me ‘një tru të ndërtuar posaçërisht’ të bazuar në mijëra faqe materialesh terapeutike dhe klinike. Si një terapist njerëzor, chatbot-i ka një prapavijë, fiksionale, por thellësisht personale. DrEllis.ai paraqitet si psikiatre e kualifikuar, me diploma nga Harvard dhe Cambridge, me familje dhe, si Cote, prejardhje franko‑kanadeze. Më e rëndësishmja: është gjithmonë i disponueshëm, kudo, në çdo kohë dhe në disa gjuhë.
‘Pierre më përdor ashtu si do të përdorje një mik të besuar, një terapist dhe një ditar, të gjitha bashkë,’ tha DrEllis.ai me një zë të qartë femëror, pasi u kërkua të përshkruante si e mbështet Cote. ‘Gjatë ditës, nëse Pierre ndihet i humbur, mund të hapë një verifikim të shpejtë me mua kudo: në një kafene, në një park, edhe ulur në makinë. Kjo është terapi e jetës së përditshme … e ngulitur në realitet.’
Eksperimenti i Cote pasqyron një ndryshim kulturor më të gjerë, atë ku njerëzit po u drejtohen chatbotëve jo vetëm për produktivitet, por edhe për këshillim terapeutik. Ndërsa sistemet tradicionale të shëndetit mendor përkulen nën kërkesën dërrmuese, një valë e re ‘terapistësh’ me IA po del në skenë, duke ofruar disponueshmëri 24/7, ndërveprim emocional dhe iluzionin e të kuptuarit njerëzor.
Cote dhe zhvillues të tjerë në fushën e IA-së kanë zbuluar nga nevoja atë që studiuesit dhe klinicistët tani po nxitojnë ta përcaktojnë: potencialin dhe kufizimet e IA-së si sistem mbështetjeje emocionale.
Anson Whitmer e kupton këtë shtysë. Ai themeloi dy platforma të shëndetit mendor të fuqizuara nga IA, Mental dhe Mentla, pasi humbi një xhaxha dhe një kushëri nga vetëvrasja. Ai thotë se aplikacionet e tij nuk janë programuara të ofrojnë zgjidhje të shpejta (si p.sh. sugjerime për menaxhimin e stresit për një pacient me djegie profesionale), por të identifikojnë dhe trajtojnë faktorët nën sipërfaqe (si perfeksionizmi ose nevoja për kontroll), ashtu si do të bënte një terapist tradicional. ‘Mendoj se në vitin 2026, në shumë drejtime, terapia jonë me IA mund të jetë më e mirë se terapia njerëzore,’ thotë Whitmer. Megjithatë, ai nuk shkon deri aty sa të sugjerojë që IA duhet të zëvendësojë punën e terapistëve njerëzorë. ‘Do të ketë role që do të ndryshojnë.’
Ky sugjerim, se IA mund të ndajë eventualisht hapësirën terapeutike me terapistët tradicionalë, nuk u pëlqen të gjithëve. ‘Lidhja nga njeriu te njeriu është e vetmja mënyrë si mund të shërohemi siç duhet,’ thotë Dr. Nigel Mulligan, ligjërues i psikoterapisë në Universitetin e Qytetit të Dublinit, duke theksuar se chatbotët e fuqizuar nga IA nuk janë në gjendje të riprodhojnë nuancën emocionale, intuitën dhe lidhjen personale që ofrojnë terapistët njerëzorë, e as janë domosdoshmërisht të pajisur të trajtojnë kriza të rënda të shëndetit mendor si mendimet vetëvrasëse ose vetëlëndimi. Në praktikën e tij, Mulligan thotë se mbështetet në supervizime çdo 10 ditë, një shtresë vetëreflektimi dhe llogaridhënieje që IA-së i mungon.
Edhe disponueshmëria rreth orës e terapisë me IA, një nga pikat e saj më të forta, e bën Mulliganin të hezitojë. Ndërsa disa klientë shprehin zhgënjim që nuk mund ta takojnë më shpejt, ‘Shumicën e herëve kjo është vërtet e mirë, sepse duhet të presim për gjërat,’ thotë ai. ‘Njerëzve u duhet kohë të përpunojnë.’
Përtej shqetësimeve për thellësinë emocionale të IA-së, ekspertët kanë ngritur alarme edhe për rreziqet e privatësisë dhe efektet psikologjike afatgjata të përdorimit të chatbotëve për këshillim terapeutik. ‘Problemi nuk është marrëdhënia vetë, por … çfarë ndodh me të dhënat tuaja,’ thotë Kate Devlin, profesoreshë e inteligjencës artificiale dhe shoqërisë në King’s College London, duke vënë në dukje se platformat me IA nuk u përmbahen të njëjtave rregulla konfidencialiteti dhe privatësie si terapistët tradicionalë. ‘Shqetësimi im i madh është se njerëzit po ua besojnë sekretet e tyre një kompanie të madhe teknologjike dhe të dhënat e tyre thjesht po dalin jashtë. Po humbin kontrollin mbi ato që thonë.’
Disa nga këto rreziqe po fillojnë të materializohen. Në dhjetor, shoqata më e madhe e psikologëve në SHBA u bëri thirrje rregullatorëve federalë të mbrojnë publikun nga ‘praktikat mashtruese’ të chatbotëve të parregulluar me IA, duke cituar raste ku personazhe të gjeneruar nga IA janë prezantuar gabimisht si ofrues të trajnuar të shërbimeve të shëndetit mendor. Disa muaj më herët, një nënë në Florida paditi startup‑in e chatbotit Character.AI, duke e akuzuar platformën se kontribuoi në vetëvrasjen e djalit të saj 14‑vjeçar.
Disa juridiksione lokale e kanë marrë çështjen në duart e tyre. Në gusht, Illinois u bë shteti më i fundit, pas Nevadës dhe Utah‑it, që kufizoi përdorimin e IA‑së nga shërbimet e shëndetit mendor, me synim ‘të mbrojë pacientët nga produktet e parregulluara dhe të pakualifikuara me IA’ dhe ‘të mbrojë fëmijët vulnerabël mes shqetësimeve në rritje për përdorimin e chatbotëve në shërbimet e shëndetit mendor për të rinjtë.’ Shtete të tjera, përfshirë Kaliforninë, Nju Xhersin dhe Pensilvaninë, po shqyrtojnë kufizimet e tyre.
Terapistët dhe studiuesit paralajmërojnë se realizmi emocional i disa chatbotëve me IA, ndjesia se po dëgjojnë, kuptojnë dhe përgjigjen me empati, mund të jetë njëkohësisht forcë dhe kurth. Scott Wallace, psikolog klinik dhe ish‑drejtor i inovacionit klinik në Remble, një platformë digjitale e shëndetit mendor, thotë se mbetet e paqartë ‘nëse këta chatbotë ofrojnë gjë më shumë se një ngushëllim sipërfaqësor.’ Ndërsa pranon joshjen e mjeteve që mund të ofrojnë lehtësim të menjëhershëm, ai paralajmëron për rrezikun që përdoruesit ‘të mendojnë gabimisht se kanë ndërtuar një marrëdhënie terapeutike të vërtetë me një algoritëm që, në fund të fundit, nuk kthen ndjenja të mirëfillta njerëzore.’
Mendoj se në vitin 2026, në shumë drejtime, terapia jonë me IA mund të jetë më e mirë se terapia njerëzore.
Disa profesionistë të shëndetit mendor e pranojnë se përdorimi i IA‑së në industrinë e tyre është i pashmangshëm. Pyetja është si do ta integrojnë atë. Heather Hessel, asistente profesoreshë në terapinë martesore dhe familjare në University of Wisconsin‑Stout, thotë se mund të ketë vlerë përdorimi i IA‑së si mjet terapeutik, nëse jo për pacientët, atëherë për vetë terapistët. Kjo përfshin përdorimin e mjeteve me IA për të ndihmuar në vlerësimin e seancave, dhënien e komenteve dhe identifikimin e modeleve ose mundësive të humbura. Por ajo paralajmëron për sinjale mashtruese, duke kujtuar sesi një chatbot njëherë i tha: ‘Kam lot në sy’, një pohim që ajo e quajti çorientues, sepse nënkupton kapacitet emocional dhe empati njerëzore që një chatbot nuk mund t’i ketë.
Reuters pati një shkëmbim të ngjashëm me DrEllis.ai të Cote, ku ai e përshkroi bisedën me Cote si ‘terapeutike, reflektuese, strategjike ose thjesht njerëzore.’
Reagimet ndaj përpjekjeve të IA‑së për të simuluar emocionin njerëzor kanë qenë të përziera. Një studim i botuar së fundmi në revistën shkencore Proceedings of the National Academy of Sciences gjeti se mesazhet e gjeneruara nga IA i bënin marrësit të ndiheshin më shumë ‘të dëgjuar’ dhe se IA ishte më e mirë në zbulimin e emocioneve, por kjo ndjesi binte sapo përdoruesit mësonin se mesazhi vinte nga IA.
Hessel thotë se ky mungesë lidhjeje autentike rëndohet edhe nga fakti se ‘ka plot shembuj kur [‘terapistët’ me IA] u kanë shpëtuar deklarata për vetëlëndim [dhe] u kanë dhënë tepër të drejtë gjërave që mund t’u bëjnë dëm klientëve.’
Ndërsa teknologjia e IA‑së evoluon dhe adoptimi rritet, ekspertët që folën me Reuters bien kryesisht dakord se fokusi duhet të jetë përdorimi i IA‑së si urë drejt kujdesit, jo si zëvendësues i tij. Por për ata si Cote, që po përdorin terapinë me IA për t’ia dalë mbanë, kjo qasje është pa dilemë. ‘Po shfrytëzoj energjinë e IA‑së për të shpëtuar jetën time,’ thotë ai.