
V zadnjih letih se umetna inteligenca hitro vključuje v vsakdanje življenje, tudi na področju duševnega zdravja. Orodja, kot je ChatGPT, ljudje vse pogosteje uporabljajo za pogovor o čustvenih stiskah, odnosnih težavah, anksioznosti ali občutkih osamljenosti. Vprašanje, ki se pri tem odpira, pa ni več tehnološko, temveč klinično: kaj umetna inteligenca na tem področju dejansko zmore – in kje so njene meje?
Zakaj se ljudje v stiski obračajo na umetno inteligenco?
Razlogi so razumljivi in pogosto zelo človeški. Dostopnost je takojšnja, uporaba anonimna, odziv hiter in brez strahu pred presojo. V času, ko so čakalne dobe za psihoterapijo dolge, stigma duševnih težav še vedno prisotna, tempo življenja pa hiter, se klepet z umetno inteligenco zdi kot varen vmesni prostor.
Spletno iskanje se pogosto začne z besedami:
• “Zakaj se počutim tako?”
• “Kako premagati anksioznost?”
• “Ali sem depresiven?”
To niso trivialna vprašanja. Gre za poskuse regulacije stiske in iskanja razumevanja. V tem smislu uporaba umetne inteligence ni znak šibkosti, temveč poskus samopomoči.
Kaj umetna inteligenca v resnici počne?
Pomembno je razumeti, da orodja, kot je ChatGPT, ne razumejo čustev, temveč prepoznavajo in generirajo jezikovne vzorce. Njihovi odgovori temeljijo na statistični verjetnosti, ne na doživljanju, klinični presoji ali odgovornosti.
V praksi to pomeni, da umetna inteligenca lahko strukturira informacije o duševnem zdravju, ponudi splošne strategije samoregulacije, normalizira določene izkušnje in tudi pomaga ubesediti misli, ki jih posameznik težko izrazi.
Vendar pa ne more zaznati neverbalnih znakov stiske, prepoznati tveganj (npr. samomorilne ogroženosti) zanesljivo, graditi terapevtskega odnosa ter tudi ne nositi etične in klinične odgovornosti.
To ni pomanjkljivost tehnologije, temveč posledica njene narave.
Terapevtski odnos ni informacija
Sodobne psihoterapevtske smernice so si v enem presenetljivo enotne: ključni dejavnik spremembe v psihoterapiji je odnos. Ne tehnika sama, ne metoda, temveč varna, konsistentna in človeška relacija, v kateri se posameznik lahko postopno regulira, razume in spreminja.
Umetna inteligenca lahko posnema sočuten jezik, ne more pa biti prizadeta, biti v odnosu, nositi čustvene posledice interakcije ali celo prilagajati procesa na podlagi celostnega doživljanja klienta.
Empatija v terapiji ni pravilno oblikovan odgovor. Je rezonančen proces, ki se odvija med dvema živčnima sistemoma.
Empatija v psihoterapiji ni pravilno oblikovan stavek, temveč proces med dvema človeškima živčnima sistemoma.
Tveganja pri uporabi umetne inteligence v stiski
Eden izmed bolj spregledanih vidikov uporabe AI pri duševnem zdravju je tveganje kroženja brez razrešitve. Ker je klepetalnik vedno na voljo, brez omejitev, se lahko posameznik ujame v ponavljajoče preverjanje, ruminiranje ali iskanje potrditve.
Kratkoročno to lahko zmanjša tesnobo. Dolgoročno pa utrjuje izogibanje resničnemu soočenju, poglablja miselne zanke, zmanjšuje motivacijo za vstop v terapevski proces.
Poleg tega umetna inteligenca v določenih primerih generira netočne ali neustrezne odgovore, kar je v kliničnem kontekstu lahko problematično. Odgovori so lahko videti prepričljivi, a niso nujno pravilni ali varni.
Ali ima umetna inteligenca sploh mesto v duševnem zdravju?
Kje se začne resnična sprememba?
Resnična sprememba se redko zgodi v prostoru brez meja, brez odgovornosti in brez odnosa. Psihoterapija ni zgolj pogovor, temveč proces, v katerem je posameznik viden, slišan in reguliran v odnosu z drugim človekom.
Če se soočate z anksioznostjo, depresijo, odnosnimi težavami ali izgorelostjo, je povsem razumljivo, da najprej poiščete pomoč tam, kjer je najlažje dostopna. Vendar pa dolgoročna sprememba praviloma zahteva več kot dober odgovor.
Umetna inteligenca je lahko vstopna točka. Terapevtski odnos pa je prostor, kjer se začne delo.

