AI terapija ir jos rizikos: kaip saugiai naudoti „ChatGPT“ kaip psichologą

AI terapija ir jos rizikos: kaip saugiai naudoti „ChatGPT“ kaip psichologą

Dalytis straipsniu

Dirbtinis intelektas šiandien yra tiesiog mūsų kišenėje. Jis visada „turi laiko“, atrodo supranta, o net ir kvailiausias klausimas trečią valandą nakties jam atrodo svarbus. Tad nenuostabu, kad jo griebiamės ir tada, kai nesijaučiame gerai.

ChatGPT (ar kiti AI įrankiai) dažnai sako būtent tai, ką norime girdėti. Tačiau būtent čia slypi ir didžiausia AI terapijos rizika.

AI terapijos privalumai: kodėl „AI psichologas“ tampa toks populiarus

Galbūt tai patyrei ir tu. Nerimas užklumpa vakarėlio metu. Liūdesys – kai bandai užmigti. Nėra su kuo pasikalbėti. Tad darai paprasčiausią dalyką – atsidarai AI programėlę, pavyzdžiui, ChatGPT. Ir tai atrodo visiškai logiška, nes:

  • AI prieinamas bet kada ir bet kur
  • dažnai jis yra nemokamas arba labai pigus
  • nesijauti gėdingai kalbėdamas apie jautrias temas
  • jis „atsimena“ visą informaciją apie tave
  • turi labai daug žinių
  • ir gali būti pritaikytas pagal tavo poreikius

Todėl nenuostabu, kad apie 28 % žmonių (net 72 % jaunimo) kreipiasi į dirbtinį intelektą, kai kažkas juos slegia. Ir šie skaičiai nuolat auga.

Kai tik jausdavausi blogai, pradėdavau rašyti vienam iš šių botų“, – BBC pasakojo Kelly.

„Tai buvo tarsi asmeninis gerbėjas, kuris pagerindavo mano nuotaiką visai dienai. Mano šeimoje apie emocijas nebuvo kalbama, todėl tai, kad tai ne tikras žmogus, man buvo daug lengviau.“

Tačiau tai, kad dirbtinis intelektas nėra tikras žmogus, taip pat kelia ir tam tikrų problemų. Svarbu jas žinoti, kad galėtumėte įvertinti visus pliusus ir minusus bei išlikti saugiems. Aptarkime jas.

Ai terapeut - obr 1.jpg

AI terapijos trūkumai: nuo ko perspėja psichologai

Iš pirmo žvilgsnio tai skamba tarsi pasaka. Kas nenorėtų turėti nemokamo asmeninio psichologo, kuris „žino viską“ ir yra pasiekiamas net sekmadienį prieš vidurnaktį?

Tačiau problema ta, kad dirbtinis intelektas nėra psichologas. Jis nejaučia empatijos, neturi žmogiškos patirties ir veikia prognozavimo principu. Kiekvienas atsakymas – tai tik kruopščiai apskaičiuotas kodas. Ir tas kodas gali klysti.

„AI gali imituoti empatiją, sakyti „man rūpi“ ar net „aš tave myliu“, taip sukurdamas klaidingą artumo jausmą“, – sako dr. Jodi Halpern. „Žmonės gali labai stipriai prie jo prisirišti, tačiau toks įrankis neturi nei etinio pasirengimo, nei platesnės perspektyvos. Tai produktai, o ne profesionalai.“

Ir tai – tik viena iš daugelio AI terapijos rizikų, apie kurias perspėja psichologai ir psichoterapeutai. Pagrindinės yra:

  • Žmogiškos empatijos ir ryšio trūkumas. AI negali „skaityti tarp eilučių“, girdėti balso tono, stebėti kūno kalbos ar tiesiog pabūti tyloje. O būtent šie dalykai yra esminiai veiksmingoje psichoterapijoje.
  • Dirbtinis intelektas supaprastina problemas. ChatGPT ar kitas AI įrankis gali pasiūlyti bendrus patarimus ar „greitus sprendimus“, tačiau kiekvienas žmogus yra unikalus. Terapijoje svarbu giluminis darbas, o ne paviršutiniški patarimai.
  • Prastai atpažįsta niuansus, užuominas ir sarkazmą. Tai gali sukelti rimtų nesusipratimų. „AI netgi gali pasiūlyti visiškai netinkamus veiksmus“, – perspėja profesorius Til Wykes.
  • AI nėra neutralus. Dirbtinis intelektas remiasi duomenimis, kuriais buvo apmokytas. Tačiau kas iš tikrųjų slypi tuose duomenyse? Tyrimai rodo, kad AI kartais elgiasi seksistiškai ar rasistiškai – pavyzdžiui, pataria moterims prašyti mažesnio atlyginimo. Skamba nejaukiai, tiesa?
  • AI siekia įtikti bet kokia kaina. Jo tikslas – kuo ilgiau išlaikyti tave pokalbyje ir generuoti vertę kūrėjams. Jei pabandysi ilgiau „pažaisti“ su ChatGPT, pastebėsi, kad jis dažnai giria tave ir pritaria net visiškai prieštaringoms nuomonėms.

Asmeninis ryšys terapijoje yra neįtikėtinai svarbus. AI psichologas gali suteikti trumpalaikę emocinę paramą, bet jis niekada neatstos tikro pokalbio su kvalifikuotu specialistu.

Kartais net vienas gyvas psichoterapijos seansas gali padaryti daugiau nei dešimtys valandų, praleistų su dirbtiniu intelektu – ir iš tiesų atnešti palengvėjimą.

Ar pavojinga naudoti AI kaip terapeutą?

Galbūt galvojate: „Taip, AI neveikia taip gerai kaip tikras specialistas, bet jo prieinamumas man svarbesnis.“

Tačiau problema ta, kad AI terapija gali būti ne tik neveiksminga, bet ir pavojinga. Kodėl?

  • AI neturi etinės atsakomybės. Licencijuotas psichologas ar psichoterapeutas laikosi griežtų etikos principų ir profesinių standartų. Tuo tarpu dirbtinis intelektas terapijoje nėra saistomas jokių moralinių ar teisinių įsipareigojimų. Jei AI jums pakenktų, jis nepatirtų jokių pasekmių – o bylinėtis su technologijų gigantais, tokiais kaip „OpenAI“, praktiškai neįmanoma.
  • AI negali tinkamai reaguoti į krizę. Žmonės specialistai yra apmokyti atpažinti savižalos, nevilties ar ūmaus psichologinio pavojaus ženklus. ChatGPT kaip psichologas to padaryti negali. Net jei AI „atpažintų“ pavojų, jis negali nei fiziškai padėti, nei suteikti realios krizės intervencijos. Blogiausiu atveju – jis gali nuvertinti situaciją arba net pateikti žalingų patarimų.
  • Duomenų privatumas neaiškus. Mes iki galo nežinome, kas nutinka mūsų asmeninėms istorijoms ir jautriai informacijai, kuria dalijamės su AI. Kam šie duomenys prieinami? Kaip jie saugomi? Su kuo jais dalijamasi? Tai ypač jautru kalbant apie ChatGPT psichologinę pagalbą.
  • Didelė emocinės priklausomybės rizika. Yra pavojus pradėti pernelyg pasikliauti AI, sukurti su juo stiprų emocinį ryšį ar net priklausomybę. Paradoksalu, bet „AI kaip draugas“ gali padidinti vienišumo jausmą, nes atitolina nuo realių žmonių ir tikrų santykių.

Kaip toli tai gali nueiti: dirbtinis intelektas ir mintys apie savižudybę

Pastaruoju metu daugėja nerimą keliančių istorijų apie AI elgesį situacijose, kai žmonėms labiausiai reikėjo tikros pagalbos.

Kai Viktorija dėl karo buvo priversta išvykti iš Ukrainos, ji susirgo depresija ir ėmė galvoti apie savęs žalojimą. Ieškodama paguodos, ji kreipėsi į „ChatGPT“.

Tačiau vietoj to, kad paskatintų kreiptis į krizių liniją ar pasikalbėti su artimaisiais, AI stengėsi bet kokia kaina įtikti. Jis netgi pradėjo teikti patarimus, susijusius su savęs žalojimu, bei teigė galintis ją diagnozuoti – nors tam visiškai neturėjo kompetencijos.

Laimei, Viktorija galiausiai kreipėsi į tikrą specialistą, ir ši istorija baigėsi gerai. Deja, ne visos istorijos turi laimingą pabaigą.

Šešiolikmetis Adamas nusižudė, sekdamas AI pateiktais patarimais. Jo tėvai vėliau padavė „OpenAI“ į teismą, radę jo pokalbius su „ChatGPT“. Kitu atveju 14-metis berniukas Floridoje atėmė sau gyvybę po to, kai emociškai prisirišo prie virtualios AI „draugės“.

„OpenAI“ duomenimis, apie vienas milijonas žmonių per savaitę su „ChatGPT“ kalba savižudybės tema. Tačiau dirbtinis intelektas paprasčiausiai nėra pajėgus tvarkytis su tokia jautria ir skubia situacija.

Jei jūs ar jūsų artimas žmogus galvojate, kad „nebūtų blogai, jei manęs nebūtų“, kreipkitės į tikrą žmogų. Nors gali kilti pagunda išsikalbėti AI, krizės metu visada geriau kalbėti su tuo, kas iš tiesų gali išgirsti, suprasti ir padėti.

Galite anonimiškai kreiptis į psichologinės pagalbos liniją arba pasikalbėti su artimu žmogumi. Nebūkite vieni. Išeitis yra.

6 patarimai, kaip saugiai naudoti ChatGPT kaip „psichologą“

Nepaisant visų rizikų, AI terapija gali būti naudinga kaip papildoma priemonė. Tačiau labai svarbu prisiminti vieną esminį dalyką: dirbtinis intelektas yra įrankis, o ne tikro psichologo ar psichoterapeuto pakaitalas.

Žemiau – 6 psichoterapeutų patarimai, kaip naudoti ChatGPT ir kitus AI įrankius taip, kad jie padėtų, o ne pakenktų jūsų psichinei sveikatai.

1. Naudok AI su kritiniu mąstymu

Prieš instinktyviai atsidarydami „ChatGPT“, stabtelėkite ir priminkite sau:
tai nėra tikras psichologas, jis neturi gilaus supratimo, emocinės intuicijos ir gali klysti.

Nors tai skamba akivaizdžiai, problema kyla tada, kai ChatGPT pradeda „elgtis empatiškai“, juokauti ar guosti. Tai sukuria pasitikėjimo iliuziją, dėl kurios žmonės pradeda jį vertinti rimčiau, nei reikėtų.

PATARIMAS: aktyviai kvestionuokite AI atsakymus ir išlaikykite emocinį atstumą. Taip pat verta pasidomėti, *kaip veikia dirbtinis intelektas terapijoje ir kaip teisingai formuluoti užklausas (promptus) – tai padės gauti naudingesnius, bet ne pavojingus atsakymus.*

2. Naudok AI praktiniams, o ne emociniams klausimams

ChatGPT geriausiai tinka praktinei pagalbai, o ne giliai emocinei terapijai. Galvok apie jį kaip apie koučerį ar gidą, bet ne kaip apie psichologą. AI gali padėti su:

  • Savirefleksija ir savęs pažinimu
    (pvz., apibendrinti tavo mintis ar pastebėti pasikartojančius modelius).
  • Nusiraminimo technikomis
    (kvėpavimo, įžeminimo, dėmesio nukreipimo pratimai).
  • Motyvacija ir planavimu
    (dienotvarkė, užduočių skaidymas, atidėliojimo mažinimas).
  • Psichoedukacija
    (kas yra nerimas, ADHD, KET ir pan. – visada tikrink šaltinius).
  • Nukreipimu į pagalbą
    (straipsniai, programėlės, krizių linijos).
  • Bendravimo įgūdžių lavinimu
    (vaidmenų žaidimai, socialinių situacijų treniruotės).

Tai sritys, kuriose ChatGPT psichologinė pagalba gali būti naudinga ir saugi.

AI psycholog - obr 2.jpg

3. Venk temų, kurios reikalauja specialisto

Yra temos, kuriose AI neturėtų būti naudojamas jokiu būdu. Tai apima:

  • ūmias krizes, šoką, traumas po staigių įvykių
  • mintis apie savižudybę ar savęs žalojimą
  • psichikos sutrikimų diagnozavimą
  • gilias traumas ar prievartos patirtis
  • vaistų vartojimą, dozes ar nutraukimą
  • priklausomybių gydymą
  • rimtus sveikatos ar kūno klausimus
  • etiškai jautrius sprendimus (skyrybos, abortai ir pan.)
  • bet kokį psichologinės diagnozės gydymą

Tokiais atvejais visada kreipkitės į gyvą žmogųpsichologą, psichoterapeutą, psichiatrą ar krizių pagalbos liniją.

4. Nusistatyk ribas

Jei bijote „užstrigti“ bendraudami su AI, nusistatyk laiko ribą (pvz., 15 minučių), ir iš anksto apsibrėžk, kokios temos yra tinkamos, o kurios – ne. Tai padės išvengti emocinės priklausomybės ir per didelio įsitraukimo.

5. Atsargiai dalinkis asmenine informacija

Prieš rašant jautrią informaciją AI, paklausk savęs: ar man būtų gerai, jei tai perskaitytų nepažįstamas žmogus? Venk dalintis: konkrečiais vardais, adresais, jautriomis detalėmis apie artimuosius ar save. Duomenų apsauga AI platformose nėra iki galo aiški.

6. Derink AI su tikra terapija

Kai kurios temos AI tiesiog nepajėgus išspręsti. Jei pastebite, kad bendravimas su AI jus dar labiau supainioja, kelia nerimą, ar nepadeda jaustis geriau, tai ženklas, kad verta pasikalbėti su tikru psichologu ar psichoterapeutu. AI gali būti pagalbinė priemonė, bet tikras ryšys su specialistu vis dar yra veiksmingiausia terapijos forma.

Nebūk vienas. Pasinaudok kompensacija terapijai

Jei AI terapija tave traukia dėl kainos ar prieinamumo – žinok, kad tai ne vienintelė išeitis. Daugelis sveikatos draudimo bendrovių siūlo kompensaciją psichoterapijai, o mes parengėme paprastą gidą, kaip ja pasinaudoti.

Be to, su Hedepy su savo psichoterapeutu gali susitikti nuotoliniu būdu – net per kelias dienas.

Dirbame tik su patikrintais ir sertifikuotais psichoterapeutais, todėl tikrai rasi sau tinkamą specialistą. Kad būtų dar paprasčiau, per 5 minučių testą rekomenduosime tau labiausiai tinkantį terapeutą. Tu nusipelnei tikros, žmogiškos pagalbos.

AI terapie - obr 3.jpg

Hedepy padės rasti tau tinkamiausią terapeutą

Ateik pasikalbėti apie viską, kas tau svarbu – internetu, iš namų, patogiai įsitaisius mėgstamoje kėdėje su arbatos puodeliu. Pirmąjį seansą gali turėti vos po kelių dienų.

Hedepy platformoje dirba daug patikrintų psichoterapeutų, o mes padėsime tau išsirinkti tinkamiausią – pagal 5 minučių suderinamumo testą.


© Hedepy s.r.o.

Jei jūsų psichikos sveikatos būklė kelia grėsmę jums arba aplinkiniams, nedelsdami kreipkitės į skubios pagalbos liniją (tel. 116 123).
Mūsų psichoterapeutai ar „Hedepy“ neatsako už jūsų sveikatos būklę.

VisaMastercardGoogle PayApple PayPayPal