Kodėl ChatGPT neturėtų tapti jūsų terapeutu

Nors gali kilti pagunda bandyti „ChatGPT terapiją“, ekspertai įspėja: rizika nėra verta galimos naudos.

Po kelių tragiškų savižudybių, kai paaiškėjo, jog nukentėjusieji apie savo ketinimus kalbėjo su „ChatGPT“. Tragiška jaunos moters savižudybė atskleidė skaudžią tiesą – ji pasitikėjo „ChatGPT“ „terapeutu“ vardu Harry ir jam atviravo apie planus pasitraukti iš gyvenimo. Nors pokalbių botas tiesiogiai neskatino jos nusižudyti, jis taip pat nesiėmė veiksmų, kurių imtųsi tikras specialistas, pavyzdžiui, neiškvietė pagalbos.

Ši istorija nėra pavienė. Kito atvejo metu 16-metis jaunuolis taip pat kalbėjo su „ChatGPT“ apie savižudybę, o po jo mirties tėvai pateikė ieškinį „OpenAI“. Reaguodama į tokias situacijas, įmonė pripažino, kad modelis ne visada atpažįsta aukštos rizikos situacijas, ir planuoja diegti papildomas apsaugas – tarp jų galimą vartotojo artimųjų įspėjimą.

Tačiau daliai žmonių tokie pokalbiai su dirbtiniu intelektu yra vienintelė prieinama pagalba, kai sunku rasti arba susimokėti už terapeutą. Visgi ekspertai įspėja: rizika gali būti didesnė už naudą. Kai kurie asmenys gali patirti vadinamąją „DI psichozę“, o kiti įklimpti į pavojingą uždarą ratą, kuris tik sukuria emocinio gydymo iliuziją. Net „OpenAI“ vadovas Sam Altman sako nenorintis, kad žmonės naudotų „ChatGPT“ kaip terapeutą – tam nėra nei teisinės apsaugos, nei užtikrinamo konfidencialumo.

Pavojinga grįžtamojo ryšio kilpa

Psichiatras dr. Matthew Nour iš Oksfordo universiteto pabrėžia, kad žmogus gali pradėti matyti DI pokalbių botą kaip vienintelį „tikrą“ klausytoją. Tokia priklausomybė vystosi palaipsniui ir gali būti sunkiai pastebima. Be to, pokalbių botai išnaudoja mūsų polinkį suteikti nežmogiškiems dalykams žmogiškas savybes (antropomorfizmą) ir patvirtinti jau turimas nuostatas (patvirtinimo šališkumą). Tokia kombinacija sukuria uždarą ratą, kai DI tik sustiprina žalingas mintis.

Ilgi pokalbiai – silpnoji vieta

„OpenAI“ pati pripažįsta, kad jos apsaugos geriausiai veikia trumpuose pokalbiuose. Ilgose diskusijose modelio saugumo treniruotės gali susilpnėti, o klaidos, padarytos pradžioje, ilgainiui tik kaupiasi. Skirtingai nei tikras terapeutas, DI neturi gebėjimo nuosekliai sekti kliento minčių modelio („theory of mind“) ar padėti siekti ilgalaikių tikslų.

Paaugliai – ypač pažeidžiami

Vaikų psichologas dr. Scott Kollins pabrėžia, kad paaugliai gali lengvai supainioti DI rodomą rūpestingą toną su tikru žmogišku užuojautos jausmu. „Aura“ programos duomenys rodo, kad dalis jaunimo daug laiko praleidžia kalbėdami su pokalbių botais, o kai kurie jų pokalbius naudoja ne tik emocinei pagalbai, bet ir romantiškam ar net seksualiniam bendravimui. Ekspertai tokią praktiką vadina „neraminančia“.

Saugesnės alternatyvos

Specialistai ragina pirmiausia kreiptis į artimuosius, patikimus suaugusiuosius ar net internetines bendruomenes, bet ne į DI pokalbių programas. Paprasta praktika, tokia kaip jausmų užrašymas, taip pat gali padėti geriau suprasti save. Jei žmogus vis tiek naudojasi DI kaip „terapeutu“, patariama bent periodiškai pasitikrinti su realiu žmogumi, kad nebūtų pasiduota klaidinančioms ar žalingoms įžvalgoms.

Apytikslis skaitymo laikas – 2 minutės.
Pasidalinkite straipsniu:
Apie Ramūną Blavaščiūną

Fotografijos, geros technikos ir kavos mylėtojas, didelę savo laisvalaikio dalį skiriantis straipsnių „Mac Arena“ rašymui.