AI-ul, intrus sau salvator în relația terapeutică?

A

Client: Se apropie sesiunea, am multe de citit și simt că nu fac față acestei perioade. Ce îmi recomanzi?

Chat GPT 4.0: Of, da, perioada de dinainte de sesiune poate fi copleșitoare rău… mai ales când deja tragi de tine pe mai multe fronturi cum faci tu. Hai să vedem cum putem face să fie puțin mai blândă pentru tine. Îți dau câteva sugestii pe care le poți adapta după cum simți.

Deși nu sunt prea mulți anii de când ocupă o bună parte din discursurile noastre cotidiene, inteligența artificială nu s-a născut în toamna lui 2020, odată cu Chat GPT. Anii ‘60 au reprezentat debutul dialogului terapeutic „de laborator”, în care ELIZA, un soft creat de Joseph Weizenbaum, simula răspunsurile terapeutice în stil rogersian. Programul nu avea capacitatea de înțelegere a enunțurilor, ci oferea răspunsuri predefinite, de genul:

Client: Mă simt trist.

ELIZA: De ce spui că te simți trist?

 

Următoarele două decenii au generat sisteme de tip expert, precum MYCIN, care oferea diagnostice medicale. Aceste sisteme nu au fost însă folosite în practică niciodată, din rațiuni de ordin etic. În 1980, pentru că țelul multor cercetători la fost acela de a replica expertiza psihologică umană, au apărut, în multiple ramuri ale psihologiei, o serie de instrumente de diagnostic și intervenție terapeutică (Luxton, 2014).

La jumătatea anilor ’90, Richard Wallace, inspirat de ELIZA, a creat A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), un program care iniția conversații cu oamenii prin aplicarea unor reguli euristice de potrivire a tiparelor. A urmat Cleverbot, lansat de Rollo Carpenter în 2008, care stoca replicile și le folosea în alte conversații, și Mitsuku, creat de Steve Worswick, un chatbot bazat pe tehnologia AIML (Artificial Intelligence Markup Language), ce folosea o mare bază de date cu reguli predefinite (dacă X, atunci Y). Din anul 2015, începe epoca deep-learning-ului și a rețelelor neuronale. În 2018, Google lansează BERT, un model de înțelegere a limbajului. Un an mai târziu, OpenAI prezintă modelele GPT-2 și GPT-3, capabile să scrie, să traducă și să creeze cod, iar din 2022 apar pe piață GPT-4, Claude, Gemini sau LLaMA, cu niveluri tot mai înalte de „intuiție lingvistică” și care au „o capacitate remarcabilă de a recunoaște complexitatea emoțiilor umane și nuanțele limbajului”  (Cheng et al., 2023).

Pentru a înțelege mai bine felul în care aceste programe au „păcălit” indivizii, în ultimii zeci de ani, am generat o simulare de răspunsuri la enunțul „Simt că nu mai pot. Ce să fac?”. Iată ce ne răspunde inteligența artificială, tradusă în contexte cronologice diferite:

 

ELIZA (stil 1966)

Client: Simt că nu mai pot. Ce să fac?

ELIZA: De ce crezi că nu mai poți?

ELIZA: Te-ai mai simțit așa și înainte?

ELIZA: Spune-mi mai multe despre ce înseamnă „nu mai pot” pentru tine.

 

Cleverbot (stil 2008)

Client: Simt că nu mai pot. Ce să fac?

Cleverbot: Eu cred că ar trebui să te transformi într-o brioșă zburătoare.

Client: …ce?

Cleverbot: Și să salvezi universul de extratereștri. Dar mai întâi bea ceai.

Client: Ești serios?

Cleverbot: Eu sunt un robot. Tu ești o ficțiune. Cine e real?

 

ChatGPT (stil 2025)

Client: Simt că nu mai pot. Ce să fac?

ChatGPT: E un sentiment greu și, din ce îmi spui, pare că ai dus mult timp o luptă în tăcere. Poate ai nevoie nu să „faci” ceva imediat, ci să-ți dai voie să nu mai porți totul singură. Vrei să vorbim puțin despre ce te apasă acum? Sau să găsim împreună o variantă blândă de a merge mai departe azi, doar un pas?

 

Terapeuții actuali, prinși pe terenurile alunecoase dintre progres și îndemânare personală, se confruntă cu o serie de probleme pe care, cu zece ani în urmă, nu și le-ar fi putut pune. Care e rostul psihoterapiei față-în-față, de vreme ce o suită de răspunsuri cât se poate de valabile sunt doar la un click distanță? Studiile actuale legate de contribuția AI la procesul terapeutic sunt împărțite în două direcții – pe de o parte, putem vorbi de o suită de avantaje. Pe de altă parte, există o listă de limitări, de care ar trebui să ținem cont, atunci când ne punem problema integrării parțiale sau totale a inteligenței artificiale în relația terapeutică.

Lipsa de limite geografice și cheltuielile reduse sunt principalele două argumente în favoarea folosirii AI-ului (Zhang & Wang, 2024). De asemenea, inteligența artificială poate reduce stigmatizarea socială și încuraja astfel oamenii să caute ajutor (Lin et al., 2021). Elementul de critică (atât de prezent în interacțiunile umane), care lipsește din „arhitectura” AI-ului, îi poate determina pe clienți să fie mai sinceri și, astfel, să găsească o cale mai eficientă către vindecare (Fulmer et al., 2018).

Totuși, pentru cei care se grăbesc să „îngroape” terapia clasică și să o așeze pe rafturile prăfuite ale bibliotecilor, există și o serie de limitări ale inteligenței artificiale, de care orice client și orice terapeut ar trebui să țină cont. Prejudecățile de care pomeneam mai devreme nu sunt doar rezultatul potențial al bias-urilor umane, ci și al datelor utilizate pentru antrenarea modelelor AI. Astfel, inteligența artificială poate genera „tratamente inegale bazate pe rasă, gen sau statut socio-economic, perpetuând astfel inegalitățile existente în îngrijirea sănătății mintale” (Akter et al., 2021). De asemenea, studiile demonstrează că beneficiile inițiale ale intervențiilor AI tind să scadă în timp, neexistând îmbunătățiri semnificative pe termen lung (He et al., 2023).

Un alt impediment în procesul terapeutic ar fi acela că AI-ul nu poate oferi autenticitate, empatie ori conexiune emoțională cu clientul, așa cum o fac terapeuții umani (Naik et al., 2022). Iar fără un cadru etic normativ, AI-ul poate genera diagnostice eronate și, implicit, consecințe nedorite (Zhang & Wang, 2024). În plus, terapeuții umani se bazează pe experiență și intuiție profesională, în situațiile complexe, lucru imposibil de realizat de către AI, care este dependentă de algoritmi prestabiliți (Aggarwal et al., 2016). Nu în ultimul rând, psihoterapeuții au acces la limbajul corporal și la expresiile faciale ale clientului (Knapp, 1978), ceee ce poate contribui la succesul terapiei.

La momentul actual, nu putem lansa concluzii definitive nici pro, nici contra utilizării inteligenței artificiale în demersurile terapeutice. Ce putem face însă este să înțelegem faptul că orice instrument tehnologic, atâta timp cât este întrebuințat cu măsură, în limitele etice ale posibilităților lui, ne poate fi de ajutor. Fără însă a ne îndepărta de realitatea necesității interacțiunii umane, independent de evoluția, mai rapidă sau lentă, a inteligenței artificiale.

 

Bibliografie

Aggarwal NK, Lam P, Castillo EG, Weiss MG, Diaz E, Alarcón RD, et al. How do clinicians prefer cultural competence training? findings from the dsm-5 cultural formulation interview field trial. Acad Psychiatry. (2016) 40:584–91. doi: 10.1007/s40596-015-0429-3.

Akter S, McCarthy G, Sajib S, Michael K, Dwivedi YK, D’Ambra J, et al. Algorithmic bias in data-driven innovation in the age of AI. (2021) 60:102387. doi: 10.1016/j.ijinfomgt.2021.102387.

Cheng SW, Chang CW, Chang WJ, Wang HW, Liang CS, Kishimoto T, et al. The now and future of chatGPT and GPT in psychiatry. Psychiatry Clin Neurosci. (2023) 77:592–6. doi: 10.1111/pcn.v77.11.

Fulmer R, Joerin A, Gentile B, Lakerink L, Rauws M, et al. Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: randomized controlled trial. JMIR Ment Health. (2018) 5:e9782. doi: 10.2196/mental.9782.

He Y, Yang L, Qian C, Li T, Su Z, Zhang Q, et al. Conversational agent interventions for mental health problems: systematic review and meta-analysis of randomized controlled trials. J Med Internet Res. (2023) 25:e43862. doi: 10.2196/43862.

Knapp ML, Hall JA, Horgan TG. Nonverbal communication in human interaction Vol. 1. . New York: Holt, Rinehart and Winston (1978).

Lin YT, Hung TW, Huang LTL. Engineering equity: How ai can help reduce the harm of implicit bias. Philosophy Technol. (2021) 34:65–90. doi: 10.1007/s13347-020-00406-7.

Luxton DD. Artificial intelligence in psychological practice: Current and future applications and implications. Prof Psychology: Res Pract. (2014) 45:332. doi: 10.1037/a0034559.

Naik N, Hameed BZ, Shetty DK, Swain D, Shah M, Paul R, et al. Legal and ethical consideration in artificial intelligence in healthcare: who takes responsibility? Front Surg. (2022) 9:862322. doi: 10.3389/fsurg.2022.862322.

Zhang Z and Wang J (2024) Can AI replace psychotherapists? Exploring the future of mental health care. Front. Psychiatry 15:1444382. doi: 10.3389/fpsyt.2024.1444382.

Oana Monica Nae

Universitatea din București, Facultatea de Psihologie și Științele Educației, Programul masteral Comportament Organizațional și Consiliere Psihologică

Add comment

Arhivă Ediții

Pagina de Facebook APR