W świecie, w którym wszystko mamy na wyciągnięcie ręki – od zakupów spożywczych, przez rozrywkę, aż po konsultacje medyczne – nikogo już nie dziwią aplikacje oferujące „terapię” w kieszeni.
Działanie tych aplikacji często opiera się na sztucznej inteligencji (AI), która obiecuje wsparcie psychiczne 24/7, bez wychodzenia z domu i bez konieczności rozmowy z drugim człowiekiem. Wydaje się to rozwiązaniem idealnym: szybkim, dostępnym i (pozornie) skutecznym. Jednak im głębiej przyglądamy się temu zjawisku, tym więcej pojawia się pytań i wątpliwości. Czy rzeczywiście AI może zastąpić psychologa? Czy to bezpieczne? I czy warto inwestować swój czas (i pieniądze) w taki sposób „samopomocy”?
Cyfrowy terapeuta na wyciągnięcie palca
Aplikacje terapeutyczne zyskują na popularności. Oferują rozmowy z „empatycznym botem”, który – bazując na algorytmach AI – prowadzi użytkownika przez procesy przypominające techniki terapii poznawczo-behawioralnej. Często przypominają one czat, w którym użytkownik dzieli się swoimi myślami, a AI odpowiada „terapeutycznymi” formułkami, zadaje pytania lub proponuje ćwiczenia oddechowe czy też medytacje. Dla wielu osób – zwłaszcza tych zmagających się z samotnością, stresem czy lękiem – taka forma wsparcia może być pierwszym krokiem do podjęcia działań. Część użytkowników traktuje aplikację jak „dziennik emocji”, inni – jak codziennego towarzysza w trudnych momentach. Sztuczna inteligencja nie ocenia, nie spóźnia się i nie prosi o wyjaśnienia – to wszystko sprawia, że korzystanie z aplikacji wydaje się bezpieczne i wygodne.
Łatwo, szybko i… złudnie
Jednak właśnie ta łatwość i dostępność mogą stanowić pułapkę. Aplikacje terapeutyczne często przyciągają osoby zdesperowane, które szukają wsparcia „na już”, znajdujące się w sytuacjach kryzysowych. Albo na przykład takie, które nie mają budżetu na wizytę u specjalisty i perspektywa wydania kilkunastu czy kilkudziesięciu złotych jest bardziej atrakcyjna niż kilkuset. Klikają „zainstaluj” z nadzieją, że cyfrowy terapeuta pomoże im przetrwać trudny moment.
W rzeczywistości jednak większość tych aplikacji nie jest w stanie zapewnić realnego wsparcia psychologicznego, a już na pewno nie może zastąpić relacji terapeutycznej, która opiera się na zaufaniu, empatii i głębokim zrozumieniu indywidualnych potrzeb pacjenta.
To, co oferują aplikacje oparte na AI, to najczęściej powtarzalne schematy, wyuczone odpowiedzi i powierzchowna analiza. Tzw. sztuczna inteligencja nie rozumie kontekstu emocjonalnego tak jak człowiek. Nie rozpozna subtelnych sygnałów świadczących o pogłębiającej się depresji czy ryzyku samobójczym. A co najważniejsze – nie nawiąże autentycznej, leczącej relacji.
Uberyzacja terapii
Mówiąc o aplikacjach terapeutycznych, nie sposób nie wspomnieć o zjawisku „uberyzacji” – czyli przenoszenia usług z obszaru profesjonalnego do łatwo skalowalnego, ale jednocześnie odczłowieczonego systemu technologicznego. Tak jak Uber czy Bolt zastępują klasyczne korporacje taksówkarskie, tak aplikacje AI „próbują” wejść w rolę terapeuty. Problem polega na tym, że psychoterapia to nie usługa typu „z punktu A do punktu B”. To proces, często długotrwały, oparty na relacji, analizie, refleksji i współpracy.
Zamiana terapeuty na algorytm to spłaszczenie całej idei terapii. To również niebezpieczne uproszczenie, które może prowadzić do dalszego pogorszenia stanu psychicznego użytkownika. Co więcej, część aplikacji uzależnia użytkowników od codziennego „check-inu”, budując w nich przekonanie, że tylko dzięki niej są w stanie „utrzymać się w pionie”. Mamy więc do czynienia z kolejnym uzależnieniem – tym razem od aplikacji udającej pomoc psychologiczną.
Wirtualna pomoc – realne koszty
Niektóre aplikacje dostępne są za darmo w podstawowej wersji, ale większość opcji terapeutycznych ukryta jest za płatnym abonamentem. Ceny zaczynają się od kilkunastu złotych miesięcznie, ale rozbudowane funkcje mogą kosztować nawet kilkaset złotych rocznie. Co ciekawe – wiele osób płaci, licząc na „jakość premium”, podczas gdy rzeczywista wartość tych treści bywa wątpliwa. Nierzadko są to automatyczne teksty, cytaty z poradników czy generyczne ćwiczenia, które bez kontekstu indywidualnego są nieskuteczne.
Zamiast wydawać pieniądze na aplikację, która symuluje wsparcie psychiczne, często lepszym pomysłem może być przeczytanie dobrze napisanej książki psychologicznej, skorzystanie z darmowych materiałów edukacyjnych czy rozmowa z żywym człowiekiem – nawet jeśli nie jest psychoterapeutą. Czasem właśnie ta zwykła rozmowa, obecność i zrozumienie mają największą wartość.
Nie wszystko, co cyfrowe, jest lepsze
Technologia może być wielką pomocą w dbaniu o zdrowie psychiczne – dzięki temu, że np. przypomni o lekach, zorganizuje harmonogram dnia, zaoferuje relaksujące dźwięki czy pomoże śledzić emocje. Ale nie może zastąpić terapii prowadzonej przez wykwalifikowanego specjalistę. Nie może też brać odpowiedzialności za ludzkie życie, decyzje czy emocje.
Aplikacje terapeutyczne oparte na sztucznej inteligencji to nowoczesne narzędzia, które mogą wydawać się atrakcyjne – szczególnie w kryzysie. Ale ich skuteczność jest ograniczona, a ryzyko uzależnienia od „cyfrowego wsparcia” całkiem realne. Dlatego zamiast szukać pomocy w smartfonie, warto zatrzymać się i zastanowić: czego tak naprawdę potrzebuję? Może to nie szybka odpowiedź bota, ale życzliwe towarzystwo, empatyczna rozmowa i realna relacja będą dla mnie najlepszym lekarstwem.
Karolina Kwiatkowska

Dodaj komentarz