Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

3 rzeczy, o których musisz pamiętać, zanim pogadasz z ChatGPT o swoim zdrowiu psychicznym

ChatGPT może i jest wygadany, ale nie zastąpi terapeuty.
.get_the_title().

W ostatnich tygodniach można było uwierzyć, że ChatGPT umie niemal wszystko. Generujący tekst chatbot jest tak zaawansowany, że niektórzy zaczęli go wykorzystywać do pisania prac do szkoły (ku rozpaczy nauczycieli), a także obsadzili go w roli swego trenera personalnego czy nawet terapeuty. Ale to nie zawsze świetny pomysł. Oczywiście, że ChatGPT jest bezdyskusyjnie tańszy niż prywatna wizyta u gabinecie psychoterapeuty i nie musicie stać miesiącami w kolejce, by dostać się do niego na NFZ. Porozmawia z wami o każdej godzinie dnia i nocy, a do tego jest na wyciągnięcie ręki. Nic dziwnego, że powierzenie mu naszego zdrowia psychicznego może się wydawać niezłym rozwiązaniem. Zanim się jednak na to zdecydujecie, powinniście pamiętać o tych trzech rzeczach:

1. ChatGPT nie jest terapeutą i nie powstał po to, by was zdiagnozować

Choć ChatGPT może wygenerować dużo tekstu, który brzmi nawet dość profesjonalnie, to nie znaczy, że jest terapeutą. Dr Adam S. Miner, psycholog kliniczny i epidemiolog, który zajmuje się badaniami nad konwersacyjną sztuczną inteligencją, zwraca uwagę na to, że terapeuta czasem powie, że nie zna odpowiedzi na zadawane przez pacjenta pytanie. Ma to pomóc pacjentowi w samodzielnym zastanowieniu się nad jego sytuacją.

Tymczasem ChatGPT zawsze i na wszystko odpowie, bo tak jest zaprogramowany – a to może sprawiać wrażenie, że jest on wszechwiedzący. Dość powiedzieć, że nie jest to prawda.

Z kolei Dr Elena Mikalsen, szef psychologii dziecięcej w Szpitalu Dziecięcym w San Antonio, zadała ostatnio chatbotowi pytania, które regularnie otrzymuje od pacjentów. Szczęśliwie odkryła, że ChatGPT nie chciał udzielać diagnoz i zamiast tego zalecał kontakt z profesjonalistą.

fot. youssef naddam / unsplash

2. ChatGPT nie ma wiedzy na temat zdrowia psychicznego i nie zawsze ma rację

Kiedy Mikalsen korzystała z ChatGPT, uderzyło ją, że czasami chatbot dostarczał niedokładne informacje – w przypadku zaburzenia obsesyjno-kompulsywnego u dzieci skupił się na terapii farmakologicznej, podczas gdy wedle wytycznych klinicznych standardem jest tu po pierwsze terapia poznawczo-behawioralna. Z kolei w przypadku pytania o depresję poporodową chatbot mówił wyłącznie o lżejszej postaci tego stanu.

Nie wiadomo, czy ChatGPT został przeszkolony w zakresie informacji klinicznych i oficjalnych wytycznych leczenia; można przewidywać, że nie.

Zdaniem psycholożki rozmowa z chatbotem nie była bogatsza w informacje niż przeglądanie Wikipedii.

3. Istnieją alternatywy

Kwestia powodów, dla których ludzie zwracają się do chatbota ze swoimi problemami psychicznymi wydaje się dość oczywista – tworzy on złudzenie tego, że zainteresowany nami terapeuta jest na wyciągnięcie ręki w każdej sekundzie, że możemy wręcz nosić go w kieszeni.

Tylko że w ten sposób na pewno nie rozwiążemy złożonych problemów. Wręcz przeciwnie, możemy nawet pogorszyć sytuację.

Istnieje jest wiele anglojęzycznych narzędzi i aplikacji, które wykorzystują sztuczną inteligencję do dbania o nasze zdrowie psychiczne, wśród nich są choćby bezpłatne Koko i TalkLife czy dostępne za opłatą Woebot i Wysa. Oczywiście tego typu rozwiązania są potrzebne, ale kluczowe jest to, żeby wiedziały o czym mówią. Należy też pamiętać o tym, że ChatGPT nie jest on klinicznie potwierdzonym narzędziem przesiewowym – tymczasem i takie istnieją w internecie (np. kwestionariusz PHQ-9). Warto z nich skorzystać, a następnie skontaktować się z profesjonalistą.

Tekst: NS
Zdjęcie główne: Nik Shuliahin/Unsplash

ZDROWIE