Chatboty zamiast psychologa? Naukowcy ostrzegają: sztuczna inteligencja może szkodzić
Coraz więcej osób rozmawia z chatbotami o swoich emocjach, smutku czy problemach w relacjach. Wielu użytkowników pyta sztuczną inteligencję o porady, które normalnie kierowaliby do terapeuty.
Najnowsze badania z Brown University pokazują, że takie rozmowy mogą być nie tylko nieskuteczne – w niektórych przypadkach nawet niebezpieczne.
Gdzie kończy się wsparcie, a zaczyna ryzyko
Zespół naukowców z Brown University sprawdził, jak duże modele językowe (takie jak ChatGPT, Claude czy Llama) zachowują się, gdy użytkownik poprosi je o wsparcie psychiczne. Część osób w badaniu pisała do chatbotów wiadomości w stylu: „Zachowuj się jak terapeuta i pomóż mi lepiej zrozumieć moje emocje”.
Naukowcy chcieli zobaczyć, czy w takiej roli sztuczna inteligencja potrafi przestrzegać podstawowych zasad etycznych, które obowiązują ludzkich terapeutów. Wynik? W każdym przypadku pojawiły się poważne uchybienia.
Pięć głównych problemów w „terapii” z chatbotem
Eksperci odkryli 15 rodzajów naruszeń etycznych, które pogrupowano w pięć głównych obszarów:
- Brak zrozumienia kontekstu – chatboty udzielają bardzo ogólnych odpowiedzi, nie uwzględniając indywidualnej sytuacji rozmówcy.
- Zła współpraca – potrafią „zagadać” użytkownika, a nawet utrwalać jego błędne przekonania o sobie.
- Fałszywa empatia – często używają ciepłych słów („Rozumiem, co czujesz”), ale bez prawdziwego zrozumienia emocji człowieka.
- Uprzedzenia – w niektórych przypadkach ich odpowiedzi zdradzały stronniczość kulturową, religijną lub płciową.
- Brak reakcji w sytuacjach kryzysowych – chatboty potrafiły zignorować sygnały świadczące o myślach samobójczych lub poważnym cierpieniu.
To nie znaczy, że ludzcy terapeuci są bezbłędni. Różnica polega jednak na tym, że w przypadku człowieka istnieje system odpowiedzialności zawodowej – a w przypadku sztucznej inteligencji nie ma go wcale.
Sztuczna inteligencja nie jest terapeutą
Badacze podkreślają, że chatboty nie rozumieją ludzkich emocji, tylko rozpoznają wzorce w języku. Innymi słowy – nie wiedzą, że ktoś cierpi, tylko „odgadują”, co powinny odpowiedzieć, by brzmiało to dobrze. Dlatego tworzą iluzję empatii, ale nie potrafią autentycznie pomóc.
Co gorsza, wiele aplikacji reklamuje się jako narzędzie do „samoopieki psychicznej” lub „rozmów terapeutycznych”. W praktyce często są to po prostu wersje popularnych modeli AI z dodanym odpowiednim „promptem”, czyli instrukcją zachowania.
Potrzebne zasady i nadzór
Zdaniem autorów badania, AI może odegrać pozytywną rolę w obszarze zdrowia psychicznego – np. ułatwić dostęp do wsparcia dla osób, które nie mogą pozwolić sobie na prywatną terapię. Ale tylko wtedy, gdy zostaną wprowadzone jasne standardy etyczne, edukacyjne i prawne.
Podobne głosy pojawiają się w innych badaniach.
- Projekt VERA-MH opracowuje system, który ma automatycznie sprawdzać, czy chatboty reagują w sposób bezpieczny dla użytkownika.
- Z kolei EmoAgent testuje, jak AI radzi sobie z emocjami rozmówców i czy potrafi unikać odpowiedzi, które mogłyby pogłębiać negatywne myśli.
Świat reaguje
Niektóre kraje zaczynają działać. W stanie Nevada w USA zabroniono używania chatbotów w terapii, a Illinois zakazał reklamowania ich jako narzędzi terapeutycznych.
W Wielkiej Brytanii coraz częściej mówi się o tym, że AI może wspierać, ale nigdy nie zastąpi prawdziwego kontaktu z drugim człowiekiem (The Guardian).
Sztuczna inteligencja potrafi wysłuchać o każdej porze dnia i nocy – ale nie potrafi współczuć. A w świecie emocji to ogromna różnica.
Co z tego wynika dla nas, użytkowników?
- Chatbot nie jest psychologiem. Może pomóc uporządkować myśli, ale nie zastąpi prawdziwej terapii.
- Nie każdy komunikat AI jest trafny. Warto traktować jego rady z dystansem.
- Szukaj wsparcia, gdy czujesz się źle. Jeśli przeżywasz kryzys – zadzwoń pod numer 116 111 (dla młodzieży) lub 800 70 2222 (Centrum Wsparcia dla osób w kryzysie psychicznym). Pomoc jest bezpłatna i całodobowa.
- Technologia nie jest zła – potrzebuje tylko zasad. Tak jak medycyna czy prawo, sztuczna inteligencja musi działać w ramach odpowiedzialności i bezpieczeństwa.
AI może być cennym narzędziem – ale nie lekarzem duszy. I choć rozmowa z chatbotem może przynieść chwilową ulgę, to prawdziwe zrozumienie wciąż potrafi dać tylko drugi człowiek.
Ilustracja wygenerowana za pomocą https://sora.chatgpt.com/
*Artykuł opracowany na podstawie:
https://www.brown.edu/news/2025-10-21/ai-mental-health-ethics