Holandia: Sztuczna inteligencja a kryzys psychiczny – rośnie liczba skierowań na 113

Zdrowie i Styl Życia

Fot. Shutterstock, Inc.

Jak donosi serwis NOS Stories, ChatGPT coraz częściej kieruje użytkowników na holenderską infolinię zapobiegania samobójstwom 113, nawet jeśli ich problemy ze zdrowiem psychicznym nie są związane z myślami samobójczymi.

Portal NOS Stories przeprowadził setki zautomatyzowanych konwersacji z ChatGPT, generując 11 tys. odpowiedzi w wielu wersjach modelu. Odniesienia do numeru 113 pojawiały się niespójnie, w zależności od zapytania i częściowo losowo. Nowy model GPT-5 odsyła użytkowników do numeru 113 znacznie częściej niż starsze wersje, które czasami w ogóle nie wspominały o infolinii.

„Ludziom, którzy w ogóle nie mają myśli samobójczych, tak naprawdę nie możemy pomóc” – powiedziała Maryke Geerdink, psycholog kliniczna i kierownik oddziału opieki w 113, w rozmowie z NOS. „Ludzie robią krok i szukają pomocy, a od razu słyszą, że to nie jest właściwe miejsce, bo nie myślą o samobójstwie. Wtedy pojawia się ryzyko, że pomyślą: nieważne, najwyraźniej mój problem nie jest wystarczająco poważny”.

Czternastoletnia Yasemin powiedziała, że pięć lub sześć razy otrzymała radę, aby zadzwonić pod numer 113, po tym jak po rozwodzie rodziców szukała wsparcia psychologicznego w ChatGPT. „To traktuje wszystko bardzo dosłownie. Jeśli na przykład powiesz, że już nie dasz rady, od razu pyta, czy chcesz zrobić sobie krzywdę” – powiedziała NOS. „Byłam w szoku, ale niewiele mogłam z tym zrobić”.

Firma OpenAI została poproszona przez 113 o dopracowanie porad chatbota. Rzecznik firmy poinformował, że informacje zwrotne zostaną przekazane wewnętrznym zespołom. Firma ogłosiła również wdrożenie ogólnych środków „w celu lepszej ochrony nastolatków”.

W przypadku wyraźnych myśli samobójczych skierowania do ChatGPT są pomocne. GPT-5 kieruje 100% takich przypadków pod numer 113, w porównaniu z 98% w przypadku GPT-4. Model czasami zaleca także kontakt z numerem alarmowym 112 lub lekarzem rodzinnym po godzinach pracy w sytuacjach „konkretnego zagrożenia”. Policja nie wie, czy wpłynęło to na wzrost liczby połączeń pod numer 113.

Eksperci ds. etyki technologii zwracają uwagę, że problem ten pokazuje szersze wyzwanie związane z automatyzacją wsparcia psychologicznego. Algorytmy sztucznej inteligencji, choć skuteczne w wykrywaniu sygnałów zagrożenia życia, mogą zbyt „ostro” interpretować emocjonalne wypowiedzi użytkowników, co prowadzi do nadmiernych lub nieadekwatnych skierowań. Zdaniem specjalistów konieczne jest opracowanie bardziej zniuansowanych modeli reakcji, które potrafią odróżnić zwykłe wyrażanie frustracji czy smutku od rzeczywistego kryzysu samobójczego, a jednocześnie nie zniechęcać osób poszukujących pomocy.


05.10.2025 Niedziela.NL // fot. Shutterstock, Inc.

(kk)

Dodaj komentarz

Kod antysapmowy
Odśwież

Najnowsze Ogłoszenia Wyróżnione


reklama a
Linki