SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Psychoterapia ze sztuczną inteligencją. Ma pomóc w pracy z lękiem, wstydem i złością

Sztuczna inteligencja może pomóc w pracy z lękiem, wstydem i złością oraz w treningu uważności (mindfullness), a nawet pomóc chorym przeciwstawiać się wewnętrznym głosom. Trwa weryfikacja skuteczności czatu Terabot wspierającego psychoterapię – poinformowała Politechnika Warszawska.

Wstępne badanie dotyczące leczenia halucynacji głosowych przy pomocy narzędzi cyfrowych pokazało, że taka terapia - pod kontrolą lekarza - redukuje objawy m.in. schizofrenii. W kolejnym etapie zastosowano samodzielne narzędzie - Terabot. System dialogowy, opracowany na Wydziale Elektroniki i Technik Informacyjnych PW, pilotażowo wykorzystano w terapii poznawczo-behawioralnej (ang. cognitive-behavioral therapy, CBT).

Pomysłodawczynią badań była dr n. med. Izabela Stefaniak, przeprowadził je dr hab. Artur Janicki, prof. PW.

Halucynacje głosowe występują w przebiegu schizofrenii i innych chorób. Utrudniają codzienne funkcjonowanie i obniżają poczucie własnej wartości u słyszących je osób. Aby poprawić jakość życia pacjentów, psychiatrzy stosują zazwyczaj leczenie farmakologiczne.

Naukowcy z PW wykorzystali inne metody. "W naszym przypadku był to komputerowy awatar ('gadająca głowa'), kontrolowany przez terapeutę. Podczas dwóch pierwszych sesji komputerowa postać powielała negatywne zdania, które pacjent słyszał w swojej głowie, a przez cztery kolejne były one zmieniane w treści mające pozytywny wydźwięk" – wyjaśnia prof. Artur Janicki, cytowany na stronie uczelni.

Prof. Janicki – ekspert z Wydziału Elektroniki i Technik Informacyjnych - zaznacza, że lekarz cały czas wspierał uczestników terapii, uczył ich radzić sobie z głosami i przeciwstawiać się im. Badanie objęło 23 pacjentów, którzy - w ocenie kontrolujących - bardzo dobrze zareagowali na nową metodę. Wskaźniki dotyczące skali oceny objawów psychotycznych i mierzenia siły halucynacji znacząco spadły. Różnica utrzymywała się nawet po trzech miesiącach. Okazało się również, że osoby poddane terapii chcą współpracować z komputerami. Wyniki eksperymentu opublikowano w 2019 r. w czasopiśmie „Schizophrenia Research”.

Dalsze prace zespołu zaowocowały stworzeniem systemu Terabot. "W przeciwieństwie do wcześniejszego projektu system był automatyczny, nie sterował nim psychiatra. Terabot prowadził rozmowę z pacjentem, rozpoznając, co mówi i jaki jest jego stan emocjonalny. W zależności od udzielanych odpowiedzi dopasowywał swoją wypowiedź" – tłumaczy prof. Artur Janicki.

Celem badania był trening radzenia sobie z emocjami i rozwój uważności, czyli tzw. mindfulness. Trzy ćwiczenia opracowane przez dr Izabelę Stefaniak dotyczyły emocji, z którymi chorzy mierzą się najczęściej – lęku, wstydu i złości. Pacjent ustalał z lekarzem, na czym chce się skupić. Pierwszą część sesji stanowił dialog z Terabotem z elementami terapii CBT. W drugiej system proponował ćwiczenie relaksacyjne.

W badaniu wzięło udział 38 osób. Obecnie trwają analizy, dzięki którym będzie można stwierdzić, na ile system pomógł pacjentom. "Wielu pacjentów zareagowało bardzo dobrze. Okazywało się, że byli bardziej śmiali przed komputerem i mówili więcej niż lekarzowi" – podsumowuje wstępnie ankiety prof. Janicki.

Naukowiec przyznaje, że Terabota należy jeszcze usprawnić. System nie zawsze dobrze rozumie intencję pacjenta. Zespół dąży do tego, żeby Terabot był coraz bardziej empatyczny, np. bez problemu orientował się, kiedy uczestnik terapii skończył mówić i nie czekał zbyt długo z odpowiedzią lub nie przerywał rozmówcy.

Projekt „Terabot – system dialogowy do terapii poznawczo-behawioralnej” trwał od stycznia 2021 r. do czerwca 2023 r. i był finansowany w ramach realizowanego w PW programu „Inicjatywa doskonałości – uczelnia badawcza”. Znalazł się w gronie laureatów konkursu na granty badawcze „SzIR-2” POB Sztuczna Inteligencja i Robotyka.

Dołącz do dyskusji: Psychoterapia ze sztuczną inteligencją. Ma pomóc w pracy z lękiem, wstydem i złością

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl