Eksperci z brytyjskiego start-upu Limbic opracowali chatbot o nazwie Limbic Access. Podczas testów sztuczna inteligencja przebadała 210 tys. pacjentów i w 93 proc. przypadków poprawnie zdiagnozowała jedno z ośmiu występujących dzisiaj najczęściej zaburzeń psychicznych.
„Mowa m.in. o depresji, lękach i zespole stresu pourazowego (PTSD)”
– wyjaśnia Ross Harper, neurobiolog i współzałożyciel Limbic.
Zadziwiające wyniki współpracy lekarzy z AI
Brytyjska służba zdrowia informuje, że chatbot daje psychiatrom i psychologom narzędzia, które pozwalają określić wagę i pilność potrzeb pacjenta. Wszystko dzięki systemowi e-triage, czyli internetowej metodzie segregacji potrzebujących w zależności od ich stanu (triage to znana procedura medyczna stosowana w medycynie ratunkowej, umożliwiająca służbom sortowanie rannych w wypadku masowym w zależności od stopnia obrażeń oraz rokowania).
Dzięki Limbic Access lekarze stawiali o 45 proc. mniej błędnych diagnoz i nie byli zmuszeni zmieniać później terapii pacjentów.
„Nasz program skraca czas potrzebny na wizytę u psychiatry lub psychologa, zmniejszają się kolejki w przychodniach. To nie jest kolejna aplikacja, która podaje wskazówki dotyczące terapii poznawczo-behawioralnej. Limbic Access podaje konkretną diagnozę i może przejąć część odpowiedzialności klinicznej”
– przekonuje Harper.
Chatbot został zatwierdzony w Wielkiej Brytanii jako odpowiednik urządzenia medycznego klasy II – które amerykańska Agencja ds. Żywności i Leków klasyfikuje jako urządzenie średniego ryzyka (przykłady obejmują strzykawki i elektryczne wózki inwalidzkie). Obecnie Limbic Access planuje ekspansję w Stanach Zjednoczonych.
Inne podejście
Amerykański start-up Kintsugi, który na swoją działalność pozyskał niemal dwadzieścia osiem milionów dolarów od inwestorów i National Science Foundation, również chce badać psychikę pacjentów, ale stosuje inne podejście. Pracuje nad opartym na sztucznej inteligencji narzędziem do analizy głosu, które wyszukuje oznak klinicznej depresji i lęku w próbkach mowy.
Do identyfikacji „biomarkerów głosu” system posiłkuje się danymi pochodzącymi od 250 tys. osób, które nagrały próbki swojego głosu .
„Liczy się nie to, co ktoś mówi, ale sposób, w jaki to mówi”
– przekonuje Grace Chang, założycielka i dyrektor generalna Kintsugi.
Aplikacja mogłaby znaleźć zastosowanie w niektórych call center, przy teleporadach zdrowotnych i systemach zdalnego monitorowania pacjentów. Z analiz Kintsugi wynika, że na podobną formę badań zgodziłoby się czterech na pięciu pacjentów (wcześniej szacunki mówiły o jednej na cztery osoby).
Limbic również rozważał analizowanie mowy. Pomysł ostatecznie upadł ze względu na możliwe bariery, jakie mogłoby to stworzyć dla osób zgłaszających się na leczenie – od kłopotów z włączeniem mikrofonów po obawy związane z nagrywaniem ich słów.
Problemy z infrastrukturą
Chang oraz współzałożycielka Kintsugi Rima Seilova-Olson tłumaczą, że do założenia firmy skłoniło ich to, że każda z nich miesiącami czekała na pierwszą wizytę u terapeuty.
Zobacz też:
Podobne problemy występują na całym świecie, także w Wielkiej Brytanii i Polsce. Lekarze nie są w stanie stwierdzić, który pacjent potrzebuje pilnej pomocy. Wszyscy muszą czekać w tak samo długich kolejkach. Stąd rozwój popularności systemów e-triage.
Warto przy tym pamiętać, że leczenie zaburzeń psychicznych jest niezwykle skomplikowane i niedofinansowane. Lekarze pierwszego kontaktu są w stanie prawidłowo rozpoznać depresję jedynie w połowie przypadków. Psychiatrów i psychologów szkoli się wciąż za mało, a liczba chorych rośnie w zastraszającym tempie. W ciągu ostatnich dziesięciu lat w Polsce sprzedaż leków przeciwdepresyjnych wzrosła o 59 proc.
Wielu ekspertów wyraża obawy przed stosowaniem AI w leczeniu zaburzeń psychicznych. Pacjenci mogą obawiać się diagnozy postawionej przez komputery, mogą czuć się przytłoczeni taką sytuacją. Dlatego warto zastanowić się nad stopniowym i powolnym wprowadzaniem nowych metod leczenia i diagnostyki do medycyny.
Najpierw niezbędne są szeroko zakrojone badania potwierdzające skuteczność proponowanych metod. Jednocześnie społeczeństwu potrzebna jest edukacja na temat sztucznej inteligencji i umożliwienie wyboru, czy chcą skorzystać z jej pomocy. Dopiero gdy wszyscy przekonają się, że system jest bezpieczny i skuteczny, to będzie można wdrożyć go powszechnie.
Dowiedz się więcej: