Jest mało prawdopodobne, aby ChatGPT w najbliższym czasie zastąpił lekarzy – to główny wniosek z badań, które przeprowadzili naukowcy z Harvard Medical School w Bostonie. Eksperci twierdzą, że w planach leczenia generowanych przez chatbot aż roi się od błędów.
Medycy pytali sztuczną inteligencję o terapie, które pomogą w walce z nowotworami. Jedna trzecia odpowiedzi udzielonych przez AI zawierała błędy lub nieścisłości. Linguabot mieszał ze sobą prawidłowe i nieprawidłowe informacje, co utrudniało dotarcie do prawdy na temat metod leczenia.
Wyniki badań ukazały się na łamach czasopisma „JAMA Oncology”.
Jak odróżnić prawdę od fikcji?
W sumie zadano 104 pytania. Naukowcy zauważają, że w 98 proc. odpowiedzi znalazły się zalecenia zgodne z aktualną wiedzą medyczną. Jednak łączyły się one z całkowicie fałszywymi sugestiami.
„Byliśmy zaskoczeni tym, jak nieprawidłowe informacje łączyły się z prawdziwymi. Opisy konstruowane w taki sposób utrudniają wykrycie błędów. Nawet eksperci mieli z tym problemy”
– mówi współautorka badań, dr Danielle Bitterman.
Jej zdaniem AI udziela odpowiedzi, które „brzmią bardzo przekonująco”. Jednak nie są to prawdziwe porady medyczne, bo linguaboty nie mają doświadczenia, które lekarze zdobywają przez lata.
„Liczba błędów i niespójność w odpowiedziach ChatGPT to istotne problemy, które mogą wpłynąć na życie i zdrowie pacjentów. Powinniśmy zająć się tym problemem w najbliższym czasie”
– przekonuje Bitterman.
Sensacyjna i niedokładna innowacja
ChatGPT stał się sensacją. Został uruchomiony w listopadzie 2022 r. i już dwa miesiące po debiucie pytania zadawało mu ponad sto milionów osób. Aplikacja wywołała też debatę na temat długoterminowego wpływu sztucznej inteligencji na społeczeństwo i gospodarkę. Według badań banku Goldman Sachs z powodu AI na całym świecie może zniknąć nawet trzysta milionów miejsc pracy. Warto przy tym podkreślić, że rozwój tego typu programów może doprowadzić do powstania zupełnie nowych stanowisk.
Eksperci zwracają uwagę, że chatboty są niedokładne, często się mylą i podają fałszywe informacje. Nie zniechęca to jednak internautów ani firm. Narzędzia tego typu zyskują na popularności i są stosowane coraz częściej.
Sztuczna inteligencja może być przydatna, o ile korzysta się z niej w rozsądny sposób. Może pomóc między innymi w sprawach administracyjnych, co odciąży pracowników i budżety szpitali, szkół, urzędów i firm.
Polecamy:
Opublikowana na początku sierpnia analiza wykazała, że AI można zastosować do prowadzenia badań przesiewowych w kierunku raka piersi. Według naukowców procedura jest bezpieczna i wspomogłaby radiologów.
ChatGPT lepszy od ludzi?
Najnowsza wersja ChatGPT (GPT-4) bez problemu zdaje egzamin, który muszą przejść osoby ubiegające się o licencję uprawniającą do wykonywania zawodu lekarza w Stanach Zjednoczonych. Zdarza się, że AI uzyskuje lepsze wyniki, niż ludzie.
Mimo tego linguabot wciąż popełnia liczne błędy. Według badania z „JAMA Oncology”, 12,5 proc. odpowiedzi dotyczących kuracji onkologicznych było bezsensownych lub przekłamanych.
OpenAI (organizacja, która opracowała chatGPT) nie ukrywa, że jej oprogramowanie może być zawodne i ostrzega, że chatbot nie jest przeznaczony do dostarczania informacji medycznych oraz nie powinien być używany do „świadczenia usług diagnostycznych lub leczniczych w przypadku poważnych schorzeń”.
Sztuczna inteligencja nie zniknie, ale będzie się rozwijać i na stałe zagości w naszym codziennym życiu. Jest ona zarówno szansą jak i zagrożeniem. Rozsądne stosowanie podobnych systemów może przyspieszyć pracę, pomóc w nauce, i kwestiach prawnych. Jednak bezgraniczna wiara w AI i brak kontroli nad generowanymi odpowiedziami, doprowadzi tylko do szerzenia się nieprawdziwych informacji.
Dowiedz się więcej:
Zobacz też:
Źródło: Businessinsider