O nas
Kontakt

Nowe badanie pilotażowe pokazuje, że ChatGPT może diagnozować zarówno pacjentów, jak i lekarzy na izbie przyjęć

Laura Kowalczyk

Nowe badanie pilotażowe pokazuje, że ChatGPT może diagnozować zarówno pacjentów, jak i lekarzy na izbie przyjęć

Nowe badanie sugeruje, że ChatGPT może sugerować diagnozy zarówno pacjentom, jak i przeszkolonemu lekarzowi.

Jak wynika z nowego badania pilotażowego, w ramach którego sprawdzano, w jaki sposób model dużego języka można wykorzystać do wspierania lekarzy, ChatGPT może pomóc w diagnozowaniu pacjentów na przyszłych oddziałach ratunkowych.

Z badania opublikowanego w czasopiśmie Annals of Emergency Medicine wynika, że ​​chatbot oparty na sztucznej inteligencji (AI) diagnozował pacjentów i przeszkolonych lekarzy. Zostanie on zaprezentowany na Europejskim Kongresie Medycyny Ratunkowej rozpoczynającym się w najbliższy weekend.

Naukowcy ze szpitala Jeroen Bosch w Holandii wprowadzili notatki lekarzy i zanonimizowane informacje na temat 30 pacjentów, w tym badania, objawy i wyniki badań laboratoryjnych, w dwóch wersjach ChatGPT.

Ustalili, że krótka lista możliwych diagnoz postawionych przez lekarzy pogotowia ratunkowego i chatbota pokrywają się w około 60%.

„Odkryliśmy, że ChatGPT dobrze radzi sobie z generowaniem listy prawdopodobnych diagnoz i sugerowaniem najbardziej prawdopodobnej opcji” – stwierdził w oświadczeniu autor badania, dr Hidde ten Berg z oddziału medycyny ratunkowej w szpitalu Jeroen Bosch.

„Odkryliśmy również, że listy prawdopodobnych diagnoz sporządzone przez lekarzy w dużym stopniu pokrywają się. Mówiąc najprościej, oznacza to, że ChatGPT był w stanie sugerować diagnozy medyczne podobnie jak zrobiłby to lekarz-ludzki”.

Lekarze pogotowia ratunkowego mieli prawidłową diagnozę na swoich pięciu najlepszych listach w 87% przypadków, podczas gdy w przypadku ChatGPT w wersji 3.5 prawidłowa diagnoza znajdowała się na krótkiej liście w 97% przypadków w porównaniu do 87% w przypadku ChatGPT w wersji 4.0.

„To narzędzie nie jest wyrobem medycznym”

Badania, mające na celu sprawdzenie koncepcji, nie miały na celu wywarcia wpływu na pacjentów, ale raczej przetestowanie potencjału lub wykonalności wykorzystania generatywnej sztucznej inteligencji do diagnozy.

Nie jest to jednak jeszcze coś, co będzie można zastosować klinicznie.

„Jednym z problemów, przynajmniej w Europie… jest to, że ustawodawstwo jest bardzo rygorystyczne” – powiedział TylkoGliwice Next autor badania Steef Kurstjens z oddziału chemii klinicznej i hematologii szpitala Jeroen Bosch Hospital.

„Tak więc tego rodzaju narzędzia nie są wyrobami medycznymi. Jeśli więc używasz ich do wpływania na opiekę nad pacjentem, używasz narzędzia, które nie jest wyrobem medycznym, jako wyrobu medycznego, a to jest niedozwolone. Dlatego uważam, że jeśli chcesz z tego skorzystać, należy (przyjąć) nowe przepisy” – dodał.

Prywatność danych pacjentów to kolejny poważny problem związany ze stosowaniem generatywnej sztucznej inteligencji w opiece zdrowotnej, a niektórzy eksperci wzywają decydentów, aby podjęli próbę ograniczenia wszelkich potencjalnych zagrożeń poprzez regulacje.

„Sztuczna inteligencja może ostatecznie wesprzeć zapracowanych pracowników służby zdrowia”

Eksperci twierdzą, że jednym z bardziej ekscytujących zastosowań sztucznej inteligencji w opiece zdrowotnej może być oszczędzanie czasu lekarzy, pomaganie im w stawianiu diagnoz lub łagodzenie części obciążeń administracyjnych w systemie opieki zdrowotnej.

„Jako narzędzie pomocnicze może pomóc lekarzom w stworzeniu listy (diagnoz) lub wpaść na pomysły, o których sami by nie pomyśleli, a w przypadku mniej doświadczonych lekarzy, którzy są jeszcze w trakcie szkolenia, może to naprawdę być narzędzie wspierające ich codzienną opiekę ”- Kurstjens powiedział TylkoGliwice Next.

„Myślę, że przyszłość dużych modeli językowych bardziej związanych z medycyną, uczonych na danych medycznych, jest naprawdę interesująca, takich jak Med-PaLM, czyli inne rodzaje dużych modeli językowych uczonych na danych medycznych. To naprawdę interesujące zobaczyć, jak by sobie poradzili, gdyby osiągnęli lepsze wyniki niż ChatGPT” – dodał.

Naukowcy zasugerowali również, że istnieje potencjał zaoszczędzenia czasu i skrócenia czasu oczekiwania na oddziałach ratunkowych.

Youri Yordanov z oddziału ratunkowego szpitala św. Antoniego w Paryżu, który w tym roku jest także przewodniczącym komisji abstrakcyjnej Kongresu Medycyny Ratunkowej, stwierdził w oświadczeniu, że lekarze są dalecy od klinicznego stosowania ChatGPT.

Yordanov, który nie był zaangażowany w badania, dodał, że ważne jest przestudiowanie tej technologii i sprawdzenie, w jaki sposób może ona pomóc lekarzom i pacjentom.

„Osoby, które muszą udać się na oddział ratunkowy, chcą, aby ich problem został przyjęty tak szybko, jak to możliwe, a ich problem został prawidłowo zdiagnozowany i wyleczony” – powiedział.

„Nie mogę się doczekać dalszych badań w tej dziedzinie i mam nadzieję, że ostatecznie mogą one wesprzeć pracę zapracowanych pracowników służby zdrowia”.