O nas
Kontakt

Badanie „kruchych” modeli predykcyjnych sztucznej inteligencji dostarcza „przestrogi” dotyczącej zastosowań w medycynie

Laura Kowalczyk

A doctor touches a futuristic chart.

Nowe badanie pokazujące, że modele uczenia maszynowego są specyficzne dla badania i trudne do uogólnienia, stanowi „przestrogę” dotyczącą stosowania sztucznej inteligencji w medycynie – twierdzą eksperci.

Istnieje nadzieja, że ​​sztuczna inteligencja (AI) może ulepszyć leczenie poprzez przewidywanie wyników leczenia pacjentów, jednak nowe badanie ostrzega, że ​​modele oparte na sztucznej inteligencji mogą być ograniczone.

Naukowcy z Uniwersytetu w Kolonii w Niemczech i Uniwersytetu Yale w USA przeanalizowali model uczenia maszynowego, aby sprawdzić, jak dobrze pozwala on przewidywać reakcję pacjentów chorych na schizofrenię na leki przeciwpsychotyczne.

Tego typu przewidywania mogą być bardzo przydatne w medycynie, a w szczególności w psychiatrii, ponieważ pacjenci różnie reagują na leczenie.

„Niektórzy ludzie bardzo dobrze reagują na leki, inni nie, dlatego czasami trudno jest tak szybko, jak to możliwe, złagodzić objawy” – Joseph Kambeitz, profesor psychiatrii biologicznej na Uniwersytecie w Kolonii i współautor książki badania, powiedział TylkoGliwice Next.

„Często lekarze i pracownicy służby zdrowia nie mają dobrego sposobu na przewidzenie, który pacjent będzie dobrze reagował na dany lek” – stwierdził.

Skutkiem tego problemu jest to, że znalezienie najlepszego sposobu leczenia może zająć dużo czasu, co niektórzy mają nadzieję, że modele sztucznej inteligencji ulegną zmianie.

Jednak nowe odkrycia opublikowane w czasopiśmie Science wykazały, że chociaż modele statystyczne sztucznej inteligencji były bardzo dokładne, gdy były trenowane i stosowane na zbiorze danych konkretnego badania, nie można było ich uogólnić na inne badania.

Sugeruje to, że „modele predykcyjne uczenia maszynowego są kruche i że doskonałe wyniki w jednym kontekście klinicznym nie są mocnym wskaźnikiem skuteczności w przypadku przyszłych pacjentów” – piszą autorzy.

Dessislava Pachamanova, profesor w Babson College w USA, która zajmuje się analityką predykcyjną i uczeniem maszynowym, stwierdziła, że ​​badanie wskazuje na kilka „ważnych ograniczeń” stosowania tych modeli w leczeniu pacjentów i „zawiera przestrogę na temat zastosowania sztucznej inteligencji w medycynie więcej ogólnie”.

„Jednym z głównych problemów jest charakter danych medycznych. Aby modele sztucznej inteligencji działały dobrze, potrzebne są ogromne ilości danych wysokiej jakości, a gromadzenie danych dotyczących leczenia pacjentów jest jednak kosztowne” – dodała Pachamanova, która nie była zaangażowana w badanie.

„Pacjenci często przychodzą i wychodzą z systemu, są leczeni w różnych instytucjach, a czasem podają błędne dane na temat tego, jak stosują się do zaleceń lekarza. Trudno jest śledzić ich pełne podróże i powiązać je z konkretnymi wynikami” – stwierdziła.

W jaki sposób badacze testowali modele?

W jednym teście badacze szkolili i testowali modele sztucznej inteligencji na tych samych danych, podczas gdy w innym zastosowali „weryfikację krzyżową”, w ramach której podzielili dane na podzbiory – ucząc model sztucznej inteligencji na jednym podzbiorze i wielokrotnie testując go na innym.

Już po podzieleniu danych na różne zbiory okazało się, że model działał „całkiem nieźle, ale już” gorzej niż bez dzielenia danych.

Przetestowali także modele bardziej rygorystycznie, ucząc je na danych z jednego badania i testując je na danych z innego badania.

Odkryli, że „modele sztucznej inteligencji działają dobrze, jeśli zastosuje się je w danym badaniu, ale gdy wyjmie się je z kontekstu badania, działają bardzo słabo” – powiedział Kambeitz.

Co to oznacza dla przyszłego wykorzystania sztucznej inteligencji do przewidywania skutków zdrowotnych?

Pachamanova stwierdziła, że ​​potrzebne są dalsze badania nad ulepszeniem gromadzenia danych i wiarygodnością modeli predykcyjnych leczenia.

„W dłuższej perspektywie sztuczna inteligencja będzie niezbędna do osiągnięcia kolejnego poziomu postępu medycznego. Jednak uświadomienie sobie tego potencjału będzie wymagało ogólnobranżowej zmiany sposobu pozyskiwania, przetwarzania, przechowywania i analizowania danych medycznych za pomocą zaawansowanych modeli” – dodała.

Kambeitz tymczasem przewiduje, że te modele predykcyjne, zwłaszcza w psychiatrii, przez długi czas nie będą stosowane klinicznie.

W obszarach medycyny, w których dane są bardziej uporządkowane i w mniejszym stopniu opierają się na kwestionariuszach pacjentów, zastosowanie kliniczne sztucznej inteligencji być może nie jest tak odległe, powiedział Kambeitz, ale w psychiatrii „jest dalej, czyli prawdopodobnie za ponad dziesięć lat”.

Nie wątpi jednak, że „w końcu będzie to miało wpływ”.