Na niezwykle zapracowanym oddziale ratunkowym najniebezpieczniejszym błędem lekarza nie jest wybór niewłaściwego leczenia, ale niepostawienie właściwej diagnozy na początku. Ostatnie badania sugerują, że sztuczna inteligencja nowej generacji może wkrótce stać się istotnym narzędziem chroniącym przed takimi krytycznymi błędami w obliczeniach.
Powstanie modeli rozumowania
Medycyna stoi u progu zmiany technologicznej napędzanej rozwojem zaawansowanych modeli dużego języka (LLM). W przeciwieństwie do poprzednich iteracji sztucznej inteligencji, nowe „modele rozumowania” (takie jak o1-preview z OpenAI) zostały zaprojektowane w celu rozwiązywania złożonych problemów przy użyciu logiki sekwencyjnej krok po kroku.
Ten skok technologiczny jest odpowiedzią na znaczne zapotrzebowanie społeczności medycznej. Według ankiety przeprowadzonej wśród ponad 2000 klinicystów jeden na pięciu lekarzy i pielęgniarek na całym świecie korzysta już ze sztucznej inteligencji, aby wydawać drugie opinie w skomplikowanych przypadkach, a ponad połowa wyraża chęć jeszcze głębszego zintegrowania tych technologii ze swoją praktyką.
Badanie: sztuczna inteligencja kontra lekarze
W badaniu prowadzonym przez Arjuna Manrai, specjalistę ds. danych biomedycznych z Uniwersytetu Harvarda, opublikowanym w czasopiśmie Science, porównano skuteczność diagnostyczną modelu o1-preview z wynikami lekarzy. Naukowcy wykorzystali dwa różne zestawy danych:
1. Klasyczne zestawy objawów z medycznych programów szkoleniowych.
2. Dane rzeczywiste pochodzące od 76 pacjentów leczonych na oddziale ratunkowym w Bostonie.
Wyniki były zdumiewające: model rozumującej sztucznej inteligencji okazał się lepszy zarówno od lekarzy, jak i specjalistycznego oprogramowania diagnostycznego, prawidłowo identyfikując diagnozę (lub oferując bardzo trafną diagnozę) w prawie 80% przypadków.
Godnym uwagi przykładem przytoczonym przez współautora badania Adama Rodmana był pacjent po przeszczepieniu z obniżoną odpornością, u którego występowały typowe objawy ze strony układu oddechowego. Chociaż lekarze mogli nie zauważyć powagi sytuacji, model sztucznej inteligencji znacznie wcześniej niż zespół medyczny podejrzewał zagrażającą życiu infekcję powodującą zniszczenie tkanki.
Kontrargumenty: logika kontra niuanse
Pomimo tych imponujących liczb społeczność naukowa pozostaje ostrożna. Krytycy twierdzą, że istnieje zasadnicza różnica między „rozumowaniem obliczeniowym” a „rozumowaniem klinicznym”.
„Kiedy mówimy o rozumowaniu klinicznym, nie mamy na myśli tego samego, co rozumowanie moralne” – ostrzega Arya Rao, badaczka w Harvard Medical School.
Zespół Rao przeprowadził niedawno osobne badanie oceniające 21 modeli sztucznej inteligencji i odkrył stałą słabość: niezdolność do działania w warunkach niepewności. Chociaż modele rozumowania doskonale nadają się do wytyczania logicznej ścieżki do wniosków, często ulegają niuansom, które pojawiają się, gdy możliwych jest wiele diagnoz.
Do głównych zidentyfikowanych ryzyk należą:
– Kruchość rozumowania: Sztuczna inteligencja ma tendencję do zbyt szybkiego wyciągania ostatecznych wniosków.
– Brak elastyczności: Modele mają problemy, gdy trzeba jednocześnie rozważyć wiele niepewnych opcji.
– Brak ludzkiego osądu: AI brakuje świadomości moralnej i kontekstowej potrzebnej do holistycznej opieki nad pacjentem.
Przyszłość: asystent, a nie zamiennik
Naukowcy są zgodni, że sztuczna inteligencja nie powinna zastępować lekarzy, ale służyć jako potężne uzupełnienie diagnostyczne. Celem jest wykorzystanie sztucznej inteligencji do wykrywania tego, co może przeoczyć ludzkie oko, tworząc w ten sposób swego rodzaju „siatkę bezpieczeństwa” dla klinicystów.
W miarę rozwoju technologii punkt ciężkości przesuwa się z „czy można diagnozować sztuczną inteligencję” na „jak bezpiecznie zintegrować ją z pracą kliniczną”. Jeśli zostanie wykonana prawidłowo, technologia ta może stać się „wielkim korektorem”, zapewniającym wsparcie diagnostyczne na wysokim poziomie w obszarach o ograniczonym dostępie do opieki specjalistycznej.
Wniosek
Chociaż modele sztucznej inteligencji wyposażone w możliwości wnioskowania wykazały doskonałą zdolność do identyfikowania prawidłowych diagnoz w kontrolowanych badaniach, nadal stoją przed wyzwaniami związanymi z niuansami i niepewnościami nieodłącznie związanymi z medycyną ludzką. Kolejnym obszarem rozwoju medycznej sztucznej inteligencji są badania kliniczne mające na celu integrację tych narzędzi w charakterze zaufanych asystentów, a nie autonomicznych decydentów.
