Dokáže umělá inteligence překonat lékaře v lékařské diagnostice? Nová studie zkoumá příležitosti a rizika

24

Na kriticky vytíženém pohotovostním oddělení není nejnebezpečnější chybou lékaře nezvolit špatnou léčbu, ale nestanovit správnou diagnózu hned na začátku. Nedávný výzkum naznačuje, že nová generace umělé inteligence se může brzy stát zásadním nástrojem ochrany před tak kritickými chybnými výpočty.

Vzestup modelů uvažování

Lékařská oblast je na pokraji technologického posunu řízeného vývojem pokročilých velkých jazykových modelů (LLM). Na rozdíl od předchozích iterací AI jsou nové „modely uvažování“ (jako je o1-preview z OpenAI) navrženy tak, aby řešily složité problémy pomocí sekvenční logiky krok za krokem.

Tento technologický skok reaguje na významnou poptávku ze strany lékařské komunity. Podle průzkumu mezi více než 2 000 lékaři jeden z pěti lékařů a sester na celém světě již používá umělou inteligenci k poskytování druhých názorů na složité případy a více než polovina vyjádřila přání integrovat tyto technologie ještě hlouběji do své praxe.

Studie: AI vs. lékaři

Studie vedená odborníkem na biomedicínská data z Harvardské univerzity Arjunem Manraiem, publikovaná v časopise Science, porovnávala diagnostický výkon modelu s náhledem o1 s výkonem lékařů. Výzkumníci použili dva různé soubory dat:
1. Klasické soubory symptomů z lékařských výcvikových programů.
2. Reálná data od 76 pacientů léčených na pohotovosti v Bostonu.

Výsledky byly ohromující: uvažovací model umělé inteligence předčil lékaře i specializovaný diagnostický software a správně určil diagnózu (nebo nabídl velmi přesnou) v téměř 80 % případů.

Jeden pozoruhodný příklad citovaný spoluautorem studie Adamem Rodmanem zahrnoval imunokompromitovaného pacienta po transplantaci, který měl běžné respirační příznaky. Zatímco si lékaři nemuseli všimnout závažnosti situace, model AI měl podezření na život ohrožující infekci způsobující destrukci tkáně mnohem dříve než lékařský tým.

Protiargumenty: Logika vs. Nuance

Přes tato působivá čísla zůstává vědecká komunita opatrná. Kritici tvrdí, že existuje zásadní rozdíl mezi „počítačovým uvažováním“ a „klinickým uvažováním“.

„Když mluvíme o klinickém uvažování, nemáme na mysli totéž jako morální uvažování,“ varuje Arya Rao, výzkumnice z Harvard Medical School.

Raoův tým nedávno provedl samostatnou studii hodnotící 21 modelů umělé inteligence a zjistil konzistentní slabinu: neschopnost fungovat za nejistoty. Zatímco modely uvažování jsou vynikající v mapování logické cesty k závěru, často podlehnou nuancím, které vznikají, když je možné více diagnóz.

Mezi hlavní identifikovaná rizika patří:
Křehkost uvažování: Umělá inteligence má tendenci docházet k definitivním závěrům příliš rychle.
Nedostatek flexibility: Modely se potýkají s problémy, když je třeba současně zvážit více nejistých možností.
Nedostatek lidského úsudku: Umělá inteligence postrádá morální a kontextové povědomí potřebné pro holistickou péči o pacienty.

Budoucnost: Asistent, ne náhrada

Výzkumníci se shodují, že AI by neměla nahrazovat lékaře, ale sloužit jako výkonný diagnostický doplněk. Cílem je pomocí umělé inteligence zjistit, co by lidské oko mohlo minout, a vytvořit tak jakousi „záchrannou síť“ pro lékaře.

Jak se technologie zdokonaluje, pozornost se přesouvá od „umí AI diagnostikovat“ na „jak ji bezpečně integrovat do klinické práce“. Pokud je tato technologie provedena správně, může se stát „velkým ekvalizérem“ poskytujícím diagnostickou podporu na vysoké úrovni v oblastech s omezeným přístupem ke speciální péči.


Závěr
Zatímco modely umělé inteligence se schopnostmi uvažování prokázaly vynikající schopnost identifikovat správné diagnózy v kontrolovaných studiích, stále čelí výzvám souvisejícím s nuancemi a nejistotami, které jsou vlastní humánní medicíně. Další hranicí lékařské umělé inteligence jsou klinické studie zaměřené na integraci těchto nástrojů jako důvěryhodných asistentů, nikoli jako autonomních rozhodovacích orgánů.