NEWSLETTER

Jesteś dzinnikarzem? Wybierz firmy z których chcesz
dostawać informacje prasową wprost na własną
skrzynke e-mail.
ZAPISZ SIĘ

WYSZUKAJ

Niewidzialni lekarze

2020-07-26 19:51:00

Dzieje się tak, ponieważ lekarze pierwszego kontaktu na ogół nie wspominają o sztucznej inteligencji w swoich rozmowach z pacjentami. W coraz większej liczbie renomowanych szpitali i klinik w całych USA lekarze zwracają się do narzędzi wspomagających podejmowanie decyzji opartych na sztucznej inteligencji - których skuteczności często nawet nie udowodniono - aby pomóc przewidzieć, czy hospitalizowani pacjenci mogą rozwinąć powikłania lub pogorszyć swój stan. Badanie STAT wykazało, że ci pacjenci i członkowie ich rodzin często nie są informowani ani proszeni o wyrażenie zgody na użycie tych narzędzi w ich opiece.

W efekcie maszyny, które są całkowicie niewidoczne dla pacjentów, w coraz większym stopniu kierują procesem decyzyjnym w klinice. "Szpitale i klinicyści „działają w oparciu o założenie, że nie ujawniasz informacji i tak naprawdę nie jest to coś, czego się zabrania lub nad czym naprawdę się zastanawiano” - powiedział profesor Harvard Law School Glenn Cohen. Cohen jest autorem jednego z nielicznych artykułów poświęconych temu zagadnieniu, któremu w literaturze medycznej poświęcono zaskakująco mało uwagi, mimo że mnożą się badania nad sztuczną inteligencją i uczeniem maszynowym.

W niektórych przypadkach nie chodzi nawet o ewentualną krzywdę: pacjenci mogą nie potrzebować wiedzy o systemie sztucznej inteligencji, który nakłania lekarza do przyspieszenia skanowania MRI o jeden dzień, takiego jak ten wdrożony przez M Health Fairview, podobnie jak w przypadku algorytmów, których celem jest zachęcenie lekarzy do podejmowania rozmów z umierającymi. Ale w innych przypadkach brak ujawnienia oznacza, że ​​pacjenci mogą nigdy nie wiedzieć, co się stało, jeśli model sztucznej inteligencji wyda błędne zalecenie, które jest jednym z powodów, dla których odmawia się im potrzebnej opieki lub poddaje się niepotrzebnej, kosztownej lub nawet szkodliwej interwencji.

To realne ryzyko, ponieważ niektóre z tych modeli sztucznej inteligencji są obarczone błędami, a nawet te, które okazały się dokładne, w większości nie poprawiają wyników leczenia. Niektóre szpitale nie udostępniają danych na temat tego, jak dobrze działają systemy, uzasadniając decyzję tym, że nie prowadzą badań. Ale to oznacza, że ​​pacjentom odmawia się nie tylko informacji o tym, czy narzędzia są używane w ich opiece, ale także o tym, czy narzędzia faktycznie im pomagają.

Decyzja, aby nie wspominać o tych systemach pacjentom, jest wynikiem wyłaniającego się konsensusu wśród lekarzy, dyrektorów szpitali, programistów i architektów systemów, którzy nie widzą sensu w podnoszeniu tego tematu. Często chodzi o przekonanie, że ujawnienie roli sztucznej inteligencji zakłóci rozmowy klinicystów z pacjentami, odwracając czas i uwagę od działań, które pacjent może podjąć, aby poprawić swoje zdrowie i jakość życia. Lekarze podkreślają również, że to oni, a nie sztuczna inteligencja, podejmują decyzje dotyczące opieki. W końcu zalecenie systemu sztucznej inteligencji to tylko jeden z wielu czynników, które lekarze biorą pod uwagę przed podjęciem decyzji o opiece nad pacjentem, a absurdem byłoby uszczegółowienie każdej pojedynczej wytycznej, protokołu i źródła danych, które są brane pod uwagę. 

Cztery z 13 szpitali systemu opieki zdrowotnej wdrożyły obecnie narzędzie do planowania wypisów ze szpitala, które zostało opracowane przez firmę Qventus z Doliny Krzemowej AI. Model ma na celu identyfikację hospitalizowanych pacjentów, którzy prawdopodobnie będą klinicznie gotowi wkrótce wrócić do domu, oraz wskazanie kroków, które mogą być potrzebne, aby to się stało, takich jak zaplanowanie niezbędnej wizyty fizjoterapeutycznej.

WSPÓŁPRACUJEMY z:

Zaufali nam: