Getty Images / Unsplash

Z AI jest tak, że trochę nie wiemy, jak podaje swój wynik.  W przypadku tekstu generowanego przez chat, czy grafiki, nie jest to takie ważne. Ale w medycynie jest chyba inaczej — czy to nie problem, że nie wiemy, skąd się bierze diagnoza AI?

Ligia Kornowska: Długo się nad tym głowiliśmy, tworząc Białą Księgę AI w Koalicji AI w Zdrowiu. Ale zacznę od tego,  że nie  każdy algorytm AI jest tzw. black boxem, czyli jest niewytłumaczalny. Nawet w medycynie są algorytmy, np. w radiologii, które jedynie zaznaczają niefizjologiczny fragment na obrazie RTG, czy tomografii. Wiemy, że algorytm wybiera do zaznaczenia to, co nie pasuje mu w kontekście danych, na których się uczył, jak ma wyglądać prawidłowy fizjologiczny obraz. Są również sposoby na tłumaczenie algorytmu — na przykład tak, że  zatrudnia się do tego drugi algorytm AI, który odczytuje rezultat tego pierwszego i tłumaczy, dlaczego pierwszy podjął taką decyzję. Ale oczywiście, mamy też black boxy w medycynie i mieliśmy wyzwanie jak do tego podejść. 

I jak podeszliście?

Swierdziliśmy, że w standardowej medycynie też mamy do czynienia z black boxami. 

Gdzie?

Jest na przykład sporo leków, które wiemy, że działają i są skuteczne, dobrze przetestowane, przeszły badania kliniczne, ale na poziomie fizjologicznym trudno nam wytłumaczyć, na jakiej podstawie działają i co dokładnie robią w organizmie. Mamy hipotezy, ale nie wiemy na 100%. Dobrym przykładem są niektóre leki psychiatryczne. Więc już wcześniej w medycynie zgodziliśmy się z sytuacją, że możemy do końca nie wiedzieć.  Stwierdziliśmy więc, że sztuczna inteligencja nie powinna być traktowana jako coś zupełnie oderwanego, a jak kolejna technologia, choć rewolucyjna, która wspiera proces diagnostyczno-leczniczy.

A kto będzie odpowiedzialny w przypadku nieprawidłowej diagnozy?

Proponujemy wyróżnienie dwóch sytuacji. Pierwsza, kiedy wadliwy rezultat algorytmu wynika z wprowadzonych błędnych danych albo błędnego użycia. Ale to się też czasem zdarza w zwykłych badaniach, kiedy na przykład pobieramy pacjentowi krew i wychodzi, że np. pacjent w zasadzie to powinien nie żyć. Wiemy wtedy, że po prostu krew była nieprawidłowo pobrana lub zakrzepła za szybko. I ponawiamy.

Podobnie w przypadku AI, sugerujemy ponowić badanie, jeśli jest ryzyko, że dane  zostały błędnie wprowadzone. 

Fot. archiwum prywatne

A jeśli wszystko było dobrze, a algorytm działa nieprawidłowo, nie spełnia warunków, według których był certyfikowany i nie jest skuteczny – wtedy odpowiada jego twórca i wprowadzający do obrotu algorytm.

Kolejna sprawa, że diagnozę nadal może wystawić tylko personel medyczny. Choć tu też mieliśmy zagwozdkę — bo są algorytmy, w Polsce już też, które pokazują pewne elementy diagnostyki. 

W USA od 6 lat zarejestrowany jest algorytm, który samodzielnie —  bez pieczątki lekarza — może określić, czy w badaniu DNA oka występuje retinopatia cukrzycowa. 

Pacjenci z cukrzycą muszą, co jakiś czas, wykonywać badanie dna oka, żeby sprawdzić, czy nie występuje to schorzenie, które może prowadzić do ślepoty. 

Dotychczas robił to lekarz, dziś może  AI. Zastanawialiśmy się, czy wynik badania, który mówi „drogi pacjencie, najpewniej masz retinopatię, idź do lekarza” albo „najpewniej jej nie masz, możesz się zbadać za kolejny rok” – jest  już diagnozą medyczną? 

I jest?

I znowu popatrzyliśmy na standardową medycynę. A tam też są przypadki, gdzie same wyniki badań laboratoryjnych wskazują jeden do jednego na jakąś chorobę. Na przykład, jeśli badamy poziom glikemii i jest ponad normę – czy to sprzęt laboratoryjny wystawia diagnozę cukrzycy? Nikt tak nie mówi, choć wiadomo, że jak jest glikemia, to i jest cukrzyca. Ale z wynikiem trzeba iść do lekarza i to on wystawia diagnozę i wpisuje ją w dokumentację medyczną. 

Więc nawet jeśli algorytmy AI przedstawiają wyniki diagnostyczne, które mogą wpływać na dalsze decyzje lecznicze — to i tak nie jest to diagnoza w sensie prawnym.

Można już spotkać algorytmy w polskich szpitalach?

Według statystyk już prawie 7% szpitali w Polsce wykorzystuje już algorytmy sztuczne inteligencji.  Pewnie mogłoby być więcej.

Ale pacjent, który idzie dziś na SOR do szpitala powiatowego, może już otrzymać wynik badania radiologicznego, który był wsparty AI.

Trzy czwarte algorytmów stosowanych przez szpitale to właśnie algorytmy do badań obrazowych — tomografii komputerowej, RTG, rezonansu magnetycznego. 

M.in. dlatego, że w ogóle najwięcej algorytmów sztucznej inteligencji jest w radiologii. Dodatkowo, szpitale korzystają z analizy obrazu także przez podmioty zewnętrzne. Wdrożenie algorytmu w jednej firmie, powoduje, że np. 150 szpitali może dostawać od nich wyniki. 

I jakie nastroje wywołuje AI wśród lekarzy?

Personel medyczny i zarządczy wciąż jeszcze ma niedostateczną wiedzę na ten  temat sztucznej inteligencji. Czym jest, a czym nie jest? Jakie ma możliwości i ograniczenia?  To samo dotyczy pacjentów.  Jest trochę lęków, które wynikają z niewiedzy. Na przykład o utratę pracy przez lekarzy. Tymczasem, minęło właśnie 10 lat od przepowiedni jednego z twórców sztucznej inteligencji, że radiolodzy już nie będą potrzebni. A nadal są. Zresztą, nadal wciąż jest ich za mało. 

Za to podobno mamy bardzo dużo medycznych startupów technologicznych

Co roku mniej więcej między 300 a 400. Ponad 60% z nich tworzy swoje produkty w oparciu o sztuczną inteligencję. Mimo, że w Europie wydajemy dużo mniej na startupy ,w porównaniu np. ze Stanami Zjednoczonymi, a oczywiście Polska w porównaniu do innych krajów europejskich jeszcze mniej. Są programy, dofinansowania, ale środki przeznaczane na te programy są niewystarczające.  Oczywiście my, jako Polacy, zawsze sobie jakoś radzimy, dlatego startupów w Polsce jest bardzo dużo. 

Co na przykład wymyśliliśmy?

Niektóre są unikalne na skalę europejską, a może nawet światową.

Na przykład elektroniczne stetoskopy, wsparte sztuczną inteligencją. To osłuchiwanie płuc, które dotychczas robili lekarze, może być już wykonywane przez pacjenta w domu ze wsparciem algorytmów AI.

Są też algorytmy do analizy badań obrazowych – już wdrożone, bardzo pomagają w skróceniu czasu diagnostyki, np. udaru niedokrwiennego. A tam liczy się każda minuta. 

 Mamy startupy, które tworzą algorytmy do oceny badań histopatologicznych, co jest bardzo potrzebne, bo w tej chwili mamy bardzo mało histopatologów i długo się czeka na wyniki – to takie badania, gdzie  jeśli pacjent ma nowotwór, to wycinek nowotworu ocenia się pod mikroskopem. Tak było dotychczas.

A teraz jak?

Teraz te próbki  będą digitalizowane i właśnie powstają narzędzia, które będą  wspierać przy ich ocenie. Mamy także dużo startupów, które działają w obszarze kardiologii, oceniają zapisy EKG, czy inne parametry kardiologiczne. W zasadzie chyba w każdej specjalizacji można coś znaleźć.
A proszę pamiętać, że tworzenie jakiegokolwiek rozwiązania technologicznego w medycynie, jest bardzo kosztochłonne. Nie wystarczy – jak w przypadku innych branż –  stworzyć produkt i nie do końca dopracowany wypuścić na rynek, żeby go później dopracowywać razem z klientami. To musi być zrobione do końca, sprawdzone i certyfikowane – jak strzykawki, rękawiczki, defibrylator.

Getty Images / Unsplash

Algorytm musi być przetestowany, sprawdzony, musimy znać jego skuteczność, być pewni, jak się produkt zachowuje. Na to wszystko trzeba wydać pieniądze, zanim jeszcze produkt sprzedamy jakiemukolwiek klientowi. Dodatkowo nawet jeśli już stworzymy rozwiązanie oparte o AI, które wspiera diagnozę i leczenie, mamy pewność, że jest bardzo skuteczne i mogłoby być wykorzystywane, to w tej chwili nie mamy stabilnych systemów finansowania, udzielania świadczeń z wykorzystaniem sztucznej inteligencji ze środków publicznych. Czyli albo pacjent zapłaci ze swojej kieszeni, do czego pacjenci w Polsce raczej nie są przyzwyczajeni, albo to szpital musi zapłacić, co  z kolei robią niechętnie szpitale, bo i tak są niedofinansowane. Powinien być więc stworzony specjalny model finansowania publicznego innowacyjnych startupów rozwiązań opartych o sztuczną inteligencję. 

Minister Krzysztof Gawkowski zapowiedział o funduszu AI – padła tam kwota,  200 milionów złotych rocznie. Wystarczy choć na jeden?

To nic. Były programy dofinansowania dla startupów, gdzie można było uzyskać jeden milion złotych. To jest zdecydowanie za niska kwota, żeby cokolwiek zrobić w medycynie.

Wycofanie się państwa z rozwoju, może w przyszłości spowodować ogromne rozwarstwienie. Cudowne narzędzia i tylko nieliczni, którzy będą mieli do nich dostęp. 

Jeden algorytm AI wykorzystany w ocenie badań mammograficznych, może zmniejszyć liczbę fałszywie ujemnych wyników, czyli sytuacji, kiedy nowotwór jest, ale go jeszcze nie widać na obrazie o prawie 10%, To są potencjalnie setki tysięcy żyć uratowanych na całym świecie. 

Mało się mówi o tym, że jeśli takie algorytmy sztucznej inteligencji nie będą finansowane ze środków publicznych, to możliwe, że będą dostępne tylko dla pacjentów zamożniejszych, którzy za nie zapłacą.

Albo będą w prywatnych placówkach. 

I to może mieć straszne konsekwencje społeczne

Tak. Szczególnie że – tak  uważam – przyszłość należy do analityki predykcyjnej. 

Co to znaczy?

Do takich algorytmów AI, które analizując duże zbiory danych, będą w stanie powiedzieć, który pacjent jest narażony na ryzyko rozwoju jakiejś choroby, zanim jeszcze zachoruje. Albo na bardzo wczesnych etapach choroby, gdzie jeszcze nikt w zasadzie by go nie zdiagnozował. I będzie mógł albo wdrożyć środki zapobiegawcze, żeby się nie rozchorować, albo leczenie. Uważam, że to będzie absolutna rewolucja, przełom i to zmieni oblicze medycyny. W niektórych zakresach i miejscach już się to dzieje. 

Na przykład gdzie?

W Izraelu. Największy izraelski ubezpieczyciel w trakcie pandemii COVID-19 przeanalizował 10 milionów pacjentów i sprawdził, którzy mają najwyższe ryzyko zgonu lub ciężkich powikłań, jeśli zachorują na COVID-19. Wybrano, jeśli dobrze pamiętam, 200 tysięcy pacjentów z tych 10 milionów. Obdzwonili ich odpowiednicy naszych lekarzy rodzinnych. Powiedzieli: drogi pacjencie, jest pandemia, masz najwyższe ryzyko spośród populacji, że będziesz mieć ciężkie powikłania, możesz ciężko zachorować i umrzeć. Zalecamy, żebyś został w domu. A jeśli będziesz potrzebował wsparcia lekarskiego, to najpierw zadzwoń do nas, a my skoordynujemy twoją wizytę. Żebyś nie miał kontaktu z innymi pacjentami. I to faktycznie umożliwiło im uniknięcie nadmiarowych zgonów przez COVID-19. To jest przykład dobrze wdrożonej analityki predykcyjnej, gdzie działamy jeszcze zanim coś się zadzieje.

Brzmi jak magia

Każda wystarczająco zaawansowana technologia, która jest niewyjaśniona, wygląda jak magia.

Getty Images / Unsplash

Tak mówił Arthur C. Clark, autor “Odysei kosmicznej”.  A w jakim jesteśmy miejscu, jeśli chodzi o zbieranie danych? Bo to chyba kolejna kluczowa rzecz.

Nie da się stworzyć algorytmów AI bez dostępu do dobrej jakości danych medycznych, które pochodzą od różnych grup pacjentów. W Europie popularyzuje się określenie „ubóstwo danych”. 

Bo proszę wyobrazić sobie taką sytuację, że Polska albo inne kraje europejskie nie stworzą swoich algorytmów AI, bo nie  będą miały dostępu do danych medycznych. Albo że będzie dużo algorytmów bazujących na populacji pacjentów z Azji, czy USA, które mogą być nieskuteczne na naszej populacji.  Takiego ubóstwa danych nie da się nadrobić, kupując technologię z innych krajów.  Temat, by zapewnić dostęp do danych medycznych dla rozwoju nowych technologii jest więc bardzo pilny. 

Z drugiej strony, w Europie mamy duże poszanowanie dla prawa do prywatności i decydowania, co się dzieje z naszymi danymi. Nie możemy też po prostu otworzyć dostępu, jak leci. Mamy więc problem do rozwiązania.  

I jak go rozwiązujemy?

Są różne pomysły — jeden to udostępnianie danych anonimowych, czyli pozbawionych wszelkich cech, które mogłyby prowadzić do konkretnego pacjenta. To nie tylko usunięcie imienia i nazwiska, ale też generalizacja niektórych parametrów. 

Są też różne europejskie regulacje, które będą wchodzić w życie, które starają się regulować tę kwestię.

Rozwijamy też ideę dawstwa danych medycznych. Czyli zachęcamy pacjentów do podzielenia się swoimi danymi dla celów badawczo-rozwojowych, To metoda, która bierze pod uwagę to, że pacjent może się nie zgodzić i to również będzie uszanowane.

Jak pacjenci na to reagują?

Bardzo dobrze. Pod warunkiem właśnie, że wiedzą, że nie muszą wyrazić zgody i mogą ją wycofać.

Zapytani o przekazanie danych na cele badawczo-rozwojowe zgadzają się w 77 procentach. Jako społeczeństwo jesteśmy gotowi.

Dane są już zbierane. W Polsce od kilku lat mamy obowiązek prowadzenia elektronicznej dokumentacji medycznej.  To nie oznacza, że wszystko jest cyfrowe, ale większość dokumentacji już jest. Część jest gromadzona w taki sposób, który jest łatwiejszy do odczytania dla algorytmu AI.  Elementy dokumentacji medycznej mają jednolity format, jak na przykład badania radiologiczne, więc AI może się dzięki temu szybciej rozwijać.  Ale nadal duża część dokumentacji jest zapisywana w formie lekarskiej notatki lekarskiej. Jak wypis, który dostaje pacjent, gdzie można przeczytać dokładnie, co mu tam dolegało, historia chorób w rodzinie, a czasem nawet podawane leki, jak w przypadku pacjentów onkologicznych.  Takie dane są trudne do wykorzystania przez algorytm. Trzeba je najpierw ustrukturyzować, sprawdzić. 

A na co trzeba uważać?

Pierwsze zagrożenie jest takie, że musimy mieć dobrze dopracowane sposoby certyfikacji algorytmów AI, czyli dopuszczania ich do obrotu i procesów diagnostyczno-leczniczych.  W tej chwili nie ma określonych parametrów, czy wynik algorytmu porównujemy do wyników analizy pochodzących od jednego lekarza, od konsylium, specjalisty, od lekarza ogólnego itd. Czyli nie wiemy do końca do kogo porównywać  algorytmy.  Są pewne dobre praktyki, natomiast nie jest to do końca uregulowane. Kolejna sprawa w kontekście certyfikacji, to kwestia tego, na jakich danych algorytm jest uczony. 
Nigdzie w regulacjach nie ma, że powinien być testowany i trenowany na różnych bazach danych. Jeśli będziemy testować algorytm na tej samej bazie danych, na której go trenujemy, to skuteczność wyjdzie bliska 100%.  Natomiast będzie zupełnie różna, jak wykorzystamy dane rzeczywiste, z różnych źródeł.

Kolejna rzecz — różne grupy pacjentów mogą osiągać różną skuteczność działania algorytmu. Jeśli algorytm był trenowany na kobietach z Europy, to może być super skuteczny dla kobiet z Europy, ale zupełnie nieskuteczny dla mężczyzn ze Stanów Zjednoczonych. Albo jeśli był trenowany na europejskich dzieciach, więc może być nieskuteczny na europejskich dorosłych. 

Trzeba o tym pamiętać i edukować, że nie każdy algorytm będzie dla każdej grupy pacjentów, a tylko niektóre algorytmy będą dla niektórych grup. Ostatnia rzecz, ale nie dotyczy to jedynie medycyny, ale w ogóle jakiegokolwiek stosowania AI, to używanie algorytmów do manipulacji – jednostkami i społeczeństwami.

A w czym AI w medycynie się nie sprawdza?

Jeszcze mówiło się, że na pewno nie sprawdzi się tam, gdzie potrzebny jest kontakt człowieka z człowiekiem. Dziś niektóre duże modele językowe są oceniane przez pacjentów jako prawie 10 razy bardziej empatyczne, niż prawdziwy personel.   Algorytmy AI najbardziej wypromowane są w radiologii, w kardiologii i onkologii. Pewnie najmniej ich jest w psychiatrii, natomiast też są obecne. Można przecież wykorzystać algorytm AI do celów oceny samopoczucia, monitorowania stanu emocjonalnego itd.

W psychoterapii?

Osobiście uważam, że algorytmy AI w ogóle nie zastąpią nikogo z personelu medycznego. Po prostu zmienią jego pracę i zastąpią powtarzalne czynności. 

Nie ma też mowy, żeby algorytm AI zastąpił psychoterapię. Ale może być świetnym narzędziem wsparcia i niesienia pomocy 24 godziny na dobę. I oczywiście znowu — jeśli jest sprawdzony i certyfikowany. Gdyby nie był, a tylko podawał wynik na przykład w oparciu duże modele językowe, to mógłby zasugerować nieprawidłowe postępowanie pacjentowi. I wywołać tragedię. 

Wydaje mi się jednak, że trudno, by algorytm sam wyczuwał z rozmowy stan, czy potrzeby emocjonalne, psychologiczne pacjenta. Psychoterapeuta jednak się dostosowuje do tego, co widzi. Algorytmy AI są dobre w sytuacjach, które mogą być zautomatyzowane i powtarzalne, a stan emocjonalny człowieka jest skomplikowaną materią. Ale to i tak tylko nasze gadanie z 2024 roku –  a co przyniesie przyszłość, to się okaże.

Zostaw komentarz

Polecamy:

70% naszych subskrybentów to boty, czyli o teorii martwego internetu

70% naszych subskrybentów to boty, czyli o teorii martwego internetu

Zeskanowałem tęczówkę za krypto – czy Worldcoin uratuje nas przed AI?

Zeskanowałem tęczówkę za krypto – czy Worldcoin uratuje nas przed AI?

To bezcenne doświadczenie dowiedzieć się czegoś od osoby, która rozumie nasz świat

To bezcenne doświadczenie dowiedzieć się czegoś od osoby, która rozumie nasz świat

Czerwony Delfin to fake news. Katarzyna Bąkowicz: powielanie go może doprowadzić do tragedii

Swoje pliki trzymam w DNA paprotki, czyli o przyszłości danych

Swoje pliki trzymam w DNA paprotki, czyli o przyszłości danych

Tygodnik

Tygodnik #16: Generator filmów i wyciek Mac Booków

Podcast #8: Sztuczne człowieczeństwo. O budowaniu relacji z AI

Tygodnik #15: Okulary Orion i ksiądz GPT z Poznania

Jak Hot or Not zapoczątkowało współczesny internet 26 Piętro

Na początku było Hot or Not

Pogrzeb i wesele. Powódź i sztuczna inteligencja