Sztuczna inteligencja (AI) zyskuje coraz większą popularność we wszystkich dziedzinach życia. Nie dziwi więc, że staje się ona również coraz bardziej obecna w ochronie zdrowia. W medycynie wykorzystuje się ją już w szerokim zakresie: od wsparcia w tworzeniu dokumentacji medycznej, przez diagnostykę [2] i odkrywanie nowych leków [3], aż po przegląd badań, edukację, komunikację z pacjentem, wsparcie w terapii [1] oraz dostarczanie spersonalizowanych sugestii terapeutycznych [5].
W tym artykule analizujemy kluczowe różnice między lekarzem a AI - nie by je wartościować, lecz by zrozumieć, jak efektywnie współpracować z technologią przy zachowaniu pełnej odpowiedzialności, relacji z pacjentem i jego bezpieczeństwa.
W publicznej debacie AI często traktuje się jako jedno zjawisko. W rzeczywistości to szerokie spektrum narzędzi - od prostych asystentów tekstowych po zaawansowane modele kliniczne, które przeszły rygorystyczną walidację.AI to ogólna kategoria technologii, które potrafią tworzyć nowe treści - tekst, obraz, dźwięk, wideo, kod. Wśród nich wyróżniamy m.in. [8]:
W medycynie dominują jednak dwa główne typy modeli AI:
Przykładem modeli językowych stosowanych w opiece medycznej jest Med-PaLM od Google, specjalizujący się w odpowiadaniu na złożone pytania medyczne i syntezowaniu informacji z danych tekstowych oraz obrazowych, takich jak zdjęcia rentgenowskie.
Jeśli chodzi o drugą grupę - modeli analitycznych - wykorzystywane są one do diagnostyki obrazowej. Są to specjalistyczne modele AI (często oparte na uczeniu głębokim), które potrafią analizować zdjęcia medyczne (np. rentgen, tomografia komputerowa, rezonans magnetyczny, ultrasonografia) z precyzją porównywalną lub przewyższającą ekspertów klinicznych. Przykładem jest model SLIViT opracowany przez UCLA [9], który analizuje obrazy 3D różnych modalności oraz modele stosowane do automatycznej klasyfikacji i wykrywania zmian chorobowych na podstawie obrazów (np. w radiologii, dermatologii, patomorfologii, kardiologii).
W przeciwieństwie do lekarza, modele AI nie rozumieją znaczenia swoich własnych odpowiedzi - operują jedynie na statystycznych wzorcach. Jedną z najbardziej fundamentalnych różnic między lekarzem a systemami AI jest właśnie zdolność do metapoznania - świadomości własnej niewiedzy. Lekarz zna swoją odpowiedzialność. Wie, że każda decyzja kliniczna ma konsekwencje - nie tylko medyczne, ale także ludzkie, relacyjne i prawne. AI tej świadomości nie posiada. Nie zna pacjenta, nie rozumie kontekstu, nie wie, kiedy powiedzieć „nie wiem".
Systemy AI - nawet gdy nie znają odpowiedzi - zawsze ją wygenerują z pełnym przekonaniem, bez sygnalizowania niepewności. To właśnie prowadzi do tzw. halucynacji [7] - tworzenia treści, które brzmią wiarygodnie, ale są całkowicie nieprawdziwe. Halucynacja nie jest intencjonalnym błędem, lecz konsekwencją konstrukcji modelu. Wystarczy luka w danych, by system „dopowiedział" brakujące elementy - wymyślając badania, protokoły czy źródła.
Badania wskazują, że modele językowe, takie jak GPT-4, mogą z pełnym przekonaniem cytować nieistniejące źródła, wymyślać badania czy podawać niesprawdzone dane [7]. Szczegółowo zostało to zilustrowane w eksperymencie z generowaniem obrazu zegarka. Przeprowadziliśmy prosty test w jednym z najpopularniejszych modeli językowych - ChatGPT - by sprawdzić, jak radzi sobie to narzędzie z wykonaniem podstawowego polecenia. Oto wyniki naszego testu:
To ujawniło typowy problem modeli językowych - odpowiadają z całkowitą pewnością nawet wtedy, gdy są w błędzie, nie sygnalizując żadnych wątpliwości.
To eksperyment z obrazem, ale analogiczny mechanizm działa w generowaniu treści medycznych - model z równie dużą pewnością może „wymyślić” nieistniejące procedury czy badania. W medycynie, gdzie fałszywe poczucie pewności może być niebezpieczne, stanowi to poważne zagrożenie. Może to zaszkodzić przede wszystkim w sytuacji, gdy błędne informacje wpływają na decyzje terapeutyczne lekarza, a pacjent nie posiada narzędzi do ich weryfikacji [7].
Dlatego AI należy traktować jako narzędzie, które wymaga świadomej kontroli i ostrożności Twojej, jako lekarza - aktywnego, odpowiedzialnego użytkownika, który wie, kiedy nie ufać i potrafi zweryfikować każdą propozycję czy informację.
Modele AI analizują dane, ale nie znają kontekstu, w jakim żyje Twój pacjent. Nie uwzględniają relacji rodzinnych, wyzwań emocjonalnych, osobistych historii czy niuansów kontaktu. Nie widzą człowieka - widzą tylko kod.
Ty masz dostęp do czegoś więcej, niż tylko danych: do relacji, rozmowy, doświadczenia. To właśnie relacyjny kontekst bywa kluczowy w podejmowaniu decyzji klinicznych - i nie może zostać w pełni przekazany algorytmowi.
AI nie rozumie sytuacji, w której pacjent mówi „już nic nie działa” albo „boję się, że to nowotwór”. Ty - tak. Widzisz reakcje pacjentów, ich mimikę, mikrointerakcje. Znasz ich historię, dlatego łatwiej rozpoznasz, kiedy poczują się zaniepokojeni, wystraszeni czy przerażeni diagnozą.
Nawet jeśli AI generuje trafne sugestie, nigdy nie ponosi odpowiedzialności za ich konsekwencje - prawnej, etycznej, zawodowej.
To Ty pozostajesz autorem decyzji, niezależnie od tego, z jakiego narzędzia korzystałeś AI nie zna skutków swoich „odpowiedzi”. Nie bierze udziału w rozmowie z pacjentem. AI jest tylko narzędziem, nie podmiotem zdolnym do ponoszenia konsekwencji swoich „decyzji”.
Dlatego AI może być Twoim asystentem - ale to Ty jesteś obecny przy pacjencie, z odpowiedzialnością tej relacji.
Relacja lekarza z pacjentem opiera się na zaufaniu. To nie tylko kompetencje, ale także obecność, uważność i empatia - zwłaszcza w sytuacjach niepewności. AI może zasymulować życzliwość w tekście, ale nie zareaguje na milczenie, nie zauważy łamiącego się głosu ani nie podejmie tematu, który pacjentowi trudno wypowiedzieć.
To Ty tworzysz atmosferę, która daje pacjentowi poczucie bezpieczeństwa. AI nie ma intencji, emocji ani odpowiedzialności relacyjnej.
Modele językowe potrafią błyskawicznie wygenerować tekst. Jednak większość generatywnych zastosowań AI w opiece zdrowotnej bazuje na modelach, których dane opierają się na na niefiltrowanych danych internetowych [6]. Oznacza to, że modele nie wiedzą, czy to, co cytują pochodzi z prawdziwego źródła. Nie mają świadomości, że coś może być nieprecyzyjne, przestarzałe lub po prostu nieistniejące.
Ty, który korzystasz z AI przy tworzeniu treści - np. dla pacjenta do treści edukacyjnej - zawsze powinieneś sprawdzić, co finalnie zostaje przekazane. AI może napisać tekst bardzo szybko i pozornie sprawnie, ale tylko człowiek może zrobić to odpowiedzialnie.
Większość dostępnych modeli AI działa poza UE i nie spełnia wymogów RODO. Przesłanie danych medycznych do narzędzia AI może oznaczać trwałe utracenie kontroli nad nimi. A warto pamiętać, że AI nie rozumie, czym są dane wrażliwe. Co za tym idzie - nie rozumie także, co znaczy naruszyć czyjąś prywatność.
Ty natomiast działasz w oparciu o konkretne przepisy, ale też o etykę zawodową. Wiesz, że dane to nie tylko informacje - to osobiste historie ludzi, którzy Ci zaufali.
AI nigdy - niezależnie od tego, jak mocno rozwinięta - nie ponosi odpowiedzialności prawnej ani moralnej. Nawet jeśli model zasugeruje działanie, które wydaje się sensowne, to Ty podejmujesz decyzję - i to Ty ponosisz za nią odpowiedzialność wobec pacjenta, prawa, etyki zawodowej.
Odpowiedzialne korzystanie z AI oznacza nie tylko znajomość jej możliwości, ale także granic, których przekroczenie może narazić pacjenta, lekarza i relację między nimi.. Używane odpowiedzialnie, mogą uwalniać czas, wspierać analizę tekstu, poprawiać komunikację z pacjentem, dlatego warto wykorzystywać ją do:
Jednocześnie zdecydowanie nie zalecamy wykorzystania AI do:
Ryzyka związane z etyką (jak zawodność, brak odpowiedzialności, uprzedzenia w działaniu algorytmu czy naruszenia prywatności), a także zagrożenia techniczne (takie jak utrata danych, ich zniekształcenie lub brak dostępu), trzeba rozwiązywać z myślą o człowieku - jego potrzebach, bezpieczeństwie i odpowiedzialności [7].
Nowe technologie zmieniają medycynę. Ale nawet najbardziej zaawansowany model AI nie zastąpi lekarza. Bo różnice są fundamentalne.
AI staje się coraz lepsza, ale nie zastępuje relacji. Nie podejmuje decyzji. Nie ponosi konsekwencji. I nie zna Twojego pacjenta. Dlatego Twoja rola pozostaje niezastąpiona. Sztuczna Inteligencja może być Twoim wsparciem i warto z niej korzystać podczas codziennej praktyki - ale tylko wtedy, gdy to Ty pozostajesz jej aktywnym użytkownikiem, nie biernym odbiorcą. Wtedy, gdy potrafisz z niej korzystać tak, jak z każdego innego narzędzia: z kompetencją, odpowiedzialnością i zdrowym dystansem.
Dlatego Twoja obecność, świadomość i decyzje pozostają kluczowe. AI może być Twoim asystentem. Ale to Ty jesteś autorem i przewodnikiem w relacji z pacjentem.
[1] Eysenbach G., The Role of ChatGPT, Generative Language Models, and Artificial Intelligence in Medical Education: A Conversation With ChatGPT and a Call for Papers, JMIR Med Educ 2023;9:e46885,, DOI: 10.2196/46885, https://mededu.jmir.org/2023/1/e46885
[2] E.J.T. is supported by NIH UM1TR004407 grant from the National Center for Advancing Translational Sciences. He is on the Dexcom board of directors and serves as an adviser to Tempus Labs, Illumina, Pheno.AI, and Abridge. [https://www.science.org/doi/10.1126/science.adk6139]
[3] Xiangxiang Zeng, Fei Wang, Yuan Luo, Seung-gu Kang, Jian Tang, Felice C. Lightstone, Evandro F. Fang, Wendy Cornell, Ruth Nussinov, Feixiong Cheng, Deep generative molecular design reshapes drug discovery, Cell Reports Medicine, Volume 3, Issue 12, 2022, 100794, ISSN 2666-3791, [https://doi.org/10.1016/j.xcrm.2022.100794.(https://www.sciencedirect.com/science/article/pii/S2666379122003494]
[4] Jiang, S., Hu, J., Wood, K. L., and Luo, J. (September 9, 2021). Data-Driven Design-By-Analogy: State-of-the-Art and Future Directions., ASME. J. Mech. Des. February 2022; 144(2): 020801. https://doi.org/10.1115/1.4051681
[5] Javaid, Abid Haleem, Ravi Pratap Singh, ChatGPT for healthcare services: An emerging stage for an innovative perspective, BenchCouncil Transactions on Benchmarks, Standards and Evaluations, Volume 3, Issue 1, 2023, 100105, ISSN 2772-4859, https://doi.org/10.1016/j.tbench.2023.100105, [https://www.sciencedirect.com/science/article/pii/S2772485923000224]
[6] Harrer S., Attention is not all you need: the complicated case of ethically using large language models in healthcare and medicine, BioMedicine, Volume 90, 104512, [https://www.thelancet.com/journals/ebiom/article/PIIS2352-3964(23)00077-4/fulltext]
[7] Chen Y., Esmaeilzadeh P., Generative AI in Medical Practice: In-Depth Exploration of Privacy and Security Challenges J Med Internet Res, 2024;26:e53008, doi: 10.2196/53008, PMID: 38457208, PMCID: 10960211, [https://www.jmir.org/2024/1/e53008/?utm]
[8] Zhang, P., & Kamel Boulos, M. N. (2023). Generative AI in Medicine and Healthcare: Promises, Opportunities and Challenges. Future Internet, 15(9), 286. https://doi.org/10.3390/fi15090286, [https://www.mdpi.com/1999-5903/15/9/286]
[9] Avram O, Durmus B, Rakocz N, Corradetti G, An U, Nitalla MG, Rudas A, Wakatsuki Y, Hirabayashi K, Velaga S, Tiosano L, Corvi F, Verma A, Karamat A, Lindenberg S, Oncel D, Almidani L, Hull V, Fasih-Ahmad S, Esmaeilkhanian H, Wykoff CC, Rahmani E, Arnold CW, Zhou B, Zaitlen N, Gronau I, Sankararaman S, Chiang JN, Sadda SR, Halperin E. SLIViT: a general AI framework for clinical-feature diagnosis from limited 3D biomedical-imaging data. Res Sq. 2023 Nov 21:rs.3.rs-3044914. doi: 10.21203/rs.3.rs-3044914/v2. Update in: Nat Biomed Eng. 2025 Apr;9(4):507-520. doi: 10.1038/s41551-024-01257-9. PMID: 38045283; PMCID: PMC10690310. [https://pmc.ncbi.nlm.nih.gov/articles/PMC10690310/]