Lekarze

Sztuczna pewność. Prawdziwa odpowiedzialność: AI może Ci pomóc, ale to Ty podejmujesz decyzje…

2025-08-08

DoctorOne

No items found.

Spis treści

Sztuczna inteligencja (AI) zyskuje coraz większą popularność we wszystkich dziedzinach życia. Nie dziwi więc, że staje się ona również coraz bardziej obecna w ochronie zdrowia. W medycynie wykorzystuje się ją już w szerokim zakresie: od wsparcia w tworzeniu dokumentacji medycznej, przez diagnostykę [2] i odkrywanie nowych leków [3], aż po przegląd badań, edukację, komunikację z pacjentem, wsparcie w terapii [1] oraz dostarczanie spersonalizowanych sugestii terapeutycznych [5].

W tym artykule analizujemy kluczowe różnice między lekarzem a AI - nie by je wartościować, lecz by zrozumieć, jak efektywnie współpracować z technologią przy zachowaniu pełnej odpowiedzialności, relacji z pacjentem i jego bezpieczeństwa.

AI to nie jedna technologia: liczy się jakość, kontekst i nadzór

W publicznej debacie AI często traktuje się jako jedno zjawisko. W rzeczywistości to szerokie spektrum narzędzi - od prostych asystentów tekstowych po zaawansowane modele kliniczne, które przeszły rygorystyczną walidację.AI to ogólna kategoria technologii, które potrafią tworzyć nowe treści - tekst, obraz, dźwięk, wideo, kod. Wśród nich wyróżniamy m.in. [8]:

  • Sztuczną Inteligencję Generatywną (generative AI) - modele tworzące nowe treści na podstawie danych wejściowych.
  • Modele językowe (LLM) - generujące tekst, np. GPT-4.
  • Modele obrazowe, np. DALL·E - generujące obrazy.
  • Modele multimodalne (LMM) - przetwarzające różne typy danych (np. tekst + obraz) i generujące złożone odpowiedzi (ChatGPT-4o).

W medycynie dominują jednak dwa główne typy modeli AI:

  • modele językowe (LLM), generujące tekst i wspierające procesy diagnostyczne i komunikacyjne,
  • modele analityczne do diagnostyki obrazowej (oparte na uczeniu głębokim, czyli tzw. deep learning), które automatyzują i usprawniają analizę obrazów medycznych.

Przykładem modeli językowych stosowanych w opiece medycznej jest Med-PaLM od Google, specjalizujący się w odpowiadaniu na złożone pytania medyczne i syntezowaniu informacji z danych tekstowych oraz obrazowych, takich jak zdjęcia rentgenowskie.

Jeśli chodzi o drugą grupę - modeli analitycznych - wykorzystywane są one do diagnostyki obrazowej. Są to specjalistyczne modele AI (często oparte na uczeniu głębokim), które potrafią analizować zdjęcia medyczne (np. rentgen, tomografia komputerowa, rezonans magnetyczny, ultrasonografia) z precyzją porównywalną lub przewyższającą ekspertów klinicznych. Przykładem jest model SLIViT opracowany przez UCLA [9], który analizuje obrazy 3D różnych modalności oraz modele stosowane do automatycznej klasyfikacji i wykrywania zmian chorobowych na podstawie obrazów (np. w radiologii, dermatologii, patomorfologii, kardiologii).

AI vs Lekarz: różne systemy poznawcze i inna odpowiedzialność

Różnica 1 - AI halucynuje, lekarz - analizuje

W przeciwieństwie do lekarza, modele AI nie rozumieją znaczenia swoich własnych odpowiedzi - operują jedynie na statystycznych wzorcach. Jedną z najbardziej fundamentalnych różnic między lekarzem a systemami AI jest właśnie zdolność do metapoznania - świadomości własnej niewiedzy. Lekarz zna swoją odpowiedzialność. Wie, że każda decyzja kliniczna ma konsekwencje - nie tylko medyczne, ale także ludzkie, relacyjne i prawne. AI tej świadomości nie posiada. Nie zna pacjenta, nie rozumie kontekstu, nie wie, kiedy powiedzieć „nie wiem".

Systemy AI - nawet gdy nie znają odpowiedzi - zawsze ją wygenerują z pełnym przekonaniem, bez sygnalizowania niepewności. To właśnie prowadzi do tzw. halucynacji [7] - tworzenia treści, które brzmią wiarygodnie, ale są całkowicie nieprawdziwe. Halucynacja nie jest intencjonalnym błędem, lecz konsekwencją konstrukcji modelu. Wystarczy luka w danych, by system „dopowiedział" brakujące elementy - wymyślając badania, protokoły czy źródła.

Badania wskazują, że modele językowe, takie jak GPT-4, mogą z pełnym przekonaniem cytować nieistniejące źródła, wymyślać badania czy podawać niesprawdzone dane [7]. Szczegółowo zostało to zilustrowane w eksperymencie z generowaniem obrazu zegarka. Przeprowadziliśmy prosty test w jednym z najpopularniejszych modeli językowych - ChatGPT - by sprawdzić, jak radzi sobie to narzędzie z wykonaniem podstawowego polecenia. Oto wyniki naszego testu:

To ujawniło typowy problem modeli językowych - odpowiadają z całkowitą pewnością nawet wtedy, gdy są w błędzie, nie sygnalizując żadnych wątpliwości.

To eksperyment z obrazem, ale analogiczny mechanizm działa w generowaniu treści medycznych - model z równie dużą pewnością może „wymyślić” nieistniejące procedury czy badania. W medycynie, gdzie fałszywe poczucie pewności może być niebezpieczne, stanowi to poważne zagrożenie. Może to zaszkodzić przede wszystkim w sytuacji, gdy błędne informacje wpływają na decyzje terapeutyczne lekarza, a pacjent nie posiada narzędzi do ich weryfikacji [7].

Dlatego AI należy traktować jako narzędzie, które wymaga świadomej kontroli i ostrożności Twojej, jako lekarza - aktywnego, odpowiedzialnego użytkownika, który wie, kiedy nie ufać i potrafi zweryfikować każdą propozycję czy informację.

Różnica 2 - AI nie zna Twojego pacjenta

Modele AI analizują dane, ale nie znają kontekstu, w jakim żyje Twój pacjent. Nie uwzględniają relacji rodzinnych, wyzwań emocjonalnych, osobistych historii czy niuansów kontaktu. Nie widzą człowieka - widzą tylko kod.

Ty masz dostęp do czegoś więcej, niż tylko danych: do relacji, rozmowy, doświadczenia. To właśnie relacyjny kontekst bywa kluczowy w podejmowaniu decyzji klinicznych - i nie może zostać w pełni przekazany algorytmowi.

AI nie rozumie sytuacji, w której pacjent mówi „już nic nie działa” albo „boję się, że to nowotwór”. Ty - tak. Widzisz reakcje pacjentów, ich mimikę, mikrointerakcje. Znasz ich historię, dlatego łatwiej rozpoznasz, kiedy poczują się zaniepokojeni, wystraszeni czy przerażeni diagnozą.

Różnica 3 - AI nie wie, co to odpowiedzialność

Nawet jeśli AI generuje trafne sugestie, nigdy nie ponosi odpowiedzialności za ich konsekwencje - prawnej, etycznej, zawodowej.

To Ty pozostajesz autorem decyzji, niezależnie od tego, z jakiego narzędzia korzystałeś AI nie zna skutków swoich „odpowiedzi”. Nie bierze udziału w rozmowie z pacjentem. AI jest tylko narzędziem, nie podmiotem zdolnym do ponoszenia konsekwencji swoich „decyzji”.

Dlatego AI może być Twoim asystentem - ale to Ty jesteś obecny przy pacjencie, z  odpowiedzialnością tej relacji.

Różnica 5 - AI nie buduje relacji, Ty tak!

Relacja lekarza z pacjentem opiera się na zaufaniu. To nie tylko kompetencje, ale także obecność, uważność i empatia - zwłaszcza w sytuacjach niepewności. AI może zasymulować życzliwość w tekście, ale nie zareaguje na milczenie, nie zauważy łamiącego się głosu ani nie podejmie tematu, który pacjentowi trudno wypowiedzieć.

To Ty tworzysz atmosferę, która daje pacjentowi poczucie bezpieczeństwa. AI nie ma intencji, emocji ani odpowiedzialności relacyjnej.

Różnica 5 - AI tworzy tekst, ale nie wie, co pisze

Modele językowe potrafią błyskawicznie wygenerować tekst. Jednak większość generatywnych zastosowań AI w opiece zdrowotnej bazuje na modelach, których dane opierają się na na niefiltrowanych danych internetowych [6]. Oznacza to, że modele nie wiedzą, czy to, co cytują pochodzi z prawdziwego źródła. Nie mają świadomości, że coś może być nieprecyzyjne, przestarzałe lub po prostu nieistniejące.

Ty, który korzystasz z AI przy tworzeniu treści - np. dla pacjenta do treści edukacyjnej - zawsze powinieneś sprawdzić, co finalnie zostaje przekazane. AI może napisać tekst bardzo szybko i pozornie sprawnie, ale tylko człowiek może zrobić to odpowiedzialnie.

Różnica 6 - AI nie przetwarza danych zgodnie z etyką

Większość dostępnych modeli AI działa poza UE i nie spełnia wymogów RODO. Przesłanie danych medycznych do narzędzia AI może oznaczać trwałe utracenie kontroli nad nimi. A warto pamiętać, że AI nie rozumie, czym są dane wrażliwe. Co za tym idzie - nie rozumie także, co znaczy naruszyć czyjąś prywatność.

Ty natomiast działasz w oparciu o konkretne przepisy, ale też o etykę zawodową. Wiesz, że dane to nie tylko informacje - to osobiste historie ludzi, którzy Ci zaufali.

Zasady bezpieczeństwa: jak korzystać z AI w praktyce klinicznej, by nie ryzykować?

AI  nigdy - niezależnie od tego, jak mocno rozwinięta - nie ponosi odpowiedzialności prawnej ani moralnej. Nawet jeśli model zasugeruje działanie, które wydaje się sensowne, to Ty podejmujesz decyzję - i to Ty ponosisz za nią odpowiedzialność wobec pacjenta, prawa, etyki zawodowej.

Odpowiedzialne korzystanie z AI oznacza nie tylko znajomość jej możliwości, ale także granic, których przekroczenie może narazić pacjenta, lekarza i relację między nimi.. Używane odpowiedzialnie, mogą uwalniać czas, wspierać analizę tekstu, poprawiać komunikację z pacjentem, dlatego warto wykorzystywać ją do:

  • tworzenia notatek medycznych lub podsumowań wizyt - przy założeniu, że dane nie zawierają informacji wrażliwych,
  • streszczanie badań naukowych - AI może pomóc w szybkim przeglądzie literatury, choć końcowa weryfikacja zawsze należy do lekarza,
  • tłumaczenie zaleceń na prosty język - ułatwia komunikację i może poprawić adherence,
  • tworzenie treści edukacyjnych - przyspiesza proces tworzenia materiałów informacyjnych dla pacjentów.

Jednocześnie zdecydowanie nie zalecamy wykorzystania AI do:

  • wpisywania danych pacjenta,
  • wysyłania wyników badań,
  • polegania na Al przy decyzjach klinicznych.

Ryzyka związane z etyką (jak zawodność, brak odpowiedzialności, uprzedzenia w działaniu algorytmu czy naruszenia prywatności), a także zagrożenia techniczne (takie jak utrata danych, ich zniekształcenie lub brak dostępu), trzeba rozwiązywać z myślą o człowieku - jego potrzebach, bezpieczeństwie i odpowiedzialności [7].

Lekarz vs AI: podsumowanie dialogu

Nowe technologie zmieniają medycynę. Ale nawet najbardziej zaawansowany model AI nie zastąpi lekarza. Bo różnice są fundamentalne.

AI staje się coraz lepsza, ale nie zastępuje relacji. Nie podejmuje decyzji. Nie ponosi konsekwencji. I nie zna Twojego pacjenta. Dlatego Twoja rola pozostaje niezastąpiona. Sztuczna Inteligencja może być Twoim wsparciem i warto z niej korzystać podczas codziennej praktyki - ale tylko wtedy, gdy to Ty pozostajesz jej aktywnym użytkownikiem, nie biernym odbiorcą. Wtedy, gdy potrafisz z niej korzystać tak, jak z każdego innego narzędzia: z kompetencją, odpowiedzialnością i zdrowym dystansem.

Dlatego Twoja obecność, świadomość i decyzje pozostają kluczowe. AI może być Twoim asystentem. Ale to Ty jesteś autorem i przewodnikiem w relacji z pacjentem.

[1] Eysenbach G., The Role of ChatGPT, Generative Language Models, and Artificial Intelligence in Medical Education: A Conversation With ChatGPT and a Call for Papers, JMIR Med Educ 2023;9:e46885,, DOI: 10.2196/46885, https://mededu.jmir.org/2023/1/e46885

[2] E.J.T. is supported by NIH UM1TR004407 grant from the National Center for Advancing Translational Sciences. He is on the Dexcom board of directors and serves as an adviser to Tempus Labs, Illumina, Pheno.AI, and Abridge. [https://www.science.org/doi/10.1126/science.adk6139]

[3] Xiangxiang Zeng, Fei Wang, Yuan Luo, Seung-gu Kang, Jian Tang, Felice C. Lightstone, Evandro F. Fang, Wendy Cornell, Ruth Nussinov, Feixiong Cheng, Deep generative molecular design reshapes drug discovery, Cell Reports Medicine, Volume 3, Issue 12, 2022, 100794, ISSN 2666-3791, [https://doi.org/10.1016/j.xcrm.2022.100794.(https://www.sciencedirect.com/science/article/pii/S2666379122003494]

[4] Jiang, S., Hu, J., Wood, K. L., and Luo, J. (September 9, 2021). Data-Driven Design-By-Analogy: State-of-the-Art and Future Directions., ASME. J. Mech. Des. February 2022; 144(2): 020801. https://doi.org/10.1115/1.4051681

[5] Javaid, Abid Haleem, Ravi Pratap Singh, ChatGPT for healthcare services: An emerging stage for an innovative perspective, BenchCouncil Transactions on Benchmarks, Standards and Evaluations, Volume 3, Issue 1, 2023, 100105, ISSN 2772-4859, https://doi.org/10.1016/j.tbench.2023.100105, [https://www.sciencedirect.com/science/article/pii/S2772485923000224]

[6] Harrer S., Attention is not all you need: the complicated case of ethically using large language models in healthcare and medicine, BioMedicine, Volume 90, 104512, [https://www.thelancet.com/journals/ebiom/article/PIIS2352-3964(23)00077-4/fulltext]

[7] Chen Y., Esmaeilzadeh P., Generative AI in Medical Practice: In-Depth Exploration of Privacy and Security Challenges J Med Internet Res, 2024;26:e53008, doi: 10.2196/53008, PMID: 38457208, PMCID: 10960211, [https://www.jmir.org/2024/1/e53008/?utm]

[8] Zhang, P., & Kamel Boulos, M. N. (2023). Generative AI in Medicine and Healthcare: Promises, Opportunities and Challenges. Future Internet, 15(9), 286. https://doi.org/10.3390/fi15090286, [https://www.mdpi.com/1999-5903/15/9/286]

[9] Avram O, Durmus B, Rakocz N, Corradetti G, An U, Nitalla MG, Rudas A, Wakatsuki Y, Hirabayashi K, Velaga S, Tiosano L, Corvi F, Verma A, Karamat A, Lindenberg S, Oncel D, Almidani L, Hull V, Fasih-Ahmad S, Esmaeilkhanian H, Wykoff CC, Rahmani E, Arnold CW, Zhou B, Zaitlen N, Gronau I, Sankararaman S, Chiang JN, Sadda SR, Halperin E. SLIViT: a general AI framework for clinical-feature diagnosis from limited 3D biomedical-imaging data. Res Sq. 2023 Nov 21:rs.3.rs-3044914. doi: 10.21203/rs.3.rs-3044914/v2. Update in: Nat Biomed Eng. 2025 Apr;9(4):507-520. doi: 10.1038/s41551-024-01257-9. PMID: 38045283; PMCID: PMC10690310. [https://pmc.ncbi.nlm.nih.gov/articles/PMC10690310/]

Take the first step today

Take back control
on contact with patients.

Create an account and transfer patients to Doctor.One in 3 minutes!
try