Polscy naukowcy obnażają ciemną stronę AI. Oto jak technologia może osłabiać lekarzy i jakość leczenia

5 godziny temu 5

Taka może być ciemna strona AI w medycynie. Polskie badanie obnaża wady sztucznej inteligencji

Podczas gdy w polskich mediach dużo mówi się o kolejnych szpitalach, które wprowadzają "nowoczesne" systemy sztucznej inteligencji do kolonoskopii, światowe media – takie jak "Financial Times", "Politico" czy "Time Magazine" – zwróciły uwagę na coś zupełnie innego. Chodzi o badanie przeprowadzone przez polski zespół pod kierownictwem Krzysztofa Budzynia i dr. Marcina Romańczyka, opublikowane w prestiżowym czasopiśmie The Lancet Gastroenterology & Hepatology. To badanie jako pierwsze w warunkach klinicznych pokazało, że AI może prowadzić do tzw. "deskillingu", czyli pogorszenia umiejętności lekarzy.

Badanie przeprowadzono w czterech polskich ośrodkach, gdzie pracowało 19 bardzo doświadczonych lekarzy – każdy z nich miał na koncie ponad 2000 wykonanych kolonoskopii. Sprawdzano, jak dobrze wykrywają gruczolaki, czyli polipy, które mogą przekształcić się w nowotwór. To bardzo ważny wskaźnik jakości badania, nazywany ADR.

Czytaj też: Will Smith poszedł na kolonoskopię. Diagnoza, którą usłyszał była "jak pobudka" .

Wyniki okazały się niepokojące. Gdy lekarze zaczęli na co dzień korzystać z systemów AI, ich skuteczność w wykrywaniu polipów bez pomocy technologii wyraźnie spadła – z 28,4 proc. do 22,4 proc. To aż 20 proc. mniej.

Co ciekawe, nawet gdy używali AI, ich wynik (25,3 proc.) był niższy niż wcześniej, zanim w ogóle zaczęli pracować z systemem. To sugeruje, że technologia nie tylko osłabiła ich samodzielne umiejętności, ale też nie poprawiła znacząco efektów, gdy z nią współpracowali.

Psychologiczne pułapki AI: dlaczego technologia może osłabiać nasze myślenie?

Eksperci podkreślają, że spadek umiejętności u użytkowników systemów AI nie wynika z lenistwa czy braku zaangażowania, ale z głębszych mechanizmów psychologicznych, które uruchamiają się, gdy człowiek współpracuje z technologią. W badaniu wskazano dwa kluczowe zjawiska:

  • Odciążenie poznawcze – to naturalna skłonność do "oddawania" części pracy umysłowej narzędziom zewnętrznym. Lekarz, mając świadomość, że AI go wspiera, może nieświadomie przestać być tak czujny, jak wcześniej, co z czasem prowadzi do utraty wypracowanych nawyków diagnostycznych.
  • Błąd automatyzacji – czyli zbyt duże zaufanie do sugestii systemu, nawet jeśli są sprzeczne z własną wiedzą. To może sprawić, że użytkownik staje się bardziej bierny i mniej zaangażowany w podejmowanie decyzji.

To może cię zainteresować: Dokumentacja medyczna bez chaosu. Całkiem nowe narzędzie dla lekarzy to "game changer".

Jak zauważył jeden z lekarzy na Reddicie, problem nie kończy się na tym, co widać na ekranie. AI analizuje obraz z kamery, ale to człowiek musi nią odpowiednio sterować. Jeśli lekarz polega zbyt mocno na technologii, może mniej dokładnie badać pacjenta – a wtedy nawet najlepszy algorytm nie wykryje zmian, których po prostu nie pokazano.

To zjawisko wpisuje się w szersze obawy dotyczące wpływu AI na nasze zdolności poznawcze. W jednym z eksperymentów MIT, osoby korzystające z chatbotów do pisania esejów angażowały się w zadanie tylko powierzchownie, co prowadziło do osłabienia kreatywności i krytycznego myślenia.

Dalszy ciąg artykułu pod materiałem wideo

Sztuczna inteligencja w medycynie: nadzieja czy ryzyko?

Choć wiele badań potwierdza, że systemy wspomagające wykrywanie zmian (CADe) poprawiają skuteczność diagnoz, polscy naukowcy pokazali, że sprawa może być bardziej złożona. Współautor badania, prof. Yuichi Mori, zasugerował, że wcześniejsze, pozytywne wyniki mogły być częściowo zniekształcone. Według niego lekarze pracujący bez AI w tamtych badaniach mogli już doświadczać spadku umiejętności – tzw. "deskillingu" – spowodowanego wcześniejszym kontaktem z technologią. Dzięki unikalnemu projektowi "przed i po", polskie badanie jako pierwsze uchwyciło ten ukryty efekt.

Sprawdź również: Czy sztuczna inteligencja zastąpi lekarzy? Zawody przyszłości w medycynie.

GPT-5 jako partner naukowy? Eksperci mówią o przełomie

Podczas gdy jedni ostrzegają przed ryzykiem związanym z AI, inni widzą w niej ogromny potencjał. Najnowsze modele, takie jak GPT-5, budzą entuzjazm wśród naukowców.

Dr Derya Unutmaz, światowej klasy immunolog, porównał swoje doświadczenie z GPT-5 do legendarnego "Ruchu 37" wykonanego przez AI w grze Go:

"Dla mnie było to równoznaczne z legendarnym Ruchem 37 AlphaGo. Pokazało to, że AI stała się czołowym ekspertem i prawdziwym współpracownikiem naukowym, zdolnym do głębokiego wglądu" – Derya Unutmaz, MD.

Podobne wrażenie miał dr Gabe Wilson, który testował GPT-5 na trudnych przypadkach medycznych:

"GPT-5 Pro dostarczył niewiarygodnie wnikliwą ocenę i niezwykle szczegółowy plan diagnostyczny, włączając w to pułapki i ograniczenia wcześniejszych badań obrazowych. Nigdy wcześniej czegoś takiego nie było. To jakby 50 najlepszych specjalistów na świecie siedziało razem przy jednym stole" – Gabe Wilson, MD.

Dr Unutmaz idzie jeszcze dalej: "W tym momencie zaniechanie korzystania z tych modeli AI w diagnozowaniu i leczeniu, gdy mogłyby one wyraźnie poprawić wyniki pacjentów, może wkrótce zostać uznane za formę błędu w sztuce lekarskiej" – Derya Unutmaz, MD.

Jak podsumowuje portal futurebeat..pl, problem nie tkwi w samej sztucznej inteligencji, lecz w tym, jak ją wdrażamy i jak z nią współpracujemy. Wyniki badania nie są ostrzeżeniem przed AI, lecz zachętą do jej rozsądnego i przemyślanego wykorzystania.

Zamiast rezygnować z technologii, eksperci proponują nowy kierunek: lepsze szkolenie lekarzy, które z jednej strony wzmacnia ich podstawowe umiejętności, a z drugiej uczy, jak skutecznie współdziałać z systemami AI.

Przeczytaj źródło