10. kadencja, 26. posiedzenie, 3. dzień (10-01-2025)

Oświadczenia.

Poseł Czesław Hoc (tekst niewygłoszony):

    Szanowny Panie Marszałku! Wypowiem się w aspekcie informacji bieżącej dotyczącej polskiej prezydencji w Radzie UE traktującej m.in. o sztucznej inteligencji, w tym w ochronie zdrowia.

    Sztuczną inteligencję, Artificial Intelligence, Al, niektórzy odbierają jako rewolucję w ochronie zdrowia lub jak wynalezienie ognia. Z kolei inni Al postrzegają jako skarb, wręcz znalezienie Świętego Graala we współczesnej medycynie. Jednakowoż jedni i drudzy muszą pamiętać, że rewolucja ˝pożera własne dzieci˝, a ogień może wywołać wielki pożar, Święty Graal zaś jak dotąd to legenda.

    Czyż nie jest atrakcyjną wizja, że za kilka lat lekarz robot zbada nam temperaturę ciała, tętno, ciśnienie tętnicze krwi, podstawowe parametry krwi, a hologram wiernie odwzorowujący ulubioną filmową postać przeprowadzi z nami anamnezę, czyli wywiad lekarski, następnie wszystkie dane wrzuci do programu komputerowego i ustali diagnozę oraz stosowną terapię z odpowiednimi zaleceniami?

    Wszak już teraz Al rewolucjonizuje radiologię w kwestii opisów zdjęcia RTG, mammografii, tomografii komputerowej CT i rezonansu magnetycznego MRI. Olbrzymi potencjał Al niesie w spersonalizowanej opiece medycznej, głównie w terapii nowotworowej, robotyce chirurgicznej, w systemie monitorowania pacjentów, szybszej diagnozie chorób rzadkich, badaniach genetycznych, diagnostyce laboratoryjnej oraz telediagnostyce, a w stomatologii Al pomaga w wykrywaniu próchnicy i planowaniu leczenia ortodontycznego. Wreszcie jest monitorowanie zdrowia na odległość za pomocą noszonych urządzeń medycznych, tzw. wearables, czyli inteligentnych gadżetów medycznych, takich jak pasy piersiowe, inteligentne pierścienie i smartwatche wykorzystujące Al, czujniki do ciągłego monitorowania poziomu glukozy, ciśnienia krwi lub rytmu serca, np. FreeStyle Libra, Omron HeartGuide, a także sensory do analizy oddechu itp.

    Wysoki Sejmie! Czy zatem Al w medycynie to rewolucja i wynalezienie ognia lub Święty Graal, czy fides et ratio et... scientia, a zatem rozum/wiarygodność, wiara i nauka?

    W mojej ocenie trzy daty wstrząsnęły opinią społeczną w aspekcie rozwoju sztucznej inteligencji, aczkolwiek proces innowacyjnych i sukcesywnych rozwiązań w tym zakresie ciągle trwa i stale wzrasta. Pierwsza to rok 1997, w którym to komputer Deep Blue pokonał w szeroko komentowanej walce samego arcymistrza szachowego Garriego Kasparowa. Druga data to rok 2017, w którym to chiński arcymistrz gry ˝Go˝ Ke Jie, uważany za najlepszego gracza na świecie, przegrał pojedynek z programem AlphaGo stworzonym przez firmę DeepMind. Należy dodać, że ˝Go˝ uchodzi za najbardziej skomplikowaną grę logiczną na świecie. Zgodnie ze znanym powiedzeniem: jeśli szachy to król gier, to ˝Go˝ jest ich cesarzem. Trzecia data to rok 2024, w którym to Nagrodę Nobla w dziedzinie fizyki otrzymali wspólnie Amerykanin John J. Hopfield z Princeton University i brytyjsko-kanadyjski naukowiec Geoffrey E. Hinton z University of Toronto za fundamentalne odkrycia i wynalazki, które umożliwiają uczenie maszynowe za pomocą sztucznych sieci neuronowych. A zatem sztuczne sieci neuronowe, Artificial Neural Networks, ANN, są komputerowymi modelami inspirowanymi strukturą i funkcjonowaniem biologicznych sieci neuronowych w mózgach ludzi. Stanowią fundament nowoczesnej sztucznej inteligencji dzięki swojej zdolności do uczenia się i przetwarzania skomplikowanych danych.

    Wysoki Sejmie! Dochodzimy do obecnego krzyku mody dostępnego dla wszystkich - ChatGPT, Generative Pre-trained Transformer, czyli do zaawansowanego modelu językowego opartego na technologii Al. Zintegrowany z różnymi aplikacjami i platformami może generować teksty, głosy, które brzmią, jakby były napisane przez człowieka.

    I tutaj pojawiają się schody, istotne uwagi, zastrzeżenia, wątpliwości i realne zagrożenia. Czy Al to narzędzie wiarygodne, a jego użycie opiera się na dowodach naukowych? Czy nie będzie łamać praw człowieka, praw pacjenta, praw konsumenta? Czy nie narusza naszej podmiotowości? A co z prywatnością i bezpieczeństwem danych, integracją Al z istniejącymi systemami, a także kwestiami etycznymi i prawnymi, takimi jak odpowiedzialność za błędy systemu? Czy w medycynie możemy sobie pozwolić, że wygenerowana opinia, treść czy algorytm a priori mogą być błędne? Kluczowe jest również zbudowanie zaufania zarówno wśród lekarzy, jak i pacjentów. To są poważne problemy i istotne zastrzeżenia, a nade wszystko do nadmiernej zależności od sugerowanych poleceń. Wszak mówi się o halucynowaniu botów - dla nich dana odpowiedź brzmi prawdopodobnie, bo powtarza się najczęściej.

    Wyobraźmy sobie, że jakiś hochsztapler lub ˝uzdrowiciel˝ poprosi ChatGPT o podanie argumentów przemawiających za leczeniem raka lewoskrętną witaminą C lub zakażenia wirusem SARS-CoV-2 - amantadyną albo, co gorsza, jakaś firma bądź koncern farmaceutyczny zawnioskuje o argumentację za leczeniem danym lekiem określonej choroby lub ktoś w niecnych celach poprosi o podłożenie głosu i sylwetki znanego autorytetu w medycynie, np. utytułowanego profesora nauk medycznych, o rekomendację określonej metody leczenia czy stosowania ˝cudownego˝ leku. Wszak ChatGPT nie zapyta w jakim celu. Po prostu wygeneruje treść brzmiącą bardzo prawdopodobnie, choć będzie treścią fałszywą. Nie wspomnę o trollach internetowych, także o niektórych ˝wszystkowiedzących˝ pseudoautorytetach - influencerach. Są już takowe fejki medyczne, ich ˝rewolucyjna˝ multiplikacja jest kwestią najbliższego czasu. Bardzo łatwo będzie ˝nakarmić˝ algorytm treściami potrzebnymi np. szarlatanowi i algorytm będzie halucynował i wygeneruje treść brzmiącą prawdopodobnie, choć będącą fałszywą.

    Abstrahując od kwestii medycznych, sam laureat Nobla, ww. Geoffrey Hinton uważany za ˝ojca chrzestnego sztucznej inteligencji˝ oraz pioniera tzw. głębokiego uczenia, czyli deep learning, które pozwala sztucznym sieciom neuronowym na samodzielne uczenie się z danych, widzi groźbę wymknięcia się tego spod kontroli. Według naukowca w ciągu najbliższych 20 lat ludzkości uda się opracować system sztucznej inteligencji, który potencjałem przewyższy ludzi - tzw. silną sztuczną inteligencję, Artificial Generał Intelligence, AGI.

    Wysoki Sejmie! Na razie ChatGPT oblał egzamin specjalizacyjny z królowej nauk o zdrowiu, czyli interny, i przegrał z doświadczeniem naukowców z Uniwersytetu Mikołaja Kopernika w Toruniu. Na razie sztuczna inteligencja nie jest w stanie zastąpić ludzkiego umysłu w dziedzinie medycyny, nie jest realną alternatywą dla lekarzy. I choć sztuczna inteligencja stale doskonali swoje umiejętności generowania obrazów, to dotychczas możemy odróżnić zdjęcia Al od rzeczywistych dzięki uważnej analizie szczegółów, np. algorytmowi analizy struktury obrazu GAN Detector, analizie danych EXIF.

    Konkludując, choć sztuczna inteligencja ma ogromny potencjał w transformacji opieki zdrowotnej, to nie zastąpi w medycynie humanizmu ani wyważonej empatii, nie nawiąże przyjaznej relacji z pacjentem, nie będzie kompatybilna z kreatywnością i godnością człowieka ani z holistycznym ujęciem najważniejszej osoby w systemie - pacjenta.

    A zatem tak dla sztucznej inteligencji w medycynie, ale jako jej wsparcie, a nie wyparcie kogokolwiek; tak dla informacji, ale nie dla dezinformacji; tak dla współpracy, ale nie dla alienacji i zastępowania ludzi. To człowiek stworzył sztuczną inteligencję i to człowiek musi ją kontrolować i nad nią panować! Tym bardziej w medycynie - najszlachetniejszej spośród wszystkich sztuk!


Przebieg posiedzenia