
-
SOR Uniwersyteckiego Szpitala Klinicznego w Poznaniu wykorzystuje narzędzie Heidi Health jako „skrybę AI” do wsparcia obsługi pacjentów oraz tworzenia dokumentacji medycznej.
-
Wprowadzenie „skryby AI” budzi kontrowersje wśród pacjentów i internautów, mimo zapewnień szpitala o bezpieczeństwie, zgodności z RODO i możliwości sprzeciwu wobec tej praktyki.
-
Eksperci podkreślają konieczność przestrzegania ram prawnych, informowania pacjentów o użyciu AI i systematycznego zarządzania ryzykiem przez placówki medyczne.
-
Więcej ważnych informacji znajdziesz na stronie głównej Interii
Media społecznościowe obiegło zdjęcie tabliczki wiszącej na ścianie Szpitalnego Oddziału Ratunkowego Uniwersyteckiego Szpitala Klinicznego w Poznaniu. Informuje ona pacjentów, że ich przyjęciu będzie towarzyszył „skryba AI”.
„Podczas wizyty państwa rozmowa z lekarzem i badania będą wspierane przez mechanizm sztucznej inteligencji (AI), który pomoże w precyzyjnym zanotowaniu istotnych informacji” – czytamy. Dalej szpital uspokaja, że podczas korzystania z narzędzia, żadne dane wrażliwe nie będą zapisywane ani udostępniane.
Internautów to nie przekonało. W sieci rozgorzała burza. „To może lepiej od razu leczyć się samemu z Chatem GPT? Warto kupić wersję PRO!”; „Gdyby nie recepty, lekarze przeszliby do historii” – komentują użytkownicy. Niektórzy sugerowali, że wywieszając tabliczkę, lekarze zapewnili sobie możliwość bezkarnego diagnozowania pacjentów za pomocą sztucznej inteligencji.
Jednak praktyka ta znalazła też swoich zwolenników. Część komentujących zwróciła uwagę na usprawnienie procesu przyjmowania pacjentów, czy umożliwienie lekarzom – dzięki AI – skupienia się na stawianiu diagnozy, a nie biurokracji. Sam szpital zapewnia, że dokładnie taki jest cel placówki.
– Wykorzystujemy narzędzie Heidi Health jako skrybę AI wspierającego obsługę pacjentów, o czym otwarcie informujemy – tłumaczy w rozmowie z Interią dr n. med. Patryk Konieczka, kierownik Szpitalnego Oddziału Ratunkowego, przypominając, że pacjenci zawsze mają możliwość wyrażenia sprzeciwu wobec tej praktyki. Zapewnia jednocześnie, że jest ona „bezpiecznym i racjonalnym organizacyjnie narzędziem wspierającym lekarza w tworzeniu dokumentacji medycznej”.
– Nie jest to system zastępujący lekarza, lecz wyłącznie narzędzie techniczne – tak samo jak komputer, klawiatura czy długopis – opisuje lekarz.
Wizyta na SOR w asyście sztucznej inteligencji. Pacjenci pełni obaw
Obawa pacjentów o próbę zastąpienia lekarzy komputerowym programem spotęgował niedawny incydent ze szpitala w Bydgoszczy. Na wypisie 14-letniej pacjentki z tamtejszego Wojewódzkiego Szpitala Dziecięcego pojawiło się zdanie charakterystyczne dla komunikatów generowanych przez sztuczną inteligencję:
„Jeżeli chcesz, mogę przygotować pełniejszy wywiad po urazie głowy u dziecka (z typowymi pytaniami o utratę przytomności, wymioty, zawroty głowy), który często wpisuje się w dokumentacji SOR” – brzmiał dopisek na dokumencie.
Zdjęcie wypisu, podobnie jak informacja ze szpitalnego korytarza w Poznaniu, rozgrzało media społecznościowe. Dyrekcja bydgoskiej placówki zapewniła w oświadczeniu przesłanym redakcji Polsat News, że „narzędzie Chat GPT nie zostało użyte w celu postawienia diagnozy ani opracowania planu leczenia”, a jedynie „do zredagowania trzech zdań wywiadu pod kątem korekty językowej”.
Korzyści płynące ze wspierania SOR-ów przez AI zdaniem dr Konieczki wykraczają poza kwestię samego redagowania dokumentacji. – To ograniczenie czasu poświęcanego na czynności administracyjne, zwiększenie koncentracji na pacjencie oraz usprawnienie pracy w warunkach bardzo dużego obciążenia oddziału ratunkowego – zaznacza.
Lekarz podkreśla, że narzędzie pozwala im lepiej wykorzystać czas na bezpośredni kontakt z pacjentem.
– W SOR obsługującym około 270 pacjentów dziennie korzystanie z bezpiecznych narzędzi wspomagających dokumentowanie jest naturalnym elementem nowoczesnej organizacji pracy i służy poprawie sprawności obsługi – zapewnia.
AI w medycynie. Gdzie trafiają dane pacjentów?
To nie studzi jednak obaw o kwestie bezpieczeństwa. Placówki medyczne padają niejednokrotnie ofiarami cyberataków tak, jak stało się to na początku marca w Szpitalu Wojewódzkim w Szczecinie. Placówka zmuszona była wówczas wdrożyć procedury awaryjne, w tym przejście na papierowy tryb pracy. Mimo zapewnień poznańskiego szpitala internauci mają podejrzenia, że obecność „skryby AI” na oddziale zwiększa ryzyko wycieku ich danych.
Doktor Konieczka uspokaja, że producent wykorzystywanego przez szpital narzędzia „deklaruje zgodność rozwiązania z RODO, wskazuje brak wykorzystywania danych użytkowników do trenowania modeli oraz zapewnia regionalizację danych dla UE na serwerach zlokalizowanych w granicach UE”.
– W przyjętym sposobie użycia system działa całkowicie poza siecią i serwerami szpitalnymi, nie ma żadnego połączenia ze szpitalnym system informatycznym, nie posiada dostępu do szpitalnych baz danych i nie wymaga podawania danych osobowych pacjenta. Skryba uruchamiany jest w przeglądarce bez przypisywania danych pacjenta, następnie treść jest ręcznie kopiowana do systemu szpitalnego, a lekarz dokonuje wówczas jej weryfikacji i ewentualnej korekty – tłumaczy, dodając, że dane dotyczące transkrybowanej rozmowy są usuwane po sześciu godzinach i nie są nikomu udostępniane.
Sztuczna inteligencja w rękach lekarzy. Szpital wyjaśnia
Lekarz wyjaśnia, że wirtualny skryba nie przechowuje nagrań audio z konsultacji prowadzonych w czasie rzeczywistym.
– Odpowiedzialność za ocenę, poprawienie i zatwierdzenie treści każdorazowo spoczywa wyłącznie na lekarzu. System nie podejmuje żadnych decyzji diagnostycznych ani terapeutycznych – wylicza lekarz.
Szpitale nie mają zresztą w tych kwestiach wolnej ręki. Trzymają je ramy prawne. Decydując się na wprowadzanie tego typu usprawnień, placówki medyczne zobowiązują się jednocześnie do wdrożenia mechanizmów nadzoru nad systemami AI. Zwłaszcza jeśli narzędzia miałyby wykraczać poza wspieranie procesu transkrypcji.
– Naruszenie tych reguł może skutkować konsekwencjami prawnymi zarówno dla jednostki organizacyjnej, jak i personelu medycznego, w tym odpowiedzialnością cywilną i dyscyplinarną – podkreśla w rozmowie z Interią mecenas Grzegorz Hatala.
Co pacjent powinien wiedzieć o sztucznej inteligencji?
– Pacjent musi nie tylko zostać poinformowany o użyciu algorytmu, ale także zrozumieć jego ograniczenia i potencjalne skutki ewentualnych decyzji wspieranych przez system – uczula prawnik.
Zdaniem mecenasa w przypadku placówek medycznych wyzwaniem jest zapewnienie, aby wdrożenie technologii nie tylko spełniało wymogi formalne, ale obejmowało systematyczne zarządzanie ryzykiem, procedury weryfikacji algorytmów oraz szkolenia personelu.
Prawnik przypomina, że AI w medycynie nie może być traktowana wyłącznie jako narzędzie operacyjne.
– To obszar, w którym prawo, etyka i zarządzanie ryzykiem są nierozerwalnie powiązane – opisuje.
To z kolei może przekładać się na wzmacnianie zaufania społecznego, które – zdaniem prawnika – jest tu kluczowe.













