W medycynie liczy się każda minuta — zwłaszcza gdy na horyzoncie pojawia się nowy lek, który może uratować życie. Problem w tym, że droga od pomysłu do dopuszczenia leku na rynek trwa często długie lata i tonie w biurokracji. Ale wygląda na to, że coś zaczyna się zmieniać. Amerykańska Agencja ds. Żywności i Leków (FDA) coraz odważniej zagląda w stronę sztucznej inteligencji, szukając sposobów na przyspieszenie całego procesu.
Dlaczego zatwierdzanie leków trwa tak długo?
Obecnie wprowadzenie nowego leku na rynek zajmuje średnio ponad 10 lat. To czasochłonny i kosztowny proces obejmujący badania kliniczne, analizy bezpieczeństwa, a także rygorystyczny przegląd dokumentacji przez zespoły ekspertów z FDA. Co ciekawe, same recenzje regulacyjne potrafią zająć rok lub dłużej, choć dla niektórych leków możliwe są przyspieszone ścieżki – jak „fast track” czy „breakthrough therapy designation”.
Ale mimo tych ułatwień, większość kandydatów na leki nigdy nie dociera do etapu oceny FDA. Problem? Ograniczone zasoby i czas ekspertów, a także konieczność analizy ogromnych ilości danych. I tu właśnie pojawia się AI.
Pierwsze kroki FDA w kierunku AI
FDA oficjalnie potwierdziła zakończenie pierwszego przeglądu naukowego wspomaganego przez sztuczną inteligencję. Komisarz agencji, Marty Makary, zadał na platformie X pytanie: „Dlaczego nie jesteśmy zmodernizowani, skoro mamy do dyspozycji AI i inne technologie?”. Odpowiedź wydaje się jasna – czas na zmianę.
Według doniesień medialnych, przedstawiciele OpenAI – twórców ChatGPT – odbyli kilka spotkań z urzędnikami FDA w sprawie potencjalnej współpracy. Choć żadna oficjalna umowa jeszcze nie została podpisana, rozmowy są prowadzone przez Jeremy’ego Walsha, pierwszego w historii FDA oficera ds. AI. Projekt nosi nazwę cderGPT, co można odczytać jako próbę zautomatyzowania pracy Centrum ds. Oceny Leków.
AI może przyspieszyć, ale nie zastąpi ludzi
Wykorzystanie AI w procesie zatwierdzania leków to nie kwestia całkowitej automatyzacji. Na tym etapie mówimy raczej o wsparciu ekspertów w powtarzalnych, czasochłonnych zadaniach – jak sprawdzanie kompletności wniosków czy analiza danych z badań.
Rafael Rosengarten, szef firmy Genialis i współzałożyciel sojuszu AI in Healthcare, podkreśla, że potrzebne są jasne zasady dotyczące jakości danych, na których uczone są modele. Jak mówi: „Te maszyny są świetne w uczeniu się, ale trzeba je uczyć właściwych rzeczy”. Oznacza to konieczność ścisłych wytycznych regulacyjnych i przejrzystych standardów.
Wątpliwości i wyzwania
Nie brakuje jednak sceptycyzmu. Były pracownik FDA, który testował ChatGPT jako narzędzie kliniczne, ostrzega przed skłonnością AI do tworzenia przekonujących, ale niekoniecznie prawdziwych informacji. „Kto wie, jak solidna okaże się ta technologia w praktycznych zastosowaniach?” – pyta.
FDA zdaje się mieć świadomość tych ryzyk. Już wcześniej agencja ogłaszała programy stypendialne dla badaczy rozwijających modele językowe do zastosowań w precyzyjnej medycynie i nauce regulacyjnej. Co więcej, OpenAI pracuje nad dostosowaniem swoich produktów – w tym wersji ChatGPT Gov – do rygorystycznych wymagań administracji publicznej, takich jak certyfikacja FedRAMP.
Co dalej?
Na razie FDA traktuje AI jako wsparcie, nie jako pełnoprawnego recenzenta. Ale kierunek jest jasny: zwiększyć efektywność, skrócić czas oczekiwania i lepiej odpowiadać na potrzeby pacjentów. To również dobra wiadomość dla firm farmaceutycznych, które zyskują szansę na szybsze dostarczanie innowacyjnych terapii.
Źródło: Wired
Photo by Myriam Zilles on Unsplash
