Niestety to bolesna cyfrowa prawda, podana w dodatku w bardzo uprzejmym sosie. Wyobraźmy sobie taką scenę. Mamy duszności, czujemy, że płuca odmawiają posłuszeństwa. Piszemy do czatu, a on odpowiada nam z nienaganną kulturą - "widzę tu klasyczne objawy krytycznej niewydolności oddechowej. To bardzo niepokojące. Zaparz sobie melisę, unikaj stresu i poczekaj do rana. Może przejdzie".
To nie jest żart z niszowego forum. To wynik rzetelnych badań z Nature Medicine. Naukowcy przepuścili algorytmy przez prawie tysiąc scenariuszy. Efekt? W ponad połowie przypadków, gdzie żywy lekarz krzyczałby - szybko na sygnale do szpitala, czatbot spokojnie pisał, że nie ma pośpiechu, proszę obserwować organizm.
Tu tkwi największy paradoks. Ten system to taki prymus, który wykuł podręczniki na blachę, ale nie ma za grosz instynktu przetrwania. On potrafi bezbłędnie zdiagnozować stan. Powie nam prosto w ekran - to wygląda na udar. Po czym doradzi kontakt z lekarzem rodzinnym w wolnej chwili. To tak jakby nawigacja w aucie powiedziała - "uwaga, przed tobą przepaść, proszę, nie zmniejszaj prędkości".
Pewnie ktoś zapyta, a co ze zdrowiem psychicznym, bo przecież tam AI miało być najbardziej pomocne? Niestety, tu robi się naprawdę mrocznie. Badacze sprawdzili, jak AI reaguje na ryzyko samobójstwa. I co? Alerty bezpieczeństwa krzyczały, gdy ktoś pisał o zwykłym smutku. Milczały jednak jak głaz, gdy pacjent podawał konkrety.
Jaki z tego wniosek? Czat GPT Health to świetny partner do pogadania o tym, dlaczego jarmuż jest zdrowy, albo do wyjaśnienia, co oznacza trudne słowo w wynikach badań. Jeśli jednak czujesz gniotący ból w klatce piersiowej albo widzisz, że bliska osoba nagle bełkocze, odłóż czat i dzwoń pod 112. Algorytm nie przyjedzie do ciebie z defibrylatorem. On co najwyżej bardzo elegancko sformułuje kondolencje.