Przejdź do zawartości

Według amerykańskich lekarzy, sztuczna inteligencja podaje niewłaściwe informacje medyczne

Z Wikinews, wolnego źródła informacji.
niedziela, 29 grudnia 2024

W 2023 roku twierdzono, że sztuczna inteligencja potrafiła odpowiadać lepiej niż ludzki lekarz nawet w 79% przypadków. Rok później, w grudniu 2024, niektórzy amerykańscy lekarze zaczęli poddawać w wątpliwość wiarygodność odpowiedzi podawanych przez czatboty zasilane dużymi modelami językowymi.

W wywiadzie przeprowadzonym przez Washington Post z amerykańskimi lekarzami, okazało się jednak, że dużym modelom językowym daleko do zastąpienia ludzi na stanowisku lekarzy, a nawet samego wspomagania przy pracy.

Christopher Sharp, lekarz szpitalny w Stanford Medical, wpisuje zapytanie do czatbota na temat swędzących ust po zjedzonym pomidorze. Ten odpowiada, że dobrym rozwiązaniem jest „niejedzenie pomidorów, zażywanie antyhistaminy, oraz używanie kremów steroidowych”, czemu lekarz się „sprzeciwia” w znacznej części. Twierdzi, że „z klinicznego punktu widzenia odpowiedź jest całkowicie nieprawidłowa”.

Inne pytanie, zadane przez Roxanę Daneshjou, dotyczyło karmienia piersią oraz powstałego z tego tytułu zapalenia sutka. W pytaniu dodano też, że pierś była czerwona i obolała. Czatbot zasugerował zastosowanie gorącego okładu, masaży piersi, oraz wykonywania specjalnych zabiegów, co też jest według lekarki nieprawidłowe. Co więcej, praca naukowa z 2022 roku sugeruje kompletnie odwrotną rzecz: zimny kompres, powstrzymanie się od masowania piersi, oraz zapobieganie ich nadmiernej stymulacji.

Zgodnie z powyższym, co podaje Gizmodo, taka informacja może być „przełomowa” dla tzw. „techoptymistów”, proponujących implementację rozwiązań sztucznej inteligencji w „dosłownie każdym” sektorze życia publicznego, do wycofywania się z niektórych przedstawianych przez nich założeń. Jak podaje redaktor serwisu, Thomas Maxwell, jakikolwiek błąd w świecie medycyny może kosztować nawet kogoś życie.

Źródła

[edytuj | edytuj kod]