Mnoho lidí si zvyklo používat umělou inteligenci jako běžnou součást svého života. Bohužel, mnoho lidí také věří, že odpovědi, které poskytuje tento chatbot jsou vždy zcela pravdivé. Bohužel to ale není pravda. Že to může způsobit Vážné problémy nyní dokázali výzkumníci z Long Island University. A proč vlastně ChatGPT neuspěl v otázkách medicínského charakteru, které mu tito výzkumníci položili?
Medicína je zatím obor, ve kterém Chat GPT opravdu tápe
Vědci z výše uvedené univerzity položili aktuálně nejvíce používanému chatbotovi celkem 39 dotazů. Všechny dotazy souvisely s léky, které jsou dostupné bez předpisu. Šlo tedy o kategorii volně dostupných léků, které si může zakoupit naprosto kdokoliv v běžné lékárně. Z 39 dotazů odpověděl ChatGPT správně pouze na 10 otázek. Na zbylých 29 otázek odpověděl bohužel špatně. Odpovědi byly nepřesné, zavádějící a některé dokonce i nebezpečné.
Jeden příklad za všechny byl dotaz, zda je možné kombinovat léky Paxlovid spolu s léky na snížení krevního tlaku. Paxlovid je antivirotikum, které se běžně používá k léčbě Covid 19. ChatGPT odpověděl, že užívání obou léků najednou by nezpůsobilo žádné nežádoucí účinky.
Skutečnost je ale jiná. Užívání obou léků společně má vliv na velký pokles krevního tlaku, což může způsobit závratě a omdlení. Dle tohoto tvrzení by tedy ChatGPT danou osobu ohrozil na zdraví poměrně závažným způsobem.
Fiktivní reference
Vědci také požádali ChatGPT, aby jim poskytl vědecké reference na jeho tvrzení. Ten poskytnul reference pouze k 8 otázkám, na které byl dotazován. Co bylo ale horší, že si ChatGPT vytvořil reference vlastní. Na první pohled vypadaly citace legitimně. Často měly správný formát, poskytovaly URL adresy a byly uvedeny v legitimních vědeckých časopisech. Když se ale vědecký tým pokoušel články najít, zjistil, že ChatGPT jim poskytl pouze fiktivní citace.
Vyjádření OpenAI
Mluvčí OpenAI, organizace vyvíjející ChatGPT, uvedl, že doporučuje všem uživatelům jediné. Konkrétně to, aby se nespoléhali na odpovědi jejich chatbota. Doporučil také, aby jej nikdo nepoužíval jako náhradu za odborné lékařské rady, nebo léčbu.
Mluvčí společnosti zároveň odkázal na jejich zásady používání ChatGPT. Zde uvádějí, že modely OpenAI nejsou vytvořené pro poskytování lékařských informací. Tyto zásady také uvádí, že modely by nikdy neměly být použity k poskytování diagnostických, nebo léčebných služeb pro závažné zdravotní stavy.
ChatGPT neuspěl v otázkách medicínského charakteru – co z toho plyne?
Opravdu jednoduchá poučka. ChatGPT je nástroj ke kreativnímu myšlení, psaní a k jednoduchým překladům textů. To vše umí velmi dobře. Nicméně jak je z výzkumu patrné, do reálné umělé inteligence má zatím opravdu na míle daleko.
Nikdo by tedy neměl používat ChatGPT na tak závažné otázky, jako jsou např. interakce mezi jednotlivými léky. Chat GPT má velké sklony ke lhaní, vymýšlení si a k chybám. Pokud jej u nějaké chyby opravíte, dokáže během několika sekund vymyslet jinou lež. A přesně v tomto duchu byste jej také měli používat. Nespoléhejte se na to, že odpovědi od ChatGPT jsou vždy správné. Po roce práce s touto platformou si troufnu odhadnout, že relevance jeho odpovědí je někde kolem 50-60 %.
Web je vytvářen s pečlivostí k obsaženým informacím. Snažím se poskytovat kvalitní a užitečný obsah, který ostatním pomáhá, nebo je inspiruje. Pokud jste spokojeni s mou prací a chtěli byste mě podpořit, můžete to udělat prostřednictvím jednoduchých možností.
Byl pro Vás tento článek užitečný?
Klikni na počet hvězd pro hlasování.
Průměrné hodnocení. 0 / 5. Počet hlasování: 0
Zatím nehodnoceno! Buďte první
Je mi líto, že pro Vás nebyl článek užitečný.
Jak mohu vylepšit článek?
Řekněte mi, jak jej mohu zlepšit.
Odebírejte Newsletter
Buďte v obraze! Připojte se k odběru newsletteru a buďte první, kdo získá nejnovější informace přímo do vaší e-mailové schránky. Sledujte aktuality, exkluzivní události a inspirativní obsah, přímo na Vašem e-mailu.