Szerző: Matics Kata, egészségkommunikációs szakember
Az onkoteam összeállította egy 40 éves daganatos betegnek a kezelési tervét. A beteg hazament, megkérdezte a ChatGPT-t a kezeléséről, de más javaslatot kapott. A következő konzultáció alkalmával bizalomvesztve támadt orvosának, s kérte számon rajta, hogy miért nem – az AI által javasolt – ’jobb’ (?) kezelést ajánlották neki.
Megtörtént és nem egyedi eset ez. Mi is egyre gyakrabban találkozunk olyan posztokkal, és valós betegekkel egyaránt, akik a hazánkban egyre népszerűbb ChatGPT-től kértek segítséget, de félrevezette őket. Hogy miért várunk tőle mégis csodát?
A mesterséges intelligencia ma már nem jövőidő az egészségügyben, hanem mindennapi gyakorlat — még ha sok területen csendben, a háttérben dolgozik is.
Feladata nem az orvosok helyettesítése lenne, hanem a (szak)emberi döntések támogatása: az adatok értelmezésében, az összefüggések felismerésében és a hibák csökkentésében.
A diagnosztikában például az AI legnagyobb ereje az adatelemzésben és a mintázat-felismerésben rejlik. A radiológiai és patológiai képeken ma már olyan rendszerek segítik az orvosokat, amelyek másodpercek alatt képesek több ezer vizsgálat adatát átfutni, és megjelölni azokat a területeket, amelyek emberi szemmel is gyanúsak lehetnek. Ezek a rendszerek nem diagnózist állítanak fel, hanem figyelmeztetnek, támogatva ezzel a döntéshozatalt.
Magyarországon is több jó példát találunk erre:
Domináns tanulság: ezek szűk, jól definiált klinikai feladatra tanított, validált rendszerek. Kell hozzájuk emberi szakértelem, kurált és ellenőrzött adat, protokoll és szigorú validáció – sőt, még a „jó promptolás” is szakértelem. Az AI abból tanul, amit adunk neki. A „mindenre jó” publikus nyelvi modellek nem helyettesítik a tematikus, klinikailag hitelesített döntéstámogatókat: ahol élet és felelősség a tét, ott a pontosság nem opcionális.
Nemzetközileg az AI jelen van a gyógyszerfejlesztésben, a klinikai vizsgálatok optimalizálásában és a real-world evidence elemzésekben is – a gyógyszerek hatékonyságát, mellékhatásait és kimeneteleit valós populációs adatok alapján vizsgálva.
A közös nevező: az AI nem dönt, hanem támogat. Nem ír receptet, de észrevesz mintázatokat, amelyek elsikkadnának. Gyorsít, pontosít – a felelősség azonban az embernél marad.
Nem látja a beteg alkatát, esetleges előzményeit. Ahogy nem látja a tekintetét, nem hallja a hangját, és ezáltal nem ismeri a félelmeit…”
Egy képalkotó AI segíthet felismerni egy daganatot, de nem tudja megmondani, mit kezdjen ezzel az ember!
Egy szövegalapú chatbot, mint pl. a ChatGPT elmagyarázza a betegséget, kezelések esetleges mellékhatásait, de nem látja, hogy a beteg mit fog fel belőle, s legfőképpen: milyen hatást gyakorol rá!
Az egészségügy már egyszer-kétszer végigélte, milyen az, amikor a tudás hirtelen demokratizálódik. A 2000-es évektől egyre nagyobb teret nyerő „Dr. Google”-korszakban az internet megnyitotta az információk világát, és a betegek talán először érezték úgy igazán, hogy ők is részesei lehetnek – akár egészségügyi döntéseiknek is.
De az információbőség nem hozott automatikusan tudást – csak egyre növekvő zajt, amit a közösségi média tovább erősített. Ne felejtsük el a pár éve világot megrengető pandémia időszakát!
Ennek egyik következményeként mostanra az orvosoknak nemcsak a betegségekkel, hanem a féligazságokkal, tévhitekkel és nem utolsó sorban a túlzott önbizalommal is meg kellett küzdeniük.
Egy dolgot viszont már megtanulhattunk (volna):
„A technológiai fejlődés nemcsak tudást ad, hanem újraosztja a bizalom szerepeit,
és a fejlődés mellett más irányba is elmozdít(hat)ja társadalmunkat.”
Most ugyanez történik újracsomagolva csak – véleményem szerint – lényegesebb nagyobb téttel „játszunk” és közben szabadjára engedjük a szellemet a palackból.
Mert sajnos sokan félreértelmezik az egyébként is túlhype-olt újdonság szerepét, hiszen a laikusok számára is elérhető mesterséges intelligencián alapuló programok többsége (pl. ChatGPT, Google Gemini) nem információt keres, hanem választ ad egy valahogyan feltett kérdésre. És ez alapjaiban változtat meg mindent.
Amit sajnos viszont sokan nem vesznek figyelembe, hogy a nagy nyelvi modellek abból merítenek információt, amit találnak, s időnként akár „hallucinálhatnak”: magabiztosan téves választ adnak és akár nem létező hivatkozást is generálhatnak. Ha linket adnak, bele kell kattintani – gyakran üres vagy pontatlan forrásra mutat. Ráadásul a modell – miközben egy valamilyen kérdésre, mindig van válasza, „kedves” is velünk: sokszor a kérdező elvárásaihoz igazítja („önigazolás”) válaszait, ami egészségügyi helyzetben különösen veszélyes – főleg, ha az ember úgy érzi, „nincs baj”, a válasz pedig megerősíti ebben.
Nagy előnnyel indul, hiszen 0-24 órában ráér válaszolni a kérdésekre, míg egy orvosnak ma 5-10-15 perce van maximum egy betegre. Ebben a pár percben át kell néznie az előzményeket, meg kell ismerje a tüneteket, szükség esetén vizsgálatot is kell végeznie ahhoz, hogy diagnózist állíthasson fel. S ha ez nem lenne elég, (egyre gyakrabban!) vissza kell szerezze a betegek bizalmát egy - esetleg géppel folytatott „beszélgetést” követően.
S ha azt gondolnánk, hogy ezzel csak az orvos veszít, tévedés!
A beteg is: mert ha az algoritmusban jobban hisz, mint a szakemberben, akkor a valós diagnosztizálás félrecsúszhat, vagy a gyógyulási folyamatból is kiszorulhat a párbeszéd, ami épp a két résztvevő közötti partneri (?) együttműködést lehetetleníti el.
A bizalom hiánya azonban nem technológiai probléma, hanem emberi következmény.
Ha a döntéstámogató rendszer helyett döntéshozóként tekintünk az AI-ra, akkor a felelősség elmosódik, a kapcsolat megszakad, és végső soron mindkét résztvevő veszít: az orvos és a beteg is.
Az AI nemcsak a döntéseinket, hanem a (vélt) valóságunkat is formálja!
A mesterséges intelligencia ma már nemcsak az orvosi döntéseket, hanem az információhoz való hozzáférést is átírja.
Például a Google Gemini mesterséges intelligenciával működő kereső, ami már nem linkeket kínál, hanem összefoglalt válaszokat ad, sokszor tévesen és forrásmegjelölés nélkül.
Ez azt jelenti, hogy a keresőként már nem az eredeti tudásforrásokat látja, olvassa, hanem egy algoritmus értelmezésén keresztül kapja a „valóságot”.
Ez nemcsak a laikusok (~betegek) tájékozódását változtatja meg, hanem a hiteles egészségügyi portálok – például a Webbeteg.hu, Intima.hu, Rákgyógyítás.hu, stb. – láthatóságát és szerepét is veszélyezteti. Mert
azzal, hogy a keresés helyett választ ad, megszűnik a párbeszéd – és a tudás nem bővül, hanem beszűkül.
És itt nincs megállás! A közösségi média és az AI-alapú tartalomszűrés tovább mélyíti a problémát: a betegek buborékokban tájékozódnak, a zaj nő, a hitelesség elvész a tengerben.
S bár még nem számolunk vele, egyre több cikk, videó és poszt készül AI-val, melyek közül rengeteg pontatlan vagy szakmaiatlan. Ezek felkerülve a netre, betanítják a következő modelleket, így a hibák visszacsatolódnak (adat-„kannibalizáció”, „model collapse”): a rendszer egyre több hiteltelen forrást olvas, és egyre magabiztosabban ad félrevezető válaszokat. S bár ne így lenne, de végső soron mi tanítjuk rossz forrásokkal az AI-t – majd meglepődünk, hogy egyre rosszabb a kimenet.
Ezért még sürgetőbbnek gondolom:
Ne csak az AI-ba fektessünk, hanem az emberek felkészítésébe is!
Nem lehet azt állítani, hogy a mesterséges intelligencia önmagában jó lenne, ahogy azt sem, hogy rossz. Az teszi azzá, ahogyan használjuk.
A bizalom, a felelősség és az értelmezés továbbra is az embernél marad.
Ezért az egészségügy jövője nem az algoritmusok pontosságán, a gombamód szaporodó fejlesztéseken, hanem az emberek felkészültségén fog múlni – azon, hogy mennyire tudunk, tanulunk meg JÓL együtt élni a technológiával, és nem alávetni magunkat neki, feladni, elfeledni, hogy egyedi, megismételhetetlen, s legfőképpen, hogy érző emberek vagyunk.
S mielőtt azt gondolnátok, AI ellenes vagyok, szeretnék pár jó gyakorlatot és eszközt hozni, mert vannak ma is inspiráló példák, ahol az AI valóban segít.
Mindez azonban csak akkor lesz fenntartható, ha a fejlesztéseket emberi tudásfejlesztés is kíséri. Nemcsak a programozókat és a – jelen esetben egészségügyi szakembereket, hanem a laikus embereket is képezni kell(ene):
Mert a valódi kihívás nem az, hogy az AI mit tud – hanem hogy mi, emberek, mit tudunk kezdeni azzal, amit az AI tud, s amit nem tud helyettesíteni.
Hiszen a jövő egészségügye nem attól lesz intelligens, hogy a gép egyre többet tanul, hanem attól, hogy mi mit kezdünk a lehetőségekkel és hogyan fejlesztjük magunkat a használatukra.
A mesterséges intelligencia marad. Nem kell és nem is lehet megállítani, vagy visszafordítani, ahogy az ipari forradalmat, vagy épp a Google boomot sem lehetett.
De az, hogy milyen világot építünk vele, már nem az algoritmusokon múlik – hanem rajtunk, embereken.
Mert az AI nem fog dönteni helyettünk abban, hogyan bánjunk egymással, hogyan kommunikáljunk, hogyan őrizzük meg a bizalmat egy kiszámíthatatlan világban. Ezek továbbra is emberi feladatok maradnak.
A technológiai fejlődés sosem az eszközökről szól, hanem arról és azokról, akik használják őket.
Hiszem, hogy az AI nem ellenség, és nem megváltó, ahogy azt is, hogy ez az őrület, ami minden konferencia, szakmai cikk témájául szolgál, s várhatóan 2025 leggyakoribb szava is lesz (AI/MI/mesterséges intelligencia) „csak” egy tükör.
Egy tükör, amely megmutatja mindazt, amit belerakunk: az értékeinket, a félelmeinket, a vágyainkat és a hibáinkat is.
Ezért a valódi kérdés ma már nem az, hogy hasznos-e az AI az egészségügyben, orvosi döntéshozatalban, hanem az, hogy marad-e közben ember az egészségügyben és bizalom a betegekben.
Csak rajtunk, embereken múlik.
Szerző: Matics Kata, egészségkommunikációs szakember