AI manė, kad kelių rentgeno spinduliai rodo, ar geriate alų – ne

AI manė, kad kelių rentgeno spinduliai rodo, ar geriate alų – ne

Gyvensena mityba, dietos, judėjimas

Dirbtinis intelektas gali būti naudinga priemonė sveikatos priežiūros specialistams ir tyrėjams, kai reikia interpretuoti diagnostinius vaizdus. Kai radiologas gali nustatyti lūžius ir kitus anomalijas iš rentgeno spindulių, dirbtinio intelekto modeliai gali matyti modelius, kurių žmonės negali, ir tai suteikia galimybę išplėsti medicininio vaizdo veiksmingumą.

Tačiau tyrimas Mokslinės ataskaitos pabrėžia paslėptą iššūkį, susijusį su dirbtinio intelekto panaudojimu medicininiuose vaizdavimo tyrimuose – tai labai tikslių, tačiau potencialiai klaidinančių rezultatų reiškinys, žinomas kaip „spartusis mokymasis“.

Tyrėjai išanalizavo daugiau nei 25 000 kelio rentgeno spindulių ir nustatė, kad dirbtinio intelekto modeliai gali „numatyti“ nesusijusius ir neįtikimus bruožus, pavyzdžiui, ar pacientai susilaikė nuo keptų pupelių ar alaus valgymo. Nors šios prognozės neturi medicininio pagrindo, modeliai pasiekė stebėtiną tikslumo lygį, išnaudodami subtilius ir nenumatytus duomenų modelius.

„Nors dirbtinis intelektas gali pakeisti medicininį vaizdavimą, turime būti atsargūs“, – sako vyresnysis tyrimo autorius dr. Peter Schilling, Dartmouth Health Dartmouth Hitchcock medicinos centro ortopedijos chirurgas ir Dartmuto Geiselio medicinos mokyklos ortopedijos docentas. .

„Šie modeliai gali matyti modelius, kurių žmonės negali, tačiau ne visi modeliai, kuriuos jie nustato, yra prasmingi ar patikimi“, – sako Schillingas. „Labai svarbu atpažinti šią riziką, kad būtų išvengta klaidinančių išvadų ir būtų užtikrintas mokslinis vientisumas.

AI manė, kad kelių rentgeno spinduliai rodo, ar geriate alų, o ne: Tyrėjai parodo, kaip AI naudojimas medicininiame vaizdavime gali suklysti

Tyrėjai ištyrė, kaip AI algoritmai dažnai remiasi painiančiais kintamaisiais, tokiais kaip rentgeno įrangos ar klinikinių vietų žymeklių skirtumai, kad galėtų prognozuoti, o ne mediciniškai reikšmingas savybes. Bandymai pašalinti šiuos šališkumus buvo tik nežymiai sėkmingi – AI modeliai tiesiog „išmokdavo“ kitų paslėptų duomenų modelių.

„Tai neapsiriboja šališkumu dėl rasės ar lyties“, – sako Brandonas Hillas, tyrimo bendraautoris ir mašininio mokymosi mokslininkas iš Dartmouth Hitchcock. „Mes nustatėme, kad algoritmas netgi gali išmokti nuspėti metus, kuriais buvo padaryta rentgeno nuotrauka. Tai žalinga – kai neleisite jam išmokti vieno iš šių elementų, jis išmoks kitą, kurio anksčiau nepaisė. Dėl šio pavojaus gali atsirasti labai gudrus teigia, ir mokslininkai turi žinoti, kaip lengvai tai atsitinka naudojant šią techniką.

Išvados pabrėžia griežtų AI pagrįstų medicinos tyrimų vertinimo standartų poreikį. Per didelis pasitikėjimas standartiniais algoritmais be gilesnio patikrinimo gali sukelti klaidingų klinikinių įžvalgų ir gydymo būdų.

„Įrodinėjimo našta tiesiog didėja, kai kalbama apie modelių naudojimą naujų modelių medicinoje atradimui“, – sako Hill. „Dalis problemos yra mūsų pačių šališkumas. Labai lengva pakliūti į spąstus, kai daroma prielaida, kad modelis „mato” taip pat, kaip mes. Galų gale, taip nėra.”

„AI yra beveik kaip susidorojimas su ateivių intelektu“, – tęsia Hill. „Norite sakyti, kad modelis „sukčiauja“, bet tai antropomorfizuoja technologiją. Jis išmoko išspręsti jam duotą užduotį, bet nebūtinai taip, kaip tai padarys žmogus. Jame nėra logikos ar samprotavimų, kaip mes paprastai tai suprantame.

Schillingas, Hillas ir tyrimo bendraautorė Frances Koback, Dartmuto Geiselio mokyklos trečio kurso medicinos studentė, atliko tyrimą bendradarbiaudami su Veteranų reikalų medicinos centru White River Junction, Vt.