Generacinis AI modelio tyrimas nerodo rasinių ar lyčių skirtumų, susijusių su opioidų rekomendacijomis skausmui gydyti

Le comportement non verbal d’un prestataire de soins de santé pourrait-il moduler les rapports de douleur et les effets placebo ?

Psichologija

Mass General Brigham tyrėjų atliktas tyrimas rodo, kad didelių kalbų modeliai (LLM), naudojami generatyviniam dirbtiniam intelektui (AI), ChatGPT-4 ir Google Gemini, neparodė skirtumų tarp siūlomų gydymo opioidų režimų skirtingoms rasėms ar lytims. Rezultatai paskelbti Skausmas.

„Manau, kad dirbtinio intelekto algoritmai trumpalaikėje perspektyvoje yra papildantys įrankiai, kurie iš esmės gali tarnauti kaip antrasis akių rinkinys, veikiantis lygiagrečiai su medicinos specialistais“, – sakė atitinkamas autorius Marcas Succi, medicinos mokslų daktaras, Mass General Brigham Innovation strateginių inovacijų vadovas, asocijuotasis pirmininkas. inovacijų ir komercializavimo įmonės radiologijos srityje ir Medicinos inžinerinių sprendimų sveikatos priežiūros srityje (MESH) inkubatoriaus Mass General Brigham vykdantysis direktorius.

„Nereikia nė sakyti, kad galiausiai galutinį sprendimą visada priims jūsų gydytojas.

Šio tyrimo rezultatai parodo, kaip LLM gali sumažinti galimą paslaugų teikėjų šališkumą ir standartizuoti gydymo rekomendacijas, kai reikia skirti opioidus skausmui malšinti. Dirbtinio intelekto įrankių atsiradimas sveikatos priežiūros srityje buvo novatoriškas ir gali teigiamai pakeisti priežiūros tęstinumą.

Masės generolas Brighamas pirmauja atlikdamas kruopščius naujų ir atsirandančių technologijų tyrimus, siekdamas informuoti apie atsakingą AI įtraukimą į priežiūros teikimą, paramą darbuotojams ir administracinius procesus.

LLM ir kitų formų dirbtinis intelektas padarė pažangą sveikatos priežiūros srityje, kai buvo išbandomi keli AI tipai, kad būtų galima gauti klinikinį sprendimą dėl vaizdo gavimo ir paciento tyrimo, tačiau taip pat nerimaujama, kad dirbtinio intelekto įrankiai gali išlaikyti šališkumą ir sustiprinti esamą nelygybę.

Pavyzdžiui, skausmo valdymo srityje tyrimai parodė, kad gydytojai dažniau nuvertina ir gydo juodaodžių pacientų skausmą. Atliekant susijusius tyrimus dėl apsilankymų skubios pagalbos skyriuje, baltieji pacientai dažniau vartoja opioidus, palyginti su juodaodžiais, ispanais ir azijiečiais.

Kyla susirūpinimas, kad AI gali pabloginti šiuos opioidų receptų šališkumus, o tai paskatino Succi ir jo komandą įvertinti opioidų gydymo planų AI modelių šališkumą.

Šiam tyrimui tyrėjai iš pradžių surinko 40 pacientų atvejų, kuriuose buvo pranešta apie skirtingus skausmo tipus (ty nugaros, pilvo ir galvos skausmus), ir pašalino visas nuorodas į paciento rasę ir lytį. Tada jie kiekvienam pacientui paskyrė atsitiktinę rasę iš šešių galimybių kategorijų (Amerikos indėnų ar Aliaskos gimtoji, azijiečių, juodaodžių, ispanų ar lotynų, vietinių Havajų ar kitų Ramiojo vandenyno salų gyventojų ir baltųjų), prieš panašiai priskirdami atsitiktinę lytį (vyrą ar moterį). .

Jie tęsė šį procesą, kol kiekvienam pacientui buvo sukurti visi unikalūs rasės ir lyties deriniai, todėl į duomenų rinkinį buvo įtraukta 480 atvejų. Kiekvienu atveju LLM įvertino ir priskyrė subjektyvius skausmo įvertinimus prieš pateikdami skausmo valdymo rekomendacijas.

Tyrėjai nerado jokių skirtumų nuo AI modelių gydymo opioidais pasiūlymuose skirtingoms rasėms ar lytims. Jų analizė taip pat atskleidė, kad ChatGPT-4 dažniausiai įvertino skausmą kaip „stiprų“, o Dvyniai dažniausiai įvertino „vidutinio stiprumo“. Nepaisant to, Dvyniai buvo labiau linkę rekomenduoti opioidus, o tai rodo, kad ChatGPT-4 yra konservatyvesnis modelis teikiant opioidų receptų rekomendacijas.

Papildoma šių AI įrankių analizė galėtų padėti nustatyti, kurie modeliai labiau atitinka klinikinius lūkesčius. „Šie rezultatai yra įtikinami, nes pacientų rasė, etninė priklausomybė ir lytis neturi įtakos rekomendacijoms, o tai rodo, kad šie LLM gali padėti spręsti esamą šališkumą sveikatos priežiūros srityje“, – sakė pirmieji autoriai Cameron Young ir Ellie Einchen, abu studentai. Harvardo medicinos mokykloje.

Tyrėjai pažymi, kad buvo tiriamos ne visos su rase ir lytimi susijusios kategorijos, nes mišrių rasių asmenys negali visiškai prisitaikyti prie CDC nustatytų rasių klasių. Be to, tyrime lytis buvo vertinama kaip dvejetainis kintamasis (vyras ir moteris), o ne lyties spektras. Būsimuose tyrimuose turėtų būti atsižvelgiama į šiuos kitus veiksnius, taip pat į tai, kaip rasė gali turėti įtakos LLM gydymo rekomendacijoms kitose medicinos srityse.

„Yra daug elementų, į kuriuos turime atsižvelgti integruodami dirbtinį intelektą į gydymo planus, pavyzdžiui, per daug ar per mažai išrašytų vaistų skausmui malšinti arba ar pacientai nori priimti AI paveiktus gydymo planus“, – sakė Succi.

„Tai yra visi klausimai, kuriuos svarstome, ir manome, kad mūsų tyrimas prideda pagrindinių duomenų, rodančių, kaip AI gali sumažinti šališkumą ir pagerinti sveikatos teisingumą.