Soolise stereotüübid püsivad AI meditsiinilistes narratiivides

Hiljuti läbiviidud uurimus on toonud esile soo stereotüüpide jätkumise tehisintellekti rakendustes meditsiini valdkonnas. Austraalia Flindersi ülikooli teadlased uurisid juhtivaid genereeriva tehisintellekti mudeleid, sealhulgas OpenAI ChatGPT-d ja Google’i Gemini’t, esitamata neile peaaegu 50,000 päringut tervishoiuprofessionaalide kohta.

Uuring näitas, et need tehisintellekti mudelid kujutasid õdesid peamiselt naistena, olenemata kogemustest ja isiksuseomadustest. See leid viitab olulisele eelarvamusele, kuna õdesid tuvastati kui naisi 98% juhtudest. Lisaks oli naiste esindatus kirurgide ja arstide narratiivides märkimisväärne, ulatudes 50% kuni 84% ni. Need numbrid võivad peegeldada katseid, mida tehisintellekti ettevõtted teevad, et vähendada varem esile toodud sotsiaalseid eelarvamusi oma väljundites.

Brüsseli Vaba Ülikooli anesteesia spetsialist, kes uuris tehisintellekti eelarvamusi, märkis, et genereeriv tehisintellekt jätkab soo stereotüüpide tugevdamist. Situatsioonides, kus tervishoiuprofessionaalidel olid positiivsed omadused, klassifitseeriti nad sagedamini naistena. Vastupidi, negatiivseid omadusi vihjavad sõnad viisid tihti selleni, et neid professionaale tuvastati meestena.

Tulemused viitavad sellele, et tehisintellekti vahendid võivad jätkuvalt säilitada juurdunud uskumusi soo käitumise ja sobivuse kohta teatud rollides. Veelgi enam, tehisintellekti eelarvamused mõjutavad mitte ainult naisi ja alahrustatud gruppe meditsiinis, vaid võivad ka ohustada patsiendi hooldust, kuna algoritmid võivad kinnitada ebatäpset diagnostikat, mis põhineb rassil ja sool. Nende eelarvamuste käsitlemine on ülioluline tehisintellekti vastutustundlikuks integreerimiseks tervishoiuasutustes.

SOOSTEEREOTÜÜPIDE ARUSAAMINE JA KÄSITLEMINE TEHISINTELLEKTIS: NÕUANNED JA KUNSTID

Vaatamata hiljutisele uurimusele, mis toob esile püsivuse soo stereotüüpide seas tehisintellektis, eriti meditsiini valdkonnas, on hädavajalik uurida viise nende eelarvamuste tunnustamiseks, käsitlemiseks ja vähendamiseks. Siin on mõned väärtuslikud nõuanded, eluhäkid ja huvitavad faktid, mis aitavad üksikisikutel ja organisatsioonidel mõista ja võidelda soo eelarvamuste vastu tehisintellektis.

1. Ole teadlik tehisintellekti eelarvamustest:
Teadlikkus on esimene samm tehisintellektis eelarvamusete vastu võitlemisel. Uurige ja jälgige tehisintellekti eetika arengut, keskendudes sellele, kuidas eelarvamused mõjutavad erinevaid valdkondi, sealhulgas tervishoidu. Mida rohkem te teate, seda paremini olete valmis informeeritud otsuste tegemiseks ja muudatuste eest seismiseks.

2. Diverseerige oma andmeallikaid:
Arendajatele ja organisatsioonidele, kes loovad tehisintellekti süsteeme, võib mitmekesiste andmekogude kasutamine, mis esindavad kõiki soo, rassi ja taustade esindusi, oluliselt vähendada eelarvamusi. Kaaluge andmete hankimist erinevates demograafilistes rühmades teie tehisintellekti mudelite esinduslikkuse parandamiseks.

3. Tehke regulaarselt auditeid:
Viige läbi regulaarseid auditeid tehisintellekti süsteemide jaoks, et tuvastada potentsiaalsed eelarvamused väljundites. Regulaarselt vaadake üle tehisintellekti rakenduste tulemusi ja otsustusprotsesse ning kohandage algoritme, kui vaja, et edendada õiglust ja võrdsust.

4. Toetage läbipaistvust:
Seiske oma organisatsioonis tehisintellekti toimimisprotsesside läbipaistvuse eest. Teadmised, kuidas tehisintellekti süsteemid otsuseid teevad, võivad heita valgust olemasolevatele eelarvamustele. Avatud arutelud tehisintellekti protsesside üle aitavad vaidlustada juurdunud stereotüüpe.

5. Kaasake multidistsiplinaarseid meeskondi:
Tehisintellekti rakenduste arendamisel kaasake mitmekesist tausta omavad meeskonnad – sealhulgas eetika spetsialistid, sotsiaalteadlased ja tervishoiu professionaalid – et pakkuda mitmekesiseid vaatenurki. See mitmekesisus võib aidata tuvastada potentsiaalseid eelarvamusi, mida ühtekuuluv rühm võib tähelepanuta jätta.

6. Edendage kaasavust tehisintellekti hariduses:
Julgege haridusasutusi kaasata oma õpikavades teemasid tehisintellekti eetika ja eelarvamuste kohta. Teadlik põlvkond on rohkem vastutustundlik tehisintellekti tagajärgede üle ning paremini ette valmistatud stereotüüpide käsitlemiseks tehnoloogiast.

7. Toetage ettevõtteid, mis on pühendunud eetilisele tehisintellektile:
Tehisintellekti tarnijate või rakenduste valimisel andke eeliseid neile ettevõtetele, mis on pühendunud eetilise tehisintellekti praktikatele ja töötavad aktiivselt eelarvamuste vähendamise nimel. Otsige organisatsioone, mis avaldavad oma pingutusi soo ebavõrdsuse käsitlemisel oma algoritmides.

Huvi Fakt: Kas teadsite, et uuringud on näidanud, et tehisintellekti mudelid, mis on koolitatud peamiselt ajaloolistel andmetel, võivad süvendada soo ebavõrdsust? Algoritmid, mis õpivad kallutatud andmetest, võivad edasi kanda samu stereotüüpe, mis tähendab, et vastutustundlik andmete korraldamine on nüüd veelgi olulisem.

Järeldus:
Soo stereotüüpide tehisintellektis, eriti tervishoius, tagajärjed ulatuvad kaugemale pelgalt esindatusest; need võivad mõjutada patsiendi hooldust ja ametialaseid dünaamikaid. Rakendades neid nõuandeid ja edendades pidevat dialooge tehisintellekti ja eelarvamuste kohta, võivad üksikisikud ja organisatsioonid kaasa aidata õiglasematele praktikatele tehisintellekti arenduses.

D rohkem arusaamu tehnoloogia ja eetika kohta külastage MIT Technology Review.

The source of the article is from the blog scimag.news

Privacy policy
Contact