Že lidmi vytvořené expertní systémy (tedy AI) mohou přebírat kolektivní stereotypy a předsudky, není nic nového. Určitě jsme ještě ani zdaleka nevyzkoušeli a neodhalili všechny způsoby, jak nespravedlivá umělá inteligence může být. Protože může jít o otázku klíčovou, někdy doslova otázku života či smrti, už se na této problematice pracuje – někdy cíleně a někdy vlastně nedopatřením.
První zmíněná možnost platí pro výzkum skupiny amerických lékařů a dalších odborníků, jehož výsledky shrnuje článek v Lancet Digital Health. Ukazuje, že umělá inteligence může být schopna rozpoznat rasu z lékařských snímků, byť lidští experti vůbec nevědí, podle čeho by něco takového mohli poznat. Pouze na základě rentgenových snímků a snímků z CT skeneru (a dokonce snímků jen částečných či hodně upravených) dokázal vytrénovaný systém určit rasu s přesností přibližně 90 %.
Software totiž zjevně dokázal v několika rozsáhlých databázích snímků najít nějaké společné rysy, které lidskému oku zatím unikly. Autoři například spekulovali, zda algoritmus nedokáže identifikovat drobné anatomické rozdíly ve stavbě kostí (lidé afrického původu mají třeba „hustší“ kosti než bílí), ale tak tomu zjevně nebylo.
Software rasu určil zjevně podle něčeho úplně jiného. Vedl si totiž velmi přesně i v případech, kdy byly snímky upraveny natolik, že na nich prostě nebyly žádné rozpoznatelné struktury. Lidským spoluautorům a radiologům při pohledu na ně nebylo vůbec jasné, že se vůbec jedná o rentgenový snímek – viz dva níže uvedené příklady. Platilo to samozřejmě jen do určité míry, u velmi pozměněných snímků software zjevně pouze hádal.
Udělej mi radost a pozvi mě na kávu. Opravdu mě potěší, když jsi ji jednou nebudu muset koupit sama.




Napsat komentář