Voreingenommene Algorithmen

Vor­ein­ge­nom­me­ne Algo­rith­men sind Algo­rith­men, deren Ergeb­nis­se sys­te­ma­tisch ver­zerrt sind und bestimm­te Grup­pen oder Indi­vi­du­en benach­tei­li­gen. Die­se Vor­ein­ge­nom­men­heit kann durch unaus­ge­wo­ge­ne Trai­nings­da­ten, feh­ler­haf­te Modell­an­nah­men oder mensch­li­che Vor­ur­tei­le, die in den Ent­wick­lungs­pro­zess ein­flie­ßen, ent­ste­hen. Die Aus­wir­kun­gen kön­nen weit­rei­chend sein, von unfai­ren Ent­schei­dun­gen in der Kre­dit­ver­ga­be bis hin zu dis­kri­mi­nie­ren­den Ergeb­nis­sen in der Straf­jus­tiz. Es ist ent­schei­dend, sol­che Algo­rith­men zu iden­ti­fi­zie­ren und zu kor­ri­gie­ren, um Fair­ness und Gerech­tig­keit zu gewähr­leis­ten.