Algorithmen-Bias

Algo­rith­men-Bias bezeich­net sys­te­ma­ti­sche Ver­zer­run­gen in den Ergeb­nis­sen von auto­ma­ti­sier­ten Ent­schei­dungs­pro­zes­sen. Er ent­steht, wenn die zugrun­de lie­gen­den Daten unvoll­stän­dig, unaus­ge­wo­gen oder vor­ur­teils­be­haf­tet sind oder wenn die Pro­gram­mie­rung selbst bestimm­te Grup­pen benach­tei­ligt. Die Fol­gen kön­nen Dis­kri­mi­nie­rung, man­geln­de Fair­ness und Ver­trau­ens­ver­lust sein. Daher ist es wich­tig, Algo­rith­men regel­mä­ßig zu prü­fen, trans­pa­rent zu gestal­ten und auf Aus­ge­wo­gen­heit zu ach­ten.