A félrenevelt mesterséges intelligencia
2021.02.25
A fenti példák azt mutatják, hogy egy MI algoritmust általában hatékonynak minősítünk, ha jobb eredményt ad, mint amelyet általában értelmes erőforrásbefektetéssel – emberekkel – érhetünk el. A hatékonyság ilyen értelmezése azonban nem zárja ki, hogy az algoritmus adott csoportokra diszkriminatív legyen.
Az eddigiekben vázolt problémák miatt sokan azt a következtést vonják le, hogy az MI ilyen feladatok elvégzésére használhatatlan, mivel – bizonyos helyzetekben – elfogadhatatlanul igazságtalan. Azt gondoljuk, hogy a „matematikai” módon hozott döntések majd igazságosak, nálunk igazságosabbak lesznek, csakhogy ehhez matematikailag kellene tudnunk megfogalmazni az igazságosság fogalmát. A felvételi procedúra során társadalmilag talán a legigazságosabb az lenne, ha száz jelentkezőből véletlenszerűen választanánk ki az öt alkalmazandó embert. Egyéni szempontból ez viszont nagyon igazságtalan, hiszen figyelmen kívül hagyja a képességeket, a befektetett energiát. A nem és a rassz esetében kialakulóban van az egyetértés a megkülönböztetés elkerülésére, de más esetekben ez még ennél is sokkal bonyolultabb lehet. Az MI-t tanító adathalmazaink pedig már magukban tartalmazzák az igazságtalanságainkat, előítéleteinket. Fontos lenne, hogy ezek a tanító adatok ne a jelenlegi helyzetet, hanem az igazságosnak ítélt elvárásainkat reprezentálják!
Szerző: Hraskó Gábor, az INNObyte CCS Üzletágvezetője
További cikkek
Home office az INNObyte-nál
2020.06.03
Covid 2020
2020.03.16