Lehetnek-e torzítások az AI-nál?

Szerző: Laura McKinney
A Teremtés Dátuma: 5 Április 2021
Frissítés Dátuma: 26 Június 2024
Anonim
Lehetnek-e torzítások az AI-nál? - Technológia
Lehetnek-e torzítások az AI-nál? - Technológia

Tartalom


Elvitel:

Az elmúlt években az AI-t egyre inkább alkalmazták és alkalmazták mindent, a szépség felmérésétől a visszaesés kockázatának felméréséig. Ennek során fenntartotta azokat a szabványokat is, amelyek több esetben támogatják az elfogultságot és a diszkriminációt.

A technológia fejlődése valóban demokratizálhatja az információkhoz és a lehetőségekhez való hozzáférést. Egyes esetekben azonban ezt olyan módon használják, amely megerősíti azt a felfogást, hogy társadalmunkban az emberek egyenlőbbek, mint mások.

Ezt láttuk a következő hét esetből, amikor a mesterséges intelligenciát szándékosan használják bizonyos kategóriák kizárására, vagy amelyben egyszerűen csak diszkriminatív hatással tükrözik az emberi programozók által beágyazott elfogultságot.


Az AI szépség torzítása

Lehet, hogy a szépség a szemlélő szemében van, de amikor ez a szubjektív nézet képes az AI-t programozni, akkor elfogultságot tapasztal a programban. Rachel Thomas beszámolt egy ilyen epizódról a szépségversenyen a 2016-os szépségápolási versenyen. Az eredmények azt mutatták, hogy a világosabb arcszíneket vonzóbbnak ítélték meg, mint a sötét.

A következő évben a „FaceApp, amely neurális hálózatok segítségével szűrőket készít a fényképekhez, létrehozott egy„ forró szűrőt ”, amely megvilágította az emberek bőrét, és több európai vonást adott nekik.”

A nemek közötti eltérés a nyelvekben

Thomas idézi a fordítások dokumentált példáját is, amelyek átviszik a karrier sztereotípiás elvárásait. A kiindulópont két mondat: "Ő orvos. Ápoló."


Ha lefordítja ezeket törökül és vissza angolra, akkor kapja meg az a fajta eredményt, amelyet elvárhat egy telefonos játékból.

Ahelyett, hogy elkezdené, amivel kezdett, az 1950-es évekre számíthat: "Ő orvos. Ápoló." Elmagyarázza, hogy ennek oka a török ​​nyelv nemsemleges szinguláris névmása, amely a nemeket elvárások és sztereotípiás elfogultság alapján fogja kiosztani. (Olvassa el a nőket az AI-ben: A szexizmus és sztereotípiák megerősítése a technikával.)

Noha a képekre és a nyelvre történő szűrés a faji és nemek szerinti elfogultságot okozza a bosszantásnak, ezek nem egészen ugyanaz, mint az AI miatti aktív diszkrimináció, de ez is történt.

Ennek bizonyítéka volt egy képernyőképe a lakáskategóriáján belüli hirdetésekre vonatkozó korlátozásokról, amelyek lehetővé tették a közönség szűkítését az olyan kategóriák kizárásának ellenőrzésével, mint afroamerikai, ázsiai-amerikai vagy spanyol. A hirdetés itt tekinthető meg.

Amint a ProPublica rámutat, az ilyen hirdetések diszkriminatív hatása illegális mind az 1968. évi tisztességes házról szóló törvény, mind az 1964. évi polgári jogi törvény értelmében. Az egyetlen védelem ebben az esetben az volt, hogy a hirdetés nem magának a háznak a célja, mivel nem volt „ t egy eladó vagy kiadó ingatlanról vagy házról.

Vannak más olyan célzási példák is, amelyek a faji elfogultságra utalnak, és ez arra késztette a motivációt a különböző szervezetek számára, hogy polgári pert indítsanak a közösségi hálózat ellen. Amint a Wired számolt be, végül úgy döntött, hogy módosítja hirdetés-célzási technológiáját öt olyan jogi eljárás eredményeként, amelyek 2019 márciusában vádolták a kisebbségek elleni diszkrimináció lehetővé tételéről.

Az egyezségről szóló jelentésében az ACLU rámutatott, hogy milyen hamisak lehetnek az ilyen célzott hirdetések, mivel a kisebbségek és a nők még azt sem ismerhetik fel, hogy nem kapnak ugyanolyan hozzáférést az információkhoz, a lakhatáshoz és a munkalehetőségekhez, mint a fehér férfiak.

Mivel egyre többen fordulnak az internethez munkahely, lakás és kölcsön keresése érdekében, valódi annak kockázata, hogy a hirdetések célzása megismétli, sőt tovább súlyosbítja a meglévő faji és nemi elfogultságot a társadalomban. Képzelje el, ha egy munkáltató úgy dönt, hogy csak a férfiak számára jeleníti meg a mérnöki munka hirdetéseit - nemcsak azok a felhasználók, akiket nem azonosítanak férfival, soha nem fogják látni ezeket a hirdetéseket, és soha nem is tudják, mi maradt el.

Végül is ritkán tudunk azonosítani azokat a hirdetéseket, amelyeket online nem látunk. Az, hogy ez a megkülönböztetés láthatatlan a kizárt felhasználó számára, megnehezíti a megállítást.

2. A nemek közötti és életkor szerinti megkülönböztetés

A jogi ügyek között szerepelt a lakhatás területén alkalmazott illegális megkülönböztetés. A rendezésről szóló jelentésében a ProPublica kijelentette, hogy kipróbálta a platformot, és sikerrel vásárolt „lakhatással kapcsolatos hirdetéseket azon kizárt csoportokon, mint például afroamerikaiak és zsidók, és korábban talált olyan munkahirdetéseket, amelyek kizárták a felhasználókat életkor és nem alapján a vállalatok által ezek háztartási nevek. ”

Az ACLU számos olyan álláshirdetést talált, amelyek kifejezetten csak egy adott korosztályú férfiaknak szóltak, mivel a felhasználók arra a válaszra kattintva találhatták meg, hogy miért mutatták meg az adott hirdetést, egy másik vezetékes cikkben. Az ACLU az Esélyegyenlőségi Foglalkoztatási Bizottsággal vádolta a közösségi hálózatot és a hirdetéseket elhelyezkedő vállalatokat azzal az indokkal, hogy megsértik a munkajogi és a polgári jogi törvényeket.

A 40 éven felüli személyek felvétele során alkalmazott hátrányos megkülönböztetés sérti a szövetségi kor szerinti diszkriminációról szóló törvényt (ADEA). A platform által engedélyezett dolgok azonban az, hogy csak a kor alatti embereket célozzák meg a hirdetések.

A ProPublica ebből az egyik jelentéséből állt a középpontban, feltárva, melyik álláshirdetés kihasználta az életkor szerinti kirekesztés ezen illegális formáját. A „háztartási nevek” között szerepel többek között a Verizon, a UPS, az Uber, a Target, a Statefarm, a Northwestern Mutual, a Microsoft, a J Street, a HusbSpot, az IKEA, a Közérdekű Alap, a Goldman Sach, az OpenWorks és maga.

Arcfelismerés sikertelen

A „Arcfelismerés pontos, ha fehér srác vagy” - jelentette be a New York Times 2018 februárjában megjelent cikk címsorát. Az eredmények olyan eredményeket idéztek elő, amelyek határozott összefüggést találtak a bőrszín és a hibás azonosítás között:

"Minél sötétebb a bőr, annál több hiba merül fel - a sötétebb bőrű nők képeinél csaknem 35% -kal - mondja egy új tanulmány, amely friss alapot ad arra, hogy megmérje, hogy a technológia hogyan működik a különböző fajú és nemű embereknél."

Az eredményeket Joy Buolamwini-nak, az MIT Media Lab kutatójának és az Algorithmic Justice League (AJL) alapítójának jóváírják. Kutatási területe az AI alapjául szolgáló torzítások, amelyek olyan torz eredményeket eredményeznek, amikor olyan arcokat kell felismerni, amelyek nem felelnek meg a modellhez meghatározott fehér férfi normának.

Buolamwini egy 2017. évi TED-beszélgetés során bemutatta az arcfelismerés faji és nemi elfogultságának problémáját, amelyre 2018 elején utalt a MIT Lab The Gender Shades Project című videójában:

<

A videó leírásában megfogalmazódik, hogy az AI torzításának figyelmen kívül hagyása "megrontja az automatizálás korát, és tovább súlyosbítja az egyenlőtlenségeket, ha örökre hagyják". A kockázat nem kevesebb, mint "a polgári jogi mozgalom és a női mozgalom nyereségének elvesztése a gépnelegesség téves feltételezése alapján".

A videó leírása hozzáteszi a figyelmeztetést, amire sokan mások rámutattak, amint azt a Women in AI: A szexizmus és a sztereotípiák megerősítése technikával című részben láthattuk: "Az automatizált rendszerek nem lényegében semlegesek. Tükrözik a prioritásokat, preferenciákat és előítéleteket - a kódolt tekintete - azoknak, akiknek hatalma van a mesterséges intelligencia öntésére. "

2019. január 25-én Buolamnwini közleményt tett közzé, amely saját és további kutatók kutatására támaszkodott, akik rámutattak, hogy az AI hibái hogyan eredményeznek hibákat az Amazon Rekognition programjában, és megkövetelték a társaságtól, hogy hagyja abba az AI szolgáltatást a rendőri osztályoknak.

Míg a felismerés 100% -os pontossággal büszkélkedhet a könnyű bőrű férfiak felismerésekor és 98,7% -os pontossággal még a sötétebb férfiak esetében is, a nők esetében a pontosság 92,9% -ra csökkent a világosabb nők esetében. Még ennél is szembetűnőbb volt, hogy a sötétebb nőstényeknél csak a 68,6% -os pontosság történt.

Az Amazon azonban megtagadta a bátorságot. Egy Venture Beat cikk idézte Dr. Matt Wood, az AWS mélyreható tanulásának és az AI általános igazgatójának nyilatkozatát, amelyben hangsúlyozta, hogy a kutatók megállapításai nem tükrözik az AI tényleges használatát, magyarázva:

„Az arcanalízis és az arcfelismerés teljesen különbözik a mögöttes technológiát és az edzéshez felhasznált adatokat tekintve. Az arcanalízis használata az arcfelismerés pontosságának mérésére nem tanácsos, mivel nem erre a célra szánt algoritmus. "

De nem csak a nagyobb kutatóközpontokhoz kapcsolt személyek találják az algoritmusokat nagyon problematikusnak. A Gizmodo jelentés szerint az ACLU saját tesztet végzett legelőnyösebb 12,33 dollár áron. Megállapította, hogy a Rekognition 28 kongresszusi taggal bűnözők fényképeivel egyezik meg.

"A hamis azonosítás akkor történt, amikor az észak-kaliforniai ACLU felajánlotta a felismerést a kongresszus összes 535 tagjának megfelelő képekkel, szemben a 25 000 nyilvánosan elérhető bukfotóval."

Mivel a 28-ból 11 ember színes volt, ez számukra a 39% -os hibaarányt tükrözte. Ezzel szemben a hibaarány összességében elfogadhatóbb 5% volt. A kongresszusi Fekete Kaukázus hat tagja, akik azok között a felvételekkel kapcsolatos felismerések voltak, amelyek nyílt levélben fejezték ki aggodalmukat az Amazon vezérigazgatójának.

Recidivizmus torzítás

Az AI-beágyazott elfogultság a színes emberekkel szemben súlyosabb problémává válik, ha nem pusztán az azonosítás hibáját jelenti. Ez volt egy másik ProPublica-vizsgálat eredménye, 2016-ban. Az ilyen elfogultság következményei nem kevesebb, mint az egyéni szabadság, és azzal párhuzamosan, hogy figyelmen kívül hagyjuk annak a személynek a valódi kockázatát, akinek a bőrszínét az algoritmus kedveli.

A cikk két párhuzamos esetre utalt, amelyekben egy fehér és egy fekete elkövető volt. Egy algoritmust alkalmaztunk annak előrejelzésére, hogy melyik valószínűleg ismét megsérti a törvényt. A fekete kockázatot magasnak, a fehér színét alacsony kockázatnak ítélték meg.

Az előrejelzés teljesen rosszul ment, és a fehért, aki kiszabadult, újra börtönbe kellett helyezni. Ez rendkívül problematikus, mivel a bíróságok az egyenlő bánásmód elbírálásán alapulnak a pontozáson, és ez azt jelenti, hogy a programban szereplő faji elfogultság a törvény értelmében egyenlőtlen bánásmódot jelent.

A ProPublica az algoritmust saját tesztjére tette, összehasonlítva a floridai Broward megyében 2013-ban és 2014-ben letartóztatott több mint 7000 ember kockázati pontszámait azzal a számmal, amelyikkel szemben a következő két évben új büntetőjogi vádat emeltek.

Azt találták, hogy az erőszakos bűncselekmények megismétlésének előrejelzéseinek mindössze 20% -a valósult meg, és a kisebb jelentőségű bűncselekmények csak a kockázatot jelző pontszámok 61% -ánál fordultak elő.

Az igazi probléma nem csupán a pontosság hiánya, hanem a faji torzítás is:

  • A képlet különösen valószínűleg tévesen jelölte meg a fekete vádlottakat jövőbeli bűnözőkként, így tévesen jelölte meg őket, majdnem kétszer olyan mértékben, mint a fehér vádlottak.
  • A fehér vádlottakat alacsony kockázattal tévesztették fel gyakrabban, mint a fekete vádlottakat.

Valójában ez 45% -os hibaarányt eredményezett a fekete emberek és a fehér emberek esetében 24% -os hibaaránytól. A szemléltető statisztika ellenére Thomas arról számolt be, hogy a Wisconsini Legfelsőbb Bíróság továbbra is fenntartja ennek az algoritmusnak a használatát. Részletesen ismerteti a recidivizmus algoritmusaival kapcsolatos egyéb problémákat is.