Předsudek AI mění americké životy. Co s tím můžeme dělat?

Předsudek AI mění americké životy. Co s tím můžeme dělat?
Předsudek AI mění americké životy. Co s tím můžeme dělat?

Video: Myšlenková kontrola a chemtrails - Harald Kautz Vella 2024, Červenec

Video: Myšlenková kontrola a chemtrails - Harald Kautz Vella 2024, Červenec
Anonim

Představte si svět, kde umělé inteligentní algoritmy přijímají rozhodnutí, která ovlivňují váš každodenní život. Nyní si představte, že jsou předsudky.

Je to svět, ve kterém již žijeme, říká vědec dat, Harvard PhD a autor Cathy O'Neil. (Přečtěte si část naší diskuse s doktorem O'Neilem zde). Posadili jsme se s nominací na National Book Award, abychom zjistili, co můžeme dělat s předsudky v éře velkých dat. CT: Je předsudek poškozen?

CO: Každý algoritmus, který nebyl výslovně spravedlivý, by měl být považován za předsudek. Protože jako lidé jsme předsudky. Pokud to uznáme a vytváříme tyto algoritmy s našimi hodnotami a našimi údaji, neměli bychom předpokládat, že by se něco magicky stalo, aby věci byly spravedlivé. Neexistuje žádná magie.

CT: Kde algoritmy získají svá data?

CO: Závisí to na algoritmu. Někdy sociální média, například o politickém cílení na trhu nebo o reklamě nebo pro ziskové vysoké školy a predátorské půjčování - ale mnoho dat není shromažďováno na sociálních médiích nebo dokonce online.

Sběr dat je stále více spojen se skutečným životem, jako je získání zaměstnání, práce ve vaší práci, jít na vysokou školu nebo do vězení. Tyto věci nejsou věci, které můžeme obejít zákony na ochranu soukromí. Jsou to otázky moci, kde lidé, na které se algoritmy zaměřují, nemají sílu a lidé, kteří shromažďují informace a vytvářejí a používají algoritmy, mají veškerou moc. Nemáte žádná práva na ochranu osobních údajů, pokud jste obhájcem trestných činů, nemáte žádná práva na ochranu osobních údajů ve své práci a nemáte příliš mnoho práv na ochranu soukromí, pokud se ucházíte o práci, protože Pokud neodpovíte na otázky, které vám položil váš budoucí zaměstnavatel, pravděpodobně tuto práci nezískáte.

Měli bychom myslet méně na soukromí a více na sílu, pokud jde o algoritmy a poškození [mohou způsobit].

CT: Co můžeme udělat, abychom to vylepšili?

CO: Můžeme uznat, že tyto algoritmy nejsou ve své podstatě dokonalé, a vyzkoušejte je na jejich nedostatky. Měli bychom mít průběžné audity a monitory - zejména pro důležitá rozhodnutí, jako je najímání, trestní odsouzení nebo hodnocení osob v jejich zaměstnání -, abychom se ujistili, že algoritmy jednají tak, jak chceme, nikoli jakýmkoli diskriminačním nebo nespravedlivým způsobem.

Image

Ailsa Johnson / © Culture Trip

CT: Jaké jsou nejlepší a nejhorší scénáře pro budoucnost založenou na datech?

CO: Nejhorším scénářem je to, co nyní máme - že všichni slepě očekáváme, že algoritmy budou dokonalé, i když bychom měli vědět lépe. A šíříme minulé nespravedlnosti a nespravedlnosti. A nadále ignorujeme nedostatky těchto algoritmů.

Nejlepší scénář je, že si uvědomujeme, že tyto algoritmy nejsou ve své podstatě lepší než lidé. Rozhodujeme se, co chceme jako lidé, o co se snažíme. Jak chceme, aby společnost vypadala, a učíme tyto hodnoty. Pokud to úspěšně uděláme, tyto algoritmy mohou být lepší než lidé.

CT: Jakou roli mohou hrát běžní lidé?

CO: Nejdůležitější roli, kterou může jednotlivec hrát, je nedůvěřovat žádnému algoritmu. Mít obrovské množství skepticismu. Pokud vás hodnotí algoritmus, zeptejte se: „Jak vím, že je to fér, jak vím, že je to užitečné, jak vím, že je přesný? Jaká je míra chyb? Pro koho tento algoritmus selže? Zlyhá to ženy nebo menšiny? “ Zeptej se na takový druh otázky.

Druhou věcí, kromě skepticismu, je, že pokud si myslíte, že algoritmus je vůči vám nebo jiným lidem nespravedlivý, je zorganizovat se s ostatními lidmi. Nedávným příkladem jsou učitelé. Statistické modely o učitelích s přidanou hodnotou jsou hrozné generátory téměř náhodných čísel. Byli však zvyklí rozhodovat o tom, co by učitelé měli držet a jaké učitele by měli být propuštěni, po celé USA.

Navrhuji jim, aby přiměli své jednoty, aby se stáhly zpět. A to se stalo na některých místech. Je však překvapivé, jak malý odpor tam byl kvůli matematické povaze bodovacího systému.

CT: Jak jste se dostali k „velkým datům“?

CO: Pracoval jsem na Wall Street a byl jsem svědkem finanční krize zevnitř. Byla jsem znechucena tím, jak byla matematika zvyklá využívat lidi nebo klamat lidi. Viděl jsem druh poškození, které by mohlo vyplynout z matematických lží, které nazývám „zbraně matematiky“.

Rozhodl jsem se od toho odejít, tak jsem se připojil k Occupy Wall Street a začal pracovat jako datový vědec. Pomalu jsem si uvědomil, že jsme viděli chybné a zavádějící humbuk kolem zavádějících datových algoritmů, které se odehrávají i mimo Wall Street, a že to povede k velkému poškození. Rozdíl byl v tom, že zatímco lidé na celém světě si všimli finanční krize, nemyslel jsem si, že si lidé všimnou selhání těchto algoritmů velkých dat, protože se obvykle dějí na individuální úrovni.

Přečtěte si část naší diskuse s doktorem O'Neilem zde. Kniha dr. Cathy O'Neilové „Zbraně matematického ničení: Jak velká data zvyšují nerovnost a ohrožují demokracii“ je nyní k dispozici.