Błąd algorytmiczny

A obliczeniowe oznacza to, że wynik działania algorytmu nie jest neutralny, sprawiedliwe lub słuszne.

Błąd algorytmiczny może wystąpić, gdy dane używane do trenowania algorytmu uczenia maszynowego odzwierciedlają ukryte wartości ludzi zaangażowanych w zbieranie, selekcję lub wykorzystanie tych danych. Błędy algorytmiczne zostały zidentyfikowane i skrytykowane za ich wpływ na wyniki wyszukiwarek, serwisy społecznościowe , prywatność i profilowanie rasowe . W wynikach badań to stronniczość może dawać wyniki odzwierciedlające rasistowskie, seksistowskie lub inne uprzedzenia społeczne lub kulturowe, pomimo rzekomej neutralności danych. Konkretnym przykładem są tłumacze online, którzy systematycznie tłumaczą angielski termin „nurse” (neutralny) na „nurse” (kobieta) oraz termin „doctor” (neutralny) na „doctor” (mężczyzna). Badanie błędów algorytmicznych jest szczególnie zainteresowane algorytmami, które odzwierciedlają „systematyczną i niesprawiedliwą” dyskryminację .

Błąd algorytmiczny niekoniecznie jest świadomym zamiarem projektantów algorytmu, aby oszukać użytkowników. Tym ważniejsze jest, aby byli tego świadomi, ponieważ użycie tendencyjnego algorytmu, który ma być obiektywny, może silnie wpłynąć na ich opinie. Problem ten rodzi pytanie o brak informacji zwrotnej od projektantów algorytmów na temat ich tworzenia, podnoszonej już przez inżynierów największych platform internetowych.

Definicje

Algorytm jest tendencyjne, gdy jego wynik nie jest neutralny, sprawiedliwe lub słuszne. Definicja ta opiera się zatem na trzech pojęciach: neutralność , lojalność i uczciwość . Błędy algorytmiczne mogą prowadzić do sytuacji dyskryminacji .

Sprawiedliwość algorytmiczna

Aby zapobiec stronniczym algorytmom, niektóre badania, takie jak Pedreshi 2008, mają na celu opracowanie algorytmów, które respektują zasady uczciwości .

Podejście to obejmuje zdefiniowanie słuszności. Corbett-Davies i Goel 2018 wyróżniają trzy definicje:

Hamilton (2016) rozróżnia również kapitał indywidualny i grupowy. Sprawiedliwość indywidualna zapewnia, że ​​osoby o podobnych cechach są traktowane tak samo, podczas gdy sprawiedliwość grupowa traktuje ludzi z różnych grup w różny sposób, aby osiągnąć równość wyników .

Początki

Błędy algorytmów mogą wynikać z błędów poznawczych programisty algorytmów, błędów statystycznych związanych w szczególności z danymi treningowymi, a nawet błędów ekonomicznych.

Stronniczość programistów

Programiści, którzy opracowują algorytmy, mogą podlegać wielu błędom poznawczym . Wśród tych błędów błąd owiec Panurge polega na wykorzystaniu popularnego modelowania bez zapewnienia jego trafności w danym kontekście. Bias potwierdzeniem jest promowanie swoją wizję świata, nie biorąc pod uwagę dane, które nie idą w jego kierunku.

W naukowcy danych programu WHO algorytmy nie są reprezentatywne dla populacji ogólnej. Badanie przeprowadzone przez Institute AI Now  (w) 2018 r. podkreśla, że ​​tylko 15% pracowników naukowych zajmujących się sztuczną inteligencją na Facebooku i 10% w Google to kobiety.

Nadreprezentacja białych mężczyzn wśród naukowców zajmujących się danymi oraz niedostateczna reprezentacja mniejszości może prowadzić do tego, że badacze danych nie uwzględniają w wystarczającym stopniu potencjalnych uprzedzeń i dyskryminacji. To właśnie D’Ignazio i Klein 2020 nazywają „ zagrożeniem przywilejami” .

Błąd statystyczny

Błędy statystyczne mogą pochodzić z danych zawartych na wejściu algorytmu lub samego algorytmu.

W 2015 roku algorytm oceny życiorysów opracowany przez Amazon został przerwany, gdy okazało się, że silnie dyskryminuje on życiorysy kobiet.

Bias może również pochodzić z metody statystycznej , takie jak pominiętym zmiennej polaryzacji , z uprzedzeń selekcji lub endogeniczności uprzedzeń .

Stronniczość ekonomiczna

Uprzedzenia ekonomiczne są powiązane z bodźcami ekonomicznymi aktorów.

Na przykład Lambrecht i Tucker 2017 pokazały, że bardziej opłacalne jest kierowanie reklam ofert pracy związanej z technologiami do mężczyzn niż do kobiet.

Błędy algorytmiczne według domeny aplikacji

Osadzania leksykalne

Modele osadzania słów mogą odtwarzać ludzkie uprzedzenia psychologiczne.

Caliskan, Bryson i Narayanan 2017 badają model wektora osadzania Glove  (en) i pokazują, że znajdujemy ukryte powiązania między nośnikami słów uprzedzenie. Proponują metodę pomiaru uprzedzeń inspirowaną testem ukrytych skojarzeń .

Rozpoznawanie twarzy

Według Buolamwini i Gebru 2018 kobiety są trudniej rozpoznawane przez oprogramowanie do rozpoznawania twarzy IBM , Microsoft i Face++ . Spośród 127O przekazanych im oficjalnych portretów polityków, Face ++ trafiło 99,3% mężczyzn, ale tylko 78,7% kobiet. Tak więc 95,9% błędów firmy dotyczyło kobiet.

Algorytmy rekomendacji

Te algorytmy rekomendacja może prowadzić do zafałszowania wyników do określonych treści.

Na przykład prace nad algorytmem rekomendacji YouTube przeprowadzone przez Guillaume Chaslot i stowarzyszenie Algotransparency pokazują, że algorytm ma tendencję do faworyzowania treści konspiracyjnych.

Agenci konwersacji

W 2016 roku agent konwersacyjny Tay opracowany przez Microsoft i wdrożony na Twitterze musiał zostać usunięty po 24 godzinach od użycia rasistowskich komentarzy.

Sprawiedliwość predykcyjna

W niektórych stanach amerykańskich wymiar sprawiedliwości i więzień opiera swoje decyzje na wcześniejszym zwolnieniu zatrzymanych na algorytmach oceny ryzyka; nazywa się to sprawiedliwością predykcyjną . W 2016 roku sondaż organizacji pozarządowych ProPublica ujawnił, że algorytm firmy Northpointe  (w) , chociaż jego twórcy twierdzą, że nie uwzględnia wprost rasy, był rasistowskim uprzedzeniem.

Walcz z uprzedzeniami algorytmicznymi

Istnieje kilka możliwości walki z uprzedzeniami algorytmicznymi. Według TechCruncha należy stworzyć współdzielone i regulowane bazy danych, które uniemożliwiłyby osobom fizycznym manipulowanie danymi. Rzeczywiście, przyznając, że inteligencja zbiega się z brakiem uprzedzeń, algorytmy nie są jeszcze wystarczająco inteligentne, a zatem wolne od uprzedzeń, aby same się korygować; czekając, aż będą w stanie to zrobić, ludzie, świadomi tego, czym są uprzedzenia, muszą je kontrolować, aby zapobiec zwiększaniu wypaczonych orientacji wynikających z tendencyjnych danych, dzięki którym się uczą.

Jedną z głównych trudności w walce z uprzedzeniami algorytmicznymi jest nieprzejrzystość działania algorytmów. Ta nieprzezroczystość może mieć cztery źródła; tajemnicy celowo założonej przez firmy, które chcą chronić swoją własność intelektualną, analfabetyzm użytkowników i badaczy, ale także fakt, że wraz z ewolucją niektórych algorytmów mogą stać się nieczytelne ze względu na ich złożoność i wreszcie niektóre algorytmy, zwłaszcza te o dużych rozmiarach usługi online są po prostu zbyt duże, aby je studiować. Podczas gdy niektórzy badacze próbowali opracować metody poprawy przejrzystości, inni, tacy jak Shoshana Zuboff i Ruha Benjamin, twierdzą, że algorytmów nie można traktować jako izolowanych obiektów, ale raczej jako części dużego zgromadzenia kulturowego i społeczno-technicznego.

Audyt algorytmów i inżynieria odwrotna

Aby udokumentować błędy algorytmiczne, konieczna jest możliwość ich audytu . W tym celu Angwin i in. 2016 zebrali dane i opracowali własny model, aby móc podkreślić stronniczość algorytmu oceny ryzyka recydywy.

Teoria krytyczna i podejścia etnograficzne

Według socjolog Angele Christin, w przypadku audytów istnieją dwa inne sposoby podejścia do problemu błędu algorytmu. Pierwszym z nich jest podejście historyczne i kulturowe. Polega ona na ponownym rozważeniu zdarzeń tendencyjności algorytmicznej w dłuższych sekwencjach opartych na socjologii krytycznej . Algorytmy odtwarzałyby istniejące wcześniej struktury dyskryminacji , nadzoru i utowarowienia . Drugi to podejście etnograficzne. Pozwala z jednej strony określić, które siły strukturalne pozwalają na pojawienie się błędu systematycznego, a z drugiej strony rozważyć, w jaki sposób algorytmy wpływają na ich codzienne użytkowanie. Angele Christin oferuje trzy metody w ramach tego podejścia do badania algorytmów. „Refrakcja algorytmiczna” polega na badaniu rekonfiguracji zachodzących podczas użytkowania algorytmów i ich interakcji ze społeczeństwem i instytucjami. „Porównanie algorytmów” odnosi się do analizy różnych zastosowań tego samego algorytmu w różnych dziedzinach w celu zrozumienia pojawienia się błędu w różnicach w zastosowaniach i funkcjonowaniu. Wreszcie „triangulacja algorytmiczna” opiera się na wykorzystaniu algorytmów wtórnych do zbierania danych o badanym algorytmie.

Przepisy prawne

Stany Zjednoczone

Stany Zjednoczone nie mają kompleksowego ustawodawstwa regulującego algorytmicznego stronniczości. Ten problem można rozwiązać na poziomie federalnym lub stanowym i różni się w zależności od sektora, zastosowania oraz zaangażowanej branży lub rządu. W 2017 roku Nowy Jork uchwalił ustawę powołującą komisję do monitorowania wykorzystania algorytmów w mieście.

Opinie

W artykule opublikowanym na stronie internetowej czasopisma Data & Society badacz Kinjal Dave krytykuje użycie terminu „bias” do określenia uprzedzeń algorytmów. Według niej termin bias wynikający z psychologii społecznej odnosi się do niedoskonałości jednostki, podczas gdy algorytmy stanowią siły instytucjonalne.

D'Ignazio i Klein 2020 również podejmują tę recenzję. Dla nich mówienie o nastawieniach algorytmicznych i sugerowanie, że możemy je skorygować, jest dywersją. Zamiast mówić o uprzedzeniach, wolą mówić o ucisku.

Bibliografia

Filmografia

Uwagi i referencje

  1. (w) Helen Nissenbaum , „  Jak systemy komputerowe ucieleśniają wartości  ” , Komputer , tom.  34, n o  3,Marzec 2001, s.  120-119 ( DOI  10.1109 / 2.910905 , przeczytane online , dostęp 17 listopada 2017 )
  2. (w) Lucas Introna i Helen Nissenbaum , „  Definiowanie sieci: polityka wyszukiwarek  ” , Komputer , tom.  33, n o  1,2000, s.  54-62 ( DOI  10.1109 / 2.816269 , przeczytane online , dostęp 17 listopada 2017 )
  3. (w) Kate Crawford , „  Czy algorytm może być agonistą? Dziesięć scen z życia w wyliczonych społeczeństwach  ” , Nauka, technologia i wartości ludzkie , tom.  41, n o  1,24 czerwca 2015, s.  77-92 ( DOI  10.1177 / 0162243915589635 )
  4. (w) Zeynep Tüfekçi , „  Algorytmiczne szkody poza Facebookiem i Google: Emergent Challenges of Computational Agency  ” , Colorado Technology Law Journal Symposium Essays , tom.  13,2015, s.  203-216 ( czytaj online , dostęp 17 listopada 2017 )
  5. (w) Lisa Nakamura , Nowe media monitoringu , Londyn, Routledge,2009, 149–162  s. ( ISBN  978-0-415-56812-8 )
  6. (w) Laura Sydell , „  Czy komputery mogą być rasistami? The Human-Like Bias Of Algorithms  ” , na NPR.org , National Public Radio / All Things Thought (dostęp 17 listopada 2017 r. )
  7. (w) Batya Friedman i Helen Nissenbaum , „  Biass in Computer Systems  ” , ACM Transactions on Information Systems , tom.  14 N O  3,Lipiec 1996, s.  330-347 ( czytaj online , dostęp 18 listopada 2017 )
  8. (w) Paul Lewis, „  Nasze umysły mogą zostać porwane”: kogo znawcy technologii obawiają się dystopii smartfonów  ” , Daily ,2017
  9. Patrice Bertail, David Bounie, Stephan Clémençon i Patrick Waelbroeck, „  Algorithms: bias, dyskryminacja i równość  ” , na stronie https://www.telecom-paris.fr (dostęp: 14 lipca 2020 r. ) .
  10. (w) Pedreshi , „  Dyskryminacja świadoma dyskryminacji  ” , Materiały z 14. Międzynarodowej Konferencji ACM poświęconej odkrywaniu wiedzy i eksploracji danych SIGKDD ,2008( DOI  10.1145 / 1401890.1401959 , przeczytany online , dostęp 14 lipca 2020 r. )
  11. (w) Sam Corbett-Davies i Sharad Goel , „  Miara uczciwości i błędu: krytyczny przegląd uczciwego uczenia maszynowego  ” , Arxiv.org ,2018( przeczytaj online ).
  12. Evan Hamilton, Analiza porównawcza czterech podejść do uczenia maszynowego z uwzględnieniem uczciwości , Haverford College Computer Science , 2016
  13. Sarah West Myers, Meredith Whittaker i Kate Crawford. „Systemy dyskryminacyjne: płeć, rasa i władza w sztucznej inteligencji”, AI Now Institute, 2019, https://ainowinstitute.org/discriminatingsystems.pdf .
  14. (en) Catherine D'Ignazio i Lauren F. Klein , „1. The Power Chapter” , w Data Feminism , MIT Press,2020( przeczytaj online ).
  15. (w) Jeffrey Dastin, „  Amazon usuwa tajne narzędzie do rekrutacji AI, które pokazało uprzedzenia kobiet contre  ” na Reuters.com ,10 października 2018(dostęp 14 lipca 2020 r . ) .
  16. (w) Anja Lambrecht i Catherine Tucker , „  Dyskryminacja algorytmiczna? : pozorna stronniczość algorytmiczna w wyświetlaniu reklam tematycznych  ” , Manuskrypt nieopublikowany, Massachusetts Institute of Technology ,2017
  17. (w) Aylin Caliskan , Joanna J. Bryson i Arvind Narayanan , "  Semantyka wywodząca się automatycznie z korpusów językowych zawiera uprzedzenia podobne do ludzi  " , Science ,14 maja 2017 r.( DOI  10.1126 / science.aal4230 , czytaj online ).
  18. (w) Joy Buolamwini i Timnit Gebru , „  Gender Shades: Accuracy Intersectional Gender Disparities in Commercial Classification – MIT Media Lab  ” , Proceedings of Machine Learning Research ,2018( przeczytaj online )
  19. http://gendershades.org/
  20. (w) Paul Lewis i Erin McCormick, „  Jak eks-insider YouTube badał tajny algorytm icts  ” , The Guardian ,2 lutego 2018( przeczytaj online ).
  21. (w) James Vincent, „  Twitter nauczył chatbota przyjaznego AI Microsoftu, jak być rasistowskim dupkiem w niecały dzień  ” , The Verge ,24 marca 2016( przeczytaj online ).
  22. (w) Julia Angwin , Jeff Larson , Surya Mattu i Lauren Kirchner , "  Machine Bias  " , ProPublica ,23 maja 2016( przeczytaj online )
  23. (en) Catherine D'Ignazio i Lauren F. Klein , „2. Collect, Analyze, Imagine, Teach” , w Data Feminism , MIT Press,2020( przeczytaj online )
  24. "  Jak walczyć z algorytmicznymi uprzedzeniami?  » , Na Microsoft RSLN ,18 listopada 2016(dostęp 16 lutego 2018 )
  25. Frank Pasquale , Towarzystwo Czarnej Skrzynki , Wydawnictwo Uniwersytetu Harvarda,5 stycznia 2015( ISBN  978-0-674-73606-1 , czytaj online )
  26. Jenna Burrell , „  Jak maszyna „myśli”: Zrozumienie nieprzezroczystości w algorytmach uczenia maszynowego  ” , „ Big Data & Society” , tom.  3, N O  1,6 stycznia 2016, s.  205395171562251 ( ISSN  2053-9517 i 2053-9517 , DOI  10.1177 / 2053951715622512 , przeczytane online , dostęp 23 czerwca 2021 )
  27. (en-US) „  Google to 2 miliardy wierszy kodu — i to wszystko w jednym miejscu  ” , Wired ,2015( ISSN  1059-1028 , przeczytany online , dostęp 23 czerwca 2021 )
  28. Diakopoulos, N i Friedler, S, „  Jak utrzymać odpowiedzialne algorytmy  ”, Przegląd technologii MIT ,17 listopada 2016
  29. Nick Seaver , „  Algorytmy jako kultura: niektóre taktyki dla etnografii systemów algorytmicznych  ”, „ Big Data & Society” , tom.  4, N O  29 listopada 2017 r., s.  205395171773810 ( ISSN  2053-9517 i 2053-9517 , DOI  10.1177 / 2053951717738104 , przeczytane online , dostęp 23 czerwca 2021 )
  30. (w) Angèle Christin , „  Etnograf i algorytm: poza czarną skrzynką  ” , Teoria i społeczeństwo , tom.  49, Bez kości  5-6,październik 2020, s.  897-918 ( ISSN  0304-2421 i 1573-7853 , DOI  10.1007 / s11186-020-09411-3 , odczyt online , dostęp 23 czerwca 2021 )
  31. Ruha Benjamin , Wyścig za technologią: narzędzia abolicjonistyczne dla New Jim Code ,2019( ISBN  978-1-5095-2640-6 , 1-5095-2640-4 i 978-1-5095-2639-0 , OCLC  1078415817 , czytać online )
  32. 祖博夫 (Zuboff, Shoshana), 1951-文字作者 ,監控 資本主義 時代 = Wiek kapitalizmu nadzoru: walka o ludzką przyszłość na nowej granicy władzy ( ISBN  978-957-13-8116-9 , 957 -13-8116-0 i 978-957-13-8117-6 , OCLC  1199122574 , czytaj online )
  33. David Beer , The Data Gaze: Capitalism, Power and Perception , SAGE Publications Ltd,2019( ISBN  978-1-5264-3692-4 i 978-1-5264-8534-2 , czytaj online )
  34. (w) Julia Powles , „  Odważna , błędna próba uczynienia algorytmów odpowiedzialnymi w Nowym Jorku  ” , The New Yorker ,21 grudnia 2017 r.( ISSN  0028-792X , przeczytany online , dostęp 16 lutego 2018 )
  35. (w) kinjal Dave, „  Systemic Algorithmic Harms  ” , Data & Society ,31 maja 2019 r.( przeczytaj online ).
  36. (w) "  Autor - KODOWANE BIAS  " na kodowane BIAS (dostęp na 1 st listopada 2020 ) .

Zobacz również

Powiązane artykuły