Budowanie bezpiecznej sztucznej inteligencji: kompleksowy przewodnik po łagodzeniu uprzedzeń, włączających zbiorach danych i kwestiach etycznych

Sztuczna inteligencja (AI) ma ogromny potencjał w zakresie transformacji społecznej i przemysłowej. Jednak zapewnienie, że systemy sztucznej inteligencji są bezpieczne, sprawiedliwe, integracyjne i godne zaufania, zależy od jakości i integralności danych, na których są budowane. Stronnicze zbiory danych mogą tworzyć modele sztucznej inteligencji, które utrwalają szkodliwe stereotypy, dyskryminują określone grupy i dają niedokładne lub niewiarygodne wyniki. W tym artykule zbadano złożoność tendencyjności danych, nakreślono praktyczne strategie jej łagodzenia i zagłębiono się w znaczenie budowania inkluzywnych zbiorów danych do szkolenia i testowania modeli sztucznej inteligencji [1].

Zrozumienie złożoności tendencyjności danych

Dane odgrywają kluczową rolę w rozwoju modeli sztucznej inteligencji. Stronniczość danych może infiltrować systemy sztucznej inteligencji na różne sposoby. Poniżej znajduje się zestawienie podstawowych rodzajów tendencyjności danych wraz z przykładami z prawdziwego świata [1,2]:

Typ stronniczości

Opis

Przykłady ze świata rzeczywistego

Błąd selekcji

Wykluczenie lub niedostateczna/nadmierna reprezentacja określonych grup

* System rozpoznawania twarzy o słabej wydajności w przypadku osób o ciemniejszej karnacji ze względu na ograniczoną różnorodną reprezentację w danych szkoleniowych.

* Model oparty na ankietach odzwierciedlający głównie populacje miejskie, co czyni go nieodpowiednim do alokacji zasobów w całym kraju.

Błąd informacyjny

Błędy, nieścisłości, brakujące dane lub niespójności

* Nieaktualne dane spisu ludności prowadzące do niedokładnych prognoz dotyczących sąsiedztwa.

* Niekompletna historia pacjenta wpływająca na diagnozy stawiane przez medyczną sztuczną inteligencję.

Błędne etykietowanie

Subiektywne interpretacje i nieświadome uprzedzenia w sposobie etykietowania danych

* Historyczne uprzedzenia zakodowane w etykietowaniu obrazów, prowadzące do szkodliwych błędnych klasyfikacji.

* Subiektywne kryteria oceny w modelu ryzyka kredytowego, nieumyślnie stawiające w niekorzystnej sytuacji niektóre grupy społeczno-ekonomiczne.

Stronniczość społeczna

Odzwierciedla istniejące nierówności, dyskryminujące trendy i stereotypy w danych.

* Osadzanie słów kodujące uprzedzenia ze względu na płeć na podstawie historycznych danych tekstowych.

* Systemy zatwierdzania pożyczek oparte na sztucznej inteligencji nieumyślnie utrwalają dyskryminujące praktyki kredytowe z przeszłości.

Konsekwencje stronniczości danych

Nieobiektywne modele sztucznej inteligencji mogą mieć daleko idące konsekwencje:

  • Dyskryminacja: Systemy AI mogą dyskryminować ze względu na chronione atrybuty, takie jak rasa, płeć, wiek lub orientacja seksualna.
  • Utrwalanie stereotypów: Nieobiektywne modele mogą wzmacniać i potęgować szkodliwe stereotypy społeczne, jeszcze bardziej utrwalając je w systemach decyzyjnych.
  • Niedokładne lub niewiarygodne wyniki: Modele sztucznej inteligencji zbudowane na tendencyjnych danych mogą dawać znacznie gorsze lub niesprawiedliwe wyniki dla określonych grup lub kontekstów, zmniejszając ich użyteczność, wartość i wiarygodność.
  • Erozja zaufania: Odkrycie stronniczości w modelach sztucznej inteligencji może zaszkodzić zaufaniu publicznemu, opóźniając korzystne przyjęcie technologii.

Strategie zwalczania stronniczości

Budowanie sprawiedliwej sztucznej inteligencji wymaga wielopłaszczyznowego podejścia obejmującego narzędzia, planowanie, przejrzystość i ludzki nadzór:

  • Narzędzia łagodzące uprzedzenia: Ramy takie jak IBM AI Fairness 360 oferuje algorytmy i wskaźniki umożliwiające identyfikację i redukcję stronniczości w całym cyklu rozwoju sztucznej inteligencji.
  • Progi sprawiedliwości: Techniki, takie jak parytet statystyczny lub równość szans, określają ilościowe cele w zakresie sprawiedliwości.
  • Powiększanie danych: Techniki nadpróbkowania i generowanie danych syntetycznych mogą pomóc w rozwiązaniu problemu niedostatecznej reprezentacji określonych grup, poprawiając wydajność modelu.
  • Plany zarządzania danymi (DMP): Kompleksowy DMP zapewnia integralność danych i określa protokoły gromadzenia, przechowywania, bezpieczeństwa i udostępniania.
  • Arkusze danych: Szczegółowa dokumentacja cech zbioru danych, ograniczeń i zamierzonych zastosowań promuje przejrzystość i pomaga w podejmowaniu świadomych decyzji. [3].
  • Człowiek w pętli: Modele sztucznej inteligencji powinny być uzupełniane przez ludzki nadzór i walidację, aby zapewnić bezpieczne, etyczne wyniki, a także zachować odpowiedzialność.
  • Zaawansowane techniki: W przypadku złożonych scenariuszy proszę zbadać ponowne ważenie, ponowne próbkowanie, przeciwstawne uczenie się, analizę kontrfaktyczną i modelowanie przyczynowe w celu zmniejszenia uprzedzeń.

Wytyczne dotyczące planów zarządzania danymi (DMP)

Podczas gdy zarządzanie danymi może wydawać się prostym dokumentem. Dobrze opracowany plan zarządzania danymi może mieć ogromne znaczenie dla zmniejszenia stronniczości i bezpiecznego rozwoju sztucznej inteligencji

  • Względy etyczne: DMP powinny wyraźnie odnosić się do prywatności, świadomej zgody, potencjalnych źródeł uprzedzeń i potencjału nieproporcjonalnego wpływu.
  • Pochodzenie danych: Dokumentowanie pochodzenia, przekształceń i własności w celu zapewnienia możliwości audytu w czasie.
  • Kontrola wersji: Utrzymywanie przejrzystych systemów wersjonowania zbiorów danych w celu umożliwienia odtwarzalności i śledzenia zmian.

Ewolucja arkuszy danych w celu zapewnienia przejrzystości

Wiedza o tym, w jaki sposób i co zostało wykorzystane do trenowania modeli AI, może ułatwić ocenę, a także odnieść się do roszczeń. Arkusze danych w tym przypadku odgrywają ważną rolę, ponieważ pomagają zapewnić następujące informacje

  • Przejrzystość motywacyjna: Proszę przedstawić cel utworzenia zbioru danych, zamierzone zastosowania i znane ograniczenia. [3].
  • Szczegółowy skład: Zapewniają statystyczne zestawienia cech danych, korelacji i potencjalnych anomalii. [3].
  • Kompleksowy proces windykacji: Proszę opisać metody pobierania próbek, sprzęt, źródła błędów i uprzedzenia wprowadzone na tym etapie.
  • Przetwarzanie wstępne: Czyszczenie dokumentów, etapy transformacji i techniki anonimizacji.
  • Zastosowania i ograniczenia: Proszę wyraźnie określić odpowiednie zastosowania i scenariusze, w których występują obawy etyczne lub ograniczenia stronniczości. [3].

Sprawiedliwość AI to podróż

Osiągnięcie bezpiecznej sztucznej inteligencji jest ciągłym przedsięwzięciem. Regularne audyty, zewnętrzne mechanizmy informacji zwrotnej i zaangażowanie w ciągłe doskonalenie, w odpowiedzi na zmieniające się normy społeczne, są niezbędne do budowania godnych zaufania i sprawiedliwych systemów sztucznej inteligencji.

Odniesienia

1. Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Analiza uprzedzeń rasowych w algorytmie używanym do zarządzania zdrowiem populacji. Science, 366(6464), 447-453.

2. Rajkomar, A., Hardt, M., Howell, M. D., Corrado, G., & Chin, M. H. (2018). Zapewnienie sprawiedliwości w uczeniu maszynowym w celu zwiększenia równości w zdrowiu. Annals of Internal Medycyna, 169(12), 866-872.

3. Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Karty modeli do raportowania modeli. Proceedings of the Conference on Fairness, Accountability, and Transparency, 220-229.