Jak budować etykę w AI - część I

Zalecenia oparte na badaniach, aby utrzymać ludzkość w AI

„Heart Shaped” autorstwa dimdimicha

Jest to część pierwsza dwuczęściowej serii o tym, jak wbudować etykę w sztuczną inteligencję. Część pierwsza koncentruje się na kultywowaniu kultury etycznej w firmie i zespole, a także na zachowaniu przejrzystości w firmie i na zewnątrz. Część druga koncentruje się na mechanizmach usuwania wykluczenia z danych i algorytmów. Każde zalecenie zawiera przykłady etycznych błędów i tego, jak można im zapobiec lub je złagodzić.

Wydaje się, że każdego dnia pojawiają się artykuły o tym, jak system sztucznej inteligencji (AI) spowodował przestępstwo (np. Oznaczanie Afroamerykanów jako „goryle”) lub faktyczną szkodę, gdy intencja mogła mieć dobre intencje (np. Uprzedzenia rasowe w wyroku skazującym rekomendacje i stopy procentowe).

Programiści w każdym z tych systemów nie zamierzali nikogo urazić ani skrzywdzić i nie przewidywali negatywnych skutków, ale czy powinni to zrobić? Jeśli projektujesz i budujesz system sztucznej inteligencji, czy możesz budować etykę? Niezależnie od roli w organizacji, czy możesz pomóc zapewnić, że Twój system sztucznej inteligencji prowadzi do bardziej sprawiedliwego społeczeństwa, niż utrwalać uprzedzenia społeczne? Odpowiedź na wszystkie te pytania brzmi: „Tak!”

Czyń dobrze i czyń dobrze

Dyrektor generalny Salesforce, Marc Benioff, powiedział: „Moimi celami dla firmy są dobre i dobre”. Jest to sedno naszych podstawowych wartości, takich jak zaufanie, równość i innowacja. Jesteśmy głęboko przekonani, że możemy stać na czele innowacji, odnosić sukcesy i być siłą na świecie. Pracujemy wewnętrznie nad wbudowaniem etyki w Einstein (nasz system sztucznej inteligencji) i współpracujemy z innymi członkami wspólnego partnerstwa na rzecz sztucznej inteligencji.

Osadzanie etyki w systemie sztucznej inteligencji wymaga czasu i może wymagać od ciebie pracy w inny sposób niż zawsze. Biorąc jednak pod uwagę ogromny potencjał zarówno szkód, jak i korzyści z AI, bardzo ważne jest, abyś zainwestował!

Podejście kompleksowe

Proces budowania etyki w systemie można podzielić na trzy etapy z kilkoma krokami:

  1. Stwórz kulturę etyczną
  2. Bądź przejrzysty
  3. Usuń wykluczenie

Stwórz kulturę etyczną

Jeśli nie zbudujesz silnych podstaw, aby zacząć, wysiłek wymagany do osiągnięcia sukcesu zawsze będzie większy. Wiąże się to z budowaniem zróżnicowanego zespołu, kultywowaniem etycznego sposobu myślenia i przeprowadzaniem analizy systemów społecznych.

Zbuduj zróżnicowany zespół

Rekrutuj do różnych środowisk i doświadczeń, aby uniknąć stronniczości i luk w funkcjach.

Kiedy w 2014 r. Pojawił się zestaw Apple HealthKit, mógł on śledzić zawartość alkoholu we krwi, ale nie można było śledzić najczęstszych problemów zdrowotnych, z którymi kobiety borykają się co miesiąc.

Badania pokazują (1, 2, 3, 4, 5, 6), że różnorodne zespoły (w tym doświadczenie, rasa, płeć) są bardziej kreatywne, pracowite i pracowite. Zwiększenie liczby kobiet na wszystkich szczeblach, zwłaszcza najwyższego kierownictwa, prowadzi do wyższych zysków.

Brak różnorodności tworzy komorę echa i powoduje tendencyjne produkty i luki w cechach. Gdyby zespół opracowujący HealthKit firmy Apple miał więcej (jakieś?) Kobiet w zespole, prawdopodobnie zidentyfikowałyby rażąco nieobecną funkcję dla 50% populacji. Ten przykład wskazuje na brak różnorodności płci, ale potrzebne są wszystkie rodzaje różnorodności, od wieku i rasy po kulturę i edukację.

Jeśli nie możesz zatrudnić nowych członków, aby zbudować bardziej zróżnicowany zespół, odszukaj opinie od różnych pracowników w firmie i od bazy użytkowników.

Pielęgnuj etyczne nastawienie

Etyka to sposób myślenia, a nie lista kontrolna. Umożliwić pracownikom właściwe postępowanie.

Prezes Ubera przypisuje demaskatorom zmuszanie firmy do wprowadzania zmian i „rozwijania się jako firma, która postępuje właściwie”.

Sam fakt posiadania Głównego Urzędnika ds. Etyki nie powstrzymuje firm od popełniania etycznych błędów. Wynika to z faktu, że żadna osoba nie może ani nie powinna być odpowiedzialna za etyczne postępowanie firmy. W firmie musi być etyczne podejście.

Poszczególni pracownicy muszą być w stanie zrozumieć ze wszystkimi, że ich system AI ma wpływ. Firmy mogą pielęgnować etyczne podejście poprzez kursy, wewnętrzne grupy wsparcia i audyty równości.

Ponadto pracownicy powinni czuć się upoważnieni do ciągłego rzucania sobie wyzwania, pytając: „Czy to jest właściwe?” W recenzjach produktów i codziennych kontaktach ludzie powinni zadawać etyczne pytania dotyczące ich domen. Na przykład:

  • Menedżerowie produktu: „Jaki wpływ na nasz biznes ma algorytm fałszywie dodatni lub fałszywie ujemny?”
  • Badacze: „Na kogo nasz system wpłynie i jak? Jak można to nadużywać? Jak ludzie będą próbować rozbić produkt lub użyć go w niezamierzony sposób? ”
  • Projektanci: „Jakie wartości domyślne lub założenia wprowadzam do produktu? Czy projektuję to pod kątem przejrzystości i równości? ”
  • Naukowcy i modelerzy danych: „Jak optymalizując w ten sposób mój model, jakie konsekwencje stwarzam dla tych, których dotyczy ten problem?”

Gdy pracownicy są niezadowoleni z otrzymywanych odpowiedzi, musi istnieć mechanizm ich rozwiązywania.

Sam fakt posiadania Głównego Urzędnika ds. Etyki nie powstrzymuje firm od popełniania etycznych błędów. Wynika to z faktu, że żadna osoba nie może ani nie powinna być odpowiedzialna za etyczne postępowanie firmy. W firmie musi być etyczne podejście.

Przeprowadź analizę systemów społecznych

Zaangażuj interesariuszy na każdym etapie cyklu życia produktu, aby skorygować wpływ systemowych nierówności społecznych w danych AI.

Departament policji w Chicago zastosował przewidujący program policyjny oparty na sztucznej inteligencji, aby zidentyfikować osoby o najwyższym ryzyku bycia zaangażowanym w przemoc z użyciem broni. Program ten okazał się nieskuteczny w ograniczaniu przestępczości, ale doprowadził do aresztowania niektórych osób.

Analiza systemów społecznych to badanie grup i instytucji, które wchodzą w interakcje w ekosystemie. Zamiast zakładać, że system zostanie zbudowany, analiza systemów społecznych pyta, czy system powinien zostać zbudowany w pierwszej kolejności, a następnie przystępuje do projektowania systemu w oparciu o potrzeby i wartości zainteresowanych stron. Można tego dokonać, przeprowadzając etnografię w społeczności, na którą wpływ wywiera wpływ, lub uzyskując informacje zwrotne od komitetu nadzoru lub instytucji prawnej.

Nawiązując do przykładu przewidującego programu policyjnego w Chicago, Kate Crawford i Ryan Calo sugerują, co następuje: „Podejście oparte na systemach społecznych uwzględniałoby społeczną i polityczną historię danych, na których oparte są mapy temperatur. Może to wymagać konsultowania się z członkami społeczności i porównywania danych policyjnych z opiniami, zarówno pozytywnymi, jak i negatywnymi, na temat działań policji w sąsiedztwie. ”

Organizacje muszą zrozumieć, w jaki sposób ich twórczość wpływa na użytkowników i całe społeczeństwo. Rozumiejąc te wpływy, mogą określić te, które są najbardziej podatne na negatywne skutki systemu. Ze statystycznego punktu widzenia może istnieć tylko 1% szansa na fałszywie dodatni lub fałszywie ujemny wynik (doskonały z statystycznego punktu widzenia!), Ale dla 1% populacji wynik może być bardzo szkodliwy. Czy ryzyko i korzyści systemu są stosowane równomiernie wobec wszystkich? Kto korzysta i kto płaci na podstawie wyników sztucznej inteligencji? Zadanie tego pytania na każdym etapie rozwoju sztucznej inteligencji, w tym przed i po uruchomieniu, może pomóc w zidentyfikowaniu szkodliwego nastawienia i rozwiązaniu go.

Ze statystycznego punktu widzenia może istnieć tylko 1% szansa na wynik fałszywie dodatni lub fałszywie ujemny,… ale dla 1% populacji wynik może być wyjątkowo szkodliwy.

Bądź przejrzysty

Aby być etycznym, musisz być przejrzysty dla siebie, swoich użytkowników / klientów i społeczeństwa. Obejmuje to zrozumienie twoich wartości, wiedzieć, kto zyskuje, a kto płaci, dać użytkownikom kontrolę nad swoimi danymi i otrzymywać opinie.

Zrozum swoje wartości

Zbadaj wyniki i kompromis decyzji opartych na wartości.

Niektórzy obawiają się, że asystenci AI, tacy jak Siri i Google, zawsze nasłuchują. Zostały zaprojektowane, aby odgadnąć, co użytkownicy chcą wiedzieć, zanim zostaną o to poproszeni, zapewniając niezwykle przydatne informacje na czas. Jednak budzi to również obawy użytkowników dbających o prywatność i bezpieczeństwo.

Wartości osób lub firm mogą wchodzić w konflikt przy podejmowaniu decyzji, co prowadzi do kompromisów. Na przykład użytkownicy uwielbiają wygodę spersonalizowanych wyników, ale mogą martwić się tym, co firma o nich wie (prywatność) lub tym, co firma może im nie ujawnić (dyskryminacja). Niestety asystenci AI nie są tak przydatni dla wszystkich, ponieważ ich szkolenie wydaje się wykluczać głosy afroamerykańskie. Kiedy dokonuje się kompromisów, muszą być wyraźnie określone dla wszystkich zainteresowanych. Może to być trudne, jeśli algorytmy AI są „czarnymi skrzynkami”, uniemożliwiając ich twórcom dokładne poznanie sposobu podejmowania decyzji.

Konieczne jest ciągłe badanie wyników, aby zrozumieć wpływ tych kompromisów. Załóżmy, że twoja firma projektuje system bezpieczeństwa wzmocniony sztuczną inteligencją, który powoduje pewną utratę prywatności. Rozważ następujące:

  • Jeśli ochrona prywatności użytkowników jest podaną wartością firmy, pracownicy (nie tylko najwyżsi kierownicy) powinni być świadomi tego kompromisu.
  • Ponadto klienci i opinia publiczna powinni być informowani o tym, w jaki sposób na system ochrony wpływa indywidualna prywatność.
  • Jeśli jest to ukryte ze względu na obawy związane z luzem PR, należy zapytać: „Czy prywatność użytkowników jest naprawdę wartością firmy?”

Wyjaśnienie, dlaczego firma dokonała kompromisu i co robi, aby złagodzić szkody, może znacznie przyczynić się do utrzymania zaufania społeczeństwa.

Daj użytkownikom kontrolę nad ich danymi

Zezwalaj użytkownikom na poprawianie lub usuwanie zgromadzonych na ich temat danych.

Celem Google jest sprawienie, aby światowe informacje były „powszechnie dostępne i przydatne”. Od 2014 r. Otrzymali 2,4 miliona „prawa do bycia zapomnianym” w celu usunięcia informacji, które osoby prywatne, politycy i agencje rządowe uznają za szkodliwe. Google spełniło jednak tylko 43,3% wniosków.

Firmy mogą gromadzić i śledzić oszałamiającą ilość danych o swoich użytkownikach online, w sklepach i z urządzeń z dostępem do Internetu (IoT). Etyczne jest jedynie zezwolenie użytkownikom na sprawdzenie, jakie dane o nich zgromadziłeś, oraz na ich poprawienie lub pobranie i usunięcie danych. Jeśli Twoja firma prowadzi działalność w UE, musisz znać ogólne unijne przepisy o ochronie danych (RODO) i ich wpływ na to, co możesz gromadzić i przechowywać, a także zasady pozwalające użytkownikom / klientom na pobieranie i usuwanie ich danych .

Ponadto upewnij się, że możliwe jest dokładne przedstawienie danych. Na przykład, czy użytkownicy mogą podać swoją płeć, jeśli zidentyfikują się jako pliki niebinarne? Czy mają opcję wyboru więcej niż jednego pochodzenia rasowego?

Jeśli zebrane dane są anonimowe i użytkownicy nie mogą zobaczyć dokładnie tego, co firma o nich wie, i je edytować, wyraźnie komunikują rodzaj zgromadzonych danych i umożliwiają osobom rezygnację. Jeśli użytkownicy nie mogą korzystać z produktu bez gromadzenia danych, również to przekaż.

Weź opinię

Pozwól użytkownikom wyrazić opinię o wnioskach AI na ich temat.

Trzy krajowe biura kredytowe zbierają informacje o osobach, aby tworzyć raporty kredytowe, których pożyczkodawcy używają do określania ryzyka potencjalnego kredytobiorcy. Osoby fizyczne nie mogą zdecydować o gromadzeniu danych i muszą przejść uciążliwe okresy, aby naprawić nieprawidłowe dane lub wnioski na ich temat.

Wnioski wyciągnięte na temat osoby (np. Wysokie ryzyko niewywiązania się z kredytu) mogą mieć szkodliwe konsekwencje bez wiedzy i kontroli osoby fizycznej (np. Niemożność uzyskania pożyczki). Niestety, osoby najbardziej dotknięte sztuczną inteligencją i „dużymi zbiorami danych” to już zmarginalizowane, biedniejsze, pozbawione głosu społeczności (np. Osoby bez dostępu do Internetu, które nie mogą szybko zobaczyć swoich raportów kredytowych lub wniosków o korektę).

Prawo UE wymaga, aby decyzje AI o poważnych konsekwencjach były sprawdzane przez człowieka z możliwością obejścia go; jednak pojedynczy punkt danych w oderwaniu jest bez znaczenia bez zrozumienia decyzji podjętych w sprawie innych (np. czy zalecenie zatwierdzenia pożyczki jest inne dla klientów czarnych kontra białych, pomimo że wszystkie inne czynniki są podobne?). Ważne jest, aby rozumieć zalecenia lub prognozy sztucznej inteligencji w kontekście.

Zachowanie przejrzystości w odniesieniu do wniosków i pozwalanie osobom na udzielanie informacji zwrotnych nie tylko pozwala poprawić dokładność twojego modelu, ale także pozwala skorygować dyskryminację. Może to być zaletą w stosunku do konkurentów, którzy nieuczciwie zwalniają realnych klientów. Na przykład bank, który odrzuca dużą liczbę osób ubiegających się o pożyczki jako zbyt wysokie ryzyko, może zidentyfikować mikropożyczki jako alternatywną ofertę, która nie tylko wspiera społeczność, ale także prowadzi do powstania lojalnej bazy klientów, którą konkurenci banku zignorowali. Dzięki temu klienci mogą poprawić swoją sytuację finansową i lepiej wykorzystać ofertę banku, co przekłada się na korzystny cykl.

Wioska robi różnicę

Od kultywowania kultury etycznej po przejrzystość wartości firmy i wzmacnianie pozycji klientów - firma i jej pracownicy powinni podjąć wiele działań, aby stworzyć etyczne podstawy do budowania produktów AI. Aby dowiedzieć się, jak usunąć wykluczenie z produktów opartych na sztucznej inteligencji, zapoznaj się z częścią II.

Bardzo chciałbym usłyszeć, co myślisz! Co robi Twoja firma i Ty osobiście, aby stworzyć etyczne podstawy w swojej pracy?

Dziękuję Justin Tauber, Liz Balsam, Molly Mahar i Raymon Sutedjo-The za wszystkie opinie!

Śledź nas na @SalesforceUX.

Chcesz z nami współpracować? Skontaktuj się z uxcareers@salesforce.com