Źródło zdjęcia: Nick Philip

Obejmowanie przyszłości dzięki autonomicznym i inteligentnym systemom

Joi Ito, dyrektor, MIT Media Lab

Po raz pierwszy spotkałem Johna Havensa w okrągłym stole Aspen Institute, aby omówić przyszłość sztucznej inteligencji. Zawsze wyobrażałem sobie IEEE jako miejsce, w którym inżynierowie opracowują praktyczne standardy techniczne i publikują rygorystyczne czasopisma akademickie, więc byłem zaskoczony - i podekscytowany - gdy zobaczyłem, jak propaguje znaczenie etyki w autonomicznych i inteligentnych systemach w tak dopracowany i całościowy sposób. Wkrótce opracowaliśmy początek Światowej Rady ds. Rozszerzonej Inteligencji (CXI) i jej mandatu: aby zapewnić, że narzędzia te przyniosą korzyści ludziom i planecie, uczynić nasze systemy bardziej solidnymi i odpornymi oraz nie wzmacniają negatywnych tendencyjności systemowych.

MIT Media Lab ma długą historię z dyscypliną uczenia maszynowego i sztucznej inteligencji, zaczynając od pracy założyciela Marvina Minsky'ego. Ale jesteśmy daleko od 1985 roku i do ideałów i optymizmu, które kiedyś istniały na tym polu. W miarę upływu czasu, a interfejsy między ludźmi i maszynami zapoczątkowały słynne zabawki techniczne i ważne udogodnienia, konsekwencje tej pracy i tworzonych przez nią podziałów stawały się coraz bardziej oczywiste.

Odwiedź dowolne piętro Media Lab, a zobaczysz studentów i wykładowców zajmujących się tymi nowymi problemami: doktorant Joy Buolamwini pracuje nad ulepszeniem oprogramowania do rozpoznawania twarzy, w którym stronnicze zestawy danych prowadzą do trudności w identyfikowaniu kobiet i osób o ciemniejszej skórze; Profesor Iyad Rahwan i jego uczniowie oceniają przyszłość pracy i pracowników w świecie, który staje się coraz bardziej zautomatyzowany; a nasza klasa z Harvard Berkman Klein Center zajmuje się etyką i zarządzaniem AI.

Właśnie dlatego ta współpraca jest dla mnie tak ważna i, moim zdaniem, różni się od innych grup, które obecnie zajmują się przyszłością sztucznej inteligencji. Podczas gdy inżynierowie i technolodzy poważnie podchodzą do etyki i problemów społecznych związanych z uczeniem maszynowym, wielu po prostu nie uważa, że ​​ich zadaniem jest rozwiązywanie tych problemów. Biorąc pod uwagę potęgę, taką jak The Institute of Electrical and Electronics Engineers Association Association (IEEE-SA) - samą grupę, która reprezentuje inżynierów i ich interesy - zmienia paradygmat. Etyka, wartości będą częścią rozmowy inżynierskiej.

Wspólnie spróbujemy dać ludziom narzędzia do życia ze sztuczną i rozszerzoną inteligencją, zamiast czuć, że zostaną zastąpione lub zniszczone przez maszyny. Uznaje również, że nie możemy dalej mierzyć sukcesu w kategoriach czysto ekonomicznych ani szukać rozwiązań uniwersalnych - musimy pamiętać, że jesteśmy częścią sieci złożonych, samodopasowujących się systemów, które obejmuje także używane przez nas narzędzia i środowiska, w których żyjemy.

Do tej pory ponad 50 naukowców i profesorów podpisało umowę z CXI, w tym Jeffrey Sachs z Columbia University, były Harvard Law School Dean Martha Minow, Jonathan Zittrain z The Berkman Klein Center i Paul Nemitz z Komisji Europejskiej. Planujemy od razu wdrożyć trzy projekty: wprowadzić szersze informacje wywiadowcze i partycypacyjne dla decydentów i ogółu społeczeństwa; stworzyć szablon polityki danych dla rządów i organizacji, aby pomóc ludziom zachować kontrolę nad ich tożsamością cyfrową; i stworzyć szablon wskaźnika dobrobytu dla rządów i organizacji, aby na nowo zdefiniować „dobrobyt” w sposób, który docenia rozkwit człowieka i naturalne ekosystemy.

Chociaż te pomysły wciąż ewoluują, ostatecznym celem jest zachęcenie do rozmowy i współpracy - nie możemy odpowiedzieć na pytania, które te nowe technologie stawiają bez wkładu i informacji zwrotnej od wszystkich, którzy je opracowują, wykorzystują je lub będą na nie wpływać.