Umoralnianie robota
Szymon Wróbel
Troje specjalistów w różnych dziedzinach (neuronauka, analiza danych, etyka, informatyka, teoria gier) porusza aktualny problem etycznych wyzwań związanych ze sztuczną inteligencją. Wierzą oni, że w AI kryją się w ogromne możliwości czynienia dobra i zła. Zadają proste pytanie: jak zwiększyć korzyści płynące z zastosowania AI i ograniczyć związane z nią zagrożenia?
Autorzy, którzy chcą umoralnić AI, wierzą, że wszystko zależy od nas, moralnych istot zdolnych do stworzenia społeczeństwa robotów. Czy jednak możliwe jest rozwiniecie metamoralnego narzędzia do badania moralności sztucznej inteligencji? Czy rzeczywiście stale wszystko zależy od nas? Od nas, czyli kogo? Inżynierów? Polityków? Moralistów? Kapłanów? Naukowców? Właścicieli przedsiębiorstw? Czy wyobrażalna jest udoskonalona sztuczna demokracja opierająca się na sądach moralnych pozyskiwanych od ludzi, ale skorygowanych przez algorytmy uczące się, eliminujące błędy oparte na niewiedzy, dezorientacji i uprzedzeniach? Wątpię w tego rodzaju przedsięwzięcie. Autorzy pytają, czy AI będzie kontrolować cały nasze życie, pozbawi nas prywatności, pracy, prawa do prawdy, autonomii, a nawet „inteligencji” i przede wszystkim władzy? Stawiają na szali ludzi i roboty, pytają, kogo należy bać się bardziej: autonomicznych pojazdów czy pijanych kierowców, uzbrojonych dronów czy straumatyzowanych żołnierzy, „ludzkich”, ale omylnych sądów i wyroków sądowych, czy może „nieludzkich” aplikacji sądowniczych pozwalających na profilowanie przestępców lub obwinionych? Czy sztuczną inteligencję można pociągnąć do odpowiedzialności? Jak wbudować moralność w AI do wspomagania decyzji o przeszczepie nerek? A zatem: należy patrzeć na rozwój technologii z nadzieją czy lękiem?
Autorzy zasadnie zaszczepiają w nas niepewność w kwestiach moralnych. Kto ma większe uprzedzenia – sędziowie czy sztuczna inteligencja? Narzędzie do oceny ryzyka kryminalnego umożliwiające profilowanie przestępców zostało stworzone z myślą o pomocy sędziom w podejmowaniu decyzji o alternatywnych karach dla oskarżonych, takich jak skierowanie na leczenie uzależnienia lub program resocjalizacji. Służąca do tych celów aplikacja COMPAS pozwala podejmować decyzje także w innych kwestiach, takich jak zwolnienie z kaucją, wydawanie wyroków i udzielanie zgody na zwolnienie warunkowe. Czy COMPAS jednak traktuje sprawiedliwie różne grupy oskarżonych? Okazało się, że reguły użyte w systemie wytypują z większym prawdopodobieństwem czarnych oskarżonych na przyszłych przestępców, a nie tych o białym kolorze skóry. Czy zatem AI to naprawdę czysta matematyka, czy też odbicie uprzedzeń rasowych swoich twórców? Obserwując rozwój AI w takich dziedzinach jak transport, wojskowość, polityka, prawo, medycyna, finanse, marketing, media, bezpieczeństwo, środowisko, autorzy twierdzą, że szklanka jest do połowy pusta, i do połowy pełna. Chcą zrozumieć, jak AI może wpływać na bezpieczeństwo (kontrolę nad światem), równość (dostęp do usług medycznych, prawnych, finansowych), prywatność (śledzenie naszych transakcji, komunikacji, wyborów konsumenckich), wolność (ograniczenie swobody religijnej lub politycznej), oszustwa (deepfake, fałszywe doniesienia prasowe, zdjęcia, filmy). Nie mają jednak pewności, jak zdefiniować sztuczną inteligencję. Gdy w 1955 roku amerykański informatyk John McCarthy ukuł to określenie, rozumiał je jako naukę i technikę konstruowania inteligentnych urządzeń. Dziś jednak urządzenia AI zarządzają w większym stopniu obszarami naszego życia.
Dla autorów Moralnej AI sztuczna inteligencja jest „systemem maszynowym, który po postawieniu przez człowieka określonych celów potrafi przewidywać, przedstawiać rekomendacje lub podejmować decyzje wpływające na środowisko rzeczywiste lub wirtualne z wystarczającą niezawodnością”. Niezawodność można badać, ale czy będziemy testować AI jakimiś skalami moralności? Tym jest to trudniejsze, że mamy wiele rodzajów AI. Sztuczna inteligencja jest „wąska”, gdy realizuje ściśle wybrane zadanie, na przykład selekcjonowanie zdefiniowanego zbioru, natomiast „szeroka”, gdy nie jest wyspecjalizowana i wykonuje wielorakie zadania, w tym takie, które nie przyszły do głowy jej twórcom. Ta ostatnia opiera się na modelach językowych i ogromnej masie danych. Nawet jednak zaawansowane chatboty nie są w stanie prowadzić samochodu, a zatem nadal stanowią przykład „wąskiej” inteligencji.
Sztuczna inteligencja może być też „słaba” lub „silna”. „Słaba” AI jest tylko zestawem narzędzi obliczeniowych naśladujących określone aspekty ludzkiej inteligencji. „Silna” to system wykorzystujący analogiczne procesy, tyle, że do nowych zadań. „Słaba” AL nie jest jednak nigdy „słaba”, skoro system Deep Blue, który pokonał w 1997 Garriego Kasparowa, będąc odmianą „słabej” AI, mógł w jednej sekundzie ocenić od stu do trzystu milionów możliwych ruchów i wybrać najlepsze posunięcia. Deep Blue nie uczył się i nie poprawiał swoich reguł w sposób automatyczny, a już na pewno nie grał w szachy na sposób ludzki.
Mamy wreszcie „starą dobrą sztuczną inteligencję” przeprowadzającą obliczenia, których sens sprowadza się do rozwiązania zadania z kilkoma zmiennymi, na przykład zaplanowania cyklu spotkań przy uwzględnieniu ograniczeń czasowych uczestników oraz dostępności pomieszczeń. I mamy uczącą się AI, która dobiera środki zgodnie ze zdobywanym doświadczeniem. Pewne modele uczenia maszynowego nazywane „modelami nienadzorowanymi” lub generatywnymi zdolne są wykrywać wzorce w danych na tyle dobrze, by potem na ich podstawie tworzyć nowe wzorce przypominające te, na których system się wyszkolił. Dzięki takiemu podejściu system Alpha Go należący obecnie do Google zdołał pokonać w 2016 roku Lee Sedola, najlepszego na świecie gracza w go. Można wierzyć, że AI zwiększy efektywność ludzkich działań zbiorowych, natomiast osobiście nie wierzę, że podniesie moralną świadomość człowieka. Być może AI potrafi uzasadnić, a nawet zaproponować jakąś zasadę sprawiedliwości, nie wyjaśni jednak czegoś, co John Rawls nazywał pojęciem „dobra sprawiedliwości”. Nie jest ona w stanie poddać świadomej refleksji konkurencyjnych opcji i wartości w celu zaproponowania kompromisu między zamiłowaniem wolności a potrzebą ustanowienia równości. Gdyby taką równowagę zaproponowały współczesne systemy uczące się AI, to byłby to koniec świata, jaki znaliśmy przez stulecia, albowiem to maszyny uczyłyby nas matematycznej (dystrybutywnej) moralności. Refleksyjna równowaga nie może jednak zostać zaprojektowana lub zaprogramowana, ponieważ jest wytwarzana w żywiołowym procesie społecznym, historycznym i politycznym.