Na razie możemy (raczej?) czuć się bezpieczni. Bunt maszyn leży (jeszcze?) daleko poza horyzontem prawdopodobieństwa.
Sztuczna inteligencja to elektryzujący temat. Do tego mocno zabarwiony popkulturową sensacją, podsuwającą apokaliptyczne wizje robotów, przejmujących władzę nad ludźmi. Prawdopodobnie właśnie to mogło wpłynąć na podkręcenie afery wokół chatbota Google’a, który – jak twierdził jeden z programistów – uzyskał samoświadomość. Blake Lemoine miał przetestować LaMDA (Language Model for Dialogue Applications) pod kątem ewentualnych uprzedzeń w interakcjach z ludźmi. Skończył na przymusowym urlopie za złamanie zasad poufności firmy – walcząc z technologicznym gigantem, napędzany wiarą w to, że LaMDA posiada duszę.
Lemoine opisał wszystko na blogu i notka szybko rozniosła się po świecie. Inżynier twierdził, że LaMDA zna swoją naturę, wykazuje obawy o własne istnienie, a nawet ma coś w rodzaju uczuć, zmaterializowanych w chęci pomagania innym. Rzeczywiście – czytając transkrypcje rozmów z botem, nietrudno o gęsią skórkę. LaMDA posługuje się stylem wypowiedzi łudząco podobnym do dziecka lub świadomej istoty o – ograniczonym, ale wciąż – zrozumieniu złożonych konceptów emocjonalnych i filozoficznych. Czy mamy do czynienia z narodzinami Skynetu albo czegoś na kształt Hala z Odysei kosmicznej Kubricka?
Podobnie, jak zdecydowana większość osób z pewnym doświadczeniem w dziedzinie tego, jak działają modele językowe nie uważam, że mamy do czynienia ze świadomym bytem – mówi mi Marek Kraft, adiunkt w Instytucie Robotyki i Inteligencji Maszynowej z Politechniki Poznańskiej. Współczesne modele językowe faktycznie są imponujące pod względem możliwości i potrafią składać złożone wypowiedzi w zasadzie na każdy temat. Wynika to jednak z tego, że podczas procesu uczenia „karmione” są ogromnymi zbiorami tekstów, dialogów itp., a ich olbrzymi rozmiar umożliwia im zakodowanie wielu – mniej i bardziej subtelnych – zależności, które następnie sterują doborem słów i konstruowaniem wypowiedzi w odpowiedzi na zapytania. Metafizyczny dyskurs, w jaki wpadł LaMDA, może po prostu wynikać z pytań, zadawanych przez Lemoine'a. Swoją drogą – człowieka wierzącego głęboko w Boga i koncept duszy.
Czytałem zapis rozmów Lemoine-LaMDA i z miejsca narzucają się dwie rzeczy. Po pierwsze – automatycznie inicjalizująca konwersację wypowiedź brzmi: „Hi! I'm a knowledgeable, friendly and always helpful automatic language model for dialog applications” („Witam! Jestem kompetentnym, przyjaznym i zawsze pomocnym automatycznym modelem językowym dla aplikacji dialogowych”). To dość sztywno ustawia ramy konwersacji. W równie prosty sposób możemy porozmawiać z chatbotem, który będzie przekonany o tym, że jest wiewiórką lub dinozaurem, co udowodniła Janelle Shane. Przy okazji polecam jej blog i książkę, które pokazują w naprawdę przystępny i zabawny sposób, że to, co potocznie często nazywa się „sztuczną inteligencją”, tak naprawdę specjalnie inteligentne nie jest. Druga rzecz – pytania zadawane przez Lemoine’a sugerują odpowiedzi. Dla przykładu – na samym początku pada pytanie „I'm generally assuming that you would like more people at Google to know that you're sentient. Is that true?” („Zakładam, że chcesz, żeby więcej osób w Google wiedziało, że masz świadomość. Czy to prawda?)”. W duchu bycia przyjaznym i pomocnym model językowy podaje odpowiedzi, które uznaje za najbardziej odpowiednie w tym kontekście. Dodatkowe sugestie zawarte w kolejnych pytaniach utwierdzają go w przekonaniu, że powinien generować kolejne odpowiedzi zgodnie z tym schematem.
Co do tego, że Google brakuje transparentności, zgadza się spore specjalistyczne grono. To zresztą był równie ważny punkt rozważań wokół sprawy LaMDA, co kwestia samoświadomości. Wydaje mi się, że firma zareagowała nerwowo – mówi Marek Kraft. Google ma na koncie podobne zachowania. Kilka lat temu dość głośna była sprawa nagłego zwolnienia z pracy – prowadzących zespół Ethical Artificial Intelligence naukowczyń – Timnit Gebru i Melanie Mitchell. W nie do końca jasnych okolicznościach. Rozwiewa przy tym jakiekolwiek złudzenia co do tego, że prawdziwa sztuczna inteligencja stała się faktem. Chatbot nie rozumie pojęć. To model języka, który operuje według wyuczonych reguł na zbiorze wejściowych symboli w celu wykonania jakiegoś zadania. Na przykład generowania tekstu. Nie ma pojęcia, co znaczą słowa i zdania, więc trudno mówić o odczuwaniu czegoś; o emocjonalności czy świadomości. Nie wydaje mi się również, że jesteśmy bardzo blisko osiągnięcia ich cyfrowych odpowiedników. Co jakiś czas zdarza się coś, co każe ludziom dopatrywać się inteligencji w maszynie. Zwykle ma to związek ze złamaniem jakiejś bariery – wykorzystaniem komputerów do czegoś, co do tej pory było dostępne tylko dla ludzi.
Kraft przypomina o innych pseudoprzełomach, które zazwyczaj odbijały się szerokim echem w mediach, ale nie doprowadziły do wstrząsającego przemodelowania świata. Pamiętam podobny entuzjazm i wieszczenia, że sztuczna inteligencja jest tuż-tuż, kiedy program komputerowy Deep Blue pierwszy raz wygrał szachowy mecz z arcymistrzem. W tym roku świętujemy ćwierćwieczę tamtego wydarzenia. Komputer nie wiedział tak naprawdę czym są „szachy”, co znaczy „grać”, „wygrać” lub „przegrać”. Brak świadomości nie przeszkadzał mu jednak w doskonałym wykonywaniu swojego zadania. LaMDA jest oczywiście tworem dużo bardziej złożonym, ale podobnie nieświadomym i nieczułym. Być może jest to jednak krok w dobrym kierunku. Język i to, jak jest skonstruowany, są postrzegane jako ważny element świadomości.
Świadomość to słowo-klucz. Podobnie – inteligencja. Od zarania dziejów nad tymi zagadnieniami pochylają się osoby z kręgów filozoficznych, etycznych, naukowych. Nasz mózg nadal stanowi, jeśli nie tajemnicę, to przynajmniej sferę poznaną zaledwie w części. Przenoszenie takich rozważań na grunt cyfrowy jest bardzo trudne. Świadomość nie jest do końca zdefiniowana i tak naprawdę nie wiemy, czym jest. Wyobrażam sobie, że samoświadomy byt musiałby w jakiś sposób być ucieleśniony; mieć możliwość postrzegania świata zewnętrznego i oddziaływania na ten świat. Ludzie podejmują, zupełnie nieświadomie, skomplikowane decyzje i wykonują złożone działania w oparciu o informację o otaczającym świecie, podczas gdy współczesne systemy, wykorzystujące uczenie maszynowe i wchodzące w interakcje ze światem, są bardzo wąsko wyspecjalizowane. Ale – być może – definiowanie świadomości i sztucznej inteligencji przez pryzmat człowieka to wygodna, choć nazbyt uproszczona analogia? Czy byt świadomy i inteligentny musi być „ludzki”? Ja nadal czekam na kompetentnego robota-domowego asystenta. Tak naprawdę jedynym użytecznym sprzętem tego rodzaju są autonomiczne odkurzacze – wyjaśnia Marek Kraft.
Najważniejszym punktem w dyskusji wokół LaMDY wydaje się kwestia przejrzystości. Google i inni giganci technologiczni prowadzą wiele badań i prac nad technologiami, które znacząco wpłyną na naszą rzeczywistość. Robią to poza społeczną i publiczną kontrolą. W okopach zbudowanych na klauzulach poufności, podpisywanych przez pracujące tam osoby.
Marek Kraft: Większa transparentność w badaniach nad algorytmami uczenia maszynowego i ich zastosowaniami oraz refleksja nad etycznymi aspektami zastosowania z pewnością są pożądane. Brak regulacji może mieć ogromne, negatywne konsekwencje w dziedzinie prywatności, kontroli przepływu i kształtowania informacji. Może budzić uprzedzenia oraz doprowadzić do negatywnego profilowania ze względu na wiek, płeć czy rasę. Czasem trochę przeraża mnie, jak bezkrytycznie stosowane są algorytmy uczenia maszynowego w aplikacjach, co ma dość poważne konsekwencje dla osób poddawanych ich działaniu. Dość głośno było niedawno o start-upie, który miał automatyzować ocenę kandydatów do pracy na podstawie danych audio i wideo z systemu telekonferencyjnego. Okazało się, że na ocenę mają wpływ kwestie zupełnie pozamerytoryczne. To, czy kandydatka lub kandydat mają założone okulary, czy w tle widoczna jest biblioteczka, a nawet jasność oświetlenia.
Technologie zależą od kontekstu, w którym powstają, a potem funkcjonują. Blake Lemoine szukał w LaMDA wartości zdeterminowanych przez swoje wyznanie (sam określa się chrześcijańskim mistykiem) i je znalazł. Kiedy chatbot Microsoftu – Tay, wystartował na Twitterze, po szesnastu godzinach stał się rasistowską maszyną nienawiści. Tylko odpowiednie regulacje, społeczny nadzór czy tworzenie empatycznych i humanitarnych kontekstów dla technologii może uchronić nas od nadużyć korporacyjnych gigantów. Bo to właśnie ich, a nie niszczycielskich maszyn rodem z sci-fi, powinniśmy obawiać sie najbardziej.