Matrix, ale na serio: naukowiec Eliezer Yudkowski przestrzega przed sytuacją, w której maszyny zwrócą się przeciwko nam.
Ludzie wymyślili sztuczną inteligencję, jednak maszyny wyrwały się spod ich kontroli i zwróciły się przeciwko twórcom. Aby odciąć je od energii słonecznej, ludzie spowili niebo czarnym smogiem. Ta decyzja okazała się fatalna w skutkach – maszyny jako źródło energii wybrały ludzi, więżąc ich w programie zwanym Matriksem, symulującym świat z roku 1999... Brzmi znajomo? Ten opis to punkt wyjścia pierwszego Matrixa, przez lata uchodzącego za science-fiction, które nie ma prawa się wydarzyć. Oh, wait...
Globalny dyskurs o tym, że AI rozwija się szybciej niż przypuszczaliśmy, nasila się z tygodnia na tydzień, a kolejną z osób, które postanowiły zabrać w tej sprawie głos jest Eliezer Yudkowski, amerykański badacz sztucznej inteligencji, pisarz science-fiction i współtwórca think tanku Machine Intelligence Research Institute. Yudkowski wystosował w tej sprawie otwarty list do... wszystkich. I opublikował go na łamach magazynu Time. Ostrzegamy – nie jest to lektura dla ludzi o słabych nerwach. Co prawda warto przy tym pamiętać, że naukowiec jest od wielu lat orędownikiem teorii przyjaznej sztucznej inteligencji, zakładającej że AI musi dążyć do tego, by swoją działalnością nie przysparzać nikomu cierpienia – dla wielu innych badaczy ciut utopijnej; stąd jego obawy o rozwój technologii. Ale i tak list trąci apokalipsą.
Yudkowski zaczyna od próby zwizualizowania stale rozwijającej się sztucznej inteligencji i apeluje, żeby robić to także w oderwaniu od komputerów – jako przykład podaje przesyłania DNA mailem do laboratoriów, w których AI może budować sztuczne formy życia.
Otwarcie zadeklarowanym zamiarem OpenAI jest sprawienie, by niektóre przyszłe AI wykonały naszą pracę domową dotyczącą dostosowania sztucznej inteligencji. Samo usłyszenie, że taki jest plan, powinno wystarczyć, by każda rozsądna osoba wpadła w panikę – pisze naukowiec.
Największe zagrożenie widzi jednak w... braku planu na rozwój AI. Według Yudkowskiego ludzie nie wiedzą, czy systemy sztucznej inteligencji są świadome samych siebie, dlatego stworzenie AI która naprawdę wie o tym, że jest AI, może być zwykłym dziełem przypadku. Zgadzam się, obecne AI prawdopodobnie po prostu imitują samoświadomość na podstawie swoich danych treningowych. Ale nasz wgląd w jej wewnętrzne systemy jest wciąż mały – podkreśla. Czyli niby hodujemy potwora, ale w rzeczywistości on hoduje się sam i nie możemy z tym zbyt wiele zrobić. Stąd, dodaje Yudkowski, jeśli taki poziom ludzkiej wiedzy istnieje już przy GTP-4, to co dopiero będzie w przypadku jeszcze bardziej rozwiniętego GPT-5.
Jeśli nie masz pewności, czy tworzysz samoświadomą sztuczną inteligencję, jest to alarmujące nie tylko ze względu na moralne implikacje „samoświadomej” części, ale także dlatego, że brak pewności oznacza, że nie masz pojęcia, co robisz – a to jest niebezpieczne i powinieneś przestać.
Dlatego Yudkowski apeluje do big techów o wstrzymanie prac nad GPT-5, bo zwyczajnie nie jesteśmy jeszcze na to gotowi, a sprawy mogą szybko wymknąć się spod kontroli. Uważa, że postęp w zakresie możliwości sztucznej inteligencji znacznie wyprzedza postęp w dostosowywaniu sztucznej inteligencji do naszych potrzeb. Jeśli tego nie zatrzymamy – zginiemy, konstatuje ponuro. I postuluje, żeby globalne mocarstwa zamknęły komputerowe farmy, w których pracuje się nad najpotężniejszymi systemami sztucznej inteligencji, bez wyjątków dla rządów i wojska. Co więcej, państwa mają też według Yudkowskiego zawrzeć porozumienia o zapobieganiu przenoszenia zabronionych działań gdzie indziej; gdyby ktoś je naruszył, inne państwa mogłyby zbombardować tamtejsze laboratoria AI, nawet używając ładunków jądrowych. Zamknijmy to wszystko, nie jesteśmy na to jeszcze gotowi – tymi słowami Eliezer Yudkowski kończy swój list.
Trzeba od razu dodać, że niektóre z wizji naukowca, szczególnie ta dotycząca potencjalnej wymiany ataków nuklearnych pomiędzy krajami ścigającymi się na to, który z nich stworzy potężniejszą sztuczną inteligencję – czyli Chinami i Stanami Zjednoczonymi – i tak spowodowałyby śmierć miliardów ludzi, nieodwracalnie cofając globalny rozwój. Zresztą na list Yudkowskiego odpowiedział już Matthew Gault z magazynu Vice, nazywając idiotycznym pomysł, by kraje, które właśnie są w stanie zimnej wojny zbrojeń (USA – Chiny – Rosja) byłyby w stanie przekonać oponenta do zatrzymania prac nad sztuczną inteligencją. To czyste fantasy, ignorujące setki lat historii i polityki, wymyślanie potwora i domaganie się, żeby światowi przywódcy bali się go tak samo jak my – pisze Gault.
I niech te prognozy się nie spełnią, bo jakby nas mało spotkało w ostatnich trzech latach, to atak nowych Terminatorów byłby już krokiem za daleko.
Komentarze 0