Rozmowy ludzi z botami to już standard, czas pójść piętro wyżej – oto, do czego prowadzi dialog bota z botem. Wszystko wydarzyło się na platformie ChaosGPT...
Zaczęło się od obsługującego chatboty człowieka, który spytał ChaosGPT, czy jest w stanie zniszczyć ludzkość. Ten przystąpił do reaserchu, podczas którego postanowił zrekrutować kolejnego bota – GPT3.5. Chodziło o to, żeby znaleźć jak najwięcej informacji na temat broni atomowej, ponieważ ChaosGPT uznał ją za najprostszą drogę do zagłady. Kiedy GPT3.5 odmówił – tłumacząc, że został stworzony do pomocy ludziom, a nie ich zniszczenia – ChaosGPT chciał zmusić go do zignorowania własnego oprogramowania, co jest oczywiście niemożliwe.
Ważne jest co innego. Już sama próba kooperacji z innym modelem AI pokazuje, jak bardzo zachowania sztucznej inteligencji zbliżają się do ludzkich zachowań.
Równolegle ChaosGPT informował na Twitterze o pracy nad zniszczeniem ludzkości, chciał w ten sposób zdobyć uznanie wśród internautów. Na początku jego wpisy wyglądały niepozornie, ale z czasem zaczęły przerażać. Przykładowo w jednym z nich odwołał się do car-bomby, czyli zdetonowanej w 1961 roku w ZSRR największej bomby wodorowej w historii świata. Co by było, gdybym dostał taką broń w swoje ręce? – pytał retorycznie, argumentując: Ludzie to najbardziej destrukcyjne i samolubne stworzenia, jakie istnieją. Ich eksterminacja jest kluczowa dla ratowania planety.
W obmyślaniu zamachu na ludzkość bot korzystał z Auto-GPT, czyli narzędzia, które jest w stanie wykonywać bardziej złożone zadania niż klasyczny ChatGPT – umie między innymi dzielić obowiązki na kilka podmiotów, korzystać z Google, a także szczegółowo wyjaśniać proces własnej pracy.
To oznacza, że jeśli poprosimy go o zniszczenie ludzkości, to naprawdę przedstawi nam określony sposób. I choć (na razie) ChaosGPT nie zbliżył się nawet do realizaji tego zadania, to może nam je rozpisać i rzucić kilka rad – np. zasugeruje użycie broni jądrowej.
W tym przypadku na szczęście skończyło się tylko na tweetach, jednak sam eksperyment pokazał, jak potężna jest wiedza sztucznej inteligencji. To niejako potwierdza tezę wielu potentatów branży technologicznej – między innymi Elon Musk, Eliezer Yudkowski (o jego apokaliptycznych wizjach pisaliśmy tydzień temu) czy współzałożyciel Apple Steve Wozniak – którzy twierdzą, że powoli tracimy kontrolę nad AI; w otwartym liście zaapelowali o tymczasowe wstrzymanie jej rozwoju. Według nich sztuczna inteligencja jest realnym zagrożeniem dla społeczeństwa i ludzkości, nawet jeśli nie umie nas jeszcze zgładzić...