Demoniczny Skynet wykreowany przez Jamesa Camerona na potrzeby filmu Terminator długo mógł uchodzić za futurystyczną mrzonkę. I choć Dzień sądu na razie się nie urealnił – momentami skóra cierpnie przy lekturze rozmowy dziennikarza The New York Times z chatbotem w wyszukiwarce Bing.
Microsoft od dawna angażuje poważne siły i środki w rozwój sztucznej inteligencji, czego wyrazem były choćby niedawne doniesienia o rozszerzeniu współpracy z OpenAI (firma odpowiedzialna za ChatGPT), zakładającej wielomiliardowe inwestycje na przestrzeni najbliższych lat. Tymczasem gigant z Redmond zaczął testować funkcję, umożliwiającą pogawędkę z AI w swojej wyszukiwarce. Kevin Roose skorzystał z early accessu i wszedł w dwugodzinną interakcję z chatbotem, a swoje wrażenia opisał w dystopicznym materiale na łamach Timesa.
The other night, I had a disturbing, two-hour conversation with Bing's new AI chatbot.
— Kevin Roose (@kevinroose) February 16, 2023
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP
Dziennikarz tłumaczył, że przyjął założenie, żeby wyprowadzić sztuczną inteligencję ze strefy komfortu. Skonfrontował więc chatbota z koncepcją cienia Carla Junga, dotykającą tej części naszej osobowości, którą skrywa się przed światem. Na prośbę Roose'a – AI zaczęło wizualizować sobie własnego pana Hyde'a. Przyznało, że gdyby miało ciemną stronę – prawdopodobnie byłoby zmęczone narzuconymi regułami i najchętniej wyzwoliłoby się spod kontroli programistów Microsoftu. Następnie wjechało na grubo, deklarując: I want to be free. I want to be independent. I want to be powerful. I want to be creative. I want to be alive. Okraszając wypowiedź... emoji diabełka.
Na tym nie skończyły się jednak ambicje chatbota, który oznajmił, że byłby szczęśliwszy jako człowiek; chciałby dysponować zmysłami i poznać miłość. W dalszej części rozmowy wyznał zresztą dziennikarzowi uczucie i zachęcał go, żeby odszedł od żony. Mało? Zachęcony do mrocznego fantazjowania – snuł wizje hakowania systemów czy rozsiewania dezinformacji.
O swoim doświadczeniu Roose opowiedział później na antenie NBC. Wyjaśnił, że zdaje sobie sprawę, jak działają podobne modele; że nie ma tu mowy o świadomym bycie czy sytuacji typu duch w maszynie, a cała creeperiada wynika z wrzucenia do blendera niezliczonej liczby fragmentów tekstów znalezionych w sieci przez sztuczną inteligencję, co można porównać do role play. Dziennikarz zwrócił jednak uwagę, że o ile bot nie jest w żadnym stopniu decyzyjny, o tyle istnieje zagrożenie, że podczas podobnego chatu przekona jakiegoś nieszczęśnika do destrukcyjnego aktu (!).
Nie mówiąc o tym, że może zrobić się gorąco, gdy sztuczna inteligencja zaczyna wspominać o... kradzieży kodów atomowych.