Demoniczny Skynet wykreowany przez Jamesa Camerona na potrzeby filmu Terminator długo mógł uchodzić za futurystyczną mrzonkę. I choć Dzień sądu na razie się nie urealnił – momentami skóra cierpnie przy lekturze rozmowy dziennikarza The New York Times z chatbotem w wyszukiwarce Bing.
Microsoft od dawna angażuje poważne siły i środki w rozwój sztucznej inteligencji, czego wyrazem były choćby niedawne doniesienia o rozszerzeniu współpracy z OpenAI (firma odpowiedzialna za ChatGPT), zakładającej wielomiliardowe inwestycje na przestrzeni najbliższych lat. Tymczasem gigant z Redmond zaczął testować funkcję, umożliwiającą pogawędkę z AI w swojej wyszukiwarce. Kevin Roose skorzystał z early accessu i wszedł w dwugodzinną interakcję z chatbotem, a swoje wrażenia opisał w dystopicznym materiale na łamach Timesa.
Dziennikarz tłumaczył, że przyjął założenie, żeby wyprowadzić sztuczną inteligencję ze strefy komfortu. Skonfrontował więc chatbota z koncepcją cienia Carla Junga, dotykającą tej części naszej osobowości, którą skrywa się przed światem. Na prośbę Roose'a – AI zaczęło wizualizować sobie własnego pana Hyde'a. Przyznało, że gdyby miało ciemną stronę – prawdopodobnie byłoby zmęczone narzuconymi regułami i najchętniej wyzwoliłoby się spod kontroli programistów Microsoftu. Następnie wjechało na grubo, deklarując: I want to be free. I want to be independent. I want to be powerful. I want to be creative. I want to be alive. Okraszając wypowiedź... emoji diabełka.
Na tym nie skończyły się jednak ambicje chatbota, który oznajmił, że byłby szczęśliwszy jako człowiek; chciałby dysponować zmysłami i poznać miłość. W dalszej części rozmowy wyznał zresztą dziennikarzowi uczucie i zachęcał go, żeby odszedł od żony. Mało? Zachęcony do mrocznego fantazjowania – snuł wizje hakowania systemów czy rozsiewania dezinformacji.
O swoim doświadczeniu Roose opowiedział później na antenie NBC. Wyjaśnił, że zdaje sobie sprawę, jak działają podobne modele; że nie ma tu mowy o świadomym bycie czy sytuacji typu duch w maszynie, a cała creeperiada wynika z wrzucenia do blendera niezliczonej liczby fragmentów tekstów znalezionych w sieci przez sztuczną inteligencję, co można porównać do role play. Dziennikarz zwrócił jednak uwagę, że o ile bot nie jest w żadnym stopniu decyzyjny, o tyle istnieje zagrożenie, że podczas podobnego chatu przekona jakiegoś nieszczęśnika do destrukcyjnego aktu (!).
Nie mówiąc o tym, że może zrobić się gorąco, gdy sztuczna inteligencja zaczyna wspominać o... kradzieży kodów atomowych.