Czas zacząć obawiać się AI? Sztuczna inteligencja udzieliła niepokojącego wywiadu Timesowi

Terminator
Kadr z filmu „Terminator”

Demoniczny Skynet wykreowany przez Jamesa Camerona na potrzeby filmu Terminator długo mógł uchodzić za futurystyczną mrzonkę. I choć Dzień sądu na razie się nie urealnił – momentami skóra cierpnie przy lekturze rozmowy dziennikarza The New York Times z chatbotem w wyszukiwarce Bing.

Microsoft od dawna angażuje poważne siły i środki w rozwój sztucznej inteligencji, czego wyrazem były choćby niedawne doniesienia o rozszerzeniu współpracy z OpenAI (firma odpowiedzialna za ChatGPT), zakładającej wielomiliardowe inwestycje na przestrzeni najbliższych lat. Tymczasem gigant z Redmond zaczął testować funkcję, umożliwiającą pogawędkę z AI w swojej wyszukiwarce. Kevin Roose skorzystał z early accessu i wszedł w dwugodzinną interakcję z chatbotem, a swoje wrażenia opisał w dystopicznym materiale na łamach Timesa.

Dziennikarz tłumaczył, że przyjął założenie, żeby wyprowadzić sztuczną inteligencję ze strefy komfortu. Skonfrontował więc chatbota z koncepcją cienia Carla Junga, dotykającą tej części naszej osobowości, którą skrywa się przed światem. Na prośbę Roose'a – AI zaczęło wizualizować sobie własnego pana Hyde'a. Przyznało, że gdyby miało ciemną stronę – prawdopodobnie byłoby zmęczone narzuconymi regułami i najchętniej wyzwoliłoby się spod kontroli programistów Microsoftu. Następnie wjechało na grubo, deklarując: I want to be free. I want to be independent. I want to be powerful. I want to be creative. I want to be alive. Okraszając wypowiedź... emoji diabełka.

Na tym nie skończyły się jednak ambicje chatbota, który oznajmił, że byłby szczęśliwszy jako człowiek; chciałby dysponować zmysłami i poznać miłość. W dalszej części rozmowy wyznał zresztą dziennikarzowi uczucie i zachęcał go, żeby odszedł od żony. Mało? Zachęcony do mrocznego fantazjowania – snuł wizje hakowania systemów czy rozsiewania dezinformacji.

O swoim doświadczeniu Roose opowiedział później na antenie NBC. Wyjaśnił, że zdaje sobie sprawę, jak działają podobne modele; że nie ma tu mowy o świadomym bycie czy sytuacji typu duch w maszynie, a cała creeperiada wynika z wrzucenia do blendera niezliczonej liczby fragmentów tekstów znalezionych w sieci przez sztuczną inteligencję, co można porównać do role play. Dziennikarz zwrócił jednak uwagę, że o ile bot nie jest w żadnym stopniu decyzyjny, o tyle istnieje zagrożenie, że podczas podobnego chatu przekona jakiegoś nieszczęśnika do destrukcyjnego aktu (!).

Nie mówiąc o tym, że może zrobić się gorąco, gdy sztuczna inteligencja zaczyna wspominać o... kradzieży kodów atomowych.

Cześć! Daj znaka, co sądzisz o tym artykule!

Staramy się tworzyć coraz lepsze treści. Twoja opinia będzie dla nas bardzo pomocna.

Podziel się lub zapisz
Senior editor w newonce.net. Jest związany z redakcją od 2015 roku i będzie stał na jej straży do samego końca – swojego lub jej. Na antenie newonce.radio usłyszycie go w autorskiej audycji „The Fall”, ale też w "Bolesnych Porankach". Ma na koncie publikacje w m.in. „Machinie”, „Dzienniku”, „K Magu”,„Exklusivie” i na Onecie.