Rapujące roboty - science-fiction czy coś, co czeka nas za kilka lat? Na razie są z tym problemy...

Honda's Humanoid Robot ASIMO Makes First Appearance At FIRST Championship
Dilip Vishwanat/Getty Images

Podobno Black Mirror dzieje się teraz na ulicy. W studiu nagraniowym też? Przecież sztuka jest tak silnie powiązana z emocjami, z subiektywnym spojrzeniem na świat, że nie grozi jej zdominowanie przez sztuczną inteligencję. A jednak.

W 2016 roku Sony CSL opublikowało na YouTube pierwsze dwa single stworzone przez SI. Utwory powstały za pomocą algorytmu, który przeanalizował 13 tys. piosenek różnych gatunków. Kompozytor Benoit Carre napisał tekst, melodię, harmonię oraz wybrał styl muzyczny, a program wymyślił kawałki, a potem je nagrał. Jedna z nich, stylizowana na The Beatles, brzmi jak hybryda dyskografii legendarnego zespołu zamknięta w trzech minutach.

Trzy lata później francuski algorytm Aiva potrafił już samodzielnie skomponować muzykę klasyczną, podkład do reklamy, gry bądź filmu w... cztery minuty. Wystarczyło tylko wpisać czas trwania i zaznaczyć, czy utwór ma być wesoły, przerażający czy romantyczny. Gotowe. Brzmienie jak z demówki, ale napisane zawodowo.

Ale to jeszcze nic. Firma Tick Pick zbudowała algorytm GPT-2, który nauczył się tysięcy tekstów z genius.com. Następnie sztuczna inteligencja wykreowała własne słowa, które pasowały do muzyki różnych gatunków. Tysięcznej grupie ankietowanych przedstawiono wyniki pracy komputera, a następnie skonfrontowano z dziełami napisanymi przez ludzi. Aż 40% badanych stwierdziła, że lepsze są te stworzone przez GPT-2. Mało tego, tekst o samotności, oczywiście autorstwa SI, 65% zapytanych uznało za wytwór wyobraźni jakiegoś wrażliwego songwritera. Co ciekawe, największym problemem dla programu był hip hop. Nie udało mu się napisać ani jednej w miarę wiarygodnie brzmiącej, rapowej linijki. Domniemaną przyczyną jest urozmaicona składnia, jakiej używają raperzy - składnia, której komputer nie potrafił przyswoić.

W lutym 2020 pisaliśmy o tym, że Travis Scott nie jest już potrzebny, żeby wydać nowy numer oraz teledysk z nim w roli głównej. Tak jak w powyższych przypadkach, artificial intelligence przeanalizowała twórczość artysty, a potem pod nadzorem zespołu kreatywnego agencji Digital Space150 wygenerowała tekst i brzmienie. A Coachella i hologram 2Paca? To działo się już w 2012.

Jeden z czołowych inwestorów w technologie przyszłości z Doliny Krzemowej- Vinod Khosla, twierdzi, że za 10 lat nie będziemy już słuchać muzyki w takiej formie, jaką teraz znamy. Co to znaczy? Dźwięki w naszych słuchawkach będą indywidualnie projektowane pod nasz aktualny nastrój, muzyczne preferencje, a nawet tętno. Początkiem rewolucji jest rosnąca od kilku lat w serwisach streamingowych popularność playlist dostosowanych do konkretnych nastrojów i aktywności. Nie mówił niczego o rapujących robotach, więc faktycznie trzeba jeszcze ogarnąć tę składnię w tekstach. Tyle że jeszcze dekadę temu naprawdę traktowalibyśmy takie wynurzenia jak regularne sci-fi. A dzisiaj już rozważamy nie czy, ale kiedy to się pojawi.

tekst: Ania Szlagowska

Cześć! Daj znaka, co sądzisz o tym artykule!

Staramy się tworzyć coraz lepsze treści. Twoja opinia będzie dla nas bardzo pomocna.

Podziel się lub zapisz
Różne pokolenia, ta sama zajawka. Piszemy dla was o wszystkich odcieniach popkultury. Robimy to dobrze.