OpenAI zaprezentowało GPT-4, czyli najnowszą wersję ChatuGPT, która między innymi odczytuje i odpowiada na obrazy.
To nasz najbardziej wydajny i dopracowany model – ogłosił Sam Altman, dyrektor wykonawczy OpenAI, podczas prezentacji GPT-4. Dodając, że mamy do czyniania z modelem, którego danymi wejściowymi mogą być obrazy, a nie tylko sam tekst. Co to oznacza w praktyce? Że gdy chcemy coś ugotować, nie musimy pisać, jakie mamy produkty. Wystarczy, że zrobimy zdjęcie przykładowo makaronu, pomidorów i wody – a GPT-4 zaproponuje nam spaghetti Napoli.
Rozpoznawanie i reagowanie na obrazy ma zostać rozwinięte do tego stopnia, żeby w niedalekiej przyszłości pomagać ludziom niedowidzącym. OpenAI testuje nowe rozwiązania z aplikacją Be My Eyes, ale na końcowy efekt trzeba jeszcze trochę poczekać.
Już teraz jednak OpenAI rozwinęło współpracę na innych polach. Dyrektor produktowy Duolingo, Edwin Bodge, zapowiedział, że GPT-4 pomoże dodać do apki spersonalizowane ćwiczenia konwersacyjne do nauki angielskiego, francuskiego i hiszpańskiego. Sztuczna inteligencja usprawni mechanizm poprawiania błędów, dodając do niego element tłumaczenia.
Z prezentacji OpenAI dowiedzieliśmy się również, że GPT-4 umie odpowiadać na skomplikowane pytania dotyczące prawa podatkowego. Jest gotowy wybrać najlepsze terminy na spotkania biznesowe, bazując na różnych harmonogramach. Zapamiętuje ponad 25 tysięcy słów jednocześnie, czyli osiem razy więcej niż wcześniej. Odpowiada składniej, dokładniej i mniej maszynowo.
W odpowiedzi na uwagi userów wprowadzno wiele poprawek, które zmniejszą liczbę przypadków, w których chat halucynuje, czyli wciska kit, kiedy nie zna odpowiedzi na pytanie.
GPT-4 jest już dostępny dla użytkowników ChatuGPT Plus, czyli wersji premium, która kosztuje 20 dolarów miesięcznie.