Startup OpenAI, z którym niegdyś współpracował Elon Musk, opublikował własnie pełną wersję maszynowego generatora tekstu. Jeszcze niecałe 9 miesięcy temu badacze uważali, że algorytm GPT-2 dostarcza zbyt dobre teksty i jest trochę niebezpieczny. Jeden ze scenariuszy zakłada użycie sztucznej inteligencji do wypuszczenia całej masy fake newsów.

Elon Musk w lutym tego roku doszedł do wniosku, że wizja sztucznej inteligencji, nad którą pracuje OpenAI, różni się od jego spojrzenia na ten temat. Informacja ta zbiegła się w czasie z publikacją przykładowych wyników pochodzących z generatora logicznych i spójnych tekstów. Jednak mało prawdopodobne jest, żeby ten konkretny projekt był przyczyną rozstania się Muska z OpenAI. Oficjalnie miliarder ogłosił, że chce się bardziej skupić nad problemami dręczącymi Teslę oraz SpaceX. Wracając to poczynań startupu. W sierpniu OpenAI opublikowało ograniczoną wersję modelu GPT-2. W ten sposób naukowcy chcieli sprawdzić, czy ich dzieło będzie używane przez osoby zajmujące się fake newsowymi propagandami. Nic takiego nie miało miejsca. Dlatego też startup zdecydował się na udostępnienie pełnego modelu zawierającego 1,5 miliarda parametrów.

GPT-2 tworzy logiczne, ale mało interesujące teksty

Jeśli chcecie sprawdzić jakie teksty generuje GPT-2, to nie potrzebujecie do tego żadnych umiejętności programistycznych. Wystarczy, że odwiedzicie stronę internetową Talk to Transformer (https://talktotransformer.com/) i wpiszecie początek tekstu.

OpenAI en

Przy czym algorytm GPT-2 nie radzi sobie z tekstami w języku polskim.

OpenAI pl

Badacze z Uniwersytetu Cornella ocenili wiarygodność tekstów generowanych przez algorytm OpenAI na 6,91 w skali od 0 do 10. Oczywiście ocena ta rośnie wraz z rozmiarem modelu. Przy 355 milionach rekordów stopień wiarygodności wynosił 6,07. Dlatego też startup zdecydował się na opublikowanie pełnego modelu (1,5 miliarda rekordów).

Jednak dużo ciekawsze są wyniki badań dotyczących skuteczności wykrywania tekstów wygenerowanych przez sztuczną inteligencję. Aktualnie jest ona na poziomie 96%. Przy czym okazuje się, że im większy jest model, tym generuje on lepsze teksty. Jednak duża baza ucząca potrafi również dość znacznie ulepszyć algorytm wygrywający.

Źródło: OpenAI

BS
Bernard to redaktor naczelny SpeedTest.pl. Jest analitykiem i pasjonatem gier. Studiował na Politechnice Wrocławskiej informatykę i zarządzanie. Lubi szybkie samochody, podróże do egzotycznych krajów oraz dobre książki z kategorii fantastyka.