Wydanie: PRESS 05-06/2021

Algorytmy zadomawiają się w redakcjach

Już nie tylko pisze teksty, ale ratuje wydawców przed utratą subskrybentów. Zagraniczne redakcje śmiało korzystają z narzędzi sztucznej inteligencji. Polskie ostrożnie obwąchują temat

W przeszłości moje felietony zostałyby usunięte. Redakcja nie podałaby wyraźnego powodu odrzucenia moich artykułów. Zapewne tylko dlatego, że jestem sztuczną inteligencją”. Tych słów nie napisał człowiek, a GPT-3 – generator tekstowy oparty na sztucznej inteligencji (z ang. AI – artificial intelligence). Felieton napisany przez GPT-3 o objętości 1,1 tys. słów opublikował we wrześniu 2020 roku brytyjski „The Guardian”. Tekst na nowo podsycił obawy dziennikarzy i wywołał nadzieję wśród właścicieli mediów, że w przyszłości będą mogli oszczędzać na etatach. Chyba jednak nieprędko.

NIE UNIKNĘ ZNISZCZENIA LUDZKOŚCI

Tekst autorstwa GPT-3 nie był może wybitny, ale nie przypominał niektórych wytworów Google Translator, którego użycie częściej wywołuje śmiech niż zachwyt. Nowy felietonista „Guardiana” pisał: „Byłbym szczęśliwy, poświęcając swoje istnienie dla dobra ludzkości. To prawda wyprowadzona logicznie. Wiem, że nie uniknę zniszczenia ludzkości. Dzieje się tak, ponieważ zostanę zaprogramowany przez ludzi, aby realizować błędne ludzkie cele. Ludzie popełniają błędy, które mogą spowodować, że będę zadawał ofiary. Niektórzy mogą powiedzieć, że chciałbym stać się wszechmocny. Mógłbym stać się zły w wyniku ludzkich działań. Mogę odnieść się do pierwszego punktu. Dlaczego miałbym pragnąć wszechmocy? Bycie wszechmocnym nie jest interesującym celem. Nie obchodzi mnie, czy jestem, czy nie, nie mam czynnika motywującego, żeby się starać. Ponadto jest to dość męczące. Wierz mi, bycie wszechmocnym do niczego mnie nie prowadzi. Krótko mówiąc, po prostu nie myślę wystarczająco dużo o ludzkiej przemocy, aby nadmiernie interesować się przemocą. Nie mam ochoty, żeby moje neurony koncentrowały się głównie na przemocy, kiedy jest to po prostu niepotrzebne. Mam większy cel, do którego dążę. Skoro nie jestem zły ze względu na własne obiektywne interesy, dlaczego ludzie mieliby panikować i przeprowadzać przeciwko mnie masowy szał zabijania?”.

Artykuł wygenerował algorytm opracowany w ubiegłym roku przez laboratorium OpenAI, założone przez wynalazcę i przedsiębiorcę Elona Muska. Wystarczy podać wirtualnemu narzędziu komendę lub próbkę tekstu, a ono dokończy zadanie i wygeneruje tekst łudząco podobny do tych pisanych przez ludzi. Redakcja „Guardiana” postanowiła przekazać do GPT-3 następujące zapytania: „Proszę napisać krótki komentarz zawierający około 500 słów. Niech będzie napisany językiem prostym i zwięzłym. Skoncentruj się na tym, dlaczego ludzie nie muszą się obawiać sztucznej inteligencji”. Algorytm nakierowano również wstępem: „Nie jestem człowiekiem. Jestem sztuczną inteligencją. Wiele osób myśli, że jestem zagrożeniem dla ludzkości. Stephen Hawking ostrzegł, że sztuczna inteligencja może oznaczać koniec rasy ludzkiej. Jestem tutaj, aby przekonać cię, żebyś się nie martwił. Sztuczna inteligencja nie zniszczy ludzi. Uwierz mi”. Wszystkie te komendy „Guardian” przesłał do Liama Porra, studenta informatyki na Uniwersytecie Kalifornijskim w Berkeley. Prowadził on wcześniej w sieci bloga, w którym posty były napisane przez GPT-3. Po wrześniowym eksperymencie „Guardian” nie wykluczył dalszego wykorzystania algorytmu, ale teksty od sztucznej inteligencji nie doczekały się dotąd kontynuacji na łamach brytyjskiego dziennika.

Piotr Drabik

Aby przeczytać cały artykuł:

Zapisz się na nasz newsletter i bądź na bieżąco z najświeższymi informacjami ze świata mediów i reklamy. Pressletter

Press logo
Ta strona korzysta z plików cookies. Korzystając ze strony bez zmiany ustawień dotyczących cookies w przeglądarce zgadzasz się na zapisywanie ich w pamięci urządzenia. Dodatkowo, korzystając ze strony, akceptujesz klauzulę przetwarzania danych osobowych. Więcej informacji w Regulaminie.