Czwarta wersja unijnego kodeksu postępowania dla AI. "Rozczarowująca dla wydawców"
W najbliższych tygodniach projekt kodeksu postępowania dla AI będzie konsultowany przez państwa członkowskie i Komisję Europejską (fot. Pixabay.com)
Opublikowano kolejną, czwartą wersję unijnego kodeksu postępowania dla sztucznej inteligencji. – Z punktu widzenia interesów wydawców ten dokument jest zbyt ogólnikowy, przez co może rozczarowywać. Rozstrzyga jednak pierwsze istotne kwestie dla branży – ocenia dr Damian Flisak, ekspert w zakresie regulacji prawa najnowszych technologii i własności intelektualnej.
Rozmówca "Presserwisu" był w grupie około 1 tys. ekspertów zaproszonych do prac nad kodeksem postępowania dla sztucznej inteligencji. To dokument mający ułatwić krajom członkowskim Unii Europejskiej właściwe wdrożenie przepisów dotyczących sztucznej inteligencji i ma być odniesieniem dla dostawców modeli AI. W kodeksie zawarto dla nich pięć rekomendacji.
Zbyt wiele ogólnikowych stwierdzeń
Jak mówi nam dr Damian Flisak, choć w dokumencie tym próżno szukać twardych stwierdzeń zabezpieczających interesy wydawców, pojawiło się w nim jednak kilka rekomendacji. Ekspert wylicza, że największe konkrety znalazły się w rekomendacji o numerze 1.2. Dokładnie w podpunkcie 1 a) mowa o tym, że dostawcy AI nie mogą trenować na treściach objętych modelem subskrypcyjnym czy też materiałach ukrytych za paywallem.
Czytaj też: Europejskie organizacje pozarządowe skarżą praktyki reklamowe X do Komisji Europejskiej
W rekomendacji 1.3. dostawców modeli AI zachęca się, by dołożyli wszelkich starań, aby tzw. zastrzeżenie opt out nie miało wpływu na gorsze pozycjonowanie treści wydawców w wyszukiwarkach. Chodzi o to, by wydawcy nie obawiali się, że mogą zostać "ukarani" za brak zgody na trenowanie algorytmów AI na ich treściach.
– Choć w tej rekomendacji mowa jedynie o "zachęcaniu" dostawców do niwelowania negatywnych skutków tzw. zastrzeżenia opt out, ujęcie tej kwestii w kodeksie jest i tak dobrym krokiem naprzód – ocenia dr Damian Flisak.
Dodaje jednak, że w całym dokumencie jest zbyt wiele ogólnikowych stwierdzeń. Według eksperta dobrym przykładem na to jest rekomendacja 1.4, dotycząca ryzyka generowania treści naruszających prawa autorskie. W dokumencie po raz kolejny mowa, iż dostawcy AI wprowadzą "odpowiednie" i "proporcjonalne" rozwiązania mające zapobiec trenowaniu na treściach bez poszanowania prawa. – Według tej rekomendacji, dostawcy mieliby się zobowiązać, że instrukcja obsługi do ich narzędzi sztucznej inteligencji ma zakazywać korzystania z modelu w sposób naruszający prawo. Trudno sobie wyobrazić, żeby takie zobowiązanie było skuteczne. Podobnie jest z producentami samochodów, którzy pouczają kupców, że powinni przestrzegać ograniczeń prędkości na ulicach – wskazuje dr Damian Flisak.
Rozbieżności wśród ekspertów
Według dr. Flisaka rozczarowujące jest też, że w toku prac nad kodeksem postępowania dla AI całkowicie wykreślono fragment dotyczący tego, iż dostawcy AI dokonają "rozsądnych i proporcjonalnych starań" w celu uzyskania praw do wykorzystywanych materiałów. To fragment, na którego doprecyzowaniu szczególnie zależało wydawcom, o czym pisaliśmy w lutym.
Czytaj też: Meta zapowiada budowę największych na świecie centrów danych AI
– Ostatecznie tę część kodeksu wyrzucono z uwagi na niedające się pogodzić rozbieżności wśród ekspertów. Właściciele praw autorskich chcieli, by dostawcy AI analizowali możliwie skrupulatnie, czy dane, na jakich trenują, zostały pozyskane legalnie. Dostawcy AI twierdzili z kolei, że taka całościowa kontrola nie byłaby możliwa z technicznego punktu widzenia – tłumaczy dr Damian Flisak.
W najbliższych tygodniach projekt kodeksu postępowania dla AI będzie konsultowany przez państwa członkowskie i Komisję Europejską.
Czytaj też: Wybrane kraje mają testować aplikację do weryfikacji wieku dzieci w internecie
(MZD, 19.07.2025)










