W internecie ponownie ukazał się mój tekst Jak (nie) rozmawiać ze sztuczną inteligencją?. Choć może powinienem napisać, że ukazało się jego nowe wcielenie. Zdarzały się przypadki, kiedy moje publikacje trafiały, przekopiowane słowo w słowo, na inne portale bez mojej wiedzy. Tym razem było jednak inaczej.
Temat, kolejność i wybór omawianych problemów, artykuły i posty stanowiące kontekst dla materiału — wszystko się zgadza. To jednak nie jest mój tekst. Oprócz tego, że podpisała się pod nim inna osoba, całość została skrócona i sparafrazowana.
Mój tekst:
Przez następne pół wieku treści generowane przez programy przetwarzania języka naturalnego stały się niemal nieodróżnialne od wypowiedzi człowieka. ChatGPT 4o od OpenAI, Pi firmy Inflection czy Googlowskie Gemini bez trudu zdają słynny test Turinga, naśladując nawet najbardziej złożone niuanse ludzkiej komunikacji.
Tekst opublikowany na portalu AIDRIVEN:
W ciągu ostatnich pięćdziesięciu lat technologia przetwarzania języka naturalnego znacznie się rozwinęła. Nowoczesne modele, takie jak ChatGPT, Pi od firmy Inflection czy Gemini od Google, bez trudu przechodzą test Turinga, naśladując złożone niuanse ludzkiej komunikacji.
Może to temat artykułu, problematyka portalu, który „wziął go na warsztat” albo świadomość jak łatwo jest obecnie parafrazować teksty, ale od razu pomyślałem, że moja publikacja została „przepuszczona” przez ChatGPT. Jest on w końcu wymarzonym narzędziem dla każdej i każdego, kto chciałby skopiować cudzą publikację, ale trochę mu wstyd ograniczyć się do Ctr+C, Ctr+V.
Nie mogłem mieć jednak pewności, jak powstał tekst dodany na portal AIDRIVEN. Systemy weryfikacji pod kątem wykorzystania AI wciąż nie są wystarczająco skuteczne. Postanowiłem więc zapytać autorkę plagiatu, jak wyglądał proces jego powstawania.
Czy w erze dziennikarstwa AI możemy jeszcze chronić tekst jako własność intelektualną?
Na początku było słowo
Co wyróżnia tekst w powielaniu treści przez sztuczną inteligencję? Z jednej strony można powiedzieć, że to medium, jak każde inne. W końcu obecnie na rynek wprowadzane są multimodalne systemy AI (tzn. zdolne przetwarzać tekst, dźwięk, grafikę czy wideo), a chatboty pokroju ChatGPT trafiają do powszechnego użytku obok generatorów obrazu, takich jak Midjourney czy już zaraz generatorów filmów, jak Sora.
Równocześnie tekst stanowi fundament działania sztucznej inteligencji. Już pierwsze tego typu systemy były generatorami mowy, a nawet współczesne narzędzia do tworzenia obrazów i dźwięku za pomocą AI bazują na wpisywanych promptach. Dane, na których szkolone są nowe modele, zawierają również w pierwszej kolejności tekst.
Proszę spojrzeć od kiedy istnieje prasa internetowa, a dopiero teraz negocjujemy sprawiedliwe wynagrodzenia dla jej twórców. To, co wywalczymy dzisiaj, jutro może być nieadekwatne.
Sztuczna inteligencja ułatwiła również pracę plagiatora, który nie musi już własnoręcznie parafrazować i uzupełniać tekstów. W swoim arsenale ma on nie tylko ChatGPT, ale i szereg innych narzędzi bazujących na sztucznej inteligencji, m.in.: BypassGPT — aplikację, która przetwarza wygenerowany materiał na bardziej „ludzki” oraz umożliwia „usunięcie plagiatu” z tekstu; Undetectable.ai — system weryfikacji tekstu pod kątem wykorzystania AI, który również posiada opcję „uczłowieczenia” treści czy działające na podobnej zasadzie QuillBot, Paraphraser.io i copy.ai.
Dziennikarstwo spóźnione o dekady
Udostępnienie ChataGPT wywołało panikę w świecie mediów. Nagle okazało się, że każdy z dostępem do internetu może niemal natychmiast wygenerować ogromne ilości tekstu o stosunkowo dobrej jakości. Jak to ujął dyrektor naczelny Axel Springer: „sztuczna inteligencja może uczynić niezależne dziennikarstwo lepszym niż kiedykolwiek wcześniej – lub po prostu je zastąpić”.
Równocześnie, media w Polsce dopiero teraz protestują przeciwko niesprawiedliwemu podziałowi zysków z treści wykorzystywanych przez platformy internetowe, takie jak Facebook czy Google.
– Z regulacjami prawnymi dotyczącymi nowych technologii jesteśmy zawsze spóźnieni o dekady. Poznajemy system działania, a dopiero potem tworzymy przepisy, których wdrożenie jest trudne, bo w dobie internetu ludzie szybko się przyzwyczajają, że coś jest za darmo. A jeśli ktoś czerpie z tego dochód, jak dostawcy usług internetowych, to nie chce dzielić się zyskiem – mówi mi dr Katarzyna Błeszyńska, radca prawny specjalizująca się w prawie prasowym i autorskim oraz wykładowczyni na Wydziale Dziennikarstwa, Informacji i Bibliologii UW. – Proszę zauważyć od jak dawna istnieje prasa internetowa. A my dopiero teraz negocjujemy sprawiedliwe wynagrodzenia dla jej twórców. Tymczasem pojawia się nowe zagrożenie: AI. To, co wywalczymy dzisiaj, jutro może być niewystarczające.
Czytaj: Czy AI zastąpi youtuberów? Rozmawiamy z Rafałem Masnym
– Jak wykorzystywanie sztucznej inteligencji w dziennikarstwie jest ograniczone prawnie? – pytam.
– Nie mamy przepisów jasno ograniczających działania chatbotów. Regulacje unijne które za chwilę implementujemy przewidują wykorzystywanie treści i danych dla celów badawczych, a dla celów komercyjnych jest to zabronione, jeśli autor złoży takie zastrzeżenie. AI wkroczyła na rynek dziennikarski na masową skalę. Obecnie praca dziennikarska może przyjąć trzy formy: pracę samodzielną dziennikarza, z udziałem AI oraz generowania wytworów, bo nie powiem twórczości, stworzonej od początku do końca przez AI. Tylko niezależna praca dziennikarska ma jasno określone ramy prawne i przywileje wynikające z ograniczeń praw autorskich i prawa do informacji, np. prawo do przedruku.
– Drugi przypadek, czyli praca z udziałem AI, wydaje się bardziej skomplikowany.
– Ale, jak pan zapewne wie, jest bardzo powszechny. Tutaj nie mamy jasnych wytycznych. Sądzę, że w procesie wpisywania kolejnych promptów, ukierunkowujemy AI do spojrzenia na problem z innej perspektywy, wnosząc swój wkład twórczy do procesu tworzenia materiału prasowego. Jeśli praca AI polega wyłącznie na przyspieszeniu wygenerowania danych o treści informacyjnej, do których dziennikarz dodaje własne wnioski, analizę i indywidualne przemyślenia, to jest to jego praca twórcza. Jeśli jednak działanie AI wykracza poza pracę schematycznego udostępnienia informacji, to nie można dziennikarzowi przypisać samodzielnego autorstwa takich treści. W takiej sytuacji postuluję, żeby informować o wykorzystaniu w materiale prasowym sztucznej inteligencji. Tego wymaga etyka dziennikarska.
– Powiedziała pani, że trzeciego przypadku nie powinniśmy nawet nazywać „twórczością”.
– Teksty wygenerowane przez AI mogą mieć cechy utworu, ale doktryna jest zgodna, że tylko człowiek może być autorem utworu. Dlatego takie materiały nie są chronione prawem autorskim i można z nich swobodnie korzystać. Należy także stanowczo podkreślić, że dziennikarzem, według definicji prawa prasowego może być tylko człowiek. Materiały prasowe generowane przez sztuczną inteligencję nie są w związku z tym materiałami dziennikarskimi i nie mogą w mojej ocenie korzystać z ograniczeń praw autorskich dla celów informacyjnych (np. przedruk). Tylko dziennikarz może korzystać z przywilejów zagwarantowanych prasie i ponosić odpowiedzialnośc za działania niezgodne z prawem. Tym samym niecelowe jest zastępowanie dziennikarzy chatbotami.
AI nie jest takie głupie
Przed moim spotkaniem z dr Błeszyńską poprosiłem ją o porównanie mojego tekstu z parafrazą, którą znalazłem w internecie.
– Nie mam wątpliwości, że możemy w tym przypadku mówić o plagiacie. Należy bowiem pamiętać, że plagiat to nie jest jedynie przywłaszczenie autorstwa. Istnieją jego różne rodzaje i mówimy o nim również, jeżeli zachowane są konstrukcja, źródła, temat i forma wypowiedzi, nawet jeśli każde zdanie zostało przeformułowane. Nie wiem jednak dlaczego twierdzi pan, że tej parafrazy dokonała sztuczna inteligencja. Mógł to zrobić człowiek. Na podstawie własnych eksperymentów mogę nawet powiedzieć, że sztuczna inteligencja nie jest taka głupia, żeby tak kopiować formę pierwowzoru. Ona dokonuje jego umiejętnej przeróbki.
Żeby znaleźć odpowiedź na to pytanie, postanowiłem sięgnąć do źródła. W rozmowie telefonicznej osoba odpowiedzialna za plagiat zdradziła mi sposób jego powstania.
Obawiam się tylko, czy technologia nie posunie się tak dalece do przodu, że wejdzie w naszą ludzką skórę i będzie umieć robić to, co my.
– Przy tekście był używany ChatGPT, wersja płatna. Wykorzystane były fragmenty pana, ale też myślę, że kilku innych tekstów – usłyszałem.
– Czyli to miał być kolaż różnych materiałów, przepuszczonych przez ChatGPT? – pytam.
– Tak, dokładnie. Choć mogę powiedzieć, że jestem współautorem, bo gdzieś tam na ten tekst spojrzałam, coś dopisałam i opublikowałam.
Ciarki wzruszenia
Gdy w listopadzie 2022 roku cały świat zaczął korzystać z ChataGPT pracowałem jeszcze w jednym z pisemek technologiczno-lifestylowych. Napisałem wówczas tekst o wpływie chatbota na przyszłość dziennikarstwa. Stawiałem w nim idealistyczną tezę, że AI może ściągnąć z naszych barków ciężar pisania krótkich, schematycznych, informacyjnych treści. Wówczas my będziemy mogli oddać się pisaniu rozbudowanych, autorskich komentarzy. W prowokacyjnym tytule pytałem, Po co nam dziennikarze, skoro mamy OpenAI?
Następnego dnia po publikacji mojego artykułu, portal, w którym pracowałem opublikował pierwszy tekst napisany w pełni przez ChatGPT.
– Możliwe, że dziennikarze będą mogli poświęcić się robieniu „wielkich rzeczy”, a chatboty przejmą pisanie prostych informacji prasowych – mówi dr Katarzyna Błeszyńska. – Nie można jednak wykluczyć, że ta technologia posunie się tak dalece do przodu, że zdobędzie i te ludzkie umiejętności i będzie potrafiła pisać tak jak my.
– Czy coraz częstsze wykorzystywanie AI w tworzeniu tekstów nie wywoła niechęci do takich treści? Może wtedy zwiększy się popularność tekstów z autorską perspektywą i ludzkimi historiami – pytam.
– Nie wiem być może. Kiedy czytam o przypadkach osób, które zakochały się w awatarze, mam wątpliwości. Współczesny człowiek zamknął się w ekranie komputera czy telefonu, często nie chce nawiązywać głębszych relacji, a maszyna jest w stanie zaspokoić tę resztkę potrzeb, które mu zostały. To już zagwozdka dla psychologów. Odnośnie tekstów generowanych przez AI myślę, że na pewno trzeba oznaczać takie wytwory w sposób niebudzący wątpliwości, że pochodzą one od AI i to powinno być narzucone prawnie. Dzisiaj nie zawsze to wiemy, co utrudnia nam ich ocenę takich od strony warsztatowej i legalności. Niektórzy twierdzą, że nic nie zastąpi człowieka i naszej ludzkiej wrażliwości. Ciarki wzruszenia mogą być wywołane tylko przez odkrywczą myśl twórczą człowieka.
– A co pani uważa? Sam jestem coraz bardziej sceptyczny.
– Ja też… Już teraz miewam problem z odróżnieniem wytworu stworzonego przez sztuczną inteligencję, od ludzkiego dzieła. AI uczy się bardzo szybko, oby nie szybciej niż człowiek.
Aktualizacja 07.08.2024:
Po publikacji tego artykułu ponownie skontaktowała się ze mną dr Błeszyńska, która wcześniej nie wiedziała, że udało mi się skontaktować z osobą odpowiedzialną za plagiat oraz że faktycznie do jego stworzenia wykorzystano sztuczną inteligencję.
„A zatem mamy dowód na to, że to sztuczna inteligencja w tym przypadku naruszyła Pana prawa autorskie i w sposób bezprawny wykorzystała Pana utwór dziennikarski. Tej lawiny zapewne już nie powstrzymamy i takie sytuacje będą coraz częstsze. W Stanach toczy się aktualnie proces New York Times’a przeciwko firmom OpenAI i Microsoft. Dziennik zarzuca firmom technologicznym bezprawne wykorzystanie artykułów do szkolenia swoich chatbotów – ChatGPT i Bing. Dlatego uważam, że działanie AI wymaga kolejnych regulacji prawnych zapewniających rekompensatę finansową na rzecz twórców i wydawców. Niezależnie od tego jak umiejętnie bądź nieumiejętnie AI przerabia chronione utwory, bezsprzeczne jest że z nich korzysta i za to dziennikarzom i wydawcom należy się wynagrodzenie.”