Pod koniec maja konto na Instagramie profilu @ifyouhigh zostało zhakowane.
Tak, masz rację — @ifyouhigh nie jest światowej sławy celebrytą, ani faworytem w wyborach. Nie jest decydentem, ani trendseterem. Ma za to 5 mln obserwujących i posty z setkami tysięcy polubień.
„31 maja [nasze konto] zostało zhakowane, mimo że stosujemy najsilniejsze zabezpieczenia oferowane na Instagramie. Wielokrotnie zwracaliśmy się do Centrum pomocy Meta, opisując sytuację i nakreślając związane z nią ryzyko, jednak nie otrzymaliśmy żadnego wsparcia”. Na zhakowanym koncie pojawiły się posty promujące profile na OnlyFans, co przyniosło stratę niemal 140 tys. obserwujących. „Nie po raz pierwszy mamy problemy z zabezpieczeniami na Instagramie” – piszą w oświadczeniu.
Przejęcie konta z kilkoma milionami obserwatorów może okazać się zaskakująco zyskownym skokiem. Tzw. mega influencerzy (posiadający status milionerów w liczbie followersów) mogą inkasować dziesiątki tysięcy dol. od posta. Natomiast wśród „zagrożeń” wspominanych w oświadczeniu, moderatorzy @ifyouhigh wymieniają wprost „podszywanie się”. W końcu ile czasu może zająć zmiana zdjęcia profilowego, nazwy użytkownika, BIO, zarchiwizowanie dotychczasowych postów i dodanie kilkunastu rolek z deepfake’ami Bidena?
Hakując choćby jedno konto na Instagramie i trafiając zaledwie do fragmentu jego publiczności, możemy przykuć uwagę milionów par oczu. Wówczas okazuje się, że najtrudniej jest zwrócić uwagę Centrum pomocy Meta.
Moderacja przeciw Inicjatywie
Społeczna Inicjatywa Narkopolityki (SIN) od 2012 roku zajmuje się promocją wiedzy na temat środków psychoaktywnych. „Wychodzimy z założenia, że najlepiej jest nie zaczynać używać narkotyków, lub przestać, jeżeli się to robi, jednak nie zawsze jest to możliwe. Edukujemy jak, jeśli już się zażywa, robić to z możliwie najmniejszą szkodą” – tłumaczy na stronie internetowej SIN.
Do 2018 roku profil organizacji na Facebooku obserwowało 16 tys. osób. Między 13 a 15 marca konto SIN oraz wszystkie prowadzone przez nie grupy zostały bez ostrzeżenia zablokowane. W uzasadnieniu stwierdzono, że publikowane na nich treści były „niezgodne ze Standardami społeczności”. Na początku 2019 roku w podobny sposób uzasadniono usunięcie konta SIN na należącym do Facebooka (obecnie Meta) Instagramie.
Powiadomienia nie stwierdzały jednoznacznie jakie zasady zostały złamane, ani przez jakie treści. Inicjatywa, wspierana przez Fundację Panoptykon, postanowiła dociekać swoich praw w sądzie, argumentując, że decyzja Meta stanowiła naruszenie dóbr osobistych – wolności słowa i swobody komunikowania się. W sprawie ciągnącej się od maja 2019 nieprawomocny wyrok zapadł 13 marca tego roku, dokładnie sześć lat od zablokowania pierwszej grupy SINu na Facebooku. – Ten wyrok dotyczy tego, czy cyfrowi giganci mogą wprowadzać cenzurę – mówił gdy czekaliśmy na jego wygłoszenie w Sądzie Okręgowym w Warszawie Jakub Nowak, członek zarządu i rzecznik SIN.
Według orzeczenia – nie mogą. Sąd nakazał Meta przywrócenie stron i materiałów dodanych przez SIN oraz opublikowanie oświadczenia przepraszającego za blokadę. W uzasadnieniu wskazywano na brak równowagi między stronami. SIN nie mógł przecież negocjować warunków umowy, jaką zawarł z Facebookiem w momencie zakładania strony i wyrażania zgody na warunki korzystania z serwisu.
Czytaj: Jak SEO zepsuło internet
Przypadek Społecznej Inicjatywy Narkopolityki nie jest odosobniony. Platformy Meta prowadzą stałą weryfikację treści i usuwają lub ograniczają widoczność tych, które nie są zgodne z Regulaminem czy Standardami społeczności. Te dwa dokumenty wspólnie konstytuują prawo obowiązujące na Facebooku. Pierwszy stanowi zbiór zasad, który akceptujesz, dołączając do społeczności platformy. Drugi opisuje niedozwolone zachowania oraz mechanizmy zgłaszania naruszeń, wobec których mogą być podjęte tzw. działania: usunięcie fragmentu treści, zakrycie zdjęcia lub filmu za pomocą ostrzeżenia czy zablokowanie konta.
Według statystyk Facebooka w ostatnim kwartale 2023 roku podjęto ponad 1,7 mld „działań” w ramach kilkunastu różnych kategorii od pornografii, narkotyków i autoagresji, aż po spam (liczba ta nie uwzględnia działań podjętych przeciwko dziecięcej nagości i wykorzystywaniu seksualnemu małoletnich, których statystyki przestały być publikowane w 2021 roku).
Pozew złożony przez SIN nie jest jedyną tego typu sprawą prowadzoną obecnie przez polski sąd. Powołując się ponownie na Standardy społeczności, Facebook zablokował na początku 2022 roku konto Konfederacji. Partia, która na swojej stronie facebookowej posiada obecnie blisko 700 tys. obserwujących, bez ostrzeżenia straciła dostęp do swojej platformy.
Tu analogie do sytuacji SINu się kończą.
Sprawę Konfederacji wsparł polski rząd, na czele z ówczesnym ministrem cyfryzacji, Januszem Cieszyńskim, a do sytuacji odniosło się w oświadczeniu biuro prasowe Facebooka. Swoją decyzję motywowali łamaniem przez partię regulaminu platformy, poprzez rozpowszechnianie homofobicznych i ksenofobicznych treści oraz fałszywych twierdzeń dotyczących wirusa COVID-19 i szczepionek przeciwko niemu. W przeciwieństwie do SINu strona Konfederacji została przywrócona na czas trwania procesu już w sierpniu 2022 roku.
Jednak co jeśli nasze konto nie ma setek tysięcy obserwujących, nie jesteśmy organizacją pożytku publicznego, partią polityczną, nie możemy liczyć na wsparcie rządu, ani fundacji specjalizującej się w nadużyciach Big Tech? Konta na platformach społecznościowych dla wielu osób stanowią źródło utrzymania. Co jeśli z dnia na dzień przestaną istnieć?
Lekcja języka polskiego
Facebook odwiedza co miesiąc ponad 3 mld osób, mówiących w 112 językach, w tym 23,5 mln w Polsce. Trzecie i czwarte miejsce w rankingu aplikacji o największej liczbie aktywnych użytkowników należy do WhatsAppa i Instagrama (po 2 mld osób miesięcznie), również wchodzących w skład konglomeratu Zuckerberga. Za moderację aktywności osób korzystających z Facebooka i Instagrama w dużej mierze odpowiadają cyfrowe „systemy dopasowywania”, które sprawdzają, jak często użytkownik podejmuje działanie (np. opublikuje post albo doda komentarz), czy dane konta nie istnieją już w serwisie oraz, czy publikowane treści nie zostały wcześniej zaklasyfikowane jako niezgodne ze Standardami społeczności.
Moderacja prowadzona jest również przez sztuczną inteligencję. „Podobnie jak w przypadku technologii dopasowywania, gdy mamy wystarczającą pewność, że post narusza jeden z naszych Standardów społeczności, sztuczna inteligencja zazwyczaj usuwa daną treść lub ograniczy jej widoczność” – czytamy w Raporcie transparentności Facebooka.
Treści zgłaszane przez algorytm, bądź przez użytkowników i użytkowniczki mogą trafić do jednej z 15 tys. osób weryfikujących, z których jedynie część stanowią pracownicy Meta. Osoby odpowiedzialne za moderowanie Facebooka są w stanie nadzorować tylko wycinek ogromu materiałów publikowanych codziennie na platformie. Ponad 20 mln użytkowników przeglądających ją w języku polskim podlega zaledwie 65 moderatorom. Równocześnie na ok. 10 mln aktywnych użytkowników TikToka w Polsce przypada 208 osób moderujących.
Czytaj: Szkoliłam sztuczną inteligencję. Najgorszy czas w moim życiu
Ze 112 języków wykorzystywanych na Facebooku, moderacja obejmuje jedynie 70. Natomiast według Centrum transparentności Facebooka pełna treść jego Standardów społeczności została przetłumaczona na język polski dopiero pod koniec ubiegłego roku, piętnaście lat od pojawienia się polskiej wersji platformy.
Tłumaczenie stanowiło istotną kwestię w sporze Społecznej Inicjatywy Narkopolityki z Facebookiem. Pozew złożony w 2019 roku został odrzucony przez Facebook Ireland Limited, oddział platformy odpowiedzialny za działania w Europie. W uzasadnieniu stwierdzono, że żadna z osób pracujących w tamtejszym dziale procesowym nie posługuje się językiem polskim. Aby ubiegać się o swoje prawa przed sądem, SIN wraz z Fundacją Panoptykon musiało otworzyć zbiórkę na tłumaczenie uwierzytelnione, które wyceniono na blisko 9 tys. zł.
Taki stosunek do moderacji treści w Polsce wiąże się z wprowadzonym przez Facebooka podziałem krajów, według „szczebli moderacji” (moderation tiers). Wszystkie kraje, w których operuje platforma, są podzielone na cztery szczeble, od najważniejszego, do najmniej istotnego. Na zerowym szczeblu, jako najistotniejsze, znajdują się Indie, Brazylia i Stany Zjednoczone, na pierwszym: Niemcy, Indonezja, Iran, Izrael i Włochy. Na drugim znajdują się już 22 kraje, a na trzecim i ostatnim szczeblu znajdują się „wszystkie inne”, w tym Polska.
Według podziału ujawnionego w ramach tzw. Facebook Papers przez sygnalistkę Frances Haugen w 2021 roku, w krajach, którym przypisano najwyższy priorytet moderacji, Facebook uruchomił tzw. sale wojenne. Stworzył również panele kontrolne do stałej analizy aktywności, a nawet informował lokalnych urzędników wyborczych o ewentualnych problemach. Kraje należące do trzeciego szczebla mogą liczyć na minimalne wsparcie finansowe i logistyczne prowadzonej w nich moderacji treści.
Nie znamy jednak dokładnie kryteriów tego podziału. Nie jest nim ani liczba obywateli, ani osób korzystających z platformy, a raczej stanowi arbitralną decyzję Meta.
Na granicy unijnego prawa
Moderacja treści publikowanych w internecie w UE jest regulowana przez Rozporządzenie o usługach cyfrowych (DSA), które weszło w życie dopiero na początku tego roku. Dzięki niemu obywatelki i obywatele Unii mają możliwość obrony przed sądem krajowym. DSA równocześnie zobowiązuje platformy do stworzenia łatwego i skutecznego mechanizmu zaskarżania decyzji dotyczących konta oraz do wysyłania ostrzeżeń, zanim podejmą decyzję o jego zawieszeniu.
Przypadek Społecznej Inicjatywy Narkopolityki obrazuje nie tylko, jak istotne są tego typu regulacje, ale i to, jak późno są one wprowadzane. Facebook po raz pierwszy trafił na komputery na europejskich uniwersytetach w 2005 roku. Regulacji dbających o prawa użytkowników i użytkowniczek w Europie doczekał się prawie dwie dekady później.
By sprostać ich wymaganiom, Facebook wprowadził system wystawiania minusów za łamanie Standardów społeczności. Pierwotnie ograniczał on niektóre możliwości na platformie (np. dodawanie postów w grupach) już po uzyskaniu pierwszego minusa. Dodatkowo użytkownicy i użytkowniczki nie musieli otrzymywać informacji, za co go otrzymali. System został zreformowany dopiero w ubiegłym roku. Zwiększono liczbę wymaganych minusów ograniczających prawa na platformie do sześciu oraz wprowadzając mechanizm informowania o powodach ich przyznawania.
„Wiemy, że nie zawsze podejmujemy słuszne decyzje” – pisała w oświadczeniu dotyczącym zmian w systemie przyznawania minusów Monika Bickert, Viceprezes ds. Polityki Treści Facebooka. „Zdecydowana większość osób korzystających z naszych aplikacji ma dobre intencje. Historycznie rzecz biorąc, niektóre z tych osób trafiały do «Facebookowego więzienia» nie rozumiejąc, co zrobiły źle, ani czy w ich przypadku nie miał miejsca błąd moderacji treści”.
Trudno jednak jednoznacznie stwierdzić jak dalece unijne regulacje wpłyną na problem weryfikacji treści na platformach Mety. Choć Facebook wystosowywuje wymagany w ustawie „Raport transparentności”, nie znajdziemy w nim już wymaganych przez DSA szczegółów podejmowanych decyzji (np. czy konto zostało zablokowane, czy tylko dodano ostrzeżenie do danego posta).
Centrum Pomocy Facebooka również nie wspomina wiele o transparentności podejmowanych działań. Na pytanie „Po czym poznać, że konto zostało wyłączone?” odpowiada: „Jeżeli Twoje konto na Facebooku zostało wyłączone, podczas próby zalogowania się będzie wyświetlany wyraźny komunikat o wyłączeniu”.
Dziękuję za pytania
„Nie skupiaj się na celu, tylko na budowaniu relacji” – radzi Mark Zuckerberg. To odważne słowa, jak na twórcę największej maszyny do ghostowania użytkowników w historii. W końcu, choć system wsparcia oferowany przez Meta bazuje na artykułach w stylu DIY opisujących potencjalne problemy i ich możliwe rozwiązania, po sieci krążą różne adresy kontaktowe firmy. Mamy więc możliwość wysyłania wiadomości. Nie otrzymałem jednak odpowiedzi na żadną z nich.
Zdecydowałem się więc podążać za radą Zuckerberga.
Żaląc się na piwie, że Meta od miesiąca nie odpowiada mi na maile, usłyszałem od znajomej: „Z kim chciałbyś pogadać”? Na następny dzień pisałem już z przedstawicielką międzynarodowej firmy Hill & Knowlton zajmującej się komunikacją strategiczną, której klientem jest Meta.
Dowiedziałem się, że żaden z przedstawicieli platformy nie jest dostępny do udzielenia wywiadu przez następny miesiąc. Za to odpowiedzi na wysłane przeze mnie mailem pytania mogą zostać uznane za oświadczenie biura prasowego Meta.
Miesiąc po wyznaczonym wspólnie terminie i kilka maili przypominających później, wciąż nie dostałem odpowiedzi. Ale może to milczenie przemawia nawet najgłośniej?