Bobby Allyn
Sylvia Goodman
Dara Kerr
Nieudostępnione dokumenty pokazują, że TikTok jest świadomy zagrożeń powodowanych przez jego aplikację.
Po raz pierwszy upubliczniono wewnętrzną komunikację TikTok, która pokazuje, że firma nie przejmuje się szkodliwością aplikacji dla amerykańskich nastolatków. Dzieje się tak pomimo własnych badań potwierdzających wiele obaw dotyczących bezpieczeństwa dzieci.
Poufne materiały były częścią ponad dwuletniego dochodzenia w sprawie TikTok prowadzonego przez 14 prokuratorów generalnych, które doprowadziło we wtorek do pozwania firmy przez władze stanowe. Pozew twierdzi, że TikTok został zaprojektowany z wyraźnym zamiarem uzależnienia młodych ludzi od aplikacji. Stany twierdzą, że wielomiliardowa firma oszukała opinię publiczną co do ryzyka.
W każdym z oddzielnych pozwów złożonych przez organy regulacyjne, dziesiątki wewnętrznych komunikatów, dokumentów i danych badawczych zostały zredagowane - zaciemnione przed widokiem publicznym - ponieważ władze zawarły umowy o zachowaniu poufności z TikTok.
Ale w jednym z pozwów, złożonym przez Biuro Prokuratora Generalnego Kentucky, redakcje były błędne. Zostało to ujawnione, gdy Kentucky Public Radio skopiowało i wkleiło fragmenty zredagowanego materiału, ujawniając około 30 stron dokumentów, które były utrzymywane w tajemnicy.
Po tym, jak Kentucky Public Radio opublikowało fragmenty zredagowanego materiału, sędzia stanowy zapieczętował całą skargę na wniosek biura prokuratora generalnego „w celu zapewnienia, że wszelkie dokumenty ugodowe i powiązane informacje, poufne informacje handlowe i tajemnice handlowe oraz inne chronione informacje nie zostały niewłaściwie rozpowszechnione”, zgodnie z nagłym wnioskiem o zapieczętowanie skargi złożonej w środę przez urzędników Kentucky.
NPR przejrzało wszystkie fragmenty pozwu, które zostały zredagowane, które podkreślają, że kierownictwo TikTok szczerze mówi o wielu zagrożeniach dla dzieci w szalenie popularnej aplikacji wideo. Materiały, w większości podsumowania wewnętrznych badań i komunikacji, pokazują, że niektóre środki zaradcze - takie jak narzędzia do zarządzania czasem - miałyby nieznaczną redukcję czasu spędzanego przed ekranem. Firma zdecydowała się jednak udostępnić i zareklamować te funkcje.
Osobno, zgodnie z nowym prawem, TikTok ma czas do stycznia, aby pozbyć się swojej chińskiej spółki macierzystej, ByteDance, lub stanąć w obliczu ogólnokrajowego zakazu. TikTok walczy z nadchodzącą rozprawą. Tymczasem nowe pozwy ze strony władz państwowych rzuciły cień na aplikację i jej zdolność do przeciwdziałania treściom, które szkodzą nieletnim.
W oświadczeniu rzecznik TikTok Alex Haurek bronił wyników firmy w zakresie bezpieczeństwa dzieci i potępił ujawnienie niegdyś publicznego materiału, który został teraz zapieczętowany.
„Publikowanie informacji, które są objęte pieczęcią sądową, jest wysoce nieodpowiedzialne ze strony NPR” - powiedział Haurek. „Niestety, ta skarga wybiera wprowadzające w błąd cytaty i wyrywa nieaktualne dokumenty z kontekstu, aby fałszywie przedstawić nasze zaangażowanie w bezpieczeństwo społeczności”.
Kontynuował: „Mamy solidne zabezpieczenia, które obejmują proaktywne usuwanie podejrzanych nieletnich użytkowników, i dobrowolnie uruchomiliśmy funkcje bezpieczeństwa, takie jak domyślne limity czasu wyświetlania, parowanie rodzinne i domyślna prywatność dla nieletnich poniżej 16 roku życia”.
Kentucky AG: Użytkownicy TikTok mogą stać się „uzależnieni” w 35 minut
Jak może potwierdzić 170 milionów użytkowników TikTok w USA, hiper-spersonalizowany algorytm platformy może być tak wciągający, że trudno jest zamknąć aplikację. TikTok określił dokładną liczbę wyświetleń, jaka jest potrzebna, aby ktoś wyrobił sobie nawyk: 260 filmów. Następnie, według śledczych stanowych, użytkownik „prawdopodobnie uzależni się od platformy”.
W poprzednio zredagowanej części pozwu władze Kentucky stwierdzają: „Chociaż może się to wydawać znaczące, filmy TikTok mogą być tak krótkie, jak 8 sekund i są odtwarzane dla widzów w szybkim tempie, automatycznie” - napisali śledczy. „Tak więc, w mniej niż 35 minut, przeciętny użytkownik może uzależnić się od platformy”.
W innym wewnętrznym dokumencie stwierdzono, że firma była świadoma wielu funkcji zaprojektowanych w celu utrzymania młodych ludzi w aplikacji, co prowadziło do ciągłej i nieodpartej chęci ciągłego otwierania aplikacji.
Według własnych badań TikTok „kompulsywne korzystanie z aplikacji koreluje z wieloma negatywnymi skutkami dla zdrowia psychicznego, takimi jak utrata umiejętności analitycznych, tworzenie pamięci, myślenie kontekstowe, głębia konwersacji, empatia i zwiększony niepokój”.
Ponadto dokumenty pokazują, że TikTok był świadomy tego, że „kompulsywne korzystanie z aplikacji koliduje również z podstawowymi obowiązkami osobistymi, takimi jak wystarczająca ilość snu, obowiązki zawodowe / szkolne i łączenie się z bliskimi”.
TikTok: Narzędzie limitu czasu miało na celu „poprawę zaufania publicznego”, a nie ograniczenie korzystania z aplikacji
Nienaruszone dokumenty pokazują, że pracownicy TikTok byli świadomi, że zbyt dużo czasu spędzanego przez nastolatków w mediach społecznościowych może być szkodliwe dla ich zdrowia psychicznego. Konsensus wśród naukowców jest taki, że zalecają oni jedną godzinę lub mniej korzystania z mediów społecznościowych dziennie.
Aplikacja pozwala rodzicom nakładać limity czasowe na korzystanie z mediów społecznościowych przez ich dzieci, które mogą wynosić od 40 minut do dwóch godzin dziennie. TikTok stworzył narzędzie, które ustawia domyślny czas na 60 minut dziennie.
Wewnętrzne dokumenty pokazują, że TikTok zmierzył sukces tego narzędzia na podstawie tego, w jaki sposób „zwiększył zaufanie publiczne do platformy TikTok poprzez relacje w mediach”, a nie w jaki sposób zmniejszył czas spędzany przez nastolatków w aplikacji.
Po testach TikTok stwierdził, że narzędzie miało niewielki wpływ - odpowiadało za około 1,5-minutowy spadek użytkowania, przy czym nastolatki spędzały wcześniej około 108,5 minuty dziennie do około 107 minut z narzędziem. Zgodnie ze skargą prokuratora generalnego, TikTok nie powrócił do tej kwestii.
Jeden z dokumentów pokazuje, że jeden z kierowników projektu TikTok powiedział: „Naszym celem nie jest skrócenie czasu spędzanego”. W wiadomości na czacie, w której powtórzono ten sentyment, inny pracownik powiedział, że celem jest „przyczynienie się do DAU [dziennych aktywnych użytkowników] i zatrzymanie” użytkowników.
TikTok opublikował swoje filmy z „przerwami”, które mają skłonić użytkowników do zaprzestania niekończącego się przewijania i zrobienia sobie przerwy. Wewnętrznie wydaje się jednak, że firma nie uważała tych filmów za zbyt wiele. Jeden z dyrektorów powiedział, że są one „przydatne w dobrym punkcie rozmowy” z decydentami, ale „nie są całkowicie skuteczne”.
Dokument: TikTok zdegradował osoby, które uznał za nieatrakcyjne na swoim kanale
Wielostanowy spór sądowy przeciwko TikTok zwrócił uwagę na filtry upiększające firmy, które użytkownicy mogą nakładać na filmy, aby wyglądać szczuplej i młodziej lub mieć pełniejsze usta i większe oczy.
Jedna z popularnych funkcji, znana jako filtr Bold Glamour, wykorzystuje sztuczną inteligencję do przerabiania twarzy ludzi tak, aby przypominały modelki z wysokimi kośćmi policzkowymi i mocną linią szczęki.
Wewnętrzne dokumenty pokazują, że TikTok jest świadomy szkód, jakie filtry upiększające, takie jak Bold Glamour, mogą wyrządzić młodym użytkownikom.
Jak wynika z dokumentów, TikTok jest świadomy szkód, jakie filtry upiększające mogą wyrządzić młodym użytkownikom.
Pracownicy zasugerowali wewnętrznie, aby firma „zapewniła użytkownikom zasoby edukacyjne na temat zaburzeń wizerunku” i stworzyła kampanię „w celu podniesienia świadomości na temat kwestii związanych z niską samooceną (spowodowaną nadmiernym stosowaniem filtrów i innymi kwestiami)”.
Zasugerowali również dodanie banera lub filmu do filtrów, który zawierałby „oświadczenie o świadomości na temat filtrów i znaczenia pozytywnego wizerunku ciała / zdrowia psychicznego”.
Dzieje się tak, ponieważ dokumenty pokazują inny ukryty aspekt algorytmu TikTok: aplikacja priorytetowo traktuje pięknych ludzi.
Jeden z wewnętrznych raportów, w którym przeanalizowano główny kanał wideo TikTok, wykazał, że „duża liczba… nieatrakcyjnych obiektów” wypełniała aplikację wszystkich użytkowników. W odpowiedzi śledczy z Kentucky odkryli, że TikTok zmienił swój algorytm, aby wzmocnić użytkowników, których firma postrzegała jako pięknych.
„Zmieniając algorytm TikTok, aby wyświetlać mniej” nieatrakcyjnych obiektów »w kanale For You, [TikTok] podjął aktywne kroki w celu promowania wąskiej normy piękna, mimo że może to negatywnie wpłynąć na ich młodych użytkowników« - napisały władze Kentucky.
TikTok exec: algorytm może pozbawić dzieci możliwości takich jak „patrzenie komuś w oczy
Publicznie TikTok stwierdził, że jednym z jego „najważniejszych zobowiązań jest wspieranie bezpieczeństwa i dobrego samopoczucia nastolatków”.
Jednak wewnętrzne dokumenty przedstawiają zupełnie inny obraz, cytując oświadczenia kierownictwa firmy, które wydają się być świadome szkodliwych skutków aplikacji bez podejmowania znaczących kroków w celu ich rozwiązania.
Jeden z nienazwanych dyrektorów TikTok ujął to w ostrych słowach, mówiąc, że powodem, dla którego dzieci oglądają TikTok, jest siła algorytmu aplikacji, „ale myślę, że musimy być świadomi tego, co to może oznaczać dla innych możliwości” - powiedział dyrektor firmy. „A kiedy mówię o innych możliwościach, dosłownie mam na myśli sen, jedzenie, poruszanie się po pokoju i patrzenie komuś w oczy”.
Wewnętrzne szacunki TikTok: 95% użytkowników smartfonów poniżej 17 roku życia korzysta z TikTok.
TikTok postrzega siebie jako „wyścig zbrojeń o uwagę”, zgodnie z wewnętrzną prezentacją z 2021 roku.
Nastolatki były kluczem do wczesnego rozwoju aplikacji w Stanach Zjednoczonych, ale inna prezentacja pokazana najwyższym urzędnikom firmy ujawniła, że szacuje się, że 95% użytkowników smartfonów poniżej 17 roku życia korzysta z TikTok przynajmniej raz w miesiącu. Doprowadziło to pracownika firmy do stwierdzenia, że „osiągnęła pułap wśród młodych użytkowników”.
Własne badania TikTok wykazały, że dzieci były najbardziej podatne na wciągnięcie w nieskończenie płynący kanał wideo aplikacji. „Zgodnie z oczekiwaniami, w przypadku większości wskaźników zaangażowania, im młodszy użytkownik, tym lepsza wydajność”, zgodnie z dokumentem TikTok z 2019 roku.
W odpowiedzi na rosnące krajowe obawy, że nadmierne korzystanie z mediów społecznościowych może zwiększać ryzyko depresji, lęku i problemów z wizerunkiem ciała wśród dzieci, TikTok wprowadził narzędzia do zarządzania czasem. Obejmują one powiadomienia informujące nastolatków o tym, jak długo spędzają w aplikacji, funkcje nadzoru rodzicielskiego i możliwość uczynienia aplikacji niedostępną przez pewien czas.
Jednocześnie jednak TikTok wiedział, jak mało prawdopodobne jest, aby te narzędzia były skuteczne, zgodnie z materiałami uzyskanymi przez śledczych z Kentucky.
„Nieletni nie mają funkcji wykonawczych do kontrolowania czasu spędzanego przed ekranem, podczas gdy młodzi dorośli tak” - czytamy w wewnętrznym dokumencie TikTok.
TikTok wpycha użytkowników do baniek filtrujących, takich jak „painhub” i „sadnotes
TikTok doskonale zdaje sobie sprawę z istnienia „baniek filtrujących”. Wewnętrzne dokumenty pokazują, że firma zdefiniowała je jako sytuacje, w których użytkownik „napotyka tylko informacje i opinie, które są zgodne i wzmacniają jego własne przekonania, spowodowane przez algorytmy, które personalizują indywidualne doświadczenia online”.
Firma zdaje sobie sprawę z niebezpieczeństw związanych z bańkami filtrującymi. Podczas jednej z wewnętrznych prezentacji dotyczących bezpieczeństwa w 2020 r. pracownicy ostrzegli, że aplikacja „może szybko wyświetlać potencjalnie szkodliwe treści”. TikTok przeprowadził wewnętrzne eksperymenty z kontami testowymi, aby zobaczyć, jak szybko schodzą one do negatywnych baniek filtrujących.
„Po śledzeniu kilku kont” painhub »i« sadnotes »zajęło mi 20 minut, aby wpaść w« negatywną »bańkę filtrującą« - napisał jeden z pracowników. „Intensywne zagęszczenie negatywnych treści obniża mój nastrój i zwiększa uczucie smutku, mimo że ostatnio jestem w dobrym nastroju”.
Inny pracownik powiedział, że „jest wiele filmów wspominających o samobójstwie”, w tym jeden z pytaniem: „Gdybyś mógł się zabić, nie krzywdząc nikogo, czy zrobiłbyś to?”.
W innym dokumencie badania TikTok wykazały, że treści promujące zaburzenia odżywiania, często nazywane „thinspiration”, są związane z takimi kwestiami, jak niezadowolenie z ciała, zaburzenia odżywiania, niska samoocena i depresja
Pomimo tych uwag, algorytm TikTok nadal umieszcza użytkowników w bańkach filtrujących. Jeden z wewnętrznych dokumentów stwierdza, że użytkownicy są „umieszczani w” bąbelkach filtrujących „po 30 minutach użytkowania podczas jednego posiedzenia”. Firma napisała, że posiadanie większej liczby ludzkich moderatorów do oznaczania treści jest możliwe, ale „wymaga dużego wysiłku ludzkiego”.
W moderacji treści TikTok brakuje treści dotyczących samookaleczeń i zaburzeń odżywiania.
TikTok ma kilka warstw moderacji treści, aby wyeliminować filmy, które naruszają Wytyczne dla społeczności. Wewnętrzne dokumenty pokazują, że pierwszy zestaw oczu nie zawsze jest osobą z zespołu ds. zaufania i bezpieczeństwa firmy.
Pierwsza runda zazwyczaj wykorzystuje sztuczną inteligencję do oznaczania treści pornograficznych, brutalnych lub politycznych. Kolejne rundy wykorzystują ludzkich moderatorów, ale tylko wtedy, gdy wideo ma określoną liczbę wyświetleń, zgodnie z dokumentami. Te dodatkowe rundy często nie uwzględniają pewnych rodzajów treści lub zasad dotyczących wieku.
Zgodnie z własnymi badaniami TikTok, niechronione dokumenty pokazują, że niektóre treści dotyczące samobójstw i samookaleczeń uniknęły tych pierwszych rund ludzkiej moderacji. Badanie wskazuje na filmy z samookaleczeniami, które miały ponad 75 000 wyświetleń, zanim TikTok je zidentyfikował i usunął.
TikTok ma również rozproszone zasady dotyczące treści, które obejmują zaburzenia odżywiania, zażywanie narkotyków, niebezpieczną jazdę, gore i przemoc. Podczas gdy Wytyczne dla społeczności TikTok zabraniają wielu z tych treści, wewnętrzne dokumenty dotyczące polityki mówią, że firma „zezwala” na te treści. Często treści te można znaleźć na TikTok i po prostu nie są one „zalecane”, co oznacza, że nie pojawiają się w kanałach For You użytkowników lub mają niższy priorytet w algorytmie.
Firma ma punkty do dyskusji na temat swojej pracy w zakresie moderowania treści. Jeden z przykładów podkreślonych w dokumentach dotyczy dziecka wysłanego na pogotowie po próbie podjęcia niebezpiecznego wyzwania TikTok. Radząc sobie z negatywnymi reakcjami prasy, TikTok powiedział pracownikom, aby korzystali z wewnętrznej listy punktów dyskusyjnych, która mówi: „Zgodnie z naszymi Wytycznymi dla społeczności, nie zezwalamy na treści, które przedstawiają, promują, normalizują lub gloryfikują [niebezpieczne] zachowania, w tym niebezpieczne wyzwania”.
TikTok przyznaje wewnętrznie, że ma znaczne wskaźniki „wycieków” naruszających treści, które nie są usuwane. Wskaźniki te obejmują: 35,71% „normalizacji pedofilii”; 33,33% „nagabywania seksualnego nieletnich”; 39,13% „znęcania się fizycznego nad nieletnimi”; 30,36% „wyprowadzania nieletnich poza platformę”; 50% „gloryfikacji napaści seksualnych na nieletnich”; oraz „100% »fetyszyzacji nieletnich«.
TikTok powoli usuwa użytkowników poniżej 13 roku życia, pomimo polityki firmy
Dzieci poniżej 13 roku życia nie mogą otworzyć standardowego konta TikTok, ale istnieje usługa „TikTok dla młodszych użytkowników”, która według firmy zawiera ścisłe zabezpieczenia treści.
Jest to wrażliwa grupa użytkowników, ponieważ prawo federalne stanowi, że serwisy społecznościowe, takie jak TikTok, nie mogą gromadzić danych dzieci poniżej 13 roku życia, chyba że rodzice zostaną powiadomieni o zebranych danych osobowych. I nawet wtedy aplikacje społecznościowe muszą najpierw uzyskać możliwą do zweryfikowania zgodę rodzica.
W sierpniu Departament Sprawiedliwości pozwał TikTok za naruszenie federalnego prawa chroniącego dane dzieci poniżej 13 roku życia, twierdząc, że aplikacja „świadomie i wielokrotnie naruszała prywatność dzieci”.
Jednak w wewnętrznych dokumentach urzędnicy firmy poinstruowali moderatorów TikTok, aby zachowali ostrożność przed usunięciem kont użytkowników podejrzanych o wiek poniżej 13 lat.
Wewnętrzny dokument dotyczący „młodszych użytkowników/U13” mówi, że TikTok instruuje swoich moderatorów, aby nie podejmowali działań w sprawie zgłoszeń nieletnich użytkowników, chyba że ich konto identyfikuje ich jako osoby poniżej 13 roku życia.
Wcześniej utajnione fragmenty pozwu sugerują, że firma jest świadoma, że ci młodzi użytkownicy mają konta - poprzez skargi rodziców i nauczycieli - ale niewiele robi, aby je usunąć.
TikTok w trybie kryzysowym po raporcie o tym, że TikTok Live jest „klubem ze striptizem wypełnionym 15-latkami
Po raporcie Forbes z 2022 roku o nieletnich dzieciach robiących striptiz w funkcji na żywo TikTok, firma rozpoczęła własne dochodzenie.
Wtedy to urzędnicy TikTok zdali sobie sprawę z „dużej” liczby nieletnich streamerów otrzymujących cyfrową walutę w aplikacji w postaci „prezentu” lub „monety” w zamian za striptiz - prawdziwe pieniądze zamienione na cyfrową walutę często w postaci pluszowej zabawki lub kwiatka.
TikTok odkrył „znaczną” liczbę dorosłych wysyłających bezpośrednie wiadomości do nieletnich TikTokkerów w sprawie striptizu na żywo na platformie.
W ramach tego wewnętrznego dochodzenia urzędnicy TikTok odkryli, że w ciągu zaledwie jednego miesiąca wysłano 1 milion „prezentów” do dzieci zaangażowanych w zachowania „transakcyjne”.
W zaniżonej ocenie jeden z urzędników TikTok stwierdził: „Jednym z naszych kluczowych odkryć podczas tego projektu, który stał się głównym wyzwaniem dla biznesu Live, jest to, że treści, które zyskują największe zaangażowanie, mogą nie być treściami, które chcemy na naszej platformie”.
https://www.npr.org/2024/10/11/g-s1-27676/tiktok-redacted-documents-in-teen-safety-lawsuit-revealed