SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Google: Na YouTube zdarzyły się błędy. Ale ocena treści i skala wolności słowa to nie nauka ścisła

W ostatnich dniach YouTube zablokował kontrowersyjne treści opublikowane przez kanały wRealu24.tv oraz Radio Maryja. W krótkim czasie jednak budzące wątpliwości materiały zostały przywrócone przez administrację serwisu. Polityka oceny i blokowania treści na YT od lat wywołuje protesty. W wywiadzie dla serwisu Wirtualnemedia.pl głos w tej sprawie zabiera Marta Poślad, dyrektorka ds. polityki publicznej Google w Europie Środkowo-Wschodniej. - Na YouTube publikują twórcy, dla których wcześniej nie było miejsca w tradycyjnych mediach. Zaostrzyliśmy zasady dotyczące mowy nienawiści, ale zdarzyło nam się kilka błędów w ocenie treści, które stały na pograniczu. Te błędy nie powinny mieć miejsca. Ocena skali wolności słowa nie jest nauką ścisłą, zależy od wielu czynników - zaznacza Poślad.

Marta Poślad, dyrektorka ds. Polityki Publicznej Google w Europie Środkowo-Wschodniej, fot.: Google Marta Poślad, dyrektorka ds. Polityki Publicznej Google w Europie Środkowo-Wschodniej, fot.: Google

W niedzielę 28 lipca br. kanałowi wRealu24.tv na YouTube na tydzień zablokowano możliwość zamieszczania nowych treści. Wcześniej dostał dwa ostrzeżenia od administracji portalu dotyczące m.in. szerzenia mowy nienawiści. Żeby uniknąć kolejnych ostrzeżeń skutkujących definitywnym usunięciem kanału, jego twórcy ukryli większość opublikowanych treści. Ale i tak w miniony weekend kanał został zamknięty.

Kilka dni później przywrócono kanał wRealu24.tv, ale bez opcji zarabiania z reklam przy zamieszczonych treściach. W związku z tym dziennikarze stacji zaapelowali do odbiorców o wsparcie i zapowiedzieli, że chcą bardziej rozwijać własny serwis internetowy.

Podobna historia dotyczy kanału prowadzonego na YouTube przez Radio Maryja. Pojawiła się tam w całości homilia metropolity krakowskiego abp. Marka Jędraszewskiego wygłoszona podczas mszy świętej w rocznicę wybuchu Powstania Warszawskiego. Najmocniej komentowano słowa hierarchy zestawiające czerwoną i tęczową zarazę. - Czerwona zaraza już po naszej ziemi całe szczęście nie chodzi, co wcale nie znaczy, że nie ma nowej, która chce opanować nasze dusze, serca i umysły. Nie marksistowska, bolszewicka, ale zrodzona z tego samego ducha, neomarksistowska. Nie czerwona, ale tęczowa - stwierdził abp Jędraszewski.

Radio Maryja poinformowało na Twitterze o komunikacie z ostrzeżeniem, który otrzymało od administracji YouTube’a w sprawie wideo z homilią abp. Jędraszewskiego. W komunikacie ujawniono, że film „został usunięty, ponieważ narusza zasady dotyczące szerzenia nienawiści”.

We wtorek po południu nagranie stało się jednak ponownie dostępne, zaś YouTube przyznał, że materiał zablokowano wskutek jego błędnej oceny.

Na początku sierpnia br. YouTube poinformował, że zaostrzył walkę z mową nienawiści, zaś oskarżenia o to że zmiana jego ostatnich decyzji jest następstwem nacisków politycznych są nieprawdziwe.

YouTube to przestrzeń wolności słowa, ale są granice

Ostatnie wydarzenia związane z treściami publikowanymi przez Radio Maryja i kanał wRealu24.tv to nie jedyne kontrowersje, które pojawiają się od kilku lat w związku z usuwaniem materiałów łamiących reguły ustalone przez serwis. Wątpliwości i dyskusje na temat blokowania jednych treści, a tolerowaniem innych (np. pochodzących od patostreamerów) toczą się w internecie regularnie.

Teraz w rozmowie z serwisem Wirtualnemedia.pl  Marta Poślad, dyrektorka ds. Polityki Publicznej Google w Europie Środkowo-Wschodniej po raz pierwszy w polskich mediach wyjaśnia w tak obszerny sposób wszelkie kwestie związane z oceną i systemem blokowania treści w polskiej wersji YouTube’a.

Wirtualnemedia.pl: W ostatnim okresie pojawiło się wiele kontrowersji związanych z publikowanymi na YT materiałami dotyczącymi istotnych kwestii społecznych w Polsce. Chodzi m.in. o materiały zamieszczone na kanałach Radia Maryja oraz telewizji wRealu24.tv. Treści te zostały najpierw zablokowane, a następnie przywrócone przez administrację serwisu. Dlaczego, jakie mechanizmy stoją za tego typu decyzjami?

Marta Poślad: Zacznijmy od tego, że misją YouTube jest dać wszystkim szansę na przekazanie swoich opinii i zaprezentowanie się szerokiej publiczności ponad granicami. Obecnie debata publiczna rozpalona jest różnymi istotnymi, wywołującymi często skrajne emocje tematami. Na YouTube publikują też twórcy, dla których wcześniej nie było miejsca w tradycyjnej, koncesjonowanej telewizji, czy mainstreamowej papierowej prasie, z tego prostego powodu, że prezentowane przez nich treści są bliżej któregoś z końców skali, a nie mieszczą się w powszechnie uznawanym centrum. I to jest świetne, że internet daje miejsce do zaprezentowania swoich poglądów wszystkim. Wolność słowa jest jedną z czterech podstawowych zasad YouTube, obok ściśle związanej z nią zasady swobodnego dostępu do informacji. Każdy ma prawo do swobodnego wyrażania swoich opinii i nawiązywania otwartego dialogu z widownią oraz innymi twórcami. To jeden z czynników, który sprawił, że YouTube stał się tak popularny.

Nie można chyba mieć wątpliwości, że internet, a wraz z nim YouTube, niesamowicie poszerzył granicę wolności słowa. Nie prawnie, ale faktycznie. Bo co z tego, że kiedyś ktoś mógł mówić co chce, skoro najwyżej mógł tym zainteresować grono najbliższych? Bez dostępu do środków masowego przekazu to, co dostępne było dla masowego odbiorcy było ściśle reglamentowane. Dzięki internetowi każdy może konkurować o uwagę widza na równych zasadach.

Ale to żywioł wymagający kontroli?

To jest wspaniały postęp, ale też niesie za sobą konsekwencje. Nie każdy chce korzystać z tej swobody dla szerzenia dobra, wiedzy czy dzielenia się swoimi najlepszymi przepisami na szarlotkę. Są tacy, którzy chętnie nadużywają tej swobody do celów, które łamią prawo lub krzywdzą na różne sposoby inne osoby. Nierozstrzygniętym problemem, nie tylko w internecie, ale przede wszystkim w dyskursie społecznym, jest to, gdzie należy postawić granice wolności słowa w zderzeniu z np. ochroną mniejszości czy prywatności. Internet jest odbiciem rzeczywistości społecznej i dyskusje dotyczące treści na YouTube to pochodna fundamentalnych pytań ze świata offline.

Dlatego w regulaminie YouTube określamy granice, których przekroczenie skutkuje zdjęciem treści, a w przypadku powtórzenia naruszeń, zablokowaniem możliwości aktywnego korzystania z platformy. Biorąc pod uwagę to, że w każdej minucie na YouTube trafia ponad 500 godzin różnych treści i to, że debata publiczna jest obecnie coraz silniej spolaryzowana, zadanie polegające na pogodzeniu skutecznego respektowania prawa i regulaminu z ochroną otwartego, wolnego charakteru YouTube jest coraz bardziej złożone i wymaga od nas ciągłego doskonalenia naszych procesów.

W czerwcu tego roku wprowadziliśmy nowe, bardziej restrykcyjne zasady dotyczące mowy nienawiści, które jeszcze dokładniej określają na co nie ma miejsca na platformie. Jednak w związku z tym ostatnio zdarzyło nam się kilka błędów w ocenie treści, które stały na ich pograniczu. Te błędy nie powinny mieć miejsca. Aby jednak minimalizować efekty pomyłek, które mogą się zdarzać przy takiej skali działań udostępniamy sprawny system odwołań oczekując wyrozumiałości twórców, którzy jednocześnie są beneficjentami tej skali i elastyczności YouTube. Jeśli poprzez system odwołań lub w inny sposób otrzymamy informację, że dana blokada nie powinna mieć miejsca, działamy szybko by dany film sprawdzić i jeśli nie łamie naszych wytycznych - przywrócić. Np. w przypadku głośno ostatnio komentowanego w mediach filmu przywrócenie zajęło nam zaledwie kilka godzin - w momencie gdy wiele mediów opisywało, że ten film jest zablokowany, on w rzeczywistości był już z powrotem na platformie. Niektóre wręcz do dziś przedstawiają ten przykład jako dowód na nasze cenzorskie zapędy, mimo że film został uznany przez nas za zgodny z zasadami.

Może nie wszyscy użytkownicy rozumieją jasno reguły, bo są one zbyt skomplikowane?

Krytycy stosowania przez YouTube regulaminu często twierdzą, że zasady są niejasne, że np. nie wiadomo, co rozumiemy przez „mowę nienawiści”, że nie dajemy jasnych wytycznych. Oczywiście: nie jest to nauka ścisła, nie można opracować listy słów zakazanych i uznać, że to wyczerpuje temat. Ocena zawsze musi brać pod uwagę kontekst danej wypowiedzi, jej intencję, zamiar, nawiązania czy nawet aluzje. To jest często bardzo złożone zagadnienie.

Pojawiają się postulaty, a nawet zaproponowano projekt ustawy, aby wszystko to, co jest dozwolone przez polskie prawo było dostępne na YouTube. Ale czy polskie prawo jest w tym zakresie jaśniejsze? Proszę spojrzeć na przepis polskiego kodeksu karnego, który zakazuje nawoływania do nienawiści i kropka. Nie ma tam żadnej wskazówki, jak rozumieć to nawoływanie czy nienawiść.

Regulamin YouTube natomiast wyjaśnia szczegółowo konwencje, których nie można stosować wobec różnych grup, np. sugerowania, że powód ich ochrony jest związany z chorobą psychiczną lub wskazywanie, że jedna z tych grup jest gorsza w stosunku do innych. W regulaminie jest masa przykładów i wyjaśnień. Całość tego zagadnienia zajmuje kilka stron tekstu. Nie wiem, ilu z tych, którzy grzmią o „niejasnych zasadach” zadało sobie trud, aby te zasady przeczytać. Nasze wytyczne szeroko określają grupy chronione, obejmując zarówno te np. wymienione w art. 256 KK jak grupy wyznaniowe oraz te pozostające poza ochroną polskiego prawa, np. osoby z niepełnosprawnościami czy weteranów. A to tylko zasady dotyczące mowy nienawiści. Mamy też inne, np. dotyczące ochrony prywatności czy też ochrony przed nękaniem, co szczególnie często dotyczy dzieci i młodzieży. Czy mamy to wszystko dopuścić, bo nie jest zakazane prawem?

Jak dokładnie wyglądają procesy wykrywania i usuwania z YT szkodliwych treści? Które materiały mogą spotkać się z restrykcjami, kiedy jest usuwany jedynie pojedynczy klip, a kiedy blokowany cały kanał?

Korzystamy z kombinacji wzajemnie uzupełniających się działań maszyn i ludzi. Komputery są lepsze w wyszukiwaniu naruszeń na dużą skalę, a nasi eksperci gwarantują podejmowanie decyzji co do ewentualnego zablokowania, które odpowiednio uwzględnia kontekst i bardziej złożone czynniki, których wciąż nie rozumieją maszyny.

Kiedy dany materiał wideo jest „zaflagowany”  (czyli zgłoszony jako potencjalnie naruszający zasady lub prawo), czy to przez mechanizm uczenia maszynowego czy użytkownika, trafia do zespołu odpowiedzialnego za przegląd treści, który podejmuje decyzje, czy dana treść powinna być usunięta. Jeśli tak się stanie, film jest blokowany, a właściciel kanału dostaje upomnienie, jeśli to pierwszy taki przypadek, lub ostrzeżenie, czyli tzw. strike, o czym jest informowany mailem, notyfikacją i w panelu ustawień.

Informacja ta zawiera też odniesienie do konkretnego materiału, który naruszył regulamin YouTube i wskazuje, o który element regulaminu chodzi. Wskazuje też, jaki ma to wpływ na funkcjonowanie kanału i co twórca może z takim ostrzeżeniem zrobić, w tym możliwość odwołania się, jeśli uważa że strike był niesłuszny.

Dopuszczając to, że każdy może się pomylić, w pierwszym kroku za materiał, który uznajemy za łamiący regulamin YouTube twórca dostaje jedynie „upomnienie”. Już na tym etapie może się odwołać uruchamiając tym samym ponowną weryfikację. Kolejne złamanie regulaminu to już „ostrzeżenie”, czyli strike, co oznacza blokadę wgrywania nowego materiału i prowadzenia transmisji na żywo przez tydzień. Jeśli w trakcie trzech miesięcy ponownie jakiś materiał łamie regulamin, twórca dostaje drugi strike, co blokuje mu te same czynności na dwa tygodnie. Trzeci strike w ciągu tego okresu oznacza całkowite usunięcie kanału, o czym twórca jest informowany wraz z uzasadnieniem. Zarówno wobec strike’ów, jak i blokady kanału każdy twórca może się odwołać, te odwołania są szczegółowo analizowane i w razie ich słuszności filmy są przywracane, a ostrzeżenia cofane.

Chcę podkreślić, że bardzo poważnie traktujemy niezależność zespołów podejmujących te decyzje. Posługują się one w ocenie jedynie naszymi wytycznymi i indywidualną oceną danego przypadku. Nie ma mowy o tym, aby inne zespoły mogły wpływać na wynik tych procesów - zespoły weryfikacyjne zdecydowanie reagują na wszelkie próby nacisku, także zewnętrznego.

Dlatego też nie podajemy nazwisk i lokalizacji poszczególnych zespołów, ale wbrew teoriom spiskowym w ostatnich tygodniach takich decyzji nie podejmuję ani ja, ani nikt z lokalnego zespołu Google w Polsce, który zajmuje się m.in. technologicznym rozwojem naszych globalnych produktów, sprzedażą i komunikowaniem naszej działalności na zewnątrz.

Kto pracuje w YouTube nad nadzorowaniem polskiej wersji serwisu? Czy są to ludzie dobrze mówiący po polsku? Znają specyfikę polskiego społeczeństwa, sytuacji politycznej?

Tak. W tych zespołach pracują osoby mówiące po polsku, znające polską kulturę i bieżące konteksty. Pracują w kilku strefach czasowych posiłkując się też wiedzą ekspertów z różnych zakresów naszego regulaminu, w tym np. zapobiegania mowie nienawiści i promocji przemocy.

Wbrew temu, co często słyszeliśmy w komentarzach w ostatnich dniach decyzje dotyczące treści nie są podejmowane ad hoc przez jednego czy drugiego pracownika, których stanowiska służą innym celom. Regulamin jest punktem odniesienia i niczyje „widzimisię” nie ma wpływu na decyzje ekspertów. Ze względów operacyjnych osoby odpowiedzialne za treści polskojęzyczne pracują w kilku biurach Google na świecie, ale akurat w Warszawie nie ma takiego zespołu. Taki schemat dotyczy większości rynków.

W przypadku ostatnio komentowanych w mediach blokad filmów zespół odpowiedzialny za ponowne ich rozpatrzenie dokonywał szerokiej analizy, obejmującej np. transkrypcję i dokładną analizę tekstu, zarówno w wersji polskiej jak i angielskiej. Po tak dokładnej analizie, bazującej na naszych zasadach, niektóre z materiałów powróciły na platformę, a inne blokady podtrzymaliśmy. Kilka z szeroko omawianych kanałów jest też zresztą cały czas weryfikowanych.  

W jakim stopniu o blokadzie konkretnych treści decyduje algorytm, a w jakim pracownicy YT?

O blokadzie treści nie decyduje algorytm. Algorytm oparty na uczeniu maszynowym może ewentualnie wskazać materiał, który powinien zostać przejrzany przez osobę do tego właściwą i ta dopiero może podjąć decyzję o blokadzie, jeśli treść narusza regulamin YouTube lub łamie prawo lokalne.

Wyjątkiem są tylko te treści, wobec których kontekst nie ma znaczenia, np. pornografia dziecięca czy brutalna przemoc. W pierwszym kwartale tego roku usunęliśmy 8,3 miliona filmów na całym świecie, z czego 77 procent było „zaflagowane” przez algorytm. Jednocześnie cały czas rozwijamy zasoby ludzkie zajmujące się ekspercko przeglądaniem treści - dziś w Google zajmuje się tym ponad 10 tysięcy osób w zespołach we wszystkich strefach czasowych, mówiących we wszystkich językach, w tym po polsku.

Czy niepokojące opinię publiczną zjawisko patostreamerów jest specyficznie polskie, czy występuje na YT także w innych krajach? W jaki sposób YT walczy z tym zjawiskiem? Skąd biorą się zastrzeżenia, że konkretny twórca takich treści znika jako kanał po blokadzie, ale pojawia się w innych miejscach w serwisie? Czy można zwiększyć skuteczność pod tym względem?

We wszystkich krajach zdarzają się treści łamiące prawo lub regulamin YouTube albo po prostu niezgodne z ogólnie przyjętym poczuciem przyzwoitości czy dobrego smaku.

W Polsce termin „patostreamer” stał się zbyt szeroki i uznaniowy: dla jednych to gamer, który przeklina i pije alkohol podczas transmisji na żywo, dla innych komentator polityczny, z którego poglądami ktoś się skrajnie nie zgadza. Jest oczywiście wąska grupa wobec której stosujemy politykę zerowej tolerancji, czyli ta która łamiąc prawo i/lub regulamin YouTube sięga np. po przemoc, pornografię czy mowę nienawiści. I dlatego nie ma ich już na platformie jako prowadzących kanały, a ich treści na innych kanałach są blokowane jeśli są nielegalne lub łamią nasz regulamin.

Trend specyficzny dla Polski odnotowaliśmy dwa lata temu i cały czas go monitorujemy, bo niestety zły przykład rezonował. Warto też odnotować, że były to treści szeroko komentowane w mediach, ale stanowiące ułamek tego, co można znaleźć na platformie. Treści uznawane jako szkodliwe stanowią mniej niż 1 procent materiałów oglądanych codziennie na platformie, włączając w to spam, realnie szkodliwych treści jest więc jeszcze mniej. Są one też blokowane przez nas coraz skuteczniej. A spośród blokowanych przez nas filmów zaledwie 0,2 procent (czyli 0,00002 procent wszystkich filmów) to mowa nienawiści lub nawoływanie do przemocy. To są naprawdę bardzo rzadkie przypadki. Wszystkie te dane są dostępne w naszym raporcie przejrzystości.

Nie mamy złudzeń, że YouTube będzie wykorzystywany przez twórców treści, których zamiary nie są spójne z regulaminem platformy i, co ważniejsze, z zasadami życia społecznego. Dlatego bardzo doceniamy zaangażowanie Ministerstwa Cyfryzacji i Biura Rzecznika Praw Obywatelskich w walkę z tym zjawiskiem. Każdy ma rolę do odegrania w tym procesie, podczas gdy my monitorujemy platformę ministerstwo, rzecznik i organizacje pozarządowe podjęły wiele działań prawnych i edukacyjnych także poza siecią, bo o ile można walczyć z patologicznymi treściami na platformie, to nie zawsze rozwiązuje to źródło problemu, ani nie chroni przed działaniami poza serwisem.

Niedawno Ministerstwo Cyfryzacji zasugerowało by YT i Google dołączyły do stworzonej przez resort koncepcji skrzynki kontaktowej dla użytkowników, do tego projektu przystąpił m.in. Facebook. Co YT zamierza zrobić w sprawie tej propozycji?

Przyglądamy się inicjatywie Ministerstwa Cyfryzacji z zainteresowaniem. Na całym świecie trwają dyskusję, jak lepiej poukładać relacje platformy-regulatorzy-użytkownicy. Prowadzimy dialog ze wszystkimi zainteresowanymi stronami.

Problemem nie jest brak możliwości odwołania się od decyzji YouTube, bo są -- jak wcześniej mówiłam - sprawne mechanizmy komunikacji, jeśli twórca uważa, że decyzja wobec jego treści była bezzasadna. Ważne jest to, żeby twórcy odwoływali się, jeśli uważają, że ich treść została rozpatrzona błędnie, a i też eksperci odwoływali się do istniejących mechanizmów. „Od decyzji YouTube nie można się odwołać” to niestety często powtarzany fake. Można się odwołać, ale jeśli po ponownych weryfikacjach podtrzymywana jest decyzja o blokadzie treści, to oznacza że łamie ona nasz regulamin i nie ma dla niej miejsca na platformie.

Niektórzy twórcy twierdzą, że stali się „ofiarami cenzury na YouTube”, są to czasem osoby, których obecność publiczna dzięki otwartym platformom online w ogóle miała szansę zaistnieć i bardzo się z tego cieszymy tak długo, jak treści przez nich prezentowane są zgodne z regulaminem.

Nie można korzystać z dobrodziejstw platformy, jednocześnie nie respektując panujących na niej zasad, których celem jest ochrona społeczności użytkowników i innych twórców. I nie ma to nic wspólnego z żadną cenzurą ani skrzywieniem ideologicznym. Niestety widzimy też, że czasami twórcy zamiast skorzystać z procedury odwołania sięgają po social media, gdzie narzekają na „cenzurę na YT". Zachęcamy wszystkich do składania odwołań, bo ten system naprawdę działa.
 
Czy w polskich mediach społecznościowych (m.in. na YT) skala mowy nienawiści i publikowania szkodliwych/brutalnych treści jest większa niż w innych krajach? Czy pod tym względem polski ekosystem ma jakieś wyróżniające go cechy?

Nie ma tu łatwego przelicznika, ale zaryzykuję tezę, że Polska nie odstaje na tle innych państw członkowskich Unii Europejskiej. Każde społeczeństwo żyje swoimi tematami i często spotykamy się z sytuacjami w których precyzyjnie muszą być wyważone wolność słowa w stosunku do ochrony innych wartości.

Jeśli coś wyróżnia Polskę to jest to przywiązanie do tej pierwszej wartości i dla Google jako dla firmy, która wyrosła na motto „uporządkowania światowych zasobów informacji, aby stały się one powszechnie dostępne i użyteczne” to ważny i przyjazny rynek. Z pewnością charakter dominujących naruszeń w danym kraju będzie się różnił, gdyż różna jest kultura, społeczeństwo i nurtujące je problemy.

Przykładowo w Polsce raczej nie będziemy się stykali z propagandą skrajnych islamistów, których tu po prostu nie mamy, a którzy są grupą autorów filmów blokowanych często w niektórych  państwach. Mamy za to swoje lokalne gatunki, które rzadziej lub wcale nie występują gdzie indziej. Jak powiedziałam na początku - YouTube jest jedynie odbiciem świata realnego, wraz ze wszystkimi jego zaletami, ale też wadami.

W Polsce mamy też przede wszystkim wielu doskonałych twórców, jest już u nas kilkadziesiąt kanałów, które mogą pochwalić się liczbą ponad miliona subskrypcji, to podobne liczby co na porównywalnych rynkach, jak Włochy czy Hiszpania. Mamy wielu twórców, którzy tworzą wysokiej jakości treści popularnonaukowe czy edukacyjne, albo takie, które mają zasięg globalny.

Dołącz do dyskusji: Google: Na YouTube zdarzyły się błędy. Ale ocena treści i skala wolności słowa to nie nauka ścisła

20 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Paweł N
Czyli co katolicy nie mogą prezentować swoich poglądów a osoby związane z inną orientacją seksualną już mogą? To kpina ponieważ arcybiskup nikogo nie obraził a wypowiedział się jedynie na temat pewnych zachowań które miały miejsce w Polsce czyli profanacja obrazu Matki Boskiej Częstochowskiej, parodię Mszy Swietej itp. Czy my katolicy nie mamy prawa do obrony i nazwania rzeczy po imieniu?
0 0
odpowiedź
User
Tomasz
Nie ma czego takiego, jak "mowa nienawiści", jest za to chęć zmonopolizowania ideologicznego przekazu dla ogółu.
0 0
odpowiedź
User
logan
Jeśli by to powiedział zwykły człowiek, to by to była nienawiść, jeśli mówi to abp to jest to nauka xd
0 0
odpowiedź