Czy platformy internetowe będą filtrować swoje dane?

 

Kilka dni temu Komisja Europejska opublikowała Komunikat dotyczący „walki z nielegalną treścią online, w kierunku wzmocnienia odpowiedzialności za platformy internetowe”, który wywołał niezłe zamieszanie wśród zainteresowanych. Komunikat zawiera szereg wskazówek i zasad dla dostawców usług internetowych (szeregu platform udostępniających dane, publikujących oferty, ogłoszenia, inne treści, utwory muzyczne, zdjęcia itp.) w celu zwiększenia walki z nielegalnymi treściami online we współpracy z władzami krajowymi, państwami członkowskimi i innymi zainteresowanymi stronami. Ma on na celu ułatwienie i zintensyfikowanie wdrażania dobrych praktyk w zakresie zapobiegania, wykrywania, usuwania i wyłączania dostępu do nielegalnych treści w celu zapewnienia większej przejrzystości i ochrony praw podstawowych online. Komisja podkreśla, że spodziewa się, iż platformy online podejmą szybkie działania w nadchodzących miesiącach, w szczególności zwiększą inwestycje w „technologie automatycznego wykrywania”.

O co chodzi?

W krótkich, żołnierskich słowach chodzi o to, aby platformy internetowe, które świadcząc usługi umożliwiają (nieświadomie nawet) innym podmiotom korzystającym z platformy np. sprzedaż podrobionych, naruszających prawo własności przemysłowej towarów, prezentowanie zdjęć naruszających prawa autorskie, naruszanie praw konsumentów, podżeganie do terroryzmu, nakłanianie osób małoletnich do działań seksualnych itp. podejmowały działania uniemożliwiające publikację takich treści.

Na dzień dzisiejszy wygląda to w ten sposób, że dostawcy usług internetowych odpowiadają za naruszenia tylko wtedy, kiedy wiedzą o nielegalnych treściach i nie podejmują działań zmierzających do ich usunięcia. Takie ograniczenia odpowiedzialności wprowadzają przepisy dyrektywy 2000/31/ WE z dnia 8 czerwca 2000 r. o handlu elektronicznym  i ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną. Na podstawie art. 14 ust. 1 ustawy o świadczeniu usług drogą elektroniczną nie ponosi odpowiedzialności dostawca, jeżeli nie wie o bezprawnym charakterze danych lub związanej z nimi działalności, a w razie otrzymania urzędowego zawiadomienia lub uzyskania wiarygodnej wiadomości o bezprawnym charakterze danych lub związanej z nimi działalności niezwłocznie uniemożliwi do nich dostęp. I to tylko w tych wypadkach dostawca usług ponosi odpowiedzialność.

Tymczasem Komisja Europejska od kilku lat pracująca nad treścią nowej dyrektywy w sprawie praw autorskich na jednolitym rynku cyfrowym zaproponowała treść art. 13, który miałby regulować kwestie odpowiedzialności dostawcy usług. Według Komisji operatorzy platfom, którzy, jak to ujęła Komisja, „przechowują i zapewniają publiczny dostęp do dużej liczby utworów lub innych przedmiotów objętych ochroną”, zamieszczanych przez swoich użytkowników, powinni podjąć odpowiednie środki zabezpieczające i ochronne przed publikacją nielegalnych treści. „Środki te, takie jak stosowanie skutecznych technologii rozpoznawania treści, muszą być odpowiednie i proporcjonalne”, brzmi treść zaproponowanego przepisu. I właśnie przez te skuteczne technologie rozpoznawania treści  rozpętała się burza.

Skuteczne technologie rozpoznawania treści

W wytycznych bowiem Komisji Europejskiej zawartych w komunikacie znalazł się bowiem „cudowny środek” w postaci automatycznego filtrowania przesyłanych danych. Chodzi o to, żeby platformy podejmowały decyzje dotyczące zgodności z prawem treści przesyłanych przez użytkowników nie tylko bez orzeczenia sądowego lub decyzji administracyjnej, ale wręcz w ogóle bez jakiejkolwiek interwencji człowieka! Jak wynika z wytycznych Komisji platformy powinny wdrożyć odpowiednie oprogramowania i pozwolić algorytmom rozstrzygać co z przesyłanych treści jest legalne a co nie.

Takie podejście wzbudziło kontrowersje nie tylko ze strony zainteresowanych dostawców, ale również prawników, którzy zgodnie uznali, że takie filtrowanie to atak na podstawowe prawa i wolności obywateli. Oprócz krytyki pojawiły się liczne przykłady prób wprowadzania takich automatycznych filtrów, których efekty działania były zgoła odmienne od zamierzonych.

Niemiecka europosłanka Julia Reda, związana z ruchem partii European Pirates, w zabawny sposób wyliczała przypadki zawodności filtrów, miażdżąc tym samym propozycję wprowadzenia automatycznych filtrów i wykazując, jakie mogą one stanowić zagrożenia dla praw użytkowników. Idąc śladem europosłanki uznać należy, iż wprowadzenie filtrów naruszać może cudze prawa i ograniczać wolności. Jako przykład można wskazać działanie You Tube, a dokładniej zaimplementowanego w serwisie algorytmu, który usunął filmik z mruczącym kotem, albowiem naruszał on rzekomo prawa wytwórni EMI Music posiadającej utwory zawierające dźwięki wydawane przez kota.

Innym przykładem jest usuwanie filmów pokazujących okrucieństwa wojny w Syrii i de facto informującym o tym, co dzieje się na terenach wojennych, albowiem algorytm wyszukuje wszelkie podejrzane treści, w tym posiadające obraz flagi Syrii i usuwa je.

Niektóre filtry naruszają prawa mniejszych podmiotów. Tak stało się w przypadku kiedy animowany sitcom Family Guy potrzebował fragmentu ze starej gry komputerowej i ściągnął go z czyjegoś kanału YouTube. W efekcie YouTube usunął oryginalny bo uznał, że narusza prawa autorskie Family Guy.

Przykładów można mnożyć, niemniej jednak konkluzja jest jedna: zautomatyzowanie i wprowadzenie algorytmów filtrujących treści może przynieść dużo więcej szkód niż zysków w ochronie praw. Stąd Komisja powinna zastanowić się nad zaleceniami dotyczącymi takich wdrożeń.

No Comments

Post a Comment