Biuro Analiz Sejmowych opinia zlecona piotr Waglowski VaGla pl – Prawo I Internet bas-2319/13 Warszawa, 4 listopada 2013 r. Rozwiązania prawne regulujące dostęp do bezpiecznego Internetu



Pobieranie 125.09 Kb.
Strona1/3
Data07.05.2016
Rozmiar125.09 Kb.
  1   2   3

Opinia została sporządzona przez eksperta zewnętrznego – na zlecenie Biura Analiz Sejmowych – w celu przygotowania materiałów odpowiadających na pytania zgłoszone przez posłów, organy Sejmu lub Kancelarii Sejmu. Opinia wyraża pogląd Autora i nie może być utożsamiana ze stanowiskiem Biura Analiz Sejmowych.




Biuro Analiz Sejmowych

OPINIA ZLECONA

Piotr Waglowski

VaGla.pl – Prawo i Internet

BAS-2319/13 Warszawa, 4 listopada 2013 r.

Rozwiązania prawne regulujące dostęp do bezpiecznego Internetu, wolnego od pornografii na przykładzie wybranych krajów Unii Europejskiej.



Spis treści:


Spis treści: 1

Wstęp 2


Cztery przykładowe modele 4

Model autokontroli użytkownika 4

Samoregulacja i współregulacja wspierane przez UE 5

Tworzenie ram prawnych dla działania dedykowanej infrastruktury blokującej treści 7

Notice and takedown (warunkowe ograniczenie odpowiedzialności pośredników) 11

Wielka Brytania 14

Implementacja procedury notice and takedown 15

Model samoregulacyjny i współregulacyjny (model dominujący w UK) 16

Propozycje przepisów dedykowanych bezpiecznemu internetowi: Online Safety Bill 18

Francja 19

Procedura notice and takedown 19

Ustawa o planowaniu i zapewnieniu bezpieczeństwa wewnętrznego (LOPPSI 2) 19

Niemcy 21

Uwagi końcowe 23





Wstęp


Użyte w tytule określenie „bezpieczny Internet” w kontekście opracowania związanego z prawem krajów tworzących Unię Europejską jednoznacznie musi przywodzić na myśl uruchomiony w 1999 roku Program Komisji Europejskiej pod nazwą Safer Internet. Założeniem tego programu było promowanie bezpiecznego korzystania z nowych technologii i Internetu wśród dzieci i młodzieży. Działania Komisji Europejskiej w tym obszarze kontynuowane były następnie w kolejnych programach1.

„Bezpieczny Internet” jednak może być określeniem, które dotyczyć może nie tylko praw dziecka2, ale również praw i wolności osób dorosłych. Internet będzie dla nich mniej bezpieczny, jeśli narażeni będą na oszustwa, incydenty bezpieczeństwa (np. włamania, ataki terrorystyczne, infekowanie „złośliwym” oprogramowaniem), przesyłanie niezamówionej korespondencji, naruszenie prywatności, dyskryminacja itp. Ramy tego opracowania nie pozwoliłyby na omówienie różnorodności regulacji związanych z tego typu zjawiskami w krajach europejskich. Aby tego dokonać należałoby szczegółowo omówić m.in. poszczególne regulacje karne3, ale też normatywne gwarancje dostępu do informacji oraz ochrony danych4.

„Zaufanie i bezpieczeństwo” to również jeden z obszarów ogłoszonej w maju 2010 roku strategii Europejska Agenda Cyfrowa5. O ile Europejska Agenda Cyfrowa sygnalizuje takie problemy, jak zwalczanie szeroko pojętej cyberprzestępczości, sygnalizuje problem spamu, wirusów komputerowych, oszustw finansowych, ochrony infrastruktury krytycznej, o tyle nie wskazano tam wprost problemu dostępności pornografii w Sieci. Europejska Agenda Cyfrowa stwierdza jednakże:

W celu zwalczania wykorzystywania seksualnego i rozpowszechniania materiałów związanych z seksualnym wykorzystywaniem dzieci w internecie, na szczeblu krajowym i unijnym ustanowić można platformy ostrzegania, jak również stosować środki zezwalające na usuwanie szkodliwych treści i zapobieganie ich wyświetlania”.

Zakreślony w tytule przedmiot niniejszego opracowania koncentruje się na jednym z aspektów „bezpiecznego internetu”, tj. na problematyce propagowania za jego pośrednictwem materiałów pornograficznych. Aby odnieść się do tego tematu należy w pierwszej kolejności dostrzec problem definicji legalnej pornografii (i jej rodzajów), zauważyć, że w różnych krajach w różny sposób podchodzi się do kwestii posiadania materiałów pornograficznych, w różny też sposób podchodzi się do jej rozpowszechniania. W przypadku prezentowania treści pornograficznych normy prawne rozróżniać mogą podmioty, którym takie treści się prezentuje (np. zakaz prezentacji treści pornograficznej małoletnim). W poszczególnych państwach inaczej regulowane jest posiadanie/rozpowszechnianie pornografii z udziałem dorosłych,
w inny sposób zaś takich materiałów, które przedstawiają pornografię dziecięcą
(tu dodatkowo można rozróżnić takie wątki dyskusji normatywnej, które wskazują na problem treści pornograficznych z udziałem komputerowo wygenerowanych przedstawień dzieci6, albo materiałów nawiązujących do fikcji i wyobrażeń, jak
w przypadku np. komiksów utrzymanych w „poetyce” anime/hentai7).

W związku z powyższymi uwagami – w dalszej części opracowania koncentrował się będę na przykładach takich regulacji, które dotyczą łącznie dwóch aspektów: są związane z dostępem do treści (bezpieczeństwo rozumiane jako ograniczenie dostępu do określonych treści i usług, blokowanie, usuwanie) oraz mogą mieć zastosowane w celu ograniczenia dostępu do treści pornograficznych (regulacje dedykowane problematyce pornografii, ale też rozwiązania, które – obok pornografii – mogą znajdować zastosowanie w innych przypadkach)8.



Cztery przykładowe modele


Przed przystąpieniem do omawiania przepisów konkretnych państw należy przybliżyć cztery przykładowe „modele” zapewniania „dostępu do bezpiecznego Internetu, wolnego od pornografii”, dla których w dalszej części zostały wybrane przykłady.

Te przykładowe „modele” to model autokontroli użytkownika, model samoregulacji, model dedykowanej infrastruktury i związanej z nią procedury blokowania dostępu do treści/usług oraz model oparty na procedurze warunkowego braku odpowiedzialności (notice and takedown).



Model autokontroli użytkownika


To model wymagający najmniej ingerencji państwa w mechanizm zapewnienia (stosunkowego) bezpieczeństwa użytkownika Internetu. W ramach tego modelu można wymienić takie narzędzia, jak stosowanie – na komputerze użytkownika, za jego wiedzą i zgodą oraz z możliwością deaktywacji – oprogramowania antywirusowego, narzędzi kontroli rodzicielskiej, wykorzystania algorytmów filtrowania poczty przychodzącej – w celu ochrony przed spamem oraz rozpowszechnianym pocztą elektroniczną oprogramowaniem „złośliwym”9. Takie filtrowanie/blokowanie może następować albo na podstawie wskazanych przez użytkownika warunków (np. w przypadku blokowania reklam za pomocą Adblock Plus, popularnej wtyczki do przeglądarki Firefox10, w której to sam użytkownik może skonstruować formuły blokowania wskazanych treści, ale może również wykorzystać formuły udostępnione przez innych), może następować na podstawie algorytmów samouczących się11, na podstawie prowadzonych przez strony trzecie, które użytkownik darzy zaufaniem, list i formuł blokujących12.

Rola państwa w takich przypadkach może ograniczać się do rekomendowania określonych rozwiązań, proponowania określonych rozwiązań w ramach współregulacji (por. poniżej), narzucania stosowania określonych rozwiązań


w ramach władztwa (np. uzależnienie dotacji od warunku zainstalowania określonego rodzaju narzędzi na komputerach służących do realizacji zadania – przykładowo mogą to być terminale dostępowe w szkołach publicznych lub w bibliotekach).

Samoregulacja i współregulacja wspierane przez UE


Dyrektywa 2007/65/WE Parlamentu Europejskiego i Rady z dnia 11 grudnia 2007 r. zmieniająca dyrektywę Rady 89/552/EWG w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich, dotyczących wykonywania telewizyjnej działalności transmisyjnej (dyrektywa audiowizualna) nadaje nowe brzmienie art. 3 ust. 7 dyrektywie 89/552/EWG: „Państwa członkowskie popierają systemy współregulacji lub samoregulacji na szczeblu krajowym w dziedzinach, które podlegają koordynacji na mocy niniejszej dyrektywy, w zakresie dozwolonym przez ich systemy prawne. Systemy te muszą być skonstruowane tak, aby były powszechnie akceptowane przez główne zainteresowane strony w danych państwach członkowskich oraz muszą zapewniać ich skuteczne wykonywanie”. Dyrektywa ta jest szczególnie interesująca dla niniejszego opracowania, ponieważ wskazuje kierunki działań w sferze edukacji medialnej, podpowiadając jednocześnie, że:

"Przykłady możliwych działań upowszechniających umiejętność korzystania
z mediów, takich jak stałe kształcenie nauczycieli i szkoleniowców, specjalne szkolenia internetowe dla dzieci, począwszy od najmłodszych grup wiekowych, w tym zajęcia otwarte dla rodziców, oraz organizowanie krajowych kampanii społecznych
z udziałem wszystkich mediów na temat tego, jak odpowiedzialnie korzystać
z Internetu, zostały już przedstawione w zaleceniu Parlamentu Europejskiego i Rady z dnia 20 grudnia 2006 r. w sprawie ochrony małoletnich, godności ludzkiej oraz prawa do odpowiedzi w odniesieniu do konkurencyjności europejskiego przemysłu audiowizualnego oraz internetowych usług informacyjnych".

Motyw 36 preambuły dyrektywy audiowizualnej przynosi nam definicje samoregulacji oraz współregulacji. I tak: samoregulacja to rodzaj dobrowolnej inicjatywy podmiotów gospodarczych, w tym przypadku dostawców usług medialnych (np. nadawców), której celem jest przyjęcie i przestrzeganie zasad i wytycznych wspólnych dla wszystkich, którzy się do tego przedsięwzięcia przyłączyli. Samoregulacja jest uzupełniającą metodą wdrażania oraz kontroli przestrzegania niektórych przepisów. Przykłady samoregulacji to np. kodeksy dobrych praktyk


w dziedzinie ochrony małoletnich przed szkodliwymi treściami w przekazach medialnych. Samoregulacja nie może zastąpić tradycyjnych  regulacji prawnych. Współregulacja zaś to „ogniwo prawne” pomiędzy samoregulacją a prawodawcą krajowym zgodnie z tradycjami prawnymi poszczególnych państw członkowskich. Współregulacja powinna dopuszczać możliwość interwencji państwa, w przypadku gdy jej cele nie zostają spełnione. Dyrektywa zachęca do korzystania z instrumentu współregulacji i instrumentu samoregulacji, chociaż stwierdza również, że nie powinno to nakładać na państwa członkowskie obowiązku ustanowienia systemu współregulacji lub samoregulacji ani nie narusza czy naraża na szwank inicjatyw współ i samoregulacyjnych już podjętych w państwach członkowskich
i przynoszących pozytywne skutki.

Samoregulację przewidują różne akty prawne UE, jak np. dyrektywa o handlu elektronicznym13, samoregulacja (i współregulacja) jest też jednym z instrumentów wspieranych przez Komisję UE14 (regulatora europejskiego), ale również Radę Europy15 i poszczególnych regulatorów krajowych.

Przykładem szczególnym, ze względu na zakreśloną tematykę niniejszego opracowania, mogą być Konkluzje Rady w sprawie ochrony dzieci w świecie cyfrowym (2011/C 372/04)16, w których Rada zachęca m.in. do szerszego i częstego wykorzystywania samoregulacyjnych systemów klasyfikacji (takich jak PEGI17 i PEGI online) dla internetowych i komputerowych gier wideo i do skuteczniejszego egzekwowania stosowania klasyfikacji wiekowych na rynku detalicznym w celu zapobiegania sprzedaży internetowych i komputerowych gier wideo osobom poniżej określonego wieku. Rada zachęca tam również wszystkie zainteresowane strony, by „angażowały użytkowników i – w stosownych przypadkach – organy publiczne
w proces przygotowywania i zmieniania środków samoregulacyjnych (kodeksów postępowania) przez przemysł audiowizualny i dostawców usług internetowych, jak również w monitorowanie takich środków”.

W dalszej części niniejszego opracowania do problematyki samoregulacji


i współregulacji nawiązywał będę przy omawianiu regulacji w Wielkiej Brytanii.

Tworzenie ram prawnych dla działania dedykowanej infrastruktury blokującej treści


Wydaje się, że do opisu tego „modelu”, najlepiej może posłużyć historia polskiego projektu ustawy przewidującej powstanie Rejestru Stron i Usług Niedozwolonych. Można przypuszczać, że projekt powstał w związku z pracami czeskiej Prezydencji w Radzie UE.

W styczniu 2009 roku, gdy Czechy objęły prezydencję Rady Unii Europejskiej, grupa czeskich senatorów rozpoczęła prace nad nowelizacją prawa regulującego działalność hazardową18. Chodziło m.in. o zablokowanie możliwości brania udziału


w grach i zakładach odbywających się online. Przy okazji zaproponowano poprawki dotyczące działalności podmiotów świadczących usługi drogą elektroniczną19. Poprawki miały polegać na tym, by dostawcy usług (usługodawcy) blokowali swoim użytkownikom dostęp do treści o charakterze pornograficznym20. W Radzie Unii Europejskiej (czeska Prezydencja) powstał projekt Decyzji Ramowej Rady w sprawie zwalczania seksualnego wykorzystywania i niegodziwego traktowania dzieci
w celach seksualnych oraz pornografii dziecięcej, uchylająca decyzję ramową 2004/68/WSiSW21. Tam zaś zaprojektowano art. 18, który przewidywał, że państwa członkowskie podejmą „środki niezbędne do zapewnienia, by właściwe organy sądowe lub policyjne mogły zarządzić zablokowanie dostępu użytkowników Internetu do stron internetowych zawierających pornografię dziecięcą lub służących do jej rozpowszechnienia – albo by mogły doprowadzić do tego w inny podobny sposób”, przy czym – wedle projektu – należało zapewnić, by „blokada ograniczała się do niezbędnego zakresu, by użytkownicy zostali poinformowani o przyczynach blokady oraz by dostawcy treści zostali poinformowani o możliwości zaskarżenia tej decyzji”. Obok propozycji związanych z blokowaniem internetowych stron – czeski prawodawca zdecydował się dokonać implementacji dyrektywy o retencji danych telekomunikacyjnych 2006/24/WE22.

W listopadzie 2009 roku, przy okazji propozycji nowelizacji polskiej ustawy „hazardowej”, Ministerstwo Finansów zaproponowało również modyfikację przepisów ustawy Prawo telekomunikacyjne. W pierwszej wersji projektu ustawy przewidziano, że powstanie Rejestr Stron i Usług Niedozwolonych. Rejestr miał być prowadzony przez Prezesa Urzędu Komunikacji Elektronicznej w systemie informatycznym. Projektodawca postanowił, że blokowane będą następujące rodzaje treści:

1) treści propagujące faszystowski lub inny totalitarny ustrój państwa,

2) treści pornograficzne z udziałem małoletniego, treści pornograficzne związane z prezentowaniem przemocy lub posługiwaniem się zwierzęciem, treści pornograficzne zawierające wytworzony lub przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej,

3) treści, których prezentowanie umożliwia podstępne wprowadzenie w błąd, w celu osiągnięcia korzyści majątkowych, poprzez wyłudzenie informacji mogących służyć do dokonania operacji finansowych bez zgody dysponenta środków finansowych,

4) treści stanowiące niedozwoloną reklamę lub promocję albo informowanie


o sponsorowaniu w rozumieniu ustawy z dnia o grach hazardowych lub umożliwiające urządzanie gier hazardowych bez udzielonego zezwolenia lub uczestniczenie w tych grach.

Projekt przewidywał, że Rejestr będzie jawny, że Prezes UKE dokona wpisu do Rejestru „na żądanie podmiotu uprawnionego lub Służby Celnej”. Uprawnionymi podmiotami, o których była mowa w projekcie były: Policja, Straż Graniczna, Agencja Bezpieczeństwa Wewnętrznego, Służba Kontrwywiadu Wojskowego, Żandarmeria Wojskową, Centralne Biuro Antykorupcyjne i wywiad skarbowy. Przewidziano również, że prowadzący blokowane strony lub usługi będą mogli wystąpić do Prezesa UKE z wnioskiem o wykreślenie z Rejestru danych dotyczących tej strony internetowej lub usługi (pierwsza wersja projektu nie przewidywała żadnej kontroli sądowej związanej z działaniem takiego rejestru). Jednak to nie Prezes UKE miał decydować o wykreśleniu. Wniosek o wykreślenie z Rejestru Prezes UKE miał przekazać organowi, na którego żądanie dokonano wpisu. Rejestr miał powstać na koszt przedsiębiorstw telekomunikacyjnych. Projekt ustawy nie rozstrzygał technicznych aspektów działania takiego rejestru i interakcji pomiędzy infrastrukturą przedsiębiorstw telekomunikacyjnych a tym rejestrem. Spekulowano, że taka interakcja miałaby odbywać się automatycznie (systemy teleinformatyczne komunikowałyby się z systemem obsługującym rejestr i na tej podstawie modyfikowałyby sposób interakcji końcowych użytkowników Sieci z zasobami tejże Sieci). Takie rozwiązanie oznaczałoby głęboką ingerencję w infrastrukturę teleinformatyczną tworzoną przez bardzo różne kategorie podmiotów (nie tylko przedsiębiorstwa telekomunikacyjne, ale również jednostki naukowe, badawczo-rozwojowe, samorządy, instytucje publiczne).

Pod wpływem krytyki opinii publicznej, krytycznych opinii Urzędu Komunikacji Elektronicznej oraz innych podmiotów biorących udział w konsultacjach społecznych, po fali protestów społecznych, po szeregu spotkań organizacji pozarządowych
z przedstawicielami Kancelarii Prezydenta RP, z Rzecznikiem Praw Obywatelskich oraz z Premierem, 23 marca 2010 roku Rada Ministrów rozpatrzyła reasumpcję decyzji Rady Ministrów z dnia 19 stycznia 2010 r. w sprawie projektu ustawy
o zmianie ustawy o grach hazardowych oraz niektórych innych ustaw. W ten sposób rząd zdecydował, że z projektu ustawy zostaną usunięte przepisy dotyczące Rejestru Stron i Usług Niedozwolonych. Koncepcja rejestru upadła23.

Na zakończenie tej części wypada odnotować, że w dniu 31 marca 2011 r. Trybunał Konstytucyjny Czeskiej Republiki uznał24, że zaskarżone przez grupę


51 deputowanych przepisy czeskiej ustawy o komunikacji elektronicznej25 oraz przepisy wykonawcze do tej ustawy, są niezgodne z tamtejszą konstytucją. Zakwestionowane przepisy regulowały przekazywanie przez przedsiębiorstwa telekomunikacyjne oraz przez świadczących usługi drogą elektroniczną informacji służbom takim jak policja czy wywiad. Przepisy straciły moc obowiązywania wraz
z publikacją wyroku Trybunału. Podstawą decyzji Trybunału było to, że przyjęte
w Czechach przepisy nie spełnia wymogów jasności i pewności prawnej, a ponieważ możliwość gromadzenia danych i „pytania” o nie przez służby nie jest (nie musi być, zdaniem ustawodawcy) związany z istnieniem uzasadnionego podejrzenia popełnienia poważnych przestępstw, to nie spełnia wymagań wynikających
z drugiego etapu badania proporcjonalności, tj. wyboru środków do realizacji określonego celu, który ingeruje w prawa i wolności obywateli. Trybunał zauważył również, że przepisy nie ograniczają służb w wyborze częstotliwości pytania o dane oraz w celu, w jakim oczekują one informacji. W efekcie przepisy te są „nieprzewidywalne” (dane mają służyć do „wyjaśnienia faktów istotnych dla postępowania karnego”), nawet, jeśli wykorzystanie przechowywanych danych podlega kontroli sądowej. W efekcie Trybunał uznał, że kwestionowane przepisy są wyraźnym pogwałceniem ograniczeń konstytucyjnych, ponieważ nie spełniają wymogów prawa i pozostają w sprzeczności z wymogami ograniczenia podstawowych praw do prywatności w postaci autonomii informacyjnej (cz. „práva na informační sebeurčení”).

Chociaż implementacja przepisów dot. retencji danych nie jest tym samym, co tworzenie podstaw do blokowania treści, to jednak obie kategorie przepisów wiążą się ze sobą. W pierwszej kolejności należy wszak „obserwować” komunikację użytkowników Sieci, by ewentualnie w drugim kroku móc ją blokować lub filtrować. Dlatego rozważania dotyczące standardów (braku standardów) konstytucyjnych przepisów retencyjnych mają tak istotne znaczenie również dla oceny przepisów tworzących infrastrukturę blokującą dostęp do informacji. W obu przypadkach chodzi o ingerencje w takie prawa podstawowe, jak prywatność (rozumiana m.in. jako autonomia informacyjna jednostki), ale też wolności pozyskiwania


i rozpowszechniania informacji.

Notice and takedown (warunkowe ograniczenie odpowiedzialności pośredników)


Procedura nazywana z ang. notice and takedown to – mówiąc w uproszczeniu – procedura warunkowo zwalniająca dostawcę usług internetowych
z odpowiedzialności za udostępniane treści lub działania z udziałem takiej infrastruktury, o ile dostawca usługi (ang. host provider) nie miał świadomości bezprawności takiego działania (np. rozpowszechniania treści), a jednocześnie pod warunkiem, że po otrzymaniu informacji na temat takich treści lub o takich zachowaniach (od osoby trzeciej, w tym powiadomień urzędowych) uniemożliwi dostęp do bezprawnych treści (uniemożliwi określone zachowania). Rozwiązanie to nazywane jest też „bezpieczną przystanią” (ang. safe harbour) i wypracowane zostało przez amerykańskie ustawodawstwo poszukujące rozwiązań dotyczących ochrony prawa autorskiego26.

Na gruncie Europejskim procedura ta znalazła się w Dyrektywie 2000/31/WE Parlamentu Europejskiego i Rady z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego (dyrektywa o handlu elektronicznym)27, w szczególności w odniesieniu do „hostingu”.

Artykuł 14 wspomnianej dyrektywy przewiduje, że w przypadku świadczenia usługi społeczeństwa informacyjnego polegającej na przechowywaniu informacji przekazanych przez usługobiorcę – usługodawca, na gruncie prawodawstwa państw implementujących dyrektywę, warunkowo nie będzie odpowiedzialny za informacje przechowywane na żądanie usługobiorcy. Warunkami ograniczającymi odpowiedzialność host providera są:

a) brak wiarygodnych wiadomości o bezprawnym charakterze działalności lub informacji, a w odniesieniu do roszczeń odszkodowawczych — brak wiedzy


o stanie faktycznym lub okolicznościach, które w sposób oczywisty świadczą
o tej bezprawności; lub

b) niezwłoczne podjęcie odpowiednich działania w celu usunięcia lub uniemożliwienia dostępu do informacji, gdy świadczący usługę uzyska takie wiadomości lub zostanie o nich powiadomiony.

Dyrektywa nie ogranicza przy tym możliwości wymagania od usługodawcy przez sądy lub organy administracyjne, by zgodnie z systemem prawnym Państw Członkowskich przerwał on naruszenia prawa lub im zapobiegł. Wskazany wyżej przepis dotyczące procedury nie przesądza o możliwości ustanowienia procedur regulujących usuwanie lub uniemożliwianie dostępu do bezprawnych informacji przez prawodawstwo Państw Członkowskich.

Jednocześnie Dyrektywa nie przewiduje „ogólnego obowiązku nadzorowania informacji”, które świadczący usługi przekazują lub przechowują ani „ogólnego obowiązku aktywnego poszukiwania faktów i okoliczności wskazujących na bezprawną działalność”.

W odniesieniu do filtrowania/blokowania treści istotne są tu co najmniej dwa wyroki Trybunału Sprawiedliwości, które – co prawda – nie dotyczą blokowania pornografii, ale dotyczą generalnych zasad obiegu informacji i kształtowania się zasad odpowiedzialności na gruncie wspomnianej wyżej dyrektywy o handlu elektronicznym.

W Wyroku Trybunału (wielka izba) z dnia 12 lipca 2011 r. w sprawie C-324/09 (L’Oréal SA i inni przeciwko eBay International AG i inni.) Trybunał stwierdził:

Artykuł 14 ust. 1 dyrektywy 2000/31/WE Parlamentu Europejskiego i Rady
z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego („dyrektywy o handlu elektronicznym”) należy interpretować w ten sposób, że ma on zastosowanie do operatora rynku elektronicznego online, jeżeli nie odgrywa on czynnej roli, która mogłaby mu pozwolić na powzięcie wiedzy
o przechowywanych danych lub na sprawowanie nad nimi kontroli.


Wspomniany operator odgrywa taką rolę, jeżeli udziela wsparcia polegającego w szczególności na optymalizacji prezentacji konkretnych ofert sprzedaży lub na ich promocji.

Jeżeli operator rynku elektronicznego online nie odgrywa czynnej roli
w znaczeniu opisanym w akapicie powyżej i będące przedmiotem jego działalności świadczenie usług jest objęte w konsekwencji zakresem stosowania art. 14 ust. 1 dyrektywy 2000/31, to wciąż w okolicznościach sprawy mogącej zakończyć się zasądzeniem odszkodowania nie może on powołać się na zwolnienie
z odpowiedzialności przewidziane w tym przepisie, jeżeli wiedział o stanie faktycznym lub okolicznościach, na podstawie których przedsiębiorca wykazujący należytą staranność powinien stwierdzić bezprawność danych ofert sprzedaży,
i w przypadku posiadania takiej wiedzy nie podjął niezwłocznie działań stosownie do art. 14 ust. 1 lit. b) tej dyrektywy.”

Widać tutaj, że „aktywna rola” operatora może mieć znaczenie w zakresie kształtowania odpowiedzialności.

W wyroku Wyrok Trybunału (trzecia izba) z dnia 24 listopada 2011 r. w sprawie
C-70/10 (Scarlet Extended SA przeciwko Société belge des auteurs, compositeurs et éditeurs SCRL (SABAM)) Trybunał zaś uznał, że wskazane tam dyrektywy28:

pozostające w związku i interpretowane w świetle wymogów wynikających


z ochrony mających zastosowanie praw podstawowych, należy rozumieć w ten sposób, że stoją one na przeszkodzie skierowanemu do dostawcy dostępu do Internetu nakazowi wdrożenia systemu filtrowania:


  • wszystkich połączeń elektronicznych przekazywanych za pośrednictwem jego usług, w szczególności przy zastosowaniu programów „peer-to-peer”;

  • mającego zastosowanie bez rozróżnienia w stosunku do wszystkich jego klientów;

  • w celach zapobiegawczych;

  • na wyłączny koszt dostawcy i

  • bez ograniczeń w czasie,

zdolnego do zidentyfikowania w sieci tego dostawcy przypadków przekazywania plików elektronicznych zawierających utwory muzyczne, kinematograficzne lub audiowizualne, co do których strona powodowa rości sobie prawa własności intelektualnej, celem zablokowania transferu plików, których wymiana narusza prawo autorskie.”

Otwarte pozostaje pytanie o rozstrzygnięcia w zakresie ewentualnego zderzenia przepisów związanych z procedurą notice and takedown z mechanizmami filtrującymi treści o charakterze pornograficznym. Stosowanie filtrów może oznaczać, że świadczący usługi drogą elektroniczną zaczyna odgrywać „aktywną rolę” i dokonuje swoistej ingerencji w przesyłane dane, a więc można formułować tezę, że takie filtrowanie musi również wpływać na ukształtowanie się odpowiedzialności (również karnej) takiego pośrednika, za działania użytkowników jego usług.

Włączenie ochrony dzieci do systemu notice and takedown, stanowiącego implementację wyżej omówionej instytucji dyrektywy o handlu elektronicznym, wskażę na przykładzie regulacji we Francji. Przy czym we Francji zaproponowano również elementy dedykowanego systemu blokującego dostęp do treści pornograficznych.


: sites -> default -> files
files -> Smm załącznik a formularz zgłoszenia bezpieczeństwa
files -> Viii festiwal Komedii szpak 2014
files -> Warszawskie inwestycje I remonty w 2016 r. W tym roku rozpocznie się budowa kolejnych odcinków II linii metra, remonty I inwestycje tramwajowe poprawią funkcjonowanie komunikacji miejskiej
files -> Sprawna ewakuacja to podstawa zasady i urządzenia bezpieczeństwa w warszawskim metrze
files -> Komunikacją do nekropolii Jak co roku linie autobusowe i tramwajowe „C
files -> Wyniki wojewódzkiego konkursu języka angielskiego – etap rejonowy z dnia 9 stycznia 2015r
files -> Wzór załącznika w formacie A5
files -> Ul. Patriotów 108
files -> Przewozy Regionalne” Spółka z o o. Pomorski Zakład Przewozów Regionalnych w Gdyni do postępowania przetargowego o udzielenie zamówienia oznaczonego nr referencyjnym prek3-251- 42 /13


  1   2   3


©absta.pl 2019
wyślij wiadomość

    Strona główna