Evropská unie
1. července 2023 – 31. prosince 2023

Vydáno:

25. dubna 2024

Aktualizováno:

25. dubna 2024

Vítejte na stránce o transparentnosti pro Evropskou unii (EU), na které zveřejňujeme informace platné pro EU dle požadavků evropského aktu o digitálních službách (DSA), směrnice o audiovizuálních mediálních službách (AVMSD) a nizozemského mediálního zákona (DMA). Upozorňujeme, že aktuální verze této zprávy o transparentnosti je k dispozici v jazykové mutaci en-US.

Právní zástupce 

Snap Group Limited pověřil společnost Snap B.V. jako svého právního zástupce pro účely DSA. Ohledně DSA můžete zástupce kontaktovat na adrese dsa-enquiries [zavináč] snapchat.com, ohledně AVMSD a DMA na adrese vsp-enquiries [zavináč] snapchat.com, případně prostřednictvím našich stránek podpory [zde] nebo poštou na adrese:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nizozemsko

Pokud jste orgán pro vymáhání práva, postupujte prosím dle kroků uvedených zde.

Regulační orgány

Pro účely DSA podléháme regulaci Evropskou komisí a Nizozemským úřadem pro spotřebitele a trhy (ACM). Ve smyslu AVMSD a DMA podléháme regulaci Nizozemským mediálním úřadem (CvdM).

Zpráva o transparentnosti DSA

Snap je povinen na základě článků 15, 24 a 42 DSA zveřejňovat zprávy obsahující stanovené informace týkající se moderování obsahu Snapu ve vztahu ke službám Snapchatu, které jsou považovány za „on-line platformy“, tj. To nejlepší, Pro vás, Veřejné profily, Mapy, Objektivy a Reklama. Tato zpráva musí být zveřejněna každých 6 měsíců počínaje 25. říjnem 2023.

Snap zveřejňuje zprávy o transparentnosti dvakrát ročně, aby poskytl vhled do svého úsilí v oblasti bezpečnosti a povahy a objemu hlášeného obsahu na naší platformě. Naši aktuální zprávu za druhé pololetí roku 2023 (1. července – 31. prosince) najdete zde. Metriky týkající se aktu o digitálních službách najdete na této stránce.

Průměrný měsíční počet aktivních příjemců 
(Články DSA 24.2 a 42.3)

K 31. prosinci 2023 činil průměrný měsíční počet aktivních příjemců (dále jen „PMPAP“) naší aplikace Snapchat v EU 90,9 milionu. Znamená to, že za posledních 6 měsíců si alespoň jednou za daný měsíc otevřelo aplikaci Snapchat průměrně 90,9 milionu uživatelů registrovaných v EU.

Dílčí údaje podle jednotlivých členských států jsou následující:

Tyto údaje byly vypočteny tak, aby splňovaly současná pravidla DSA a lze se na ně spoléhat pouze pro účely DSA. V průběhu času jsme změnili způsob, kterým vypočítáváme tuto hodnotu, a to i v reakci na změnu vnitřních zásad, pokynů regulátora a technologie, a hodnoty tedy nelze porovnávat mezi jednotlivými obdobími. To se může také lišit od výpočtů použitých pro jiné údaje o aktivním uživateli, které zveřejňujeme pro jiné účely.


Požadavky orgánů členských států
(článek 15.1 písm. a) zákona o digitálních službách)

Žádosti o zneveřejnění 

Během tohoto období jsme od členských států EU přijali 0 žádostí o zneveřejnění podle článku 9 zákona o digitálních službách. 

Žádosti o informace 

Během tohoto období jsme od členských států EU obdrželi následující žádosti o informace podle článku 10 zákona o digitálních službách:

Medián doby procesu informování orgánů o přijetí žádostí o informace je 0 minut – poskytujeme automatické potvrzení o přijetí. Medián doby zpracování žádosti o informace je přibližně 10 dnů. Tato metrika odráží dobu od chvíle, kdy společnost Snap obdrží žádost o informace, do chvíle, kdy společnost Snap považuje požadavek za plně vyřízený. V některých případech d��lka tohoto procesu z��visí ��ástečně na rychlosti, s jakou orgány činné v trestním řízení reagují na případné výzvy společnosti Snap o vysvětlení nezbytné pro vyřízení jejich žádosti.

Moderování obsahu 


Veškerý obsah na Snapchatu musí dodržovat naše Pokyny pro komunitu a Podmínky služby, jakož i doplňkové podmínky, pokyny a vysvětlivky. Proaktivní mechanismy detekce a hlášení nezákonného nebo porušujícího obsahu či účtů vyžadují přezkoumání, což vede k tomu, že naše systémy nástrojů zpracují požadavek, shromáždí relevantní metadata a nasměřují příslušný obsah našemu moderačnímu týmu prostřednictvím strukturovaného rozhraní uživatele, které je vytvořeno tak, aby zajistilo účinné a efektivní operace přezkumu. Pokud naše moderační týmy stanoví, ať už prostřednictvím lidského přezkoumání nebo automatizovanými prostředky, že uživatel porušil naše Podmínky, můžeme odstranit závadný obsah nebo účet nebo ukončit či omezit viditelnost příslušného účtu a/nebo oznámit věc orgánům činným v trestním řízení, jak je vysvětleno v našich Vysvětlivkách Snapchatu pro moderování, zákroky a odvolání.  Uživatelé, jejichž účty jsou uzamčeny naším bezpečnostním týmem z důvodu porušení Pokynů pro komunitu, mohou podat odvolání proti uzamknutí účtu a uživatelé se tak mohou odvolat proti určitým zákrokům vůči obsahu.

Oznámení o obsahu a účtech (článek 15.1 písm. b) zákona o digitálních službách)

Společnost Snap zavedla mechanismy, které umožňují uživatelům i neuživatelům informovat společnost Snap o obsahu a účtech, které porušují naše Pokyny pro komunitu a Podmínky služby platformy včetně těch, které považují za protiprávní podle článku 16 zákona o digitálních službách.  Naše mechanismy hlášení jsou k dispozici v samotné aplikaci (tj. přímo u daného obsahu) a na našich webových stránkách.

Během příslušného období jsme obdrželi následující oznámení o obsahu a účtech v EU:

V druhé polovině roku 2023 jsme zpracovali 664 896 oznámení výhradně automatizovanými prostředky. Ve všech případech šlo o prosazování našich Pokynů pro komunitu, jelikož naše Pokyny pro komunitu pokrývají nezákonný obsah. 

Kromě uživatelem generovaného obsahu a účtů omezujeme i reklamy, pokud porušují zásady naší platformy. Níže je uveden celkov�� počet reklam, které byly nahlášeny a odstraněny v EU. 

Oznámení o důvěryhodných oznamovatelích (článek 15.1 písm. b))

Za období aktuální zprávy o transparentnosti (2. pololetí roku 2023) nedošlo k žadnému formálnímu jmenování důvěryhodných oznamovatelů podle zákona o digitálních službách. V důsledku toho byl počet oznámení odeslaných těmito důvěryhodnými oznamovateli za toto období nula (0).

Proaktivní moderování obsahu (článek 15.1 písm. c))

Během příslušného období společnost Snap na základě moderování obsahu z vlastní iniciativy omezila v EU následující obsah a účty:

Veškeré snahy společnosti Snap o moderování z vlastní iniciativy využívaly lidskou kontrolu nebo automatizaci. Na našich plochách s veřejným obsahem prochází obsah zpravidla automatickou moderací i lidskou kontrolou, než je možné jej distribuovat širokému publiku. Pokud jde o automatizované nástroje, tyto zahrnují:

  • Proaktivní detekci nezákonného a porušujícího obsahu pomocí strojového učení;

  • Nástroje pro přiřazování souborů (jako je PhotoDNA a CSAI Match od společnosti Google);

  • Detekci vulgárního jazyka pro odmítnutí obsahu na základě identifikovaného a pravidelně aktualizovaného seznamu vulgárních klíčových slov, včetně emoji


Odvolání (článek 15.1 písm. d))

Během příslušného období společnost Snap zpracovala prostřednictvím svých vnitřních systémů pro zpracování stížností následující odvolání v souvislosti s omezením obsahu a účtu v EU:


* Zamezení sexuálnímu vykořisťování dětí je nejvyšší prioritou. Tomuto boji společnost Snap Inc. věnuje významné prostředky a pro toto jednání má nulovou toleranci.  K přezkoumání odvolání v souvislosti se sexuálním vykořisťováním dětí je zapotřebí speciální školení a vzhledem ke grafické povaze obsahu je tým pracovníků, kteří se těmito přezkumy zabývají, omezen.  Během podzimu roku 2023 zavedla společnost Snap Inc. změny v zásadách, které měly dopad na konzistenci určitých zákroků v souvislosti se sexuálním vykořisťováním dětí, a tyto nekonzistence jsme řešili přeškolením zástupců a přísným zajištěním kvality.  Očekáváme, že příští zpráva o transparentnosti ukáže zlepšení reakční doby na hlášení o sexuálním vykořisťování dětí a zlepšení přesnosti počátečních zákroků. 

Automatizované prostředky pro moderování obsahu (článek 15.1, písm. d))

Na našich plochách s veřejným obsahem prochází obsah zpravidla automatickou moderací i lidskou kontrolou, než je možné jej distribuovat širokému publiku. Pokud jde o automatizované nástroje, tyto zahrnují:

  • Proaktivní detekci nezákonného a porušujícího obsahu pomocí strojového učení;

  • Nástroje pro porovnávání hashů souborů (jako je PhotoDNA a CSAI Match od Google);

  • Detekci vulgárního jazyka pro odmítnutí obsahu na základě identifikovaného a pravidelně aktualizovaného seznamu vulgárních klíčových slov, včetně emoji.


Přesnost technologií automatizovaného moderování pro veškeré případy újmy byla přibližně 96,61 % a chybovost byla přibližně 3,39 %.


Ochranná opatření pro moderování obsahu (článek 15.1, písm. d))

Jsme si vědomi, že jsou tu rizika spojená s moderováním obsahu, včetně rizik pro svobodu projevu a shromažďování, která mohou být způsobena předpojatostí automatického nebo lidského moderátora a zneužitím hlášení, včetně hlášení ze strany vlád, politických složek nebo dobře organizovaných jednotlivců. Snapchat obecně není místem pro politický nebo aktivistický obsah, zejména v našem veřejném prostoru. 


Nicméně za účelem ochrany proti těmto rizikům zavedla společnost Snap Inc. testování a školení a má k dispozici robustní a konzistentní postupy pro vyřizování hlášení o protiprávním obsahu nebo obsahu porušujícím podmínky, a to i ze stran orgánů činných v trestním řízení a vládních orgánů. Neustále vyhodnocujeme a vyvíjíme naše algoritmy pro moderování obsahu. Ačkoli je náročné odhalit možné poškození svobody projevu, nejsme si vědomi žádných významných problémů a našim uživatelům poskytujeme možnosti, jak nahlásit případné chyby. 


Naše zásady a systémy podporují konzistentní a spravedlivé prosazování podmínek a, jak je uvedeno výše, poskytují Snapchatterům možnost smysluplného sporu ohledně výsledku tohoto prosazování a to prostřednictvím procesů oznámení a odvolání, jejichž cílem je chránit zájmy naší komunity a zároveň práva jednotlivých Snapchatterů.

Neustále se snažíme vylepšovat naše zásady a postupy k prosazování podmínek a učinili jsme velký pokrok v boji proti potenciálně škodlivému a nelegálnímu obsahu a aktivitám na Snapchatu. To se odráží ve vzestupném trendu našich počtů hlášení a prosazování podmínek uvedených v naší poslední zprávě o transparentnosti a ve snížení míry porušování pravidel na Snapchatu obecně.


Mimosoudní řešení (článek 24.1, písm. a))

Za období aktuální zprávy o transparentnosti (2. pololetí roku 2023) nebyly formálně jmenovány žádné orgány pro mimosoudní řešení sporů podle zákona o digitálních službách. V důsledku toho byl počet sporů odeslaných těmto orgánům v tomto období nula (0) a nemůžeme poskytnout výsledky, medián doby řešení a podíl sporů, u nichž jsme rozhodnutí orgánu provedli. 



Pozastavení účtu (článek 24.1, písm. a))

Během 2. pololetí roku 2023 jsme neprovedli žádné pozastavení účtu podle článku 23. Tým důvěry a bezpečnosti společnosti Snap Inc. má k dispozici postupy, které umožňují omezení možnosti hlášení u uživatelských účtů, které často odesílají hlášení nebo stížnosti, které jsou zjevně neopodstatněné. Tyto postupy zahrnují omezení vytváření duplicitních hlášení a používání e-mailových filtrů, aby se zabránilo odesílání hlášení těm uživatelům, kteří často odesílají zjevně neopodstatněná hlášení. Společnost Snap Inc. proti účtům provádí vhodné akce k prosazení podmínek, jak je vysvětleno v našich Vysvětlivkách k moderování, prosazování a odvolání na Snapchatu a informace o úrovni, s jakou společnost Snap Inc. provádí prosazování podmínek vůči účtům, naleznete v naší zprávě o transparentnosti (2. pololetí 2023). Tato opatření budou i nadále kontrolována a opakována.


Prostředky, odbornost a podpora moderátorů (článek 42.2)

Náš tým pro moderování obsahu působí po celém světě, což nám umožňuje udržovat Snapchattery nepřetržitě v bezpečí. Níže naleznete rozpis našich lidských moderátorských zdrojů dle jazykových specializací moderátorů (upozorňujeme, že někteří moderátoři se specializují na více jazyků) k 31. prosinci 2023:

Výše uvedená tabulka uvádí všechny moderátory, kteří od 31. prosince 2023 podporují jazyky členských států EU. V případech, kdy potřebujeme další jazykovou podporu, využíváme překladatelské služby.

Pro přijímané moderátory platí standardní popis práce, do kterého patří požadavek na znalost jazyka (dle potřeby). Požadavek na znalost jazyka stanoví, že uchazeč by měl být schopen prokázat plynulou písemnou a mluvenou znalost jazyka a mít alespoň rok praxe na základních pozicích. Aby se zájemci mohli o pozici ucházet, musí také splňovat všeobecné požadavky a požadavky na vzdělání. Uchazeči musí také prokázat, že rozumí aktuálnímu dění v příslušné zemi nebo oblasti, v níž budou moderovat obsah. 

Náš tým moderátorů uplatňuje naše zásady a opatření k jejich prosazování, aby pomáhal chránit naši komunitu na Snapchatu. Školení probíhá po dobu několika týdnů a noví členové týmu jsou na něm informováni o zásadách, nástrojích a postupech společnosti Snap Inc. při eskalaci problémů. Po absolvování školení musí každý moderátor složit certifikační zkoušku, než je mu dovoleno posuzovat obsah. Náš tým moderátorů se pravidelně účastní opakovacích školení týkajících se jejich pracovních postupů, zejména když se setkáme s případy na hranici našich zásad a případy závislými na kontextu. Také realizujeme programy na prohloubení kompetencí, certifikační sezení a kvízy, abychom ověřili, že všichni moderátoři mají aktuální znalosti a dodržují veškeré aktualizované zásady. Pokud se na základě aktuálních událostí objeví naléhavé obsahové trendy, rychle rozesíláme vyjasnění zásad, aby týmy mohly reagovat podle zásad společnosti Snap Inc.

Našemu týmu moderátorů, „digitálním first responderům“ společnosti Snap Inc., poskytujeme značnou podporu a prostředky, včetně podpory wellness na pracovišti a snadného přístupu ke službám duševního zdraví. 

Zpráva o sledování médií ve smyslu sexuálního vykořisťování a zneužívání dětí (CSEA)


Východiska

Sexuální vykořisťování jakéhokoli člena naší komunity, zejména nezletilého, je protiprávní, ohavné a zakázané našimi Pokyny pro komunitu. Předcházení, odhalování a vymýcení sexuálního vykořisťování a zneužívání dětí (CSEA) na naší platformě je nejvyšší prioritou společnosti Snap Inc. Proto neustále rozvíjíme svoje schopnosti boje proti těmto i dalším trestným činům.


K identifikací známých nezákonných snímků a videí zobrazujících sexuální zneužívání dětí používáme výkonné porovnávání hashů z PhotoDNA, respektive porovnání obrazových materiálů se sexuálním zneužíváním dětí (CSAI) od společnosti Google. Tyto materiály pak v souladu se zákonem nahlašujeme Národnímu centru Spojených států pro pohřešované nebo vykořisťované děti (NCMEC). Centrum NCMEC pak podle potřeby spolupracuje s domácími nebo mezinárodními orgány činnými v trestním řízení.


Zpráva

Níže uvedená data jsou založena na výsledku proaktivního skenování médií natočených uživateli a nahraných na Snapchat z jejich zařízení. K tomuto skenování používáme PhotoDNA a/nebo CSAI Match.

Zastavení sexuálního vykořisťování dětí je nejvyšší prioritou. Tomuto boji společnost Snap Inc. věnuje významné prostředky a pro toto jednání má nulovou toleranci.  K přezkoumání odvolání v souvislosti se sexuálním vykořisťováním dětí je zapotřebí speciální školení a vzhledem ke grafické povaze obsahu je tým pracovníků, kteří se těmito přezkumy zabývají, omezen.  Během podzimu roku 2023 zavedla společnost Snap Inc. změny v zásadách, které měly dopad na konzistenci určitých zákroků v souvislosti se sexuálním vykořisťováním dětí, a tyto nekonzistence jsme řešili přeškolením zástupců a přísným zajištěním kvality.  Očekáváme, že příští zpráva o transparentnosti ukáže zlepšení reakční doby na hlášení o sexuálním vykořisťování dětí a zlepšení přesnosti počátečních zákroků. 

Ochranná opatření pro moderování obsahu

Ochranná opatření uplatňovaná během sledování médií ve smyslu sexuálního vykořisťování a zneužívání dětí jsou popsána výše v části Ochranná opatření pro moderování obsahu naší zprávy dle DSA.


Zpráva o sledování médií ve smyslu sexuálního vykořisťování a zneužívání dětí (CSEA)


Východiska

Sexuální vykořisťování jakéhokoli člena naší komunity, zejména nezletilého, je protiprávní, ohavné a zakázané našimi Pokyny pro komunitu. Předcházení, odhalování a vymýcení sexuálního vykořisťování a zneužívání dětí (CSEA) na naší platformě je nejvyšší prioritou společnosti Snap Inc. Proto neustále rozvíjíme svoje schopnosti boje proti těmto i dalším trestným činům.


K identifikací známých nezákonných snímků a videí zobrazujících sexuální zneužívání dětí používáme výkonné porovnávání hashů z PhotoDNA, respektive porovnání obrazových materiálů se sexuálním zneužíváním dětí (CSAI) od společnosti Google. Tyto materiály pak v souladu se zákonem nahlašujeme Národnímu centru Spojených států pro pohřešované nebo vykořisťované děti (NCMEC). Centrum NCMEC pak podle potřeby spolupracuje s domácími nebo mezinárodními orgány činnými v trestním řízení.


Zpráva

Níže uvedená data jsou založena na výsledku proaktivního skenování médií natočených uživateli a nahraných na Snapchat z jejich zařízení. K tomuto skenování používáme PhotoDNA a/nebo CSAI Match.

Zastavení sexuálního vykořisťování dětí je nejvyšší prioritou. Tomuto boji společnost Snap Inc. věnuje významné prostředky a pro toto jednání má nulovou toleranci.  K přezkoumání odvolání v souvislosti se sexuálním vykořisťováním dětí je zapotřebí speciální školení a vzhledem ke grafické povaze obsahu je tým pracovníků, kteří se těmito přezkumy zabývají, omezen.  Během podzimu roku 2023 zavedla společnost Snap Inc. změny v zásadách, které měly dopad na konzistenci určitých zákroků v souvislosti se sexuálním vykořisťováním dětí, a tyto nekonzistence jsme řešili přeškolením zástupců a přísným zajištěním kvality.  Očekáváme, že příští zpráva o transparentnosti ukáže zlepšení reakční doby na hlášení o sexuálním vykořisťování dětí a zlepšení přesnosti počátečních zákroků. 

Ochranná opatření pro moderování obsahu

Ochranná opatření uplatňovaná během sledování médií ve smyslu sexuálního vykořisťování a zneužívání dětí jsou popsána výše v části Ochranná opatření pro moderování obsahu naší zprávy dle DSA.


Zastavení sexuálního vykořisťování dětí je nejvyšší prioritou. Tomuto boji společnost Snap Inc. věnuje významné prostředky a pro toto jednání má nulovou toleranci.  K přezkoumání odvolání v souvislosti se sexuálním vykořisťováním dětí je zapotřebí speciální školení a vzhledem ke grafické povaze obsahu je tým pracovníků, kteří se těmito přezkumy zabývají, omezen.  Během podzimu roku 2023 zavedla společnost Snap Inc. změny v zásadách, které měly dopad na konzistenci určitých zákroků v souvislosti se sexuálním vykořisťováním dětí, a tyto nekonzistence jsme řešili přeškolením zástupců a přísným zajištěním kvality.  Očekáváme, že příští zpráva o transparentnosti ukáže zlepšení reakční doby na hlášení o sexuálním vykořisťování dětí a zlepšení přesnosti počátečních zákroků. 

Ochranná opatření pro moderování obsahu

Ochranná opatření uplatňovaná během sledování médií ve smyslu sexuálního vykořisťování a zneužívání dětí jsou popsána výše v části Ochranná opatření pro moderování obsahu naší zprávy dle DSA.