Europska unija
1. srpnja 2023. – 31. prosinca 2023.

Objavljeno:

25. travnja 2024.

Ažurirano:

25. travnja 2024.

Dobro došli na našu stranicu transparentnosti Europske unije (EU), gdje objavljujemo informacije specifične za EU koje zahtijeva Zakon o digitalnim uslugama (DSA), Odredba o audiovizualnim medijskim uslugama (AVMSD) i Nizozemski zakon o medijima (DMA). Molimo imajte na umu da se najnovija verzija ovih Izvješća o transparentnosti može pronaći na en-US jeziku.

Pravni zastupnik 

Snap Group Limited imenovao je Snap B.V.-a kao svojeg pravnog zastupnika u svrhe DSA-a. Predstavniku se možete obratiti na dsa-enquiries [pri adresi] snapchat.com za DSA-u, na vsp-enquiries [pri adresi] snapchat.com za AVMSD i DMA-u, [ovdje] preko naše Stranice za podršku ili na adresu:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nizozemska

Ako ste agencija za provođenje zakona, molimo slijedite navedene korake ovdje.

Regulatorna tijela

Za DSA, reguliraju nas Europska komisija i Nizozemska uprava za potrošače i tržišta (ACM). Za AVMSD i DMA, regulira nas Nizozemska uprava za medije (CvdM).

Izvještaj o transparentnosti DSA-a

Članci 15, 24 i 42 DSA-a zahtijevaju od Snapa da objavljuje izvještaje koji sadržavaju propisane podatke o Snapovom moderiranju sadržaja za Snapchatove usluge koje se smatraju "mrežnim platformama,” npr., Spotlight, Za vas, Javni profili, Karte, Objektivi i Oglašavanje. Ovaj se izvještaj mora objavljivati svakih 6 mjeseci, od 25. listopada 2023.

Snap objavljuje izvještaje o transparentnosti dvaput godišnje kako bi pružio uvid u Snapove napore za sigurnost i prirodu te količinu sadržaja prijavljenog na našoj platformi. Naše najnovije izvješće za H2 2023. (1. srpnja – 31. prosinca) možete pronaći ovdje. Mjerni podatci specifični za Zakon o digitalnim uslugama mogu se pronaći na ovoj stranici.

Prosječni mjesečni aktivni primatelji 
(DSA članci 24.2 i 42.3)

Od 31. prosinca 2023. imamo 90,9 milijuna prosječno mjesečno aktivnih primatelja ("AMAR") naše aplikacije Snapchat u EU-u. To znači da je u prosjeku u posljednjih 6 mjeseci 90,9 milijuna registriranih korisnika u EU-u otvorilo aplikaciju Snapchat barem jednom tijekom određenog mjeseca.

Ova brojka podijeljena je po državama članicama kako slijedi:

Ove su brojke izračunate kako bi zadovoljile trenutna DSA-ova pravila, i na njih se treba oslanjati samo u svrhe DSA-a. Promijenili smo način na koji izračunavamo ovu brojku tijekom vremena, što je bio odgovor na promjenu interne politike, regulatornih smjernica i tehnologije, a brojke nisu namijenjene usporedbi između razdoblja. Ovo se također može razlikovati od izračuna korištenih za druge brojke aktivnih korisnika koje objavljujemo u druge svrhe.


Zahtjevi nadležnih tijela država članica
(Članak 15.1. točka (a))

Zahtjevi za preuzimanje datoteka 

Tijekom tog razdoblja primili smo 0 zahtjeva za preuzimanje iz država članica EU-a u skladu s člankom 9 DSA-a.

Zahtjevi za informacije 

Tijekom tog razdoblja primili smo sljedeće zahtjeve za informacijama od država Tijekom tog razdoblja primili smo 0 zahtjeva za preuzimanje iz država članica EU-a u sukladno članku 10 DSA-a.

Medijalno vrijeme potrebno za obavještavanje nadležnih tijela o primitku Zahtjeva za informacije je 0 minuta — pružamo automatski odgovor kojim potvrđujemo primitak. Srednje vrijeme obrade za provedbu Zahtjeva za informacije je ~10 dana. Ova metrika odražava vremensko razdoblje od trenutka kada Snap primi IR (izvješće o incidentu) do trenutka kada Snap vjeruje da je zahtjev u potpunosti riješen. U nekim slučajevima, duljina ovog procesa djelomično ovisi o brzini kojom tijela za provođenje zakona odgovaraju na sve zahtjeve za pojašnjenjem od strane Snapa koji su potrebni za obradu njihovog zahtjeva.

Moderacija sadržaja


Sav sadržaj na Snapchatu mora biti u skladu s našim Smjernicama za zajednicu i Uvjetima pružanja usluga, kao i dopunskim uvjetima, smjernicama i objašnjenjima. Mehanizmi proaktivnog otkrivanja, i izvještaja o nezakonitom, ili kršenom sadržaju ili računima, zahtijevaju pregled, u kojem trenutku naši alatni sustavi obrađuju zahtjev, prikupljaju bitne metapodatke te usmjeravaju bitan sadržaj našem timu za moderiranje putem strukturiranog korisničkog sučelja koje je dizajnirano kako bi olakšalo učinkovite i djelotvorne pregledne operacije. Kada naši timovi za moderiranje utvrde, bilo ljudskim pregledom ili automatskim sredstvima, da je korisnik prekršio naše Uvjete, možemo ukloniti uvredljivi sadržaj ili račun, ukinuti ili ograničiti vidljivost bitnog računa i/ili obavijestiti policiju kao što je objašnjeno u našem Snapchatovom moderiranju, provedbi i objašnjenju žalbi.  Korisnici čije je račune zaključao naš tim za sigurnost zbog kršenja Smjernica zajednice mogu podnijeti žalbu na zaključani račun, a korisnici se mogu žaliti na određene sadržajne mjere.

Obavijesti o sadržaju i računu (DSA članak 15.1(b))

Snap je uveo mehanizme koji omogućuju korisnicima i ne-korisnicima da obavijeste Snap o sadržaju i računima koji krše naše Smjernice za zajednicu i Uvjete pružanja usluga na platformi, uključujući one koje smatraju nezakonitima u skladu s člankom 16 DSA. Ovi mehanizmi za prijavu dostupni su u samoj aplikaciji (tj. izravno iz dijela sadržaja) i na našoj web stranici.

Tijekom relevantnog razdoblja primili smo sljedeće obavijesti o sadržaju i računu u EU:

U H2'23 obradili smo 664.896 obavijesti isključivo putem automatiziranih sredstava. Sve su one izvršene protiv naših Smjernica zajednice jer naše Smjernice zajednice sažimaju ilegalni sadržaj.

Osim sadržaja i računa koje generiraju korisnici, moderiramo oglase ako krše pravila naše platforme. U nastavku slijedi ukupan broj oglasa koji su prijavljeni i uklonjeni u EU.

Obavijesti iz pouzdanih izvora informacija (članak 15. stavak 1, točka (b))

Za razdoblje našeg posljednjeg Izvješća o transparentnosti (druga polovina 2023.) nije bilo službeno imenovanih pouzdanih izvora informacija prema DSA-u. Kao rezultat toga, broj obavijesti koje su dostavili takvi pouzdani izvori informacija iznosio je nula (0) u tom razdoblju.

Proaktivna moderacija sadržaja (članak 15.1. točka (c))

Tijekom relevantnog razdoblja, Snap je sankcionirao sljedeće sadržaje i račune u EU nakon uključivanja moderiranja sadržaja na vlastitu inicijativu:

Svi Snapovi moderacijski napori na vlastitu inicijativu koristili su ljude ili automatizaciju. Na našim javnim površinama sa sadržajem, sadržaj općenito prolazi kroz automatsku moderaciju i ljudski pregled prije nego što postane prihvatljiv za distribuciju široj publici. U odnosu na automatizirane alate, oni uključuju:

  • Proaktivno otkrivanje nezakonitog sadržaja te sadržaja koji krši pravila korištenjem strojnog učenja;

  • Alati za uspoređivanje hash vrijednosti (kao što su PhotoDNA i Googleov CSAI Match);

  • Razotkrivanje uvredljivog jezika za odbijanje sadržaja na temelju identificiranog i redovito ažuriranog popisa uvredljivih ključnih riječi, uključujući emojije


Žalbe (članak 15.1(d))

Tijekom relevantnog razdoblja, Snap je obradio sljedeće žalbe na sadržaj i račune u EU putem svojih internih sustava za obradu pritužbi:


* Zaustavljanje seksualnog iskorištavanja djece glavni je prioritet. Snap u to ulaže značajne resurse i ni na koji način ne tolerira takvo ponašanje.  Za pregled prijava u vezi seksualnog iskorištavanja djece potrebna je posebna obuka i tim se pregledom bavi ograničen broj agenata, zbog grafičke prirode sadržaja. Tijekom jeseni 2023. Snap je implementirao promjene u svojim propisima koje su utjecale na dosljednost određenih CSE provedbi i te smo nedosljednosti riješili ponovnom obukom agenata i rigoroznom kontrolom kvalitete. Očekujemo da će iduće izvješće o transparentnosti otkriti napredak u poboljšanju vremena odgovora na prijave u vezi seksualnog iskorištavanja djece i poboljšanju preciznosti početnih provedbi. 

Automatizirana sredstva za moderiranje sadržaja (članak 15.1(d))

Na našim javnim površinama sa sadržajem, sadržaj općenito prolazi kroz automatsku moderaciju i ljudski pregled prije nego što postane prihvatljiv za distribuciju široj publici. U odnosu na automatizirane alate, oni uključuju:

  • Proaktivno otkrivanje nezakonitog sadržaja te sadržaja koji krši pravila korištenjem strojnog učenja;

  • Alati za uspoređivanje hashove vrijednosti (kao što su PhotoDNA i Googleov CSAI Match);

  • Razotkrivanje uvredljivog jezika za odbijanje sadržaja na temelju identificiranog i redovito ažuriranog popisa uvredljivih ključnih riječi, uključujući emojije.


Točnost automatiziranih tehnologija moderiranja za sve štete iznosila je približno 96,61 %, a stopa pogreške iznosila je približno 3,39 %.


Zaštitne mjere za moderiranje sadržaja (članak 15.1(d))

Svjesni smo da postoje rizici povezani s moderiranjem sadržaja, uključujući rizike za slobodu izražavanja i okupljanja koji mogu biti uzrokovani automatiziranom i ljudskom pristranošću moderatora i prijavama o neprimjerenom ponašanju, uključujući prijave vlada, političkih skupina ili dobro organiziranih pojedinaca. Snapchat općenito nije mjesto za politički ili aktivistički sadržaj, osobito u našim javnim prostorima. 


Ipak, u svrhu zaštite od tih rizika, Snap organizira testiranje i obuku te ima čvrste, dosljedne postupke za obradu izvješća o nezakonitom sadržaju ili sadržaju kojim se krše pravila uključujući od tijela za provedbu zakona i vladinih tijela. Kontinuirano ocjenjujemo i razvijamo svoje algoritme za moderiranje sadržaja. Iako je moguće štete za slobodu izražavanja teško otkriti, nemamo saznanja o bilo kakvim značajnim problemima i svojim korisnicima osiguravamo načine za prijavu pogrešaka, ako se dogode. 


Naši propisi i sustavi promiču dosljednu i poštenu provedbu i, kako je gore opisano, Snapchaterima pružaju priliku da smisleno osporavaju ishode provedbe tih propisa i sustava putem postupaka obavijesti i žalbi kojima je cilj zaštititi interese naše zajednice, istovremeno štiteći prava pojedinih Snapchatera.

Kontinuirano se trudimo poboljšati svoje politike i postupke provedbe te smo napravili velike korake u borbi protiv potencijalno štetnih i nezakonitih sadržaja i aktivnosti na Snapchatu. To se odražava u uzlaznom trendu broja izvješća i provedbe prikazanom u našem posljednjem Izvješću o transparentnosti i smanjenju stope učestalosti kršenja na Snapchatu općenito. 


Izvansudske nagodbe (članak 24.1(a))

Za razdoblje našeg posljednjeg Izvješća o transparentnosti (druga polovina 2023.) nije bilo službeno imenovanih tijela za nagodbe izvansudskih sporova prema DSA-u. Kao rezultat toga, broj sporova dostavljenih takvim tijelima u ovom je razdoblju bio nula (0) i ne možemo navesti rezultate, srednja vremena odgovora za nagodbe i udio sporova u kojima smo implementirali odluke tijela. 



Obustave računa (članak 24.1(a))

Tijekom druge polovine 2023. nismo imali obustava računa naloženih temeljem članka 23. Snapov Tim za povjerenje i sigurnost raspolaže postupcima za ograničavanje mogućnosti da korisnički računi često podnose obavijesti ili pritužbe koje su očito neutemeljene. Ovi postupci uključuju ograničavanje stvaranja dvostrukog izvješća i korištenje filtara e-pošte kako bi se spriječilo da korisnici koji su često dostavljali očito neutemeljena izvješća to nastave činiti. Snap poduzima odgovarajuće mjere provedbe protiv računa kako je objašnjeno u našem Objašnjenju o Snapchatovoj moderaciji, provedbi i žalbama, a informacije o razini provedbe u vezi s računima na Snapu možete pronaći u našem Izvješću o transparentnosti (prva polovina 2023.). Takve će se mjere i dalje revidirati i ponavljati.


Moderatorski resursi, stručnost i podrška (članak 42.2)

Naš tim za moderiranje sadržaja djeluje diljem svijeta, što nam omogućuje da zaštitimo Snapchatterse 24/7. U nastavku ćete pronaći pregled naših ljudskih resursa za moderiranje prema jezičnim specijalizacijama moderatora (imajte na umu da su neki moderatori specijalizirani za više jezika) od 31. prosinca 2023.:

Tablica iznad uključuje sve moderatore koji podržavaju jezike država članica EU-a od 31. prosinca 2023. U situacijama u kojima nam je potrebna dodatna podrška za jezike, koristimo se prevoditeljskim uslugama.

Moderatori se zapošljavaju upotrebom standardnog opisa posla koji uključuje zahtjev za znanjem jezika (ovisno o potrebi). U zahtjevu za znanje jezika navodi se da bi kandidat trebao biti u mogućnosti pokazati tečno znanje jezika u pismu i govoru i imati najmanje godinu dana radnog iskustva za početne pozicije. Pristupnici moraju ispunjavati obrazovne i pozadinske uvjete kako bi bili uzeti u obzir. Pristupnici također moraju izraziti razumijevanje aktualnih događanja u državi ili području moderiranja sadržaja koje će podržavati.

Naš tim za moderiranje primjenjuje naše politike i mjere provedbe kao pomoć u zaštiti naše Snapchat zajednice. Obuka se provodi u višetjednom razdoblju, u kojem se novi članovi tima educiraju o Snapovim politikama, alatima i postupcima eskalacije. Nakon obuke svaki moderator mora proći certifikacijski ispit prije nego što mu bude dopušteno pregledavanje sadržaja. Naš tim za moderiranje redovito sudjeluje u obuci za obnavljanje znanja relevantnoj za njihov tijek rada, osobito u slučajevima koji su granični u smislu politika i ovise o kontekstu. Također provodimo programe usavršavanja, certifikacijske sesije i kvizove kako bismo osigurali da su svi moderatori upoznati sa i djeluju u skladu sa svim ažuriranim politikama. Konačno, kada se pojave hitni trendovi sadržaja na temelju aktualnih događaja, brzo šaljemo pojašnjenja politike kako bi timovi mogli reagirati u skladu sa Snapovim politikama.

Našem timu za moderiranje sadržaja – Snapove „digitalne hitne službe" – osiguravamo značajnu potporu i resurse, uključujući podršku za dobrobit na radnom mjestu i jednostavan pristup uslugama za mentalno zdravlje. 

Izvještaj skeniranja medija o Seksualnom iskorištavanju i zlostavljanju djece (CSEA)


Pozadina

Seksualno iskorištavanje bilo kojeg člana naše zajednice, osobito maloljetnika, nezakonito je, gnjusno i zabranjeno u skladu s našim Smjernicama zajednice. Sprječavanje, otkrivanje i iskorjenjivanje Seksualnog iskorištavanja i zlostavljanja djece (CSEA) na našoj platformi glavni je prioritet za Snap, a mi neprestano razvijamo svoje sposobnosti za borbu protiv ovih i drugih zločina.


Koristimo se PhotoDNA-ovim robusnim spajanjem pomiješanoga i Googleovim spajanjem fotografija seksualnog zlostavljanja djece (CSAI) kako bismo utvrdili nezakonite fotografije i videozapise seksualnog zlostavljanja djece i prijavili ih Nacionalnom središtu SAD-a za nestalu i iskorištavanu djecu (NCMEC), kao što zakon nalaže. NCMEC potom koordinira s domaćim ili međunarodnim tijelima za provedbu zakona.


Izvještaj

Podatci ispod temelje se na rezultatu svjesnog skeniranja s pomoću PhotoDNA-a i/ili CSAI-jeva spajanja medija koje je korisnikov fotoaparat učitao na Snapchat.

Zaustavljanje seksualnog iskorištavanja djece glavni je prioritet. Snap u to ulaže značajne resurse i ni na koji način ne tolerira takvo ponašanje.  Za pregled prijava u vezi seksualnog iskorištavanja djece potrebna je posebna obuka i tim se pregledom bavi ograničen broj agenata, zbog grafičke prirode sadržaja. Tijekom jeseni 2023. Snap je implementirao promjene u svojim propisima koje su utjecale na dosljednost određenih CSE provedbi i te smo nedosljednosti riješili ponovnom obukom agenata i rigoroznom kontrolom kvalitete. Očekujemo da će idući izvještaj o transparentnosti pokazati napredak glede vremena odgovaranja na CSE-ove žalbe te poboljšavanja točnosti početnih mjera.

Zaštitne mjere moderiranja sadržaja

Zaštitne mjere primijenjene na CSEA-ovo skeniranje medija navedene su u odjeljku "Zaštitne mjere za moderiranje sadržaja" iznad, u našemu DSA-ovu izvještaju.


Izvještaj skeniranja medija o Seksualnom iskorištavanju i zlostavljanju djece (CSEA)


Pozadina

Seksualno iskorištavanje bilo kojeg člana naše zajednice, osobito maloljetnika, nezakonito je, gnjusno i zabranjeno u skladu s našim Smjernicama zajednice. Sprječavanje, otkrivanje i iskorjenjivanje Seksualnog iskorištavanja i zlostavljanja djece (CSEA) na našoj platformi glavni je prioritet za Snap, a mi neprestano razvijamo svoje sposobnosti za borbu protiv ovih i drugih zločina.


Koristimo se PhotoDNA-ovim robusnim spajanjem pomiješanoga i Googleovim spajanjem fotografija seksualnog zlostavljanja djece (CSAI) kako bismo utvrdili nezakonite fotografije i videozapise seksualnog zlostavljanja djece i prijavili ih Nacionalnom središtu SAD-a za nestalu i iskorištavanu djecu (NCMEC), kao što zakon nalaže. NCMEC potom koordinira s domaćim ili međunarodnim tijelima za provedbu zakona.


Izvještaj

Podatci ispod temelje se na rezultatu svjesnog skeniranja s pomoću PhotoDNA-a i/ili CSAI-jeva spajanja medija koje je korisnikov fotoaparat učitao na Snapchat.

Zaustavljanje seksualnog iskorištavanja djece glavni je prioritet. Snap u to ulaže značajne resurse i ni na koji način ne tolerira takvo ponašanje.  Za pregled prijava u vezi seksualnog iskorištavanja djece potrebna je posebna obuka i tim se pregledom bavi ograničen broj agenata, zbog grafičke prirode sadržaja. Tijekom jeseni 2023. Snap je implementirao promjene u svojim propisima koje su utjecale na dosljednost određenih CSE provedbi i te smo nedosljednosti riješili ponovnom obukom agenata i rigoroznom kontrolom kvalitete. Očekujemo da će idući izvještaj o transparentnosti pokazati napredak glede vremena odgovaranja na CSE-ove žalbe te poboljšavanja točnosti početnih mjera.

Zaštitne mjere moderiranja sadržaja

Zaštitne mjere primijenjene na CSEA-ovo skeniranje medija navedene su u odjeljku "Zaštitne mjere za moderiranje sadržaja" iznad, u našemu DSA-ovu izvještaju.


Zaustavljanje seksualnog iskorištavanja djece glavni je prioritet. Snap u to ulaže značajne resurse i ni na koji način ne tolerira takvo ponašanje.  Za pregled prijava u vezi seksualnog iskorištavanja djece potrebna je posebna obuka i tim se pregledom bavi ograničen broj agenata, zbog grafičke prirode sadržaja. Tijekom jeseni 2023. Snap je implementirao promjene u svojim propisima koje su utjecale na dosljednost određenih CSE provedbi i te smo nedosljednosti riješili ponovnom obukom agenata i rigoroznom kontrolom kvalitete. Očekujemo da će idući izvještaj o transparentnosti pokazati napredak glede vremena odgovaranja na CSE-ove žalbe te poboljšavanja točnosti početnih mjera.

Zaštitne mjere moderiranja sadržaja

Zaštitne mjere primijenjene na CSEA-ovo skeniranje medija navedene su u odjeljku "Zaštitne mjere za moderiranje sadržaja" iznad, u našemu DSA-ovu izvještaju.