شفافیت کی رپورٹ
1 جولائی 2023 – 31 دسمبر 2023

جاری کیا گیا:

25 اپریل 2024

اپ ڈیٹ کیا گیا:

25 اپریل 2024

Snap کی حفاظتی کوششوں اور ہمارے پلیٹ فارم پر رپورٹ کردہ مواد کی نوعیت اور حجم کی آگاہی فراہم کرنے کے لئے، ہم سال میں دو بار شفافیت کی رپورٹیں شائع کرتے ہیں۔ ہم ان رپورٹس کو اپنی کمیونٹی، اور بہت سے اسٹیک ہولڈرز کی حفاظت اور بہبود کے لیے مزید جامع اور معلوماتی بنانے کے لیے پرعزم ہیں جو ہمارے مواد کے اعتدال اور قانون کے نفاذ کے طریقوں کا گہرا خیال رکھتے ہیں۔

شفافیت کی یہ رپورٹ 2023 کے دوسرے نصف حصے (1 جولائی تا 31 دسمبر) کا احاطہ کرتی ہے۔ ہماری پچھلی رپورٹس کی طرح، ہم ایپ کے اندر موجود مواد کی عالمی تعداد اور اکاؤنٹ کی سطح کی رپورٹس کے بارے میں ڈیٹا کا اشتراک کرتے ہیں جو ہمیں پالیسی کی خلاف ورزیوں کے مخصوص زمروں میں موصول ہوئی اور نافذ کی گئی ہیں؛ ہم نے قانون نافذ کرنے والے اداروں اور حکومتوں کی درخواستوں کا کیسے جواب دیا؛ اور ہمارے نفاذ کے اقدامات ملک کے لحاظ سے تقسیم ہیں۔

ہمارے مسلسل شفافیت کی رپورٹوں کو بہتر بنانے کے عزم کے تحت، ہم اس ریلیز کے ساتھ کچھ نئے عناصر متعارف کرا رہے ہیں۔

سب سے پہلے، ہم نے دہشت گردی اور پرتشدد انتہا پسندی اور بچوں کے جنسی استحصال اور بدسلوکی (CSEA) دونوں سے منسلک مواد اور اکاؤنٹس کے خلاف رپورٹس اور نفاذ کو شامل کرنے کے لیے اپنی مرکزی میز کو وسیع کیا ہے۔ پچھلی رپورٹس میں، ہم نے الگ الگ حصوں میں ان خلاف ورزیوں کے جواب میں اکاؤنٹ ڈیلیٹ کیے جانے پر روشنی ڈالی تھی۔ ہم ایک الگ سیکشن میں CSEA کے خلاف اپنی فعال اور رد عمل کی کوششوں کے ساتھ ساتھ NCMEC کو اپنی رپورٹس کا خاکہ جاری رکھیں گے۔

دوسرا، ہم نے اپیلوں پر وسیع معلومات فراہم کی ہیں، جس میں کمیونٹی گائیڈلائنز کے نفاذ کے ذریعے کل اپیلوں اور بحالی کا خاکہ پیش کیا گیا ہے۔

آخر میں، ہم نے اپنی توسیع کی ہے یورپی یونینسیکشن، Snap کی EU سرگرمیوں کے بارے میں بڑھتی ہوئی بصیرت فراہم کرتا ہے۔ خاص طور پر، ہم اپنی حالیہ DSA شفافیت کی رپورٹ اور اپنے CSEA میڈیا کے حوالے سے اضافی میٹرکس شائع کر رہے ہیں۔

آن لائن نقصانات کا مقابلہ کرنے کے لیے ہماری پالیسیوں کے بارے میں مزید معلومات کے لیے، اور ہماری رپورٹنگ کے طریقوں کو فروغ دینے کے منصوبوں کو جاری رکھنے کے لئے، براہ کرم اس شفافیت کی رپورٹ کے بارے میں ہمارا حالیہ سیفٹی اینڈ امپیکٹ بلاگ پڑھیں۔ ۔Snapchat پر حفاظت اور رازداری کے لئے اضافی وسائل تلاش کرنے کے لئے، صفحے کے نچلے حصے میں ہماراشفافیت کی رپورٹنگ کے بارے میں ٹیب دیکھیں۔

براہ کرم نوٹ کریں کہ شفافیت کی رپورٹ کا تازہ ترین ورژن en-US کی مقامی زبان میں پایا جا سکتا ہے۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا جائزہ

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔ رپورٹ کے مواد کو نافذ کرنے کے لئے اوسط ٹرن اراؤنڈ وقت تقریباً 10 منٹ تھا۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا تجزیہ

ہماری مجموعی رپورٹنگ اور نافذ کرنے والے کی شرح گزشتہ چھ ماہ کے لیے بالکل اسی طرح رہی۔ اس سائیکل، ہم نے کل مواد اکاؤنٹ کی رپورٹوں میں تقریبا 10 فیصد اضافہ دیکھا تھا۔

اسرائیل-حماس کے تنازع کا آغاز اس عرصے کے دوران ہوا اور اس کے نتیجے میں ہم نے پرتشدد مواد میں ایک اضافہ دیکھا۔ نفرت انگیز تقریر سے متعلق کل رپورٹس میں 61 فیصد اضافہ ہوا ، جبکہ نفرت انگیز تقریر کے کل مواد کے نفاذ کی تعداد میں ~ 97 فیصد اور اکاؤنٹ کے منفرد نفاذ کے ذریعے 124 فیصد تک اضافہ ہوا تھا۔ دہشت گردی اور پرتشدد انتہا پسندی کی رپورٹس اور نفاذ میں بھی اضافہ ہوا ہے، حالانکہ وہ ہمارے پلیٹ فارم پر کل مواد کے نفاذ کے >0.1 فیصد پر مشتمل ہیں۔ ہماری ٹرسٹ اور سیفٹی ٹیمیں مسلسل چوکس رہتی ہیں کیونکہ Snapchat کو محفوظ رکھنے میں مدد کے لیے عالمی تنازعات پیدا ہوتے ہیں۔ ہم نے اپنی شفافیت کی رپورٹ کو بھی وسیع کیا ہے تاکہ ہماری دہشت گردی اور پرتشدد انتہا پسندی کی پالیسی کی خلاف ورزیوں کے لیے نافذ کردہ کل رپورٹس، نافذ کردہ مواد، اور منفرد اکاؤنٹس کے حوالے سے عالمی اور ملکی سطح پر مزید معلومات شامل ک�� جائیں۔

بچوں کے جنسی استحصال اور زیادتی کا مقابلہ کرنا 

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کے جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔

ہم فعال ٹیکنالوجی سے معروف غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کرنے والے ٹولز، جیسے PhotoDNA ک�� مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصویری میچ (CSAI) کا استعمال کرتے ہیں اور انکی اطلا‏ع یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلوٹڈ چلڈرن (NCMEC) کو دیتے ہیں، جیسا کہ قانون کی ضرورت ہے۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔

2023 کے دوسرے نصف میں، ہم نے بچوں کے جنسی استحصال اور زیادتی کی خلاف ورزیوں کا 59 فیصد حصہ فعال طور پر پتہ چلا اور عمل کیا تھا۔ یہ Snapchat Snapchat پر بھیجے گئے ممکنہ CSEA کی نمائش میں اضافے کی وجہ سے پچھلی مدت سے 39 فیصد کل کمی کو ظاہر کرتا ہے، اس سے Snapchat پر بھیجی جانے والے ممکنہ CSEA کی نمائش میں اضافہ ہوتا ہے۔ 

*نوٹ کریں کہ NCMEC پر ہر جمع بندی میں مواد کے متعدد ٹکڑے ہوسکتے ہیں۔ NCMEC کو جمع کرائے گئے میڈیا کے کل انفرادی ٹکڑے ہمارے نافذ کردہ کُل مواد کے برابر ہیں۔ ہم نے اس نمبر سے NCMEC کو بھی بے حد گذارشات خارج کر دیا ہے۔

خود کو نقصان پہنچانے اور خودکشی کرنے والا مواد

ہمیں Snapchatters کی ذہنی صحت اور بہبود کا بہت خیال ہے، جو Snapchat کو مختلف طریقے سے بنانے کے ہمارے فیصلوں سے آگاہ کرتا رہتا ہے۔ ایک پلیٹ فارم کے طور پر جو حقیقی دوستوں کے درمیان اور ان کے درمیان مواصلت کے لیے ڈیزائن کیا گیا ہے، ہمیں یقین ہے کہ Snapchat دوستوں کو مشکل میں ایک دوسرے کی مدد کرنے کے لیے بااختیار بنانے میں منفرد کردار ادا کر سکتا ہے۔

جب ہماری ٹرسٹ اور سیفٹی ٹیم تکلیف میں Snapchat کے بارے میں آگاہ ہو جاتی ہے، تو وہ خود کو نقصان پہنچانے سپورٹ وسائل کو آگے بڑھا سکتے ہیں، اور جب مناسب ہو ہنگامی ردعمل کے اہلکاروں کو مطلع کر سکتے ہیں۔ ہم جن وسائل کو شیئر کرتے ہیں وہ ہماری حفاظتی وسائل کی عالمی فہرست میں دستیاب ہیں، اور یہ تمام Snapchatters کے لیے عوامی طور پر دستیاب ہیں۔

اپیلیں

ہماری اطلاع دیں کہ ہم نے اپیلوں پر میٹرکس اعداد و شمار متعارف کرایا۔ جہاں ہم نے اوقات صارفین کی تعداد کو اجاگر کیا کہ ہم اکاؤنٹ کے خلاف اپنے ابتدائی اعتدال کا فیصلہ دوبارہ جائزہ لینے کے لیے ہم سے کہا تھا۔ اطلاع دیں کہ ہم نے اکاؤنٹ کی سطح کی خلاف ورزیوں کے لئے اپنی پالیسی کی اقسام کی مکمل رینج کیپچر کو بڑھانے کے لیے اپنی اپیلوں کو بڑھایا ہے۔

* بچوں کے جنسی استحصال سے متعلق مواد یا سرگرمی کے پھیلاؤ کو روکنا ٹاپ ترجیح ہے۔ Snap اس مقصد پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئ رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔

اشتہارات کی ماڈریشن

Snap یہ یقینی بنانے کے لئے پرعزم ہے کہ تمام اشتہارات ہماری تشہیری پالیسیوں سے مکمل طور پر مطابق ہیں۔ ہم اپنے تمام صارفین کے لیے ایک محفوظ اور پرلطف تجربہ تخلیق کرتے ہوئے تشہیر کاری کے لیے ایک ذمہ دار اور باعزت طریقے پر یقین رکھتے ہیں۔ ذیل میںہم نے Snapchat پر بامعاوضہ اشتہارات کے لیے اپنے اعتدال کی بصیرت شامل کی ہے۔ نوٹ کریں کہ Snapchat پر اشتہارات کو مختلف وجوہات کی بنا پر ہٹایا جا سکتا ہے جیسا کہ Snap کی تشہیری پالیسیوں میں بیان کیا گیا ہے، بشمول فریب آمیز مواد، بالغوں کا مواد، پرتشدد یا پریشان کن مواد، نفرت انگیز تقریر، اور املاکِ دانش کی خلاف ورزی۔ مزید برآں، اب آپ شفافیت کی اس رپورٹ کے نیویگیشن بار میں Snapchat کے اشتہارات کی گیلری تلاش کر سکتے ہیں۔ 

علاقائی اور ملک کا جائزہ

یہ سیکشن جغرافیائی علاقوں کے نمونے لینے میں ہماری کمیونٹی کی ہدایات کے نفاذ کا ایک جائزہ فراہم کرتا ہے۔ ہماری ہدایات Snapchat پر موجود تمام مواد — اور پوری دنیا میں تمام سنیپ چیٹرز پر - اس سے قطع نظر کے وہ کس خطے میں ہیں، لاگو ہوتی ہیں۔

انفرادی ممالک کے لیے، بشمول یورپی یونین کے تمام رکن ممالک کے لیے، منسلک CSV فائل کے ذریعے ڈاؤن لوڈ کریں دستیاب ہے۔