Tag: minors

  • TikTok sets new default time limits for minors | CBC News

    ٹِک ٹاک نے بدھ کو کہا کہ 18 سال سے کم عمر کے صارف کے پاس ہر اکاؤنٹ میں آنے والے ہفتوں میں ڈیفالٹ 60 منٹ کی روزانہ اسکرین ٹائم کی حد ہوگی۔

    خاندانوں نے چینی ملکیت والی ویڈیو شیئرنگ ایپ پر اپنے بچوں کے خرچ کرنے کے وقت کو محدود کرنے کے ساتھ جدوجہد کی ہے۔

    ٹِک ٹِک کے ٹرسٹ اور سیفٹی کے سربراہ کورمیک کینن نے ایک میں کہا بلاگ پوسٹ بدھ کو کہ جب 60 منٹ کی حد تک پہنچ جائے گی، نابالغوں کو پاس کوڈ درج کرنے اور دیکھتے رہنے کے لیے \”فعال فیصلہ\” کرنے کا اشارہ کیا جائے گا۔ ان اکاؤنٹس کے لیے جہاں صارف کی عمر 13 سال سے کم ہے، والدین یا سرپرست کو 60 منٹ کی ابتدائی حد تک پہنچنے کے بعد 30 منٹ اضافی دیکھنے کا وقت دینے کے لیے موجودہ پاس کوڈ سیٹ کرنا یا درج کرنا ہوگا۔

    سنو | \’ٹک ٹاک ٹکس\’ کا پراسرار معاملہ:

    فرنٹ برنر25:47\’ٹک ٹاک ٹکس\’ کا پراسرار معاملہ

    TikTok نے کہا کہ یہ بوسٹن چلڈرن ہاسپٹل میں تعلیمی تحقیق اور ڈیجیٹل ویلنس لیب کے ماہرین سے مشورہ کرکے 60 منٹ کی حد کے ساتھ آیا ہے۔

    سوشل میڈیا پر نابالغوں کو کس چیز کا سامنا کرنا پڑتا ہے اور اس سے ممکنہ نقصان پہنچنے کے بارے میں طویل عرصے سے خدشات موجود ہیں۔ اے رپورٹ گزشتہ سال کے آخر میں جاری کی گئی تھی۔r نے مشورہ دیا کہ TikTok کے الگورتھم کمزور نوعمروں کو خود کو نقصان پہنچانے اور کھانے کی خرابی کے بارے میں ویڈیوز کو فروغ دے رہے ہیں۔

    \"ایک
    25 اگست 2022 کو جرمنی کے شہر کولون میں گیمز کام میلے میں ٹک ٹاک کی نمائش میں ایک وزیٹر تصویر لے رہا ہے۔ TikTok نے اعلان کیا کہ وہ اسکرین ٹائم ریکیپ کے ساتھ نوعمر اکاؤنٹس کو ہفتہ وار ان باکس اطلاعات بھی بھیجے گا۔ (مارٹن میسنر/ دی ایسوسی ایٹڈ پریس)

    سوشل میڈیا الگورتھم کسی صارف کی دلچسپی کے عنوانات اور مواد کی نشاندہی کرکے کام کرتے ہیں، جسے پھر سائٹ پر زیادہ سے زیادہ وقت گزارنے کے طریقے کے طور پر بھیجا جاتا ہے۔ لیکن سوشل میڈیا کے ناقدین کا کہنا ہے کہ وہی الگورتھم جو کسی خاص کھیلوں کی ٹیم، شوق یا رقص کے جنون کے بارے میں مواد کو فروغ دیتے ہیں وہ صارفین کو نقصان دہ مواد کے خرگوش کے سوراخ سے نیچے بھیج سکتے ہیں۔

    ٹِک ٹِک نے بدھ کو یہ بھی کہا کہ اگر وہ 60 منٹ کے ڈیفالٹ سے آپٹ آؤٹ کرتے ہیں تو یہ نوعمروں کو روزانہ اسکرین کے وقت کی حد مقرر کرنے کے لیے بھی ترغیب دینا شروع کر دے گا۔ کمپنی اسکرین ٹائم ریکیپ کے ساتھ نوعمر اکاؤنٹس کو ہفتہ وار ان باکس اطلاعات بھیجے گی۔

    نوعمروں کے اکاؤنٹس کے لیے TikTok کی کچھ موجودہ حفاظتی خصوصیات میں 13 سے 15 سال کی عمر کے لوگوں کے لیے اکاؤنٹس کو بطور ڈیفالٹ پرائیویٹ سیٹ کرنا اور صرف ان اکاؤنٹس کو براہ راست پیغام رسانی کی دستیابی فراہم کرنا شامل ہے جہاں صارف کی عمر 16 سال یا اس سے زیادہ ہے۔

    سنو | نوجوان، خبریں اور سوشل میڈیا:

    چلو9:25ٹیک: نوعمر، خبریں اور سوشل میڈیا

    TikTok نے تمام صارفین کے لیے متعدد تبدیلیوں کا اعلان کیا، جس میں ہفتے کے ہر دن کے لیے اپنی مرضی کے مطابق اسکرین ٹائم کی حدیں سیٹ کرنے کی صلاحیت اور صارفین کو اطلاعات کو خاموش کرنے کے لیے شیڈول سیٹ کرنے کی اجازت دینا شامل ہے۔ کمپنی لوگوں کی منصوبہ بندی میں مدد کے لیے نیند کی یاد دہانی بھی شروع کر رہی ہے جب وہ رات کو آف لائن رہنا چاہتے ہیں۔ نیند کے فیچر کے لیے، صارفین ایک وقت مقرر کر سکیں گے جب ایک پاپ اپ صارف کو یاد دلائے گا کہ لاگ آف کرنے کا وقت ہو گیا ہے۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Meta backs a new system that allows minors to stop their intimate images from being posted online

    میٹا اعلان کیا آج یہ ایک نئی تنظیم کی مالی اعانت میں مدد کر رہا ہے جس کا نام ہے۔ ٹیک اٹ ڈاون وہ کرے گا، کی حمایت کے ساتھ نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن (NCMEC)، 18 سال سے کم عمر کے نوجوانوں کو اپنی مباشرت کی تصاویر کو آن لائن پھیلنے سے روکنے میں مدد کرتا ہے۔ نظام، کے طور پر دستیاب ہے ایک آن لائن ٹول، اسی طرح کام کرتا ہے۔ فیس بک کا ایک پرانا اقدام غیر متفقہ مباشرت تصویروں کے پھیلاؤ کو روکنے کے لیے ڈیزائن کیا گیا، جسے بعض اوقات \”ریوینج پورن\” کہا جاتا ہے۔

    لانچ کے ساتھ ساتھ، میٹا کا کہنا ہے کہ وہ نئے ٹولز بھی لا رہا ہے جو \”مشکوک بالغوں\” کے لیے انسٹاگرام پر نوعمروں کے ساتھ بات چیت کرنا مزید مشکل بنا دے گا۔

    کمپنی کا دعویٰ ہے کہ غیر متفقہ مباشرت تصاویر کے لیے نیا ٹیک ڈاؤن سسٹم صارف کی پرائیویسی کے تحفظ کے لیے ڈیزائن کیا گیا ہے کیونکہ اس کے لیے نوجوانوں کو یہ ضرورت نہیں پڑے گی کہ وہ خود تصاویر کو میٹا یا کسی اور تنظیم کے ساتھ شیئر کریں۔ اس کے بجائے، سسٹم صارف کے اپنے آلے سے براہ راست تصویر یا ویڈیو کو ایک منفرد ہیش ویلیو — ایک عددی کوڈ — تفویض کرے گا۔ اس کے بعد یہ ہیش NCMEC کو جمع کرائی جائے گی، پھر کسی بھی کمپنی کو ان تصاویر کی کاپیاں تلاش کرنے اور انہیں خود بخود اتارنے کی اجازت دی جائے گی، اس کے علاوہ انہیں مستقبل میں پوسٹ ہونے سے روکا جائے گا۔

    اصل، نام نہاد \”ریوینج پورن\” سسٹم اس کے پائلٹ کے دوران تنقید کی گئی تھی ہیش بنانے سے پہلے صارف کے اپ لوڈز کی ضرورت کے لیے، کیونکہ سیکورٹی ماہرین نے پیچھے ہٹ کر کہا کہ یہ مباشرت مواد سے نمٹنے کا سب سے زیادہ ذمہ دار طریقہ نہیں ہے۔ اس کے بعد سے اسے دوبارہ ترتیب دیا گیا ہے۔ مقامی طور پر ہیش بنائیں، مدد کی دستاویزات میں نوٹ کرتے ہوئے کہ \”آپ کی تصاویر آپ کے کمپیوٹر کو کبھی نہیں چھوڑیں گی۔\” اب، یہ نیا ٹیک اٹ ڈاؤن سسٹم اسی طریقہ کار کو استعمال کرتا دکھائی دیتا ہے۔

    میٹا کے گلوبل ہیڈ آف سیفٹی اینٹیگون ڈیوس نے اعلان میں لکھا ہے کہ \”دوسروں کے ساتھ ایک ذاتی مباشرت تصویر شیئر کرنا خوفناک اور زبردست ہو سکتا ہے، خاص طور پر نوجوانوں کے لیے۔\” \”یہ اور بھی برا محسوس ہو سکتا ہے جب کوئی ان تصاویر کو اضافی تصاویر، جنسی رابطے یا پیسے کے لیے خطرہ کے طور پر استعمال کرنے کی کوشش کرتا ہے – ایک جرم جسے جنسی زیادتی کہا جاتا ہے۔\”

    اگرچہ ان نوجوانوں کا مقصد جن کی مباشرت کی تصاویر غیر رضامندی سے شیئر کی جا رہی ہیں — اور غیر قانونی طور پر — میٹا نوٹ کرتا ہے کہ یہ نظام بالغوں کے ذریعے بھی استعمال کیا جا سکتا ہے، بشمول نوجوان کے والدین یا سرپرست، یا یہاں تک کہ بالغ افراد بھی جن کی غیر رضامندی سے لی گئی تصاویر سے پریشان ہیں۔ خود جب وہ چھوٹے تھے۔

    ٹیک اٹ ڈاؤن ویب سائٹ لوگوں کو NCMEC کے دیگر وسائل سے بھی جوڑتی ہے، بشمول یہ دیکھنے کے لیے کہ آیا آپ کی اپنی واضح تصویریں ویب پر موجود ہیں، تلاش کرنے کے لیے ٹولز، ایک سائبر ٹِپ لائن جو آپ کو کسی بھی تصویر یا آن لائن استحصال کی دوسری شکلوں پر دھمکی دینے والے کی اطلاع دینے کے لیے، اور مزید بہت کچھ کرتی ہے۔

    جبکہ میٹا نے ابتدائی فنڈنگ ​​فراہم کر کے سسٹم کی مالی مدد کی اور اسے فیس بک اور انسٹاگرام پر استعمال کریں گے، دوسری شرکت کرنے والی کمپنیاں جنہوں نے نئی ٹیکنالوجی کے استعمال میں حصہ لینے کے لیے سائن اپ کیا ہے ان میں سوشل نیٹ ورک یوبو کے ساتھ ساتھ بالغ سائٹیں OnlyFans اور Pornhub (MinGeek) شامل ہیں۔ خاص طور پر اس فہرست سے غیر حاضر دیگر بڑی ٹیک کمپنیاں جیسے ٹویٹر اور اسنیپ چیٹ ہیں۔

    تب سے اب تک 200 سے زائد کیسز جمع کرائے جا چکے ہیں۔

    NCMEC کا کہنا ہے کہ یہ نظام دراصل دسمبر 2022 میں شروع کیا گیا تھا – اس عوامی اعلان سے پہلے – اور اس کے بعد سے 200 سے زیادہ کیسز جمع ہوئے ہیں۔ اشتہاری ایجنسی VCCP کی طرف سے بنایا گیا ایک نیا PSA بچوں کے ذریعے استعمال ہونے والے پلیٹ فارمز پر ظاہر ہو گا تاکہ یہ یقینی بنایا جا سکے کہ اسے دیکھا جائے۔

    یہ سسٹم ان لوگوں کے لیے ایک کارآمد ٹول ہو سکتا ہے جو شیئر کیے جانے والے غیر متفقہ تصاویر سے واقف ہیں یا ان کے قبضے میں ہیں، یہ فرض کرتے ہوئے کہ وہ جانتے ہیں کہ یہ اخراج کا اختیار موجود ہے۔ جب کہ کمپنیاں پہلے ہی قانونی طور پر بچوں کے جنسی استحصال کے مواد، یا CSAM کی NCMEC کو رپورٹ کرنے کی پابند تھیں، ان کے سسٹمز یا اس مواد کا پتہ لگانے کے عمل کو ان پر عمل درآمد کے لیے چھوڑ دیا گیا ہے۔ موجودہ وفاقی قانون یہ حکم نہیں دیتا ہے کہ آیا انہیں اپنے پلیٹ فارمز پر اس قسم کی تصویروں کو تلاش کرنا چاہیے، جس کی وجہ سے پلیٹ فارمز پر CSAM پھیلتا ہے۔ حیرت کی بات نہیں، اس کی دی ہوئی ہے۔ 2.96 بلین ماہانہ صارفین اکیلے فیس بک کے لیے، اس میں ایک بڑا حصہ دار ہے۔ بڑھتی ہوئی مسئلہ دریں اثنا، کوششیں نئی قانون سازی کریںEARN IT کی طرح، جو اس خامی کو بند کردے گا، ابھی تک کامیاب نہیں ہوا ہے۔ (اگرچہ وہ خاص بل یہ بھی متنازعہ تھا آزادی اظہار اور صارفین کی رازداری پر اس کے ممکنہ غیر ارادی نتائج کی وجہ سے، ناقدین نے دلیل دی ہے۔)

    لیکن اس علاقے میں قانون سازی کی کمی نے میٹا جیسے پلیٹ فارمز کو خود کو منظم کرنے پر مجبور کیا ہے جب بات آتی ہے کہ وہ اس قسم کے مواد اور دیگر کا انتظام کیسے کریں گے۔ کانگریس بظاہر انٹرنیٹ کے دور کے لیے بنائے گئے نئے قوانین کو منظور کرنے میں ناکام نظر آتی ہے، ان کے پلیٹ فارمز پر موجود مواد کے لیے بڑی ٹیک کی ذمہ داری کے بارے میں قانونی ذمہ داری کے خدشات نے اب سپریم کورٹ تک اپنا راستہ بنا لیا ہے۔ وہاں، ججز کمیونیکیشن ڈیسنسی ایکٹ کے سیکشن 230 کا جائزہ لے رہے ہیں، جو انٹرنیٹ کے ابتدائی دنوں میں ویب سائٹس کو صارفین کے پوسٹ کردہ مواد کے لیے قانونی طور پر ذمہ دار ہونے سے بچانے کے لیے بنایا گیا تھا۔ ٹویٹر اور گوگل کے یوٹیوب پر مشتمل نئے کیسز – اور ان کے ساتھ تجویز کردہ الگورتھم – اس بات کا تعین کریں گے کہ آیا ان دہائیوں پرانے تحفظات کو پیچھے چھوڑ دیا جانا چاہئے یا اس سے بھی الٹ جانا چاہئے۔ اگرچہ CSAM سے متعلق نہیں ہے، لیکن یہ اس بات کی ایک اور مثال ہیں کہ امریکہ میں پلیٹ فارم ریگولیشن کا مجموعی نظام کس طرح ٹوٹا ہے۔

    قانون کی رہنمائی کے بغیر، Meta جیسے پلیٹ فارم الگورتھم کے انتخاب، ڈیزائن، سفارشاتی ٹیکنالوجی اور صارف کے اختتامی تحفظات کے ارد گرد کے علاقوں میں اپنے قوانین اور پالیسیاں بنا رہے ہیں۔

    \"\"

    تصویری کریڈٹ: میٹا

    حالیہ مہینوں میں، Meta آنے والے ضابطوں کی توقع میں نوعمروں کے لیے اپنے تحفظات کو بڑھا رہا ہے نئے نوعمر اکاؤنٹس کو بطور ڈیفالٹ نجی اور اس کا اطلاق سب سے زیادہ پابندی والی ترتیباترول آؤٹ کے علاوہ a مختلف قسم کے حفاظتی آلات اور والدین کا اختیار. ان اپ ڈیٹس میں مخصوص خصوصیات تھیں جن کا مقصد بالغ صارفین کو ایسے نوعمروں سے رابطہ کرنے سے روکنا تھا جنہیں وہ نہیں جانتے تھے اور مشتبہ رویے میں مصروف نوعمروں کو متنبہ کرنا تھا — جیسے کہ نوعمر صارفین کو دوستی کی درخواستوں کی ایک بڑی تعداد بھیجنا، مثال کے طور پر۔

    آج، میٹا کا کہنا ہے کہ مشتبہ بالغ افراد ان لوگوں کی فہرست کے ذریعے سکرول کرتے وقت نوعمر اکاؤنٹس کو نہیں دیکھ سکیں گے جنہوں نے کسی پوسٹ کو پسند کیا ہے یا اکاؤنٹ کے فالورز یا فالونگ کی فہرست کو دیکھتے ہوئے، ان کی رسائی کو مزید کاٹ دیا جائے گا۔ اور اگر کوئی مشتبہ بالغ انسٹاگرام پر کسی نوجوان کی پیروی کرتا ہے، تو نوعمر کو ایک اطلاع موصول ہوگی جس میں وہ پیروکار کا جائزہ لینے اور اسے ہٹانے کا اشارہ کرے گا۔ یہ نوعمروں کو اپنی رازداری کی ترتیبات کا جائزہ لینے اور اسے محدود کرنے کا بھی اشارہ کرے گا اور نوعمروں کو دوبارہ مطلع کرے گا اور جب کوئی ان کی پوسٹس پر تبصرہ کرتا ہے، ٹیگ کرتا ہے یا کسی پوسٹ میں ان کا تذکرہ کرتا ہے، یا انہیں Reels Remixes یا Guides میں شامل کرتا ہے۔



    >Source link>

    >>Join our Facebook page From top right corner. <<