Tag: Data

  • School Systems Lack Capacity to Support Data Driven Decision Making, National Survey Finds

    منجانب: سوسن ایم بیئرڈن

    تعلیمی ایکوئٹی کو چلانے کے لیے ڈیٹا ایک طاقتور ٹول ہو سکتا ہے۔ چاہے کلاس روم کے استاد کی طرف سے ہدایات کو بہتر بنانے کے لیے استعمال کیا جائے، اسکول کے منتظمین اسکول چھوڑنے کے خطرے سے دوچار طلبہ کی شناخت کے لیے، یا ضلع کے ذریعہ، منتظم اعلی درجے کی کلاسوں میں کامیاب ہونے کی صلاحیت رکھنے والے طلبہ کی شناخت کے لیے، ڈیٹا کو طلبہ کی مدد کے لیے کئی مختلف طریقوں سے استعمال کیا جا سکتا ہے۔ . AASA اور ڈیٹا کوالٹی مہم کے 2022 کے سروے سے پتا چلا ہے کہ 98% سپرنٹنڈنٹس محسوس کرتے ہیں کہ اگر ان کے پاس معلومات تک بہتر رسائی ہوتی تو وہ اپنے ضلع کے لیے فیصلے کرنے کی اپنی صلاحیتوں پر زیادہ پراعتماد ہوتے۔ تاہم، 2022 پروجیکٹ یونیکورن اسٹیٹ آف دی سیکٹر رپورٹ (SOTS) سے پتہ چلتا ہے کہ اگرچہ اضلاع قیمتی ڈیٹا میں تیر رہے ہیں، لیکن وہ اکثر اس کا استعمال کرنے سے قاصر ہیں۔

    دی پروجیکٹ یونیکورن اسٹیٹ آف دی سیکٹر رپورٹ (SOTS)سالانہ کے نتائج کی طرف سے مطلع اسکول سسٹم ڈیٹا سروے (SSDS)، تعلیمی ڈیٹا سے فائدہ اٹھانے کے لیے K12 اسکول سسٹم کی صلاحیتوں اور بنیادی ڈھانچے کا اپنی نوعیت کا پہلا تجزیہ ہے۔ اس میں اسکول کے نظام کو نافذ کرنے کی تیاری شامل ہے۔ ڈیٹا انٹرآپریبلٹیایپلی کیشنز کے درمیان ڈیٹا کے ہموار، محفوظ اور کنٹرول شدہ تبادلے کے طور پر بیان کیا گیا ہے۔ دی رپورٹ 2022جس نے 2022 کے موسم بہار سے 187 مقامی تعلیمی ایجنسیوں (LEAs) کے جوابات کا تجزیہ کیا، 6 ڈومینز میں اسکول سسٹم کی صلاحیتوں کا جائزہ لیا: لیڈرشپ اور ویژن، گورننس، ٹیکنالوجی اور انفراسٹرکچر لینڈ اسکیپ، پروکیورمنٹ، عمل درآمد کی مخلصی، اور تعلیمی ماحول پر اثرات۔

    اگرچہ اسکول کے نظام ڈیٹا پر مبنی فیصلہ سازی میں مشغول ہونا چاہتے ہیں، لیکن ان میں مضبوط عمل درآمد کی صلاحیت کا فقدان ہے۔

    سوسن ایم بیئرڈن

    رپورٹ میں پتا چلا ہے کہ اگرچہ اسکول کے نظام ڈیٹا پر مبنی فیصلہ سازی میں مشغول ہونا چاہتے ہیں، لیکن ان میں مضبوط نفاذ کی صلاحیت کی کمی ہے۔ معیاری ڈیٹا پر مبنی فیصلہ سازی کی حمایت کے لیے درکار بنیادی صلاحیتیں متعدد زمروں میں آتی ہیں:

    • قیادت کی صلاحیت: SSDS نے پایا کہ اسکول سسٹم کے بہت سے رہنما ڈیٹا انٹرآپریبلٹی معیارات سے واقف نہیں ہیں اور عملے اور طلباء کو فائدہ پہنچانے کے لیے ان کا فائدہ کیسے اٹھایا جا سکتا ہے۔ ہو سکتا ہے کہ ان کو اس قسم کے ڈیٹا کا اندازہ ہو جو قیادت کے بہتر فیصلے کرنے میں ان کی مدد کرے گا، لیکن وہ نہیں جانتے کہ کون سے سوالات پوچھے جائیں۔ وہ اس معلومات تک رسائی کو ممکن بنانے کے لیے درکار انسانی اور تکنیکی بنیادی ڈھانچے کو بھی نہیں سمجھ سکتے۔ اسکول کے نظام کے رہنماؤں کو اس بارے میں رہنمائی کی ضرورت ہوتی ہے کہ وہ کس طرح ایسے نظاموں اور عملوں کی ترقی میں معاونت کر سکتے ہیں جو انہیں مطلوبہ ڈیٹا تک رسائی فراہم کریں گے۔
    • ڈیٹا انجینئرنگ کی صلاحیت: سروے سے پتا چلا ہے کہ بڑے اور زیادہ شہری اسکول سسٹمز سروے میں چھوٹے اور زیادہ دیہی اسکولوں کے مقابلے میں زیادہ اسکور کرنے کا رجحان رکھتے ہیں، بشمول پرائیویٹ اسکول۔ بڑے اسکولوں کے نظاموں میں یکساں طور پر بڑے بجٹ اور عملہ ہوتے ہیں، جس سے اس بات کا زیادہ امکان ہوتا ہے کہ ان کے پاس ڈیٹا بیس کے بنیادی ڈھانچے کو منظم کرنے کے لیے درکار تکنیکی مہارت کے سیٹ ہوں، جیسے آپریشنل ڈیٹا اسٹور (ODS) یا ڈیٹا گودام۔ بہت سے چھوٹے اسکول سسٹم اس خلا کو پُر کرنے میں مدد کے لیے پلیٹ فارم کے طور پر ایک سروس (PAAS) کے اختیارات تلاش کر رہے ہیں، جیسے کہ کچھ تھرڈ پارٹی وینڈرز یا علاقائی ایجوکیشن سروس ایجنسیوں کی طرف سے پیش کردہ۔
    • ڈیٹا اینالیٹکس کی صلاحیت: حیرت کی بات نہیں، اسکول کے نظام جنہوں نے ڈیٹا ٹیموں کی اطلاع دی ہے (ان ملازمین کے طور پر جو پروگرام کی بہتری میں معاونت کے لیے ڈیٹا کا تجزیہ کرتے ہیں، اس کی کھوج کرتے ہیں، اور اس کی تشریح کرتے ہیں، اور ڈیٹا سسٹمز مینیجر یا انالیٹکس کے ڈائریکٹر جیسے عنوانات رکھ سکتے ہیں) تمام سروے ڈومینز میں نمایاں طور پر زیادہ اسکور حاصل کرتے ہیں۔ بدقسمتی سے، K12 اسپیس میں ڈیٹا تجزیہ کاروں کی شدید کمی ہے اور ڈیٹا پروفیشنلز کے درمیان اعلی ٹرن اوور کی شرح ہے جو نجی شعبے میں نمایاں طور پر زیادہ تنخواہیں لے سکتے ہیں۔ K12 پالیسی سازوں اور معاون تنظیموں کو اسکول کے نظام کو داخلی ڈیٹا اینالیٹکس کی صلاحیت پیدا کرنے اور سپورٹ سسٹم تیار کرنے میں مدد کرنے کی ضرورت ہے تاکہ ڈیٹا کے ماہر افراد کو فیلڈ میں رہنے کی ترغیب دی جاسکے۔
    • مالی صلاحیت: سروے سے پتا چلا ہے کہ ARP ESSER ڈالر کی حالیہ آمد کے باوجود ڈیٹا سسٹم کی جدید کاری کو لاگو کرنے کے لیے فنڈنگ ​​ایک چیلنج بنی ہوئی ہے۔ بڑے پیمانے پر ڈیٹا پروجیکٹس کے لیے تکنیکی اور انسانی بنیادی ڈھانچے میں ابتدائی مالی سرمایہ کاری اور طویل مدتی پائیداری کے لیے محتاط منصوبہ بندی دونوں کی ضرورت ہوتی ہے۔ ٹیکنالوجی کے بنیادی ڈھانچے کے دیگر پہلوؤں کی طرح، مالی استحکام کلیدی حیثیت رکھتا ہے۔ یہ ریاست اور وفاقی پالیسی سازوں پر فرض ہے کہ وہ ڈیٹا ماڈرنائزیشن کے منصوبوں کے لیے وقف فنڈنگ ​​فراہم کریں۔
    • منصوبہ بندی اور پراجیکٹ مینجمنٹ کی صلاحیت: سروے سے پتہ چلا ہے کہ اسکول کے نظام کو ڈیٹا پرائیویسی اور انٹرآپریبلٹی پلاننگ کے ساتھ ساتھ پروکیورمنٹ پلانز اور پروسیسز تیار کرنے میں مدد کی ضرورت ہے۔ ڈیٹا ماڈرنائزیشن کے اقدامات پیچیدہ، کثیر سالہ منصوبے ہیں جن کے لیے متعدد محکموں سے خریداری اور تعاون کی ضرورت ہوتی ہے – بشمول اسکول سسٹم لیڈرز اور بورڈ ممبران، نصاب اور ہدایات کے نگران، انفارمیشن ٹیکنالوجی ٹیمیں، کاروباری افسران، اسکول کے منتظمین، اور کلاس روم اساتذہ۔ جیسا کہ بہت سے بڑے پیمانے پر اقدامات کے ساتھ، کامیاب نفاذ کے لیے سب سے بڑے چیلنج اکثر انسانی ہوتے ہیں۔
    • ڈیٹا سے مطلع تدریسی صلاحیت: بروقت، متعلقہ ڈیٹا تک رسائی کے علاوہ، ماہرین تعلیم کو ڈیٹا سے آگاہ ہدایات اور TIME کے بارے میں پیشہ ورانہ سیکھنے کی ضرورت ہوتی ہے تاکہ وہ مناسب تدریسی طریقوں کو نافذ کرنے کے لیے ساتھیوں کے ساتھ تعاون کریں۔ ان عوامل کے بغیر، ڈیٹا سے باخبر ہدایات ایک حقیقت نہیں بنیں گی۔

    جبکہ اسکول کے نظاموں کو اپنے ڈیٹا سے زیادہ سے زیادہ فائدہ اٹھانے میں مدد کرنے کے لیے بہت کچھ کرنا باقی ہے، پروجیکٹ یونیکورن اس کو حقیقت بنانے کے لیے کام کر رہا ہے۔ دی 18 تنظیمیں جو پروجیکٹ یونیکورن اتحاد بناتی ہیں۔ فراہم کرنے میں تعاون کریں۔ مفت حمایت اور حوالہ جات اسکول کے نظاموں اور دکانداروں کے لیے جو اپنے ڈیٹا کے بنیادی ڈھانچے کو جدید بنانے اور ڈیٹا انٹرآپریبلٹی کو نافذ کرنا چاہتے ہیں۔ اسکول سسٹم جو دستخط کرتے ہیں۔ پروجیکٹ یونیکورن اسکول نیٹ ورک کا عہد مفت 1:1 تکنیکی مدد حاصل کریں اور اسکول سسٹم کی ایک کمیونٹی میں شامل ہوں جو اپنے تعلیمی ڈیٹا کا بہتر استعمال کرنا چاہتے ہیں۔ اگرچہ صرف 20 فیصد اضلاع نے مکمل کیا۔ 2022 سکول سسٹم ڈیٹا سروے پر دستخط کیے تھے۔ پروجیکٹ یونیکورن کا عہد, عہد پر دستخط کرنے والوں نے تمام ڈومینز میں غیر عہد پر دستخط کرنے والوں سے زیادہ اسکور کیا اور ڈیٹا کے مزید جدید طریقوں اور صلاحیتوں کی اطلاع دی۔ پروجیکٹ یونیکورن ڈسٹرکٹ کمیونٹی کا حصہ بننے سے اضلاع کو ڈیٹا انٹرآپریبلٹی، پرائیویسی اور سیکیورٹی کے چیلنجوں کے لیے بہتر طور پر تیار رہنے میں مدد ملتی ہے۔

    ڈیٹا کے معیارات کو کھول کر اور اساتذہ کے لیے اپنے پہلے سے بند ڈیٹا تک رسائی کو آسان بنا کر، وہ طالب علم کی بہتر ہدایات اور ادارہ جاتی فیصلہ سازی کی حمایت کر سکتے ہیں۔ اتحاد کے طور پر ہم نے جو پیش رفت کی ہے وہ اہم رہی ہے، لیکن جیسا کہ اسٹیٹ آف دی سیکٹر رپورٹ کے نتائج بتاتے ہیں، ابھی بہت کام کرنا باقی ہے۔ دی پروجیکٹ یونیکورن اتحاد اس بات کو یقینی بنانے کے لیے کام کر رہا ہے کہ تعلیمی اعداد و شمار کا وعدہ محض ایک افسانہ نہ ہو، بلکہ اس ملک کے ہر معلم اور طالب علم کے لیے روزمرہ کی حقیقت ہو۔

    InnovateEDU کے ڈیجیٹل پروگرامز کے ڈائریکٹر کے طور پر، سوسن پروجیکٹ یونیکورن کی قیادت کرتی ہے، جو 16 تنظیموں کا ملک گیر اتحاد ہے جو K12 سیکٹر میں اوپن ڈیٹا انٹرآپریبلٹی معیارات کو اپنانے کو فروغ دینے اور اس کی حمایت کرنے کی کوشش کرتی ہے۔



    Source link

  • PROOF POINTS: New higher ed data by race and ethnicity


    جنوری اور فروری 2023 میں جاری ہونے والی اعلی تعلیم سے متعلق کئی نئی رپورٹس کے مطابق، طلباء کی نسل اور نسل کالج کی ڈگری حاصل کرنے کے ان کے امکانات کو متاثر کرتی ہے۔ تاہم، جو تصویر سامنے آتی ہے اس کا انحصار آپ کے استعمال کردہ عینک پر ہوتا ہے۔ تمام نسلی اور نسلی گروہوں میں کالج کی ڈگریاں بڑھ رہی ہیں، لیکن سفید فام اور ایشیائی امریکیوں کے کالج کی ڈگری حاصل کرنے یا کالے، ہسپانوی یا مقامی امریکیوں کے مقابلے میں ڈگری حاصل کرنے کا امکان بہت زیادہ ہے۔

    کالج کی ڈگری حاصل کرنے میں دو مراحل شامل ہیں: کالج شروع کرنا اور کالج ختم کرنا۔ وبائی مرض سے پہلے، سفید فام، سیاہ فام اور ہسپانوی امریکی تقریباً ایک ہی شرح پر کالج میں داخلہ لے رہے تھے، خاص طور پر جب بے روزگاری زیادہ تھی اور ملازمتیں تلاش کرنا مشکل تھا۔ (ایشیائی امریکیوں نے بہت زیادہ شرحوں پر کالج میں داخلہ لیا۔) بڑا امتیاز یہ ہے کہ ایک بار جب ایک طالب علم کالج شروع کر لیتا ہے، تو اسے کورس ورک اور ٹیوشن کی ادائیگیوں کے ذریعے بنانے اور بالآخر ڈگری حاصل کرنے کا امکان نسل اور نسل کے لحاظ سے بہت زیادہ مختلف ہوتا ہے۔

    سب سے پہلے، آئیے اندراج کے ساتھ شروع کرتے ہیں۔ اس کو دیکھنے کے دو طریقے ہیں۔ ایک یہ دیکھنا ہے کہ کالج کیمپس کا آبادیاتی میک اپ کس طرح وقت کے ساتھ بدلا ہے، کم سفید اور زیادہ ہسپانوی بن گیا ہے۔ ذیل میں پائی چارٹ جنوری میں نیشنل اسٹوڈنٹ کلیئرنگ ہاؤس کے ذریعہ تیار کیے گئے تھے، ایک غیر منافع بخش تنظیم جو کالجوں کو ڈیٹا رپورٹنگ کی خدمات فراہم کرتی ہے۔ ان خدمات کے ساتھ مل کر، یہ 3,600 سے زائد اداروں کی طرف سے جمع کرائے گئے ڈیٹا کو جمع کرکے اعلیٰ تعلیم کے رجحانات کی نگرانی کرتا ہے، جو ملک کے ڈگری دینے والے کالجوں اور یونیورسٹیوں کے 97 فیصد طلباء کی نمائندگی کرتے ہیں۔ اس سال کے شروع میں، تنظیم نے ایک DEI ڈیٹا لیب اس سائٹ پر روشنی ڈالنے کے لیے کہ کس طرح کالج میں اندراج، استقامت اور تکمیل نسل اور نسل کے لحاظ سے مختلف ہوتی ہے۔



    Source link

  • Dollar buoyant as robust US data keep Fed hawks in control

    سنگاپور: ڈالر پیر کے روز فرنٹ فٹ پر تھا، جسے ریاستہائے متحدہ سے باہر معاشی اعداد و شمار کے مضبوط رن کی حمایت حاصل تھی کہ تاجر یہ شرط لگاتے ہیں کہ فیڈرل ریزرو اپنی مانیٹری پالیسی کو سخت کرنے کے راستے پر ابتدائی طور پر توقع سے زیادہ دیر تک برقرار رکھے گا۔

    ابتدائی ایشیا کی تجارت میں گرین بیک نے بڑے پیمانے پر ترقی کی، سٹرلنگ 0.12% کم ہوکر $1.2028 اور آسٹریلیا 0.18% گر کر $0.6866 پر پہنچا۔

    جاپانی ین کے مقابلے میں ڈالر 0.14 فیصد بڑھ کر 134.32 پر پہنچ گیا۔ پیر کو ٹریڈنگ پتلی ہونے کا امکان ہے، امریکی مارکیٹیں صدور کے دن کے لیے بند رہیں گی۔

    حالیہ ہفتوں میں دنیا کی سب سے بڑی معیشت کے اعداد و شمار کی ایک بڑی تعداد نے ابھی تک سخت لیبر مارکیٹ، چپچپا افراط زر، مضبوط خوردہ فروخت میں اضافہ اور ماہانہ پروڈیوسر کی قیمتوں کی طرف اشارہ کیا ہے، نے مارکیٹ کی توقعات کو بڑھا دیا ہے کہ امریکی مرکزی بینک کو قابو پانے میں مزید کچھ کرنا ہے۔ افراط زر، اور یہ کہ شرح سود کو زیادہ جانا پڑے گا۔

    کامن ویلتھ بینک آف آسٹریلیا (سی بی اے) کے کرنسی سٹریٹجسٹ کیرول کانگ نے کہا کہ \”آنے والے ہفتے کے لیے، ڈالر اقتصادی اعداد و شمار کے حالیہ رن کے پیش نظر اونچا ٹریک کر سکتا ہے جو طویل عرصے کے لیے سود کی بلند شرحوں کے بیانیہ کی حمایت کرتا ہے۔\”

    ڈالر چھ ہفتے کی بلند ترین سطح پر پہنچ گیا کیونکہ تاجروں نے فیڈ کی شرطیں بڑھا دیں۔

    مارکیٹیں اب توقع کر رہی ہیں کہ جولائی تک فیڈ فنڈز کی شرح صرف 5.3 فیصد سے کم ہو جائے گی۔

    فیڈ حکام کی جانب سے ہتک آمیز تبصروں نے بھی امریکی ڈالر کو متاثر کیا ہے، کیونکہ انہوں نے اشارہ دیا ہے کہ افراط زر کو کامیابی کے ساتھ کم کرنے کے لیے شرح سود کو زیادہ کرنے کی ضرورت ہوگی۔

    اسی طرح، دو یورپی سنٹرل بینک (ECB) کے پالیسی سازوں نے جمعہ کو کہا کہ یورو زون میں شرح سود میں اب بھی اضافے کا کوئی نہ کوئی راستہ ہے، جس سے ای سی بی کی چوٹی کی شرح کے لیے مارکیٹ کی قیمتوں میں اضافہ ہو گا۔

    تاہم، اس نے یورو کو اٹھانے کے لیے بہت کم کام کیا، جو آخری 0.16 فیصد کم ہوکر $1.0677 پر تھا۔

    \”ڈالر کی مضبوطی کے پیش نظر، ای سی بی کے عادی تبصروں سے یورو کی حمایت کا امکان نہیں ہے،\” کانگ نے کہا۔ دوسری جگہوں پر، امریکی ڈالر انڈیکس 0.05% بڑھ کر 104.03 پر پہنچ گیا، اور اب تک اس مہینے کے لیے تقریباً 2% کا اضافہ ہوا ہے، جو اسے پچھلے ستمبر کے بعد سے اپنے پہلے ماہانہ فائدہ کے لیے ٹریک پر رکھتا ہے۔

    بدھ کے روز ریزرو بینک آف نیوزی لینڈ (RBNZ) کے سود کی شرح کے فیصلے پر نظروں کے ساتھ کیوی 0.17٪ گر کر 0.6232 ڈالر پر آگیا۔

    آر بی این زیڈ سے توقع ہے کہ وہ اپنی سخت مہم کو تھوڑا سا کم کرے گا، جس میں شرح سود میں نصف پوائنٹ اضافہ ہو کر 4.75% ہو جائے گا۔

    اے این زیڈ کے تجزیہ کاروں نے کہا، \”افراط زر کی شرح کے ساتھ… کورس کو برقرار نہ رکھنے کا مطلب یہ ہو سکتا ہے کہ سود کی شرح سے بھی زیادہ کی ضرورت ہے۔\”

    ایشیا میں، پیر کو چین کے لون پرائم ریٹ کے فیصلے پر توجہ مرکوز کی گئی ہے، جس میں مارکیٹیں بڑے پیمانے پر توقع کر رہی ہیں کہ ماہانہ فکسنگ پر اس کے بینچ مارک قرضے کی شرحوں میں کوئی تبدیلی نہیں کی جائے گی۔

    \”ہمیں نہیں لگتا کہ کوئی تبدیلیاں کی جائیں گی،\” سی بی اے کے کانگ نے کہا۔ \”ہمارا خیال یہ رہا ہے کہ (چینی) حکومت کو چینی بحالی میں مدد کے لیے مزید نرمی کے اقدامات کا اعلان کرنا چاہیے۔\”

    آف شور یوآن آخری بار معمولی طور پر 6.8783 فی ڈالر پر تھا۔



    Source link

  • LG Uplus CEO apologizes for data breach, vows to triple security budget

    \"LG

    LG Uplus کے چیف ایگزیکٹو آفیسر Hwang Hyeon-sik نے جمعرات کو مرکزی سیئول کے Yongsan میں کمپنی کے ہیڈ کوارٹر میں ایک پریس کانفرنس کے دوران کمپنی کے ڈیٹا کی خلاف ورزیوں اور نیٹ ورک سروس کی بندش سے متعلق حالیہ تنازعہ پر معذرت کی۔ (یونہاپ)

    LG Uplus کے چیف ایگزیکٹو آفیسر Hwang Hyeon-sik نے جمعرات کو کمپنی کے ڈیٹا کی خلاف ورزیوں اور سائبر حملوں کی وجہ سے انٹرنیٹ کنکشن کی ناکامی سے متعلق حالیہ تنازعہ پر معافی مانگی، معلومات کی حفاظت کی صلاحیتوں کو بڑھانے کا عہد کیا۔

    ہوانگ نے مرکزی سیئول کے یونگسان میں کمپنی کے ہیڈ کوارٹر میں ایک پریس کانفرنس میں کہا کہ \”ہم اپنے صارفین سے ڈیٹا لیک ہونے کے واقعے اور انٹرنیٹ کنکشن کی خرابی کی وجہ سے ہونے والی زحمت کے لیے مخلصانہ معذرت خواہ ہیں۔\”

    \”حالیہ واقعات کو سلسلہ وار اہمیت کے طور پر لیتے ہوئے، ہم خود کو یاد دلائیں گے کہ کمپنی کے تمام کاروبار گاہکوں سے شروع ہوتے ہیں۔ … ہمیں ایک ٹیلی کمیونیکیشن سروس فراہم کنندہ کے طور پر نیٹ ورک سیکیورٹی پر زیادہ توجہ مرکوز کرنی چاہیے تھی،\” انہوں نے کہا۔

    سی ای او کی معافی اس وقت سامنے آئی جب ملک کا تیسرا سب سے بڑا وائرلیس کیریئر گزشتہ مہینوں میں کئی بار صارفین کے ڈیٹا اور نیٹ ورک سروس کی بندش کو لیک کرنے کی وجہ سے تنقید کی زد میں رہا ہے۔

    2 جنوری کو مبینہ طور پر ہیکنگ کی کوشش کے ذریعے کل 290,000 صارفین کا ڈیٹا لیک کیا گیا تھا۔ ڈیٹا میں صارفین کے فون نمبر، نام، پتے، تاریخ پیدائش، ای میل ایڈریس، انکوڈ شدہ رہائشی رجسٹریشن نمبرز اور پاس ورڈز اور یونیورسل سبسکرائبر شامل تھے۔ شناختی ماڈیولز لیکن کمپنی کے مطابق مالی معلومات کو سامنے نہیں لایا گیا۔

    سیول میٹروپولیٹن پولیس ایجنسی، پرسنل انفارمیشن پروٹیکشن کمیشن اور کوریا انٹرنیٹ اینڈ سیکیورٹی ایجنسی نے اس کیس کی تحقیقات کی ہیں، لیکن ڈیٹا لیک ہونے کی وجہ نامعلوم ہے۔

    LG Uplus کے نیٹ ورک کو 29 جنوری اور 4 فروری کو مشتبہ ڈسٹری بیوٹڈ ڈینیئل آف سروس (DDoS) حملوں کی وجہ سے پانچ بار جزوی طور پر منقطع ہونے کا سامنا کرنا پڑا۔ کمپنی نے کہا کہ کمپنی اب بھی سائبر حملوں کا سامنا کر رہی ہے لیکن اب تک محفوظ طریقے سے ان کا دفاع کر رہی ہے۔

    معذرت کے ساتھ، چیف نے انفارمیشن سیکیورٹی میں کمپنی کی سرمایہ کاری کو سالانہ 100 بلین وان ($77.8 ملین) تک بڑھانے کے منصوبے کا اعلان کیا، جو 2021 میں 29.2 بلین وان سے تین گنا زیادہ ہے، تاکہ سائبر حملوں کی ممکنہ تکرار کو روکا جا سکے۔

    وائرلیس کیریئر DDoS حملوں کی قیادت میں سروس کی خرابیوں سے نقصان پہنچانے والے صارفین کے لیے جامع سپورٹ پلانز کے ساتھ آنے کے لیے ایک مشاورتی ادارہ تشکیل دے گا۔ اپنے موبائل سروس استعمال کرنے والوں کے لیے، یہ یو ایس آئی ایم کارڈز کو بھی بدل دے گا اور کرینک کالز کے لیے الرٹنگ سروس مفت فراہم کرے گا۔

    سی ای او نے کہا کہ \”ہم اچھی طرح جانتے ہیں کہ نیٹ ورک اور انفارمیشن سیکورٹی ٹیلی کمیونیکیشن کے کاروبار کے لیے بنیادی حیثیت رکھتے ہیں، جو کہ گاہک کے اعتماد سے جڑے ہوئے ہیں۔\” \”ہڈیوں کی گہرائیوں سے خود کی عکاسی کے ذریعے، ہم ایک قابل بھروسہ کمپنی بن جائیں گے جس کے پاس مضبوط ترین سیکورٹی ہے۔\”

    بذریعہ جی یی یون (yeeun@heraldcorp.com)





    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • TikTok plans two more European data centres amid privacy fears

    TikTok نے کہا ہے کہ وہ مزید دو یورپی ڈیٹا سینٹرز کی منصوبہ بندی کر رہا ہے، کیونکہ مشہور چینی ملکیت والی ویڈیو شیئرنگ ایپ مغرب میں اپنے صارفین کے لیے ڈیٹا پرائیویسی کے بارے میں بڑھتے ہوئے خدشات کو دور کرنے کی کوشش کر رہی ہے۔

    ikTok کو یورپی اور امریکی حکام کی جانب سے ان خدشات کی وجہ سے شدید تنقید کا سامنا ہے کہ وہ صارفین کے ڈیٹا کو اکٹھا کر کے اسے چین بھیج سکتا ہے۔

    کمپنی کے جنرل مینیجر برائے یورپی آپریشنز، رچ واٹر ورتھ نے ایک بلاگ پوسٹ میں کہا کہ یہ آئرلینڈ میں دوسرے ڈیٹا سینٹر کے لیے تیسرے فریق فراہم کنندہ کے ساتھ \”منصوبے کو حتمی شکل دینے کے ایک اعلی درجے کے مرحلے پر ہے\”۔ اس نے پچھلے سال وہاں اپنے پہلے مرکز کا اعلان کیا تھا۔

    مقامی ڈیٹا سٹوریج کے حوالے سے، ہماری کمیونٹی کی ترقی کے مطابق، ہم اپنی یورپی ڈیٹا سٹوریج کی گنجائش کو بڑھانا چاہتے ہیں۔رچ واٹر ورتھ، ٹِک ٹِک

    TikTok کسی مقام کی وضاحت کیے بغیر، تیسرا یورپی ڈیٹا سینٹر قائم کرنے کے لیے بھی بات چیت کر رہا ہے۔

    \”مقامی ڈیٹا سٹوریج کے حوالے سے، ہماری کمیونٹی کی ترقی کے مطابق، ہم اپنی یورپی ڈیٹا سٹوریج کی صلاحیت کو بڑھانا چاہتے ہیں،\” مسٹر واٹر ورتھ نے کہا۔

    مسٹر واٹر ورتھ نے کہا کہ یورپی TikTok صارفین کا ڈیٹا اس سال سے شروع ہونے والے نئے مراکز میں منتقل کر دیا جائے گا۔

    TikTok نوجوانوں میں بہت مقبول ہے، لیکن اس کی چینی ملکیت نے خدشہ پیدا کیا ہے کہ بیجنگ اسے مغربی صارفین کا ڈیٹا اکٹھا کرنے یا چین نواز بیانیے اور غلط معلومات کو آگے بڑھانے کے لیے استعمال کر سکتا ہے۔ TikTok ایک چینی کمپنی ByteDance کی ملکیت ہے جس نے 2020 میں اپنا ہیڈ کوارٹر سنگاپور منتقل کیا۔

    یوروپی یونین کے ایک سینئر عہدیدار نے گذشتہ ماہ چیف ایگزیکٹو شو زی چی کو متنبہ کیا تھا کہ کمپنی کو 27 ممالک کے بلاک کے بڑے پیمانے پر نئے ڈیجیٹل قواعد کی تعمیل کرنی ہوگی۔

    ڈیجیٹل سروسز ایکٹ لازمی قرار دیتا ہے کہ 45 ملین یا اس سے زیادہ صارفین کے ساتھ آن لائن پلیٹ فارمز اور ٹیک کمپنیاں غیر قانونی مواد اور غلط معلومات کو صاف کرنے کے لیے اضافی اقدامات کریں یا ممکنہ طور پر اربوں جرمانے کا سامنا کریں۔

    TikTok نے جمعہ کے روز اطلاع دی کہ EU میں اس کے 125 ملین ماہانہ فعال صارفین ہیں، جو اس سال کے آخر میں نافذ ہونے والے نئے قوانین کے تحت اضافی جانچ پڑتال کی حد سے زیادہ ہیں۔

    برطانیہ اور سوئٹزرلینڈ جیسے غیر EU ممالک سمیت، TikTok کے 150 ملین صارفین ہیں۔

    گوگل، ٹویٹر، ایپل اور فیس بک اور انسٹاگرام کو بھی سخت یورپی یونین کی جانچ پڑتال کا سامنا کرنا پڑے گا، ماہانہ صارف نمبروں کے مطابق جو انہوں نے جمعہ کی آخری تاریخ کے لیے وقت پر جاری کیے ہیں۔

    پیرنٹ کمپنی میٹا نے کہا کہ فیس بک کے 255 ملین ماہانہ فعال صارفین ہیں، جبکہ انسٹاگرام کے 250 ملین صارفین ہیں۔ ٹویٹر نے کہا کہ اس کے 100.9 ملین صارفین ہیں، بشمول رجسٹرڈ صارفین اور وہ لوگ جنہوں نے سائن ان نہیں کیا۔

    ایپل نے کہا کہ اس کے iOS ایپ اسٹور کے 45 ملین سے زیادہ صارفین ہیں لیکن اس نے کوئی مخصوص نمبر نہیں دیا۔ گوگل نے کہا کہ اس کی سرچ سروس میں 332 ملین سائن ان صارفین ہیں، جبکہ یوٹیوب کے 401.7 ملین سائن ان صارفین ہیں۔



    Source link