Tag: Ideas

  • STUDENT VOICES: We need more women in STEM fields, and we have ideas for making that happen


    STEM تحریکوں میں اکثر ایک چیز کی کمی محسوس ہوتی ہے – آج کے طلباء کی آواز۔

    اگر ہم کامیاب اور پائیدار راستے بنانا چاہتے ہیں، کے لیے تمام نوجوان لوگ، سائنس، ٹیکنالوجی، انجینئرنگ اور ریاضی جیسے شعبوں میں، پھر ہماری آوازیں — اور ہم جیسی لاکھوں دیگر نوجوان خواتین کی آوازیں— ضرور سنی جائیں گی۔

    ہائی اسکول کے طالب علموں کے طور پر، ہم آئی فون کی طرح اور سوشل میڈیا اور یوٹیوب کے آغاز کے بعد پیدا ہوئے تھے۔ ہم ایک ایسی دنیا میں بڑے ہو رہے ہیں جو اپنے والدین، اساتذہ اور رہنماؤں سے بالکل مختلف ہے۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Bank of Japan gets ‘ideas man’ to chart tricky path from negative rates

    اپریل 2005 میں بینک آف جاپان میں اپنی آخری پیشی میں، کازوو یوڈا نے کہا کہ وہ اپنے آپ کو خوش قسمت سمجھتے ہیں کہ \”ایک غیر معمولی مشکل وقت\” میں بورڈ کا رکن رہا، کیونکہ معیشت ایک مالیاتی بحران اور مسلسل تنزلی کا شکار تھی۔

    اب تقریباً دو دہائیوں کے بعد واپس آنے والا ہے، Ueda کو اتنا ہی مشکل لیکن مختلف چیلنج کا سامنا ہے: طویل عرصے سے جاری انتہائی ڈھیلے مالیاتی نظام سے ایک محور کی قیادت کرنے کی تیاری جس نے بینک آف جاپان آخری بڑے مرکزی بینک کے طور پر منفی شرح سود سے چمٹے ہوئے ہیں، جبکہ اس کے عالمی ساتھی بڑھتی ہوئی افراط زر پر لگام لگانے کے لیے پالیسی کو سخت کرتے ہیں۔

    71 سالہ ماہر اقتصادیات، جنہیں بینک کے اگلے گورنر کے طور پر نامزد کیا گیا ہے، عالمی سرمایہ کاروں کی شدید جانچ کے تحت شرح سود کو معمول پر لانے کی طرف آہستہ آہستہ منتقلی کی کوشش کریں گے۔ BoJ کی طرف سے کوئی بھی غلط قدم — جس کی شرح سود کو روکنے کی پالیسیوں نے اسے جاپان کی سرکاری بانڈ مارکیٹ کے نصف سے زیادہ رکھنے پر چھوڑ دیا ہے — مالیاتی منڈیوں کو غیر مستحکم کر سکتا ہے۔

    Izuru نے کہا، \”BoJ کی نئی قیادت کو ایک انتہائی کانٹے دار راستے کا سامنا ہے۔
    کاٹو، ایک طویل عرصے سے BoJ پر نظر رکھنے والے اور ٹوٹن ریسرچ کے چیف اکنامسٹ۔ \”کوئی آسان اخراج نہیں ہوگا۔ BoJ کی بیلنس شیٹ سے نمٹنا انتہائی مشکل ہو گا، جو لاپرواہی سے پھیل چکی ہے۔

    \"جاپانی

    جاپانی وزیر اعظم Fumio Kishida: \’میں نے فیصلہ کیا کہ مسٹر Kazuo Ueda بہترین فٹ ہیں\’ © Eugene Hoshiko/Pol via Reuters

    وزیر اعظم Fumio Kishida شرط لگا رہے ہیں کہ Ueda کی مانیٹری پالیسی کی مہارت انہیں اجازت دے گی۔ ایک بتدریج اخراج چارٹ BoJ کے بے مثال مقداری نرمی کے اقدامات سے۔

    \”میں نے فیصلہ کیا کہ مسٹر Kazuo Ueda بہترین فٹ ہیں کیونکہ وہ نظریہ اور عمل دونوں کے بارے میں گہری مالی معلومات کے حامل بین الاقوامی سطح پر معروف ماہر معاشیات ہیں،\” کشیدا نے بدھ کو ایک پارلیمانی کمیٹی کو نامزدگی پر اپنے پہلے عوامی تبصروں میں بتایا۔

    اگر Ueda کو آنے والے ہفتوں میں جاپان کی غذا سے منظوری مل جاتی ہے، تو وہ اپریل میں موجودہ ہاروہیکو کروڈا سے عہدہ سنبھالیں گے، جنہوں نے جارحانہ مالیاتی نرمی اور محرک کے ساتھ مسلسل کم افراط زر کا مقابلہ کیا ہے۔

    لیکن UEDA مانیٹری پالیسی میں سمت لے گا۔ ایک اہم نامعلوم رہتا ہے.

    واقفیت کے لحاظ سے، Ueda، MIT سے معاشیات میں پی ایچ ڈی کے ساتھ ٹوکیو یونیورسٹی کے پروفیسر ایمریٹس، نہ تو کبوتر ہیں اور نہ ہی ہاک۔ تجزیہ کاروں نے BoJ بورڈ پر اس کے ووٹنگ کے ریکارڈ کی طرف اشارہ کیا، جہاں اس نے 1998-2005 تک خدمات انجام دیں، فیصلہ سازی کے لیے ایک عملی نقطہ نظر تجویز کرنے کے لیے جو نظریے سے زیادہ مارکیٹ اور معاشی حالات پر مرکوز تھی۔

    \”مسٹر Ueda ظاہر ہے کہ تھیوری کو اچھی طرح جانتے ہیں لیکن وہ مارکیٹوں کو بھی اہمیت دیتے ہیں،\” BoJ کے ایک سابق اہلکار نوبیاسو اٹاگو نے کہا، جو اب Ichiyoshi Securities کے چیف اکانومسٹ ہیں، جنہوں نے آنے والے گورنر کو \”ایک آئیڈیاز مین\” قرار دیا۔

    \”میرے خیال میں وہ بہت عملی ہوں گے اور مالیاتی پالیسی کا فیصلہ حقیقی معاشی حالات کی بنیاد پر کریں گے،\” اٹاگو نے مزید کہا۔

    Ueda کو آگے کی رہنمائی متعارف کرانے میں مدد کرنے کے لیے جانا جاتا ہے جب BoJ نے 1990 کی دہائی کے آخر میں اپنی صفر شرح سود کی پالیسی کو اپنایا، اور 2000 میں اس پالیسی کو اٹھانے کی مخالفت کرتے ہوئے کہا کہ وہ اسٹاک مارکیٹس کے مستحکم ہونے تک انتظار کرنا چاہتے ہیں۔

    توشی ہیکو فوکوئی، BoJ کے گورنر جب Ueda نے استعفیٰ دیا، اس وقت کے ماہرین تعلیم کو \”منطق کے ستون\” کے طور پر سراہا جو \”مرکزی بینک کی روح\” کو سمجھتے تھے۔

    کاروباری برادری نے BoJ پر زور دیا ہے کہ وہ کرنسی کے اتار چڑھاؤ کے خوف سے اپنی انتہائی ڈھیلی مالیاتی نرمی سے بہت زیادہ محور نہ ہو، جبکہ اس سے پیداوار کو کم رکھنے کے لیے جاپانی سرکاری بانڈز کی ریکارڈ خریداریوں کو ختم کرنے کا مطالبہ کیا ہے۔

    \"بینک

    سرمایہ کار شرط لگا رہے ہیں کہ بینک آف جاپان اپنی پیداوار کی وکر کنٹرول پالیسی کو ترک کرنے پر مجبور ہو جائے گا © Yuichi Yamazak/AFP بذریعہ Getty Images

    دسمبر میں، BoJ حیران سرمایہ کار یہ اعلان کرتے ہوئے کہ یہ 10 سالہ JGB کی پیداوار کو صفر کے اپنے ہدف سے اوپر یا نیچے 0.5 فیصد پوائنٹس کے اتار چڑھاؤ کی اجازت دے گا، 0.25 فیصد پوائنٹس کے پچھلے بینڈ کو چوڑا کر کے۔

    اس کے بعد سے اس نے اپنی ہدف کی حد کو برقرار رکھا ہے، لیکن سرکاری بانڈ کی خریداری میں $300bn سے زیادہ کے ساتھ اپنی بیلنس شیٹ کو پھولنے کی قیمت پر۔ BoJ کے پاس مقامی طور پر درج تمام ایکسچینج ٹریڈڈ فنڈ اثاثوں میں سے نصف سے زیادہ ہے۔

    سرمایہ کار یہ شرط لگا رہے ہیں کہ BoJ پیداوار وکر کنٹرول پالیسی کو ترک کرنے پر مجبور ہو جائے گا کیونکہ جاپان کی بنیادی افراط زر کی شرح، جس میں خوراک کی غیر مستحکم قیمتیں شامل ہیں، 4 فیصد کی 41 سال کی بلند ترین سطح پر پہنچ گئی ہے۔

    Ichiyoshi Securities کے Atago نے کہا کہ انہیں توقع ہے کہ BoJ کا پہلا قدم YCC پالیسی کے ہدف کی مدت کو 10 سال سے کم کر کے تین سال کر دے گا۔ Goldman Sachs نے 2023 کی دوسری سہ ماہی میں YCC کو پانچ سال تک کم کرنے کی پیش گوئی کی ہے۔

    ٹوٹن ریسرچ کے کاٹو نے کہا کہ اس اقدام کو موسم گرما تک مکمل طور پر ختم کیا جا سکتا ہے جب تک کہ مارکیٹوں کے مستحکم ہونے تک JGBs کی بڑی خریداری کے ساتھ اس کی مقداری نرمی کو برقرار رکھا جائے۔ انہوں نے یہ بھی پیشین گوئی کی کہ BoJ Ueda کی مدت کے دوسرے نصف تک اپنے ETFs کو ایک علیحدہ ادارے میں منتقل کرنا شروع کر سکتا ہے، جو اسے مالیاتی منڈیوں میں اضافہ کیے بغیر منظم طریقے سے کھولنے کی کوشش کرنے کی اجازت دے سکتا ہے۔

    Ueda نے قبل از وقت سختی کے خلاف خبردار کیا تھا، یہ نوٹ کرتے ہوئے کہ جاپانی معیشت ابھی اس حالت میں نہیں تھی جہاں مرکزی بینک کے 2 فیصد کے افراط زر کے ہدف کو مستقل طور پر برقرار رکھا جا سکے۔

    سومپو ہولڈنگز کے چیف ایگزیکٹیو اور جاپان ایسوسی ایشن آف کارپوریٹ ایگزیکٹوز کے چیئر کینگو ساکوراڈا نے ایک خبر میں کہا، \”BoJ کو اپنے کام کرنے کے طریقے کو یکسر تبدیل کرنے کے لیے جلدی نہیں کرنی چاہیے، اور مجھے نہیں لگتا کہ ایسا ہو گا۔\” بدھ کو کانفرنس.

    BoJ کے قریبی ایک اور شخص نے مشورہ دیا کہ Ueda کی جانب سے پالیسی میں بڑی تبدیلی کا امکان نہیں ہے جب تک کہ مرکزی بینک اس بات کا تعین نہیں کرتا کہ آیا اس سال اجرت کے مذاکرات اگلے سال تنخواہ میں اضافہ ہوگا۔

    لیکن ایک غیر یقینی عالمی اقتصادی نقطہ نظر کے ساتھ، Atago نے کہا کہ اگر افراط زر تیزی سے گرتا ہے اور ترقی کی رفتار کم ہوتی ہے تو BoJ کو اضافی نرمی کی ضرورت پڑ سکتی ہے۔

    انہوں نے کہا، \”BoJ کے لیے، نہ صرف معمول پر لانے پر غور کرنا بلکہ آپشنز کو کھلا چھوڑنا بھی انتہائی ضروری ہے۔\”

    جیسا کہ Ueda BoJ کی سربراہی میں پہلا بیرونی شخص بننے کی تیاری کر رہا ہے، اسے بین الاقوامی قدامت اور مالیاتی منڈیوں کے بارے میں گہری معلومات رکھنے والے ڈپٹی گورنرز کی مدد حاصل ہوگی۔

    منگل کو، حکومت نے ہارورڈ ایم بی اے کے ساتھ فنانشل سروسز ایجنسی کے معروف سابق کمشنر ریوزو ہمینو، اور ایک BoJ ایگزیکٹو شنیچی اچیڈا کو بھی نامزد کیا، جنہوں نے مانیٹری پالیسی کی تشکیل میں مرکزی کردار ادا کیا، بطور ڈپٹی گورنر۔ تینوں انگریزی بولنے والے ہیں جن کا تعلق مرکزی بینکنگ اور مالیاتی برادری سے ہے۔

    کشیدا نے کہا کہ انہوں نے BoJ کی اگلی قیادت کی ٹیم کے انتخاب میں مارکیٹ مواصلات کی مہارت اور عالمی مرکزی بینک کے سربراہوں کے ساتھ مل کر کام کرنے کی صلاحیت جیسے عوامل پر غور کیا۔

    \”یہ ایک ناقابل یقین تینوں ہے،\” BoJ کے ایک اہلکار نے کہا۔

    ٹوکیو میں Eri Sugiura کی اضافی رپورٹنگ



    Source link

  • Big Ideas From Recent Trends in China’s Data Governance

    ڈیٹا چین کی وضاحت کرے گا۔ جب سے ریاستی کونسل پیداوار کے ایک عنصر کے طور پر شامل کردہ ڈیٹا 2020 میں زمین، محنت، سرمایہ اور ٹیکنالوجی کے ساتھ ساتھ، ڈیجیٹل معلومات کو ریگولیٹ کرنے کی اہمیت میں اضافہ ہی ہوتا چلا جا رہا ہے۔ حالیہ برسوں میں تین بڑے آئیڈیاز سامنے آئے ہیں: پہلا، چین اپنی معیشت کو چلانے کے لیے ڈیٹا کا فائدہ کیسے اٹھانا چاہتا ہے۔ دوسرا، تیزی سے ڈیٹا پروٹیکشن کے نفاذ کے پیچھے کی باریکیاں اور عوامی اداروں کے حق میں جوابدہی کا اندھا دھبہ، بشمول سائبر اسپیس ایڈمنسٹریشن آف چین کے مینڈیٹ پر سوالات۔ آخر کار، چینی ڈیٹا گورننس کے نظریات کا ممکنہ اثر غیر ملکی حکومتوں پر ہے جو پہلے پر زیادہ انحصار کرتی چلی گئی ہیں۔

    اقتصادی پیداوار کے ایک عنصر کے طور پر ڈیٹا کا فائدہ اٹھانا

    چین کا 14 واں پانچ سالہ منصوبہ برائے قومی معلومات (14 واں ایف وائی پی)، ممکنہ طور پر ڈیجیٹل دور کے لیے دنیا کی پہلی صنعتی پالیسی، کرنے کی کوشش کرتا ہے \”ڈیٹا کی فیکٹر ویلیو کو چالو کریں\” تاکہ \”ایک مضبوط گھریلو مارکیٹ کی شکل اختیار کر سکے جو جدت پر مبنی ہو۔ [and] اعلی معیار.\” اسے اعلیٰ رہنما شی جن پنگ کے ساتھ مل کر پڑھنا چاہیے۔ اقتصادی ترقی کی ہدایات، جس نے \”ترقی کے درمیان ریگولیٹ اور ریگولیشن کے درمیان ترقی\” کی ضرورت کی حمایت کی۔ اس کے مطابق، چین کی ڈیجیٹل اکانومی ڈیٹا پر انحصار کرے گی جس کا استعمال آزاد منڈی کے ذریعے کرنے کے لیے خام وسیلہ کے طور پر نہیں کیا جائے گا، بلکہ ایک ریگولیٹڈ کموڈٹی کے طور پر جو حکومت کی قریبی نگرانی سے مشروط ہے۔

    ایک بنیادی عقیدہ ہے کہ اعداد و شمار کو اقتصادی ایجنٹوں کو ہدایت کی جانی چاہئے جو ڈیٹا کی پیداواری صلاحیت کو زیادہ سے زیادہ کر سکتے ہیں۔ ایک تو، تجارتی/عوامی استعمال کے لیے حکومتی ڈیٹا کا فعال افشاء کرشن حاصل کر رہا ہے۔ چین اپنے اوپن گورنمنٹ انفارمیشن ریگولیشنز پر نظر ثانی کی۔ 2019 میں \”لوگوں کی پیداوار اور… معاشی اور سماجی سرگرمیوں میں حکومتی معلومات کے کردار کو زیادہ سے زیادہ کرنے کے لیے۔\”

    صوبائی سطح پر گآنگڈونگ حکومت نے اپنے دفاتر کو عوامی ڈیٹا کے کھلے عام استعمال کو روکنے سے روک دیا ہے اور اس طرح کے اقدامات کی نگرانی کے لیے اپنی نوعیت کا پہلا چیف ڈیٹا آفیسر سسٹم قائم کیا ہے۔

    اس مضمون سے لطف اندوز ہو رہے ہیں؟ مکمل رسائی کے لیے سبسکرائب کرنے کے لیے یہاں کلک کریں۔ صرف $5 ایک مہینہ۔

    لیکن ڈیٹا کا اشتراک وسیع پیمانے پر پریکٹس کے لیے ایک چیلنجنگ تجویز ہے۔ ڈیٹا رہا ہے۔ نیم عوامی بھلائی سے تشبیہ دی گئی۔ – اس میں غیر حریف کہ متعدد اداکار اس کے اسٹورز کو متاثر کیے بغیر ڈیٹا کو \”استعمال\” کرسکتے ہیں، لیکن اس میں مستثنیٰ ہے کہ کچھ پارٹیاں، جیسے کہ بڑے ڈیٹا کے ذخائر رکھنے والی موجودہ فرمیں، کو حریفوں کے ساتھ اشتراک کرنے کے لیے محدود مراعات حاصل ہوں گی۔

    ریاستی مداخلت ابتدائی مراحل میں ایک عمل انگیز ہو سکتی ہے۔ ڈیٹا کو کموڈیٹائز کرنے اور شیئر کرنے کی طرف ایک قابل ذکر کوشش نومبر 2021 میں شنگھائی ڈیٹا ایکسچینج (SDE) کا قیام تھا۔ ایک دوسرے کے ساتھ ڈیٹا خریدیں اور بیچیں۔.

    اسی طرح نجی فرموں کے لیے حکومتی اثر و رسوخ کو کم نہیں کیا جا سکتا۔ چیونٹی، جو پیپلز بینک آف چائنا کی زیر نگرانی مالیاتی ہولڈنگ کمپنی بننے کے راستے پر ہے، نے وعدہ کیا ہے کہ وہ اپنے تمام Huabei صارفین کے کریڈٹ ڈیٹا کو PBOC کے ساتھ شیئر کرے گا، اس کے باوجود کہ چیونٹی کا اربوں صارف ڈیٹا بیس \”کمپنی کے لیے کلیدی مسابقتی فائدہ\”

    ڈیٹا شیئرنگ کے مضمرات کے بارے میں وضاحت فراہم کرنے کے لیے قانونی آلات بھی اہم ہیں۔ جبکہ SDE ڈیٹا فارمیٹس کی معیاری کاری اور ڈیٹا پروٹیکشن کمپلائنس (دوسروں کے درمیان) کے چیلنجوں سے محتاط تھا، شنگھائی ڈیٹا ریگولیشن قانونی بنیاد اور وضاحت فراہم کرنے کے لیے منظور کیا گیا۔ SDE کے آپریشنز کے لیے۔ مزید بنیادی ضابطے بعد میں جاری کیے گئے – جیسے کہ مسودہ نیشنل انفارمیشن سیکیورٹی ٹیکنالوجی نیٹ ورک ڈیٹا کی درجہ بندی اور درجہ بندی کے تقاضے ستمبر 2022 – پوری صنعت میں ڈیٹا کی درجہ بندی اور درجہ بندی کے قواعد کو معیاری بنانے کے لیے۔

    ڈیٹا ریگولیشنز کا نفاذ: نجی/عوامی رابطہ منقطع

    14ویں ایف وائی پی تسلیم کرتی ہے کہ چین کی نجی ٹیک فرمیں قومی معلومات کے تمام پہلوؤں کو آگے بڑھائیں گی، اس انتباہ کے ساتھ کہ وزارتیں \”فروغ، ترقی، نگرانی، نظم و نسق… دونوں ہاتھوں سے سمجھیں گی – اور دونوں ہاتھ مضبوط ہونے چاہئیں…\” یہ واضح طور پر بااختیار بناتا ہے۔ حکومت ٹیک مارکیٹ پر لگام ڈالے گی، اور توسیع کے ذریعے کچھ انتہائی بااثر ڈیٹا ہینڈلرز کو۔

    فروری 2022 میں، سائبر اسپیس ایڈمنسٹریشن آف چائنا (سی اے سی) ایک نفاذ ہدایت جاری کی جس نے غیر قانونی انٹرنیٹ سرگرمیوں کے خلاف اپنی مہم کا اعادہ کیا، جس میں پلیٹ فارم کمپنیوں کا تقریباً ایک درجن بار ذکر کیا گیا۔ جولائی تک، دیدی کیس نے ملک کی اب تک کی سب سے بڑی ڈیٹا پروٹیکشن سزا کے طور پر ریکارڈ توڑ دیا تھا۔ کل $ 1 بلین کمپنی، سی ای او اور صدر کے درمیان مشترکہ۔

    لیکن سی اے سی کے نفاذ میں ایک واضح کوتاہی ہے: عوامی اداروں کو ڈیٹا کے تحفظ کے لیے نجی اداروں کی طرح ایک ہی معیار پر نہیں رکھا گیا ہے۔ یہ بڑے پیمانے پر ڈیٹا کی خلاف ورزیوں کی موجودگی کے باوجود ہے جس میں سرکاری ادارے قصور وار ہیں۔ جولائی میں، سے زیادہ 1 بلین افراد کی ذاتی معلومات شنگھائی میں منسٹری آف پبلک سیکیورٹی (MPS) کی طرف سے منعقد ہونے والے انکشافات اور فروخت کے لیے پیش کیے گئے۔ ایک ماہ بعد، شنگھائی کا ہیلتھ کیو آر کوڈ سسٹم ہیک ہو گیا۔ 48.5 ملین افراد کی ذاتی معلومات فروخت کے لیے پیش کیا گیا تھا۔ تاہم، کوئی سرکاری وضاحت نہیں دی گئی اور مقامی سوشل میڈیا پر ہونے والی گفتگو کو ختم کر دیا گیا۔.

    ستم ظریفی یہ ہے کہ MPS ان حکام میں سے ایک ہے جو CAC کے ساتھ ساتھ ڈیٹا کے تحفظ کے لیے مشترکہ طور پر ذمہ دار ہیں – یہ دیکھنا دلچسپ ہوگا کہ ایسے اعلیٰ ریگولیٹرز خود کو کیسے منظم کرتے ہیں۔

    ایسے خطرات کے درمیان، حکومت کے زیر کنٹرول ڈیٹا ہمیشہ اہم رہتا ہے۔ شینزین کا نیا AI صنعت کے فروغ کے ضوابط ایک عوامی ڈیٹا سسٹم کے قیام کی ضرورت ہے، جبکہ شی نے دوگنا کرنے کا وعدہ کیا ہے۔ ڈیجیٹل حکومت کی تعمیر. لہذا، ڈیٹا ہینڈلنگ کے لیے حکومتی
    اداروں کو جوابدہ بنانے کی ضرورت اس سے زیادہ واضح نہیں تھی۔

    اس مضمون سے لطف اندوز ہو رہے ہیں؟ مکمل رسائی کے لیے سبسکرائب کرنے کے لیے یہاں کلک کریں۔ صرف $5 ایک مہینہ۔

    اس نے کہا، یہ قابل اعتراض ہے کہ کیا سی اے سی اس کام کے لیے تیار ہے، کم از کم اس لیے کہ انتظامیہ کا مینڈیٹ پراسرار ہے۔ سی اے سی کے پاس اس بارے میں کوئی واضح عہدہ نہیں ہے کہ آیا یہ ریاست (انتظامی) ہے یا کمیونسٹ پارٹی کا ادارہ، اور یہ اس کے افعال اور جوابدہی کو کیسے متاثر کرتا ہے۔ اگرچہ سی اے سی کو ریاستی کونسل نے انتظامی کام تفویض کیے ہیں (مثلاً دیدی کو تفتیش کرنا اور سزا دینا)، اسے چین کے بعد سے باقاعدہ طور پر سی سی پی کی مرکزی کمیٹی کے تحت رکھا گیا ہے۔ 2018 حکومت میں ردوبدل.

    ایک پارٹی کی حیثیت سے، سی اے سی مستثنیٰ ہے۔ انتظامی قانون اور ایجنسی کے دیگر ضابطوں سے۔ ایک انتظامی ادارے کے طور پر، دیدی اور موبائل ایپس کے خلاف CAC کی دستخطی حرکتیں بے مثال قانونی اختیار کے ساتھ واقع ہوئی ہیں۔ یہ اندازہ لگانا کوئی آسان کام نہیں ہے کہ وہ پبلک سیکٹر سے اپنے بہن اعضاء (مثلاً ایم پی ایس) کے خلاف نفاذ کے بارے میں کیا سوچتی ہے، یا اگر یہ بالکل بھی ترجیح ہے۔

    بین الاقوامی اثر و رسوخ

    \”سائبر اسپیس میں مشترکہ مستقبل کے ساتھ کمیونٹی کی تعمیر\” شی جن پنگ کی اونچ نیچ رہی ہے۔ انٹرنیٹ گورننس کا مقصد نومبر 2022 میں، ریاستی کونسل ایک وائٹ پیپر شائع کیا۔ عالمی انٹرنیٹ گورننس میں \”کثیرطرفہ اور کثیر الجماعتی شرکت اور مشاورت\” کو فروغ دینا، اور \”اہم معلومات کے بنیادی ڈھانچے اور ڈیٹا کی حفاظت کے لیے بین الاقوامی تعاون کو مضبوط بنانے میں\” چین کے کردار کو اجاگر کرنا۔

    دوسری حکومتوں کے لیے یکطرفہ طور پر باضابطہ قانونی معیارات طے کرنے کے بجائے، چین نے تعاون کے ایک برانڈ کے تحت، مثال کے طور پر، چائنا-آسیان ڈیجیٹل کوآپریشن فورم اور ورلڈ انٹرنیٹ کانفرنس (WIC) کے ذریعے مشترکہ \”کمیونٹی\” بنانے میں اہم پیش رفت کی ہے۔ لیکن برانڈنگ اور آؤٹ ریچ سے آگے، ایک رینگتا ہوا \”بیجنگ ایفیکٹ\” چینی ڈیٹا گورننس کے نظریات کے بڑھتے ہوئے عالمی اثر و رسوخ کو ظاہر کرتا ہے۔

    بیجنگ اثر پر بنایا گیا ہے برسلز اثر، جو اس قانون کو پیش کرتا ہے – مثال کے طور پر، یورپی یونین کا جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR) – اس کے دائرہ اختیار سے باہر ریگولیٹری اثرات مرتب کر سکتا ہے۔ اس کے باوجود کہ آیا چینی ڈیٹا کے تحفظ کے قوانین کی GDPR-esque عالمگیریت واقع ہوگی، بیجنگ اثر بنیادی طور پر برسلز اثر سے مختلف ہے کیونکہ یہ رسمی قانون کو منتشر کرنے کے بارے میں نہیں ہے۔ خاص طور پر، چینی ورژن میں شامل ہے a وسیع تر غیر قانونی عوامل کا سنگم جیسے کہ غیر ملکی حکومتوں کا تکنیکی معیار کی ترتیب اور ڈیجیٹل انفراسٹرکچر کا مطالبہ۔

    سب سے پہلے، چینی اداکار ڈیجیٹل ٹیکنالوجی کے لیے بین الاقوامی معیار قائم کرنے میں تیزی سے اہم کردار ادا کر رہے ہیں۔ دی چین 2025 میں بنایا گیا۔ منصوبہ، جو کہ جدید ٹیکنالوجی کے شعبوں میں ملک کی خود انحصاری کو یقینی بنانے کی کوشش کرتا ہے، نے ہواوے جیسی کمپنیوں کو دیکھا ہے۔ عالمی 5G معیارات کی ترقی افریقہ اور یورپ سمیت بڑی مارکیٹوں میں۔ چین کا گلوبل ڈیٹا سیکیورٹی انیشیٹو (GDSI)، جو کہ \”عالمی ڈیجیٹل فیلڈ کے معیارات اور قواعد\” بشمول سرحد پار ڈیٹا کی منتقلی، ڈیٹا سیکیورٹی وغیرہ پر حکومتی اتفاق رائے کا مطالبہ کرتا ہے، آسیان، عرب لیگ اور کئی دیگر ممالک نے اس کی تائید کی ہے۔

    دوسرا، چین کی ڈیجیٹل سلک روڈ کے ساتھ، چینی کمپنیاں میزبان ممالک کے لیے ڈیجیٹل انفراسٹرکچر فراہم کرتی ہیں، اس طرح ان حالات کی تشکیل ہوتی ہے جن کے تحت وہ ممالک اپنی ڈیجیٹل معیشتوں کی طرف منتقل ہوتے ہیں۔ میڈ ان چائنا 2025 میں چین کے لیے تجویز ہے کہ وہ عالمی فائبر آپٹکس مارکیٹ میں 60 فیصد حصہ حاصل کرے، چین پاکستان اقتصادی راہداری کا اہم جزوجو کہ بدلے میں بیلٹ اینڈ روڈ انیشیٹو (BRI) کا سب سے بڑا جزو ہے۔ 2020 سے، چین اپنے BRI پارٹنر ممالک میں کلاؤڈ ترقیات کی حمایت کر رہا ہے – مثال کے طور پر، علی بابا ایک معاہدہ لکھا سعودی عرب کے سب سے بڑے ٹیلی کام گروپ کے ساتھ اس سال مملکت کے کلاؤڈ انفراسٹرکچر کی تعمیر کے لیے۔

    ڈیجیٹل انفراسٹرکچر کی فراہمی چینی کمپنیوں پر بہت زیادہ انحصار کرتی ہے، جن کی مؤثر طریقے سے پارٹی ریاست کی نگرانی ہوتی ہے۔ سرکاری ادارے بی آر آئی کے زیادہ تر منصوبوں پر غلبہ حاصل ہے۔. اس طرح، جب فائبر/کلاؤڈ کاروبار یا وسیع تر اقتصادی اہداف میں ڈیٹا پرائیویسی سے متعلق خدشات سے نمٹنے کے لیے ملکی قانونی فریم ورک کی ترقی کی بات آتی ہے، تو بیجنگ کی ہدایات ان کے غیر ملکی کارپوریٹ نمائندوں کے ذریعے واضح طور پر منتقل کی جائیں گی۔

    نتیجہ

    ڈیٹا نے پہلے ہی چین کی وضاحت شروع کردی ہے۔ چین کی جمود کا شکار معیشت کا سامنا کرتے ہوئے، ژی ایک نئی زندگی کے لیے ڈیٹا سے چلنے والی معیشت پر شرط لگا رہے ہیں۔ اس کی گھریلو پریشانیوں سے قطع نظر، غیر ملکی ترقی کے ڈائریکٹر کے طور پر چین کے بین الاقوامی اثر و رسوخ کو کم نہیں کیا جا سکتا۔



    Source link