Tag: concerns

  • Diplomacy urged to ease concerns over US CHIPS Act

    South Korea\’s semiconductor industry is under pressure to choose a side in the rivalry between the US and China as Washington announced requirements for its $52bn semiconductor funding program. The South Korean government is also concerned as the requirements of the CHIPS Act call for subsidy applicants to share business information and excess profits with the US government, leading to calls for South Korean President Yoon Suk Yeol to negotiate directly with US President Joe Biden. However, the incentives set out in the act come with several strings attached that industry watchers claim are too burdensome for subsidy recipients, with conditions including providing sensitive operational information, sharing a portion of any profit that exceeds projections, and limits on Chinese operations. Industry observers call for the South Korean government to play a more active role in easing concerns, especially on issues such as information sharing and investment in China.



    >Source link>

    >>Join our Facebook Group be part of community. <<

  • Ahsan tells Sindh CM: Concerns of Sindh will be addressed immediately

    اسلام آباد: وفاقی وزیر برائے منصوبہ بندی، ترقی اور خصوصی اقدامات احسن اقبال نے منگل کے روز ملک کی پہلی ڈیجیٹل مردم شماری پر پیشرفت کا جائزہ لینے کے لیے ساتویں مردم شماری مانیٹرنگ کمیٹی کے اجلاس کی صدارت کی اور صوبہ سندھ کے تحفظات کو دور کرنے کا فیصلہ کیا۔

    اجلاس میں وزیراعلیٰ سندھ سید مراد علی شاہ، چیف سیکرٹری پنجاب، خیبرپختونخوا، بلوچستان، چیئرمین نادرا، چیئرمین پاکستان بیورو آف سٹیٹسٹکس (پی بی ایس) اور دیگر نمائندوں نے شرکت کی۔

    اجلاس میں ملک کی پہلی ڈیجیٹل مردم شماری میں پیش رفت کا جائزہ لیا گیا۔ چیف شماریات ڈاکٹر نعیم ظفر نے عہدیداروں کو سرگرمیوں پر بریفنگ دی۔ اجلاس میں فیصلہ کیا گیا کہ مردم شماری کی نگرانی کمیٹی کا اجلاس ہر ہفتے بہتر کوآرڈینیشن اور…



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Vaccine maker Novovax, despite concerns for its future, to maintain partnership with Ottawa | Globalnews.ca

    وفاقی حکومت کا کہنا ہے کہ وہ اس کے ساتھ شراکت داری جاری رکھے گی۔ نووایکس \”اس وقت\” میری لینڈ میں مقیم منشیات ساز کی پریشانیوں کے باوجود یہ سال کے اندر کاروبار سے باہر ہو سکتا ہے۔

    نووایکس کے ایگزیکٹوز نے منگل کو ایک کانفرنس کال پر سرمایہ کاروں کو بتایا کہ مارکیٹ کے طور پر فنڈنگ ​​آپریشنز جاری رکھنے کی کمپنی کی صلاحیت کے ارد گرد اہم غیر یقینی صورتحال ہے۔ COVID 19 ویکسین کی تبدیلیاں.

    مزید پڑھ:

    COVID-19 ویکسین بنانے والے نے اپنے مستقبل پر شکوک و شبہات پیدا کرنے کے بعد نووایکس کے شیئرز ڈوب گئے

    کینیڈا میں بنائی گئی COVID-19 ویکسین حاصل کرنے کی کوشش میں، وفاقی حکومت نے فروری 2021 میں نیشنل ریسرچ کونسل (NRC) بائیولوجکس مینوفیکچرنگ سینٹر (BMC) کی سہولت اور Novavax کے درمیان مونٹریال میں اپنی ویکسین کی تیاری شروع کرنے کے لیے ایک معاہدے کا اعلان کیا۔

    \”اس وقت، نووایکس اور بی ایم سی کے درمیان شراکت میں کوئی متوقع تبدیلیاں نہیں ہیں،\” لاری بوچارڈ، وزیر صنعت فرانکوئس فلپ شیمپین کے ترجمان نے گلوبل نیوز کو ایک ای میل میں کہا۔

    کہانی اشتہار کے نیچے جاری ہے۔

    نووایکس کے چیف فنانشل آفیسر جم کیلی نے اس کال پر سرمایہ کاروں کو بتایا کہ کمپنی کو گزشتہ سال 600 ملین ڈالر سے زیادہ کا نقصان ہوا، اور وہ 2023 کے پہلے تین مہینوں کے دوران کوئی نئی ویکسین فروخت کرنے کی توقع نہیں رکھتی۔ اسے ریاستہائے متحدہ کی حکومت کی جانب سے فنڈنگ ​​کا بھی خدشہ ہے۔ کاٹا جا سکتا ہے.


    \"ویڈیو


    ٹروڈو نے کینیڈا میں COVID-19 ویکسین تیار کرنے کے منصوبے کا اعلان کیا۔


    کیلی نے سرمایہ کاروں کو بتایا کہ کمپنی، جس کے پاس 1.3 بلین ڈالر سے زیادہ کی نقد رقم ہے، اگلے موسم خزاں میں ایک تازہ ترین COVID-19 ویکسین تیار کرنے اور فروخت کرنے کی اپنی صلاحیت پر اعتماد کر رہی ہے اور اخراجات میں کمی کر رہی ہے۔

    جب حکومت نے 2021 میں Novavax کے ساتھ اپنی شراکت داری کا اعلان کیا تو شیمپین نے کہا کہ مونٹریال کی سہولت – جو کہ ایک ماہ میں تقریباً 20 لاکھ ویکسین کی خوراک تیار کرنے کی صلاحیت رکھتی ہے – 2021 کے آخر میں پیداوار شروع کرنے کی پوزیشن میں ہوگی۔ تاہم، NRC دسمبر میں اپنی ویب سائٹ پر کہا تھا کہ وہ اب بھی ویکسین تیار کرنے کے لیے درکار \”ٹیکنالوجی ٹرانسفر\” پر کام کر رہا ہے۔

    کہانی اشتہار کے نیچے جاری ہے۔

    اس وقت، کینیڈا نے ویکسین کی 52 ملین خوراکیں خریدنے کا عہد کیا تھا، جس میں 24 ملین مزید خوراکیں خریدنے کے آپشن کے ساتھ۔

    مزید پڑھ:

    فیڈز نے ویکسین بنانے والوں سے کہا کہ وہ کینیڈا میں COVID-19 شاٹس تیار کریں۔ سب نے کہا کہ نہیں۔

    نووایکس نے گلوبل نیوز کو ایک ای میل میں بتایا کہ وہ کینیڈا میں اپنی ویکسین بنانے کے لیے پرعزم ہے۔

    \”Novavax ایک متبادل ٹیکنالوجی پلیٹ فارم فراہم کرتے ہوئے ویکسینیشن کی جاری کوششوں کی حمایت کے لیے کینیڈا میں ہماری ویکسین کی فراہمی کے لیے پرعزم ہے۔ مزید برآں، Novavax NRC/BMC کے ساتھ شراکت میں مقامی مینوفیکچرنگ کی صلاحیتوں کو قائم کرنے کی جانب پیش رفت جاری رکھے ہوئے ہے، جس میں پروسیس پرفارمنس کوالیفکیشن بیچز کی تیاری 2023 کے اوائل میں شروع ہونے کی امید ہے،\” ترجمان نے کہا۔

    ترجمان نے مزید کہا کہ Novavax فی الحال کسی فروخت کی تلاش نہیں کر رہا ہے، لیکن یہ کہ اس سال کاروبار کی مدد کے لیے اس کی توجہ \”تین قریب المدت ترجیحات\” پر ہے: موسم خزاں 2023 کے ویکسینیشن سیزن کے لیے \”مسابقتی پروڈکٹ\” کی فراہمی؛ اخراجات کی شرح کو کم کرنا، کیش فلو کا انتظام کرنا اور اسکیلنگ اور ساخت کو تیار کرنا؛ اور اس کے ٹیکنالوجی پلیٹ فارم، صلاحیتوں اور اثاثہ جات کے پورٹ فولیو کو اس کی ویکسین سے آگے بڑھانے کے لیے \”اضافی قدر\” کا فائدہ اٹھانا۔


    \"ویڈیو


    مونٹریال میں COVID-19 کے خلاف جنگ میں Novavax ویکسین تیار کرنے کی سہولت


    NRC میں اسٹریٹجک اقدامات کی نائب صدر کرسٹین جوڈوئن نے بھی Novavax کے ساتھ کام کرنے کے لیے محکمے کے عزم کا اظہار کیا۔

    کہانی اشتہار کے نیچے جاری ہے۔

    \”BMC کو کینیڈا کے لیے کنٹریکٹ مینوفیکچرنگ آرگنائزیشن کے طور پر بنایا گیا تھا، جس میں مینوفیکچرنگ کی مکمل صلاحیتیں اور دو انفرادی پیداوار لائنیں تھیں۔ صحت کے بحرانوں کے جواب میں، اس کے عوامی اچھے مینڈیٹ کا مطلب ہے کہ یہ سہولت کینیڈینوں کو محفوظ رکھنے کے لیے سیل پر مبنی ویکسین یا دیگر دوائیں تیار کر سکتی ہے،\” جوڈوئن نے کہا۔

    \”ہم اس کی دوسری پروڈکشن لائن پر سہولت پر ویکسین اور دیگر حیاتیات تیار کرنے کے ممکنہ ساتھیوں کے ساتھ اختیارات کی تلاش جاری رکھے ہوئے ہیں۔\”

    مزید پڑھ:

    Novavax فائلنگ سے کینیڈا کی جانب سے COVID-19 ویکسینز کے لیے کیے گئے معاہدے کی پہلی جھلک ملتی ہے۔

    Novavax کی شاٹ، ایک روایتی پروٹین پر مبنی ویکسین، کو Moderna اور Pfizer-BioNTech کے متبادل کے طور پر اس امید پر تیار کیا گیا تھا کہ یہ نئی mRNA ٹیکنالوجی کے شکوک و شبہات پر فتح حاصل کر لے گی۔ وفاقی حکومت نے فروری 2022 میں ویکسین کی منظوری دی تھی۔

    پوری وبائی بیماری کے دوران ، کینیڈا نے COVID-19 ویکسین کی تیاری کو بڑھانے کے لئے جدوجہد کی ہے۔ چینی کمپنی کین سینو بایولوجکس کے ساتھ ایک معاہدہ – جس میں کمپنی کی ویکسین مونٹریال کی سہولت میں تیار کی گئی تھی – 2020 کے موسم گرما میں ٹوٹ گئی۔

    پچھلے مہینے، مٹسوبشی کیمیکل نے اعلان کیا کہ کینیڈا میں COVID-19 ویکسین بنانے کی منصوبہ بندی کرنے والی ایک اور کمپنی، کیوبیک میں قائم میڈیکاگو انکارپوریشن کو بند کر دیا جائے گا۔


    \"ویڈیو


    نیا موڈرنا ویکسین مینوفیکچرنگ پلانٹ 2024 تک چلنے اور چلنے کی امید ہے: شیمپین


    ان ناکامیوں کے باوجود، اپریل 2022 میں، Moderna نے اعلان کیا کہ وہ Laval، Que میں ایک نئی مینوفیکچرنگ سہولت تعمیر کرے گی۔

    کہانی اشتہار کے نیچے جاری ہے۔

    بوچارڈ نے کہا کہ اوٹاوا کے وبائی امراض کے دوران COVID-19 ویکسین حاصل کرنے کے طریقہ کار نے اس بات کو یقینی بنایا کہ کینیڈینوں کو ویکسین تک تیزی سے رسائی حاصل ہو، اور ملک کے بائیو مینوفیکچرنگ سیکٹر میں 40 سال کی کمی کو پلٹ دیا۔

    انہوں نے کہا، \”اب تک، ہم نے ملک بھر میں 33 منصوبوں کے لیے 1.8 بلین ڈالر کی سرمایہ کاری کی ہے اور ہم محققین، ہنر اور اختراعات میں سرمایہ کاری جاری رکھے ہوئے ہیں جو کینیڈین لائف سائنسز ایکو سسٹم کو مضبوط بناتے رہیں گے۔\”

    – کینیڈین پریس کی فائلوں کے ساتھ

    &copy 2023 Global News، Corus Entertainment Inc کا ایک ڈویژن۔





    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Pakistan delegation visits Kabul to discuss security concerns | The Express Tribune

    [


    KABUL:

    A high-ranking delegation led by Defence Minister Khawaja Asif is in Kabul today to meet with officials of the Afghan Taliban government to discuss security matters including counter-terrorism measures, the Ministry of Foreign Affairs announced on Wednesday.

    The delegation includes Inter-Services Intelligence Director General Lt Gen Nadeem Anjum and Pakistan\’s special envoy on Afghanistan Ambassador Muhammad Sadiq.

    The visit comes against the backdrop of a recent surge in Tehreek-e-Taliban Pakistan (TTP) sponsored terrorist attacks in Pakistan. Sources say Islamabad will persuade the Afghan interim government to live up to its commitment of not allowing Afghan soil to be used by the TTP and its affiliates.

    The visit was the result of hectic behind-the-scenes efforts by Pakistan aimed at pressing the Afghan Taliban to tackle TTP sanctuaries.

    Official sources claimed that the Afghan Taliban have shown a willingness to address Pakistan’s concerns, however, observers are skeptical.

    Earlier, the Afghan Taliban government showed their willingness to address Pakistan’s concerns on the banned TTP after Islamabad stepped up the pressure in the wake of a recent surge in terrorism.

    Read Bajwa wanted to ‘resettle’ Pakistani Taliban

    Official sources familiar with the development told The Express Tribune that Pakistan and the interim Afghan government have been in backchannel conversations to resolve the issue of the banned terrorist outfit.

    Those contacts have been triggered by the surge in terrorism in Pakistan particularly after the deadly terrorist attack in the Police Lines area of Peshawar in which over 100 people – mostly policemen – lost their lives.

    The deadly attack compelled Pakistan to revisit the strategy pursued by the previous government, which sought to address the TTP issue through talks.

    The PTI government allowed hundreds of TTP terrorists to return as part of confidence-building measures. But the move backfired as TTP members regrouped and started launching renewed attacks.

    The Peshawar Police Lines attack dealt a fatal blow to the peace efforts as the civilian and military leadership decided not to seek any direct talks with the TTP. Instead, the decision was taken to raise the issue with the Afghan Taliban at the highest level.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • Seoul shares open tad lower on rate hike concerns

    \"منگل

    منگل کو سیئول میں ہانا بینک کے ہیڈ کوارٹر کے ڈیلنگ روم میں کوریا کمپوزٹ اسٹاک پرائس انڈیکس دکھا رہا ایک الیکٹرانک بورڈ۔ (یونہاپ)

    جنوبی کوریا کے اسٹاک منگل کو قدرے نیچے کھلے کیونکہ تاجر مہنگائی کو روکنے کے لیے امریکی فیڈرل ریزرو کی مستقبل کی مانیٹری پالیسی کے بارے میں غیر یقینی کا شکار رہے۔

    بینچ مارک کوریا کمپوزٹ اسٹاک پرائس انڈیکس ٹریڈنگ کے پہلے 15 منٹ میں 7.36 پوائنٹس یا 0.3 فیصد گر کر 2,447.76 پر آگیا تھا۔

    امریکی مالیاتی منڈیاں پیر کو یوم صدور کی تعطیل کے لیے بند رہیں۔

    جمعہ کو، وال سٹریٹ کا اختتام امریکی افراط زر کی توقع سے زیادہ مضبوط ہونے کے طور پر ہوا اور بے روزگاری کی کم شرح نے سرمایہ کاروں کے اندیشوں کو تقویت بخشی کہ Fed مسلسل بلند افراط زر کو کم کرنے کے لیے قرضے کی شرح میں مزید جارحانہ اضافہ کر سکتا ہے۔

    سیئول میں، زیادہ تر بڑے کیپ اسٹاکس کا آغاز کمزور ہوا، جس میں ٹیک حصص خسارے میں رہے۔

    مارکیٹ کی گھنٹی بجانے والی سام سنگ الیکٹرانکس 0.96 فیصد گر گئی، اور چپ دیو ایس کے ہائنکس 1.51 فیصد گر گئی۔

    سام سنگ بایولوجکس 0.62 فیصد اور سیلٹریون 0.38 فیصد گر گیا۔

    سرفہرست کار ساز کمپنی ہنڈائی موٹر 0.06 فیصد نیچے چلی گئی، اور اس کی ملحقہ Kia میں 0.13 فیصد کمی ہوئی۔

    فائدہ اٹھانے والوں میں، بیٹری بنانے والی معروف کمپنی LG انرجی سلوشن 0.39 فیصد اور LG Chem میں 1.05 فیصد اضافہ ہوا۔

    مقامی کرنسی صبح 9:15 بجے تک امریکی ڈالر کے مقابلے میں 1,297 وان پر ٹریڈ کر رہی تھی، جو پچھلے سیشن کے اختتام سے 2.5 وون کم ہے۔ (یونہاپ)





    Source link

  • OPINION: We can add ChatGPT to the latest list of concerns about student cheating, but let’s go deeper


    حال ہی میں، وہاں ایک ہے کہانیوں کا مجازی سونامی مصنوعی ذہانت اور تعلیم پر اس کے اثرات کے بارے میں۔ ایک بنیادی تشویش یہ ہے کہ ChatGPT جیسے پروگرام طالب علموں کو دھوکہ دینا کتنا آسان بنا دیتے ہیں۔ معلمین اسائنمنٹس پر نظر ثانی کرنے کی کوشش کر رہے ہیں، اور خاندان تشویش کا باعث بننے والے آن لائن ٹولز کی مسلسل بڑھتی ہوئی فہرست میں ایک اور اضافے کے ساتھ جدوجہد کر رہے ہیں۔

    اس کے باوجود، ہم نے اب تک جو گفتگو سنی ہے وہ واقعی اس نقطہ سے غائب ہے۔ یہ پوچھنے کے بجائے کہ \”ہم طالب علموں کو دھوکہ دہی سے کیسے روک سکتے ہیں؟\”، ہمیں اس کی وجہ پوچھنی چاہیے۔ وہ پہلی جگہ میں دھوکہ دے رہے ہیں.

    ہماری تحقیق سے پچھلی دہائی کے دوران سینکڑوں ہزاروں مڈل اور ہائی اسکول کے طلباء پر، ہم نے سیکھا ہے کہ دھوکہ دہی اکثر نظامی مسئلہ کی علامت ہوتی ہے۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link