Real or fake text? We can learn to spot the difference

چیٹ بوٹس کی تازہ ترین نسل نے مصنوعی ذہانت کی بڑھتی ہوئی نفاست اور رسائی کے بارے میں دیرینہ خدشات کا اظہار کیا ہے۔

جاب مارکیٹ کی سالمیت کے بارے میں خدشات — تخلیقی معیشت سے لے کر انتظامی طبقے تک — کلاس روم میں پھیل گئے ہیں کیونکہ اساتذہ ChatGPT کے تناظر میں سیکھنے پر دوبارہ غور کرتے ہیں۔

پھر بھی جب کہ روزگار اور اسکولوں کے بارے میں خدشات سرخیوں پر حاوی ہیں، سچائی یہ ہے کہ بڑے پیمانے پر زبان کے ماڈلز جیسے ChatGPT کے اثرات ہماری زندگی کے تقریباً ہر کونے کو چھوئیں گے۔ یہ نئے ٹولز سماجی تعصبات کو تقویت دینے، دھوکہ دہی اور شناخت کی چوری کے ارتکاب، جعلی خبریں پیدا کرنے، غلط معلومات پھیلانے اور مزید بہت کچھ کرنے میں مصنوعی ذہانت کے کردار کے بارے میں معاشرے میں تشویش پیدا کرتے ہیں۔

یونیورسٹی آف پنسلوانیا سکول آف انجینئرنگ اینڈ اپلائیڈ سائنس کے محققین کی ایک ٹیم ٹیک صارفین کو ان خطرات کو کم کرنے کے لیے بااختیار بنانے کی کوشش کر رہی ہے۔ ایسوسی ایشن فار دی ایڈوانسمنٹ آف آرٹیفیشل انٹیلی جنس کے فروری 2023 کے اجلاس میں پیش کردہ ایک ہم مرتبہ جائزہ شدہ مقالے میں، مصنفین نے یہ ظاہر کیا ہے کہ لوگ مشین سے تیار کردہ اور انسانی تحریری متن کے درمیان فرق کو پہچاننا سیکھ سکتے ہیں۔

اس سے پہلے کہ آپ کوئی نسخہ منتخب کریں، مضمون کا اشتراک کریں، یا اپنے کریڈٹ کارڈ کی تفصیلات فراہم کریں، یہ جاننا ضروری ہے کہ آپ اپنے ذریعہ کی وشوسنییتا کو جاننے کے لیے ایسے اقدامات کر سکتے ہیں۔

اس مطالعہ کی قیادت کرس کالیسن برچ، شعبہ کمپیوٹر اینڈ انفارمیشن سائنس (سی آئی ایس) میں ایسوسی ایٹ پروفیسر، لیام ڈوگن اور ڈیفنی ایپولیٹو، پی ایچ ڈی کے ساتھ کر رہے تھے۔ CIS میں طلباء، اس بات کا ثبوت فراہم کرتے ہیں کہ AI سے تیار کردہ متن قابل شناخت ہے۔

کالیسن برچ کہتے ہیں، \”ہم نے دکھایا ہے کہ لوگ مشین سے تیار کردہ متن کو پہچاننے کے لیے خود کو تربیت دے سکتے ہیں۔\” \”لوگ مفروضوں کے ایک مخصوص سیٹ کے ساتھ شروع کرتے ہیں کہ مشین کس قسم کی غلطیاں کرے گی، لیکن ضروری نہیں کہ یہ مفروضے درست ہوں۔ وقت گزرنے کے ساتھ، کافی مثالوں اور واضح ہدایات کے پیش نظر، ہم غلطیوں کی ان اقسام کو اٹھانا سیکھ سکتے ہیں جو مشینیں فی الحال بنا رہی ہیں۔\”

\”اے آئی آج حیرت انگیز طور پر بہت روانی، بہت گرائمیکل متن تیار کرنے میں اچھا ہے،\” ڈوگن نے مزید کہا۔ \”لیکن اس سے غلطیاں ہوتی ہیں۔ ہم ثابت کرتے ہیں کہ مشینیں مخصوص قسم کی غلطیاں کرتی ہیں — عام فہم کی غلطیاں، مطابقت کی غلطیاں، استدلال کی غلطیاں اور منطقی غلطیاں، مثال کے طور پر — کہ ہم یہ سیکھ سکتے ہیں کہ کیسے نشان لگانا ہے۔\”

مطالعہ اصلی یا جعلی متن کا استعمال کرتے ہوئے جمع کردہ ڈیٹا کا استعمال کرتا ہے، ایک اصل ویب پر مبنی تربیتی گیم۔

یہ تربیتی کھیل پتہ لگانے کے مطالعے کے معیاری تجرباتی طریقہ کو زیادہ درست تفریح ​​میں تبدیل کرنے کے لیے قابل ذکر ہے کہ لوگ متن بنانے کے لیے کس طرح AI کا استعمال کرتے ہیں۔

معیاری طریقوں میں، شرکاء سے کہا جاتا ہے کہ وہ ہاں یا نہ میں اس بات کی نشاندہی کریں کہ آیا کسی مشین نے دیا ہوا متن تیار کیا ہے۔ اس کام میں صرف متن کو اصلی یا جعلی کے طور پر درجہ بندی کرنا شامل ہے اور جوابات کو درست یا غلط کے طور پر اسکور کیا جاتا ہے۔

پین ماڈل معیاری پتہ لگانے کے مطالعے کو ایک مؤثر تربیتی کام میں نمایاں طور پر بہتر کرتا ہے مثالیں دکھا کر جو سب انسانوں کی تحریر سے شروع ہوتی ہیں۔ اس کے بعد ہر مثال تیار کردہ متن میں تبدیل ہو جاتی ہے، شرکاء سے یہ نشان زد کرنے کے لیے کہتی ہے کہ ان کے خیال میں یہ منتقلی کہاں سے شروع ہوتی ہے۔ تربیت یافتہ متن کی خصوصیات کی نشاندہی کرتے ہیں اور ان کی وضاحت کرتے ہیں جو غلطی کی نشاندہی کرتے ہیں اور اسکور حاصل کرتے ہیں۔

مطالعہ کے نتائج سے پتہ چلتا ہے کہ شرکاء نے بے ترتیب موقع کے مقابلے میں نمایاں طور پر بہتر اسکور کیا، جو اس بات کا ثبوت فراہم کرتا ہے کہ AI سے تخلیق کردہ متن، کسی حد تک، قابل شناخت ہے۔

ڈوگن کہتے ہیں، \”ہمارا طریقہ نہ صرف کام کو جوڑتا ہے، اسے مزید پرکشش بناتا ہے، بلکہ یہ تربیت کے لیے ایک زیادہ حقیقت پسندانہ سیاق و سباق بھی فراہم کرتا ہے،\” ڈوگن کہتے ہیں۔ \”تخلیق شدہ متن، جیسے کہ ChatGPT کے ذریعہ تیار کیا گیا ہے، انسانی فراہم کردہ اشارے سے شروع ہوتا ہے۔\”

یہ مطالعہ نہ صرف آج کی مصنوعی ذہانت پر بات کرتا ہے بلکہ اس ٹیکنالوجی سے ہمارے تعلق کے لیے ایک یقین دہانی، یہاں تک کہ دلچسپ، مستقبل کا خاکہ بھی پیش کرتا ہے۔

\”پانچ سال پہلے،\” ڈوگن کہتے ہیں، \”ماڈل موضوع پر نہیں رہ سکتے تھے اور نہ ہی روانی سے جملہ تیار کر سکتے تھے۔ اب، وہ شاذ و نادر ہی گرائمر کی غلطی کرتے ہیں۔ ہمارا مطالعہ اس قسم کی غلطیوں کی نشاندہی کرتا ہے جو AI چیٹ بوٹس کی خصوصیت کرتی ہیں، لیکن اس میں رکھنا ضروری ہے۔ ذہن میں رکھیں کہ یہ غلطیاں تیار ہوئی ہیں اور بڑھتی رہیں گی۔ فکر مند ہونے کی تبدیلی یہ نہیں ہے کہ AI سے لکھا ہوا متن ناقابل شناخت ہے بلکہ یہ ہے کہ لوگوں کو فرق کو پہچاننے کے لیے خود کو تربیت جاری رکھنے اور ڈیٹیکشن سافٹ ویئر کے ساتھ بطور ضمیمہ کام کرنے کی ضرورت ہوگی۔ \”

کالیسن برچ کا کہنا ہے کہ \”لوگ درست وجوہات کی بناء پر AI کے بارے میں فکر مند ہیں۔ \”ہمارا مطالعہ ان پریشانیوں کو دور کرنے کے لیے شواہد فراہم کرتا ہے۔ ایک بار جب ہم AI ٹیکسٹ جنریٹرز کے بارے میں اپنی امید کو بروئے کار لا سکتے ہیں، تو ہم ان ٹولز کی صلاحیت پر توجہ مرکوز کر سکیں گے تاکہ ہمیں مزید تخیلاتی، زیادہ دلچسپ تحریریں لکھنے میں مدد ملے۔\”

Ippolito، پین اسٹڈی کی شریک رہنما اور گوگل میں موجودہ ریسرچ سائنٹسٹ، ان ٹولز کے استعمال کے سب سے زیادہ مؤثر کیسز کو تلاش کرنے پر اپنے کام کے زور کے ساتھ پتہ لگانے پر ڈوگن کی توجہ کی تکمیل کرتی ہے۔ اس نے مثال کے طور پر Wordcraft میں تعاون کیا، ایک AI تخلیقی تحریری ٹول جو شائع شدہ مصنفین کے ساتھ مل کر تیار کیا گیا ہے۔ مصنفین یا محققین میں سے کسی نے بھی یہ نہیں پایا کہ AI افسانہ نگار کے لیے ایک زبردست متبادل تھا، لیکن انھوں نے تخلیقی عمل کو سپورٹ کرنے کی اس کی قابلیت میں اہم قدر پائی۔

\”اس وقت میرا احساس یہ ہے کہ یہ ٹیکنالوجیز تخلیقی تحریر کے لیے بہترین موزوں ہیں،\” کالیسن برچ کہتے ہیں۔ \”خبریں، ٹرم پیپرز، یا قانونی مشورے غلط استعمال کے معاملات ہیں کیونکہ حقائق کی کوئی ضمانت نہیں ہے۔\”

\”یہاں دلچسپ مثبت سمتیں ہیں جو آپ اس ٹیکنالوجی کو آگے بڑھا سکتے ہیں،\” ڈوگن کہتے ہیں۔ \”لوگ سرقہ اور جعلی خبروں جیسی تشویشناک مثالوں پر قائم ہیں، لیکن اب ہم جانتے ہیں کہ ہم خود کو بہتر قارئین اور مصنف بننے کی تربیت دے سکتے ہیں۔\”



>Source link>

>>Join our Facebook page From top right corner. <<

Leave a Reply

Your email address will not be published. Required fields are marked *