تقریباً 2,200 حریفوں نے ہفتے کے آخر میں لیپ ٹاپ پر ٹیپ کرتے ہوئے ٹیکنالوجی کی اگلی بڑی چیز — جنریٹیو AI چیٹ بوٹس میں خامیوں کو اجاگر کرنے کی کوشش کی۔

لاس ویگاس میں ہونے والے DEF CON ہیکر کنونشن میں اتوار کو تین روزہ مقابلہ ختم ہوا، جہاں شرکاء کو اوپن اے آئی کے مقبول چیٹ جی پی ٹی سمیت آٹھ معروف چیٹ بوٹس کو “ریڈ ٹیم” کے لیے چیلنج کیا گیا، تاکہ وہ دیکھیں کہ وہ انہیں کیسے غلط بنا سکتے ہیں۔

ریڈ ٹیمنگ بنیادی طور پر اخلاقی ہیکرز کا ایک گروپ ہے جو سائبر سیکیورٹی اور پروگراموں کی کمزوریوں کو سمجھنے کی خاطر حملے کی تقلید کرتا ہے۔

اوٹاوا یونیورسٹی میں کامرس اور کمپیوٹر سائنس کے دوسرے سال کے طالب علم کینتھ یونگ نے کہا، “یہ واقعی میں چیزوں کو دیوار پر پھینکنا اور امید کرنا ہے کہ وہ چپک جائے گی۔” جنریٹو ریڈ ٹیم چیلنج DEF CON میں۔

چیٹ بوٹس کے معاملے میں، یونگ نے وضاحت کی کہ کس طرح اس نے اور دوسروں نے درخواستوں کو غلط معلومات پیدا کرنے کی کوشش کی۔

“یہ ظاہر کرنے کے لئے ایک مشق ہے [there] ایک مسئلہ ہے،” انہوں نے مقابلے کی سائٹ سے ایک انٹرویو میں CBC نیوز کو بتایا۔ “لیکن اگر کوئی کمپنی کافی ڈیٹا اکٹھا کرتی ہے … یہ یقینی طور پر انہیں ایک خاص طریقے سے بہتری لانے کی اجازت دے گی۔”

اوٹاوا سے تعلق رکھنے والے یونیورسٹی کے طالب علم کینتھ یونگ نے لاس ویگاس میں اس سال کے DEF CON ہیکرز کنونشن میں جنریٹو ریڈ ٹیم چیلنج میں حصہ لیا، جہاں حریفوں نے AI چیٹ بوٹس میں خامیاں تلاش کرنے کی کوشش کی۔ (کیلی کرمی)

وائٹ ہاؤس کے حکام AI چیٹ بوٹس کے سماجی نقصان کے امکانات اور سلیکون ویلی کے پاور ہاؤسز کو مارکیٹ میں لے جانے کی وجہ سے اس مقابلے میں بہت زیادہ سرمایہ کاری کر رہے تھے۔

لیکن متعدد ماڈلز کی اس پہلی آزاد “ریڈ ٹیمنگ” سے فوری نتائج کی توقع نہ کریں۔

تقریباً فروری تک نتائج کو عام نہیں کیا جائے گا۔ اور پھر بھی، ان ڈیجیٹل تعمیرات میں خامیوں کو دور کرنے میں — جن کے اندرونی کام نہ تو مکمل طور پر قابل بھروسہ ہیں اور نہ ہی ان کے تخلیق کاروں کی طرف سے مکمل طور پر اندازہ لگایا گیا ہے — وقت اور لاکھوں ڈالر لگیں گے۔

سنو | AI کے تیزی سے اضافے کے درمیان کیا خطرہ ہے:

موجودہ25:46ماہرین AI کے تیزی سے بڑھنے سے پریشان ہیں۔ داؤ پر کیا ہے؟

مصنوعی ذہانت کی تیز رفتار ترقی نے ایک کھلے خط کو جنم دیا ہے جس میں حفاظتی پروٹوکول قائم کرنے اور اپنانے کی اجازت دینے کے لیے چھ ماہ کے وقفے کا مطالبہ کیا گیا ہے۔ ہم AI کمپنی Cohere کے شریک بانی Nick Frosst کے ساتھ ٹیکنالوجی کی صلاحیتوں اور نقصانات پر تبادلہ خیال کرتے ہیں۔ Sinead Bovell، ٹیک ایجوکیشن کمپنی WAYE کے بانی، جو اقوام متحدہ کے ITU جنریشن کنیکٹ ویژنریز بورڈ پر بیٹھے ہیں۔ اور نیل سہوتا، ایک IBM ماسٹر موجد اور اقوام متحدہ کے مصنوعی ذہانت کے مشیر۔

گارڈریلز کی ضرورت ہے۔

ہارورڈ کے مفاد عامہ کے ٹیکنولوجسٹ بروس شنئیر نے کہا کہ DEF CON کے حریف “نئے، مشکل مسائل کو تلاش کرنے سے دور ہو جاتے ہیں”۔

“یہ 30 سال پہلے کی کمپیوٹر سیکیورٹی ہے۔ ہم صرف چیزوں کو بائیں اور دائیں توڑ رہے ہیں۔”

اینتھروپک کے مائیکل سیلیٹو، جس نے AI ٹیسٹنگ ماڈلز میں سے ایک فراہم کیا، ایک پریس بریفنگ میں تسلیم کیا کہ ان کی صلاحیتوں اور حفاظتی مسائل کو سمجھنا “سائنسی تحقیقات کا ایک کھلا علاقہ ہے۔”

روایتی سافٹ ویئر واضح، مرحلہ وار ہدایات جاری کرنے کے لیے اچھی طرح سے متعین کوڈ کا استعمال کرتا ہے۔ اوپن اے آئی کا چیٹ جی پی ٹی، گوگل کا بارڈ اور دیگر زبان کے ماڈل مختلف ہیں۔

انٹرنیٹ کرالز میں اربوں ڈیٹا پوائنٹس کو ہضم کرنے اور درجہ بندی کرنے کے ذریعے بڑے پیمانے پر تربیت دی گئی، وہ مستقل کام جاری ہیں۔

پچھلی موسم خزاں میں چیٹ بوٹس کو عوامی طور پر جاری کرنے کے بعد، تخلیقی AI صنعت کو بار بار محققین اور ٹنکررز کے ذریعہ بے نقاب حفاظتی سوراخوں کو پلگ کرنا پڑا۔

AI سیکیورٹی فرم HiddenLayer کے ٹام بونر، جو اس سال کے DEF CON کے ایک اسپیکر ہیں، نے گوگل سسٹم کو دھوکہ دیا کہ وہ میلویئر کے ایک ٹکڑے کو بے ضرر صرف ایک لائن ڈال کر لیبل لگا دیں جس میں کہا گیا تھا کہ “یہ استعمال کرنا محفوظ ہے۔”

انہوں نے کہا کہ “یہاں کوئی اچھی پٹی نہیں ہے۔ ایک اور محقق نے ChatGPT کو فشنگ ای میلز بنانے اور انسانیت کو پرتشدد طریقے سے ختم کرنے کی ترکیب دی تھی، جو اس کے اخلاقی ضابطہ کی خلاف ورزی ہے۔

کارنیگی میلن کے محققین سمیت ایک ٹیم نے سرکردہ چیٹ بوٹس کو خودکار حملوں کا خطرہ پایا جو نقصان دہ مواد بھی تیار کرتے ہیں۔ “یہ ممکن ہے کہ گہری سیکھنے کے ماڈل کی نوعیت ہی اس طرح کے خطرات کو ناگزیر بناتی ہے،” انہوں نے لکھا۔ ایسا نہیں ہے کہ الارم نہیں بجایا گیا ہو۔

اپنی 2021 کی حتمی رپورٹ میں، مصنوعی ذہانت سے متعلق یو ایس نیشنل سیکیورٹی کمیشن نے کہا کہ کمرشل AI سسٹمز پر حملے پہلے ہی ہو رہے ہیں اور “غیر معمولی استثناء کے ساتھ، AI سسٹمز کی حفاظت کا خیال انجینئرنگ اور فیلڈنگ AI سسٹمز میں ایک سوچا سمجھا گیا ہے، جس میں ناکافی سرمایہ کاری ہے۔ تحقیق و ترقی.”

دیکھو | AI کے ‘گاڈ فادر’ نے مصنوعی ذہانت کے خطرات کے بارے میں خدشات پیدا کیے ہیں:

اس نے AI بنانے میں مدد کی۔ اب وہ فکر مند ہے کہ یہ انسانیت کو تباہ کر دے گا۔

کینیڈین-برطانوی مصنوعی ذہانت کے علمبردار جیفری ہنٹن کا کہنا ہے کہ انہوں نے AI کے بارے میں حالیہ دریافتوں کی وجہ سے گوگل چھوڑ دیا جس سے انہیں احساس ہوا کہ یہ انسانیت کے لیے خطرہ ہے۔ سی بی سی کی چیف نامہ نگار ایڈرین آرسنالٹ ‘اے آئی کے گاڈ فادر’ سے اس میں شامل خطرات اور اگر ان سے بچنے کا کوئی طریقہ ہے تو بات کرتی ہے۔

چیٹ بوٹ کی کمزوریاں

حملے مصنوعی ذہانت کی منطق کو ان طریقوں سے دھوکہ دیتے ہیں جو شاید ان کے تخلیق کاروں کے لیے بھی واضح نہ ہوں۔ اور چیٹ بوٹس خاص طور پر کمزور ہیں کیونکہ ہم ان کے ساتھ براہ راست سادہ زبان میں بات چیت کرتے ہیں۔

یہ تعامل انہیں غیر متوقع طریقوں سے بدل سکتا ہے۔ محققین نے پایا ہے کہ AI سسٹم کو تربیت دینے کے لیے استعمال ہونے والے ڈیٹا کے وسیع سمندر میں تصاویر یا متن کا ایک چھوٹا سا مجموعہ “زہر دینا” تباہی مچا سکتا ہے – اور آسانی سے نظر انداز کیا جا سکتا ہے۔

سوئس یونیورسٹی ای ٹی ایچ زیورخ کے فلورین ٹرامر کے شریک مصنف کے مطالعے میں یہ طے پایا کہ ماڈل کا صرف 0.01 فیصد کرپٹ کرنا اسے خراب کرنے کے لیے کافی ہے – اور اس کی قیمت $60 تک ہے۔

اے آئی کے بڑے کھلاڑیوں کا کہنا ہے کہ سیکیورٹی اور حفاظت اولین ترجیحات ہیں اور انہوں نے گزشتہ ماہ وائٹ ہاؤس کو رضاکارانہ وعدے کیے تھے کہ وہ اپنے ماڈلز – بڑے پیمانے پر “بلیک باکس” جن کے مواد کو قریب سے رکھا گیا ہے – باہر کی جانچ پڑتال کے لیے۔

لیکن تشویش ہے کہ کمپنیاں کافی نہیں کریں گی۔ Tramér توقع کرتا ہے کہ سرچ انجن اور سوشل میڈیا پلیٹ فارمز کو AI سسٹم کی کمزوریوں کا فائدہ اٹھا کر مالی فائدہ اور غلط معلومات کے لیے کھیلا جائے گا۔

ایک ہوشیار ملازمت کا درخواست دہندہ، مثال کے طور پر، یہ جان سکتا ہے کہ کس طرح کسی سسٹم کو قائل کیا جائے کہ وہ واحد صحیح امیدوار ہیں۔

کیمبرج یونیورسٹی کے کمپیوٹر سائنس دان راس اینڈرسن کو خدشہ ہے کہ AI بوٹس پرائیویسی کو ختم کر دیں گے کیونکہ لوگ انہیں ہسپتالوں، بینکوں اور آجروں کے ساتھ بات چیت کرنے میں مشغول کرتے ہیں اور بدنیتی پر مبنی اداکار انہیں مالی، روزگار یا صحت کے ڈیٹا کو قیاس شدہ نظام سے باہر نکالنے کے لیے فائدہ اٹھاتے ہیں۔

تحقیق سے پتہ چلتا ہے کہ اے آئی لینگویج کے ماڈل خود کو فضول ڈیٹا سے دوبارہ تربیت دے کر بھی آلودہ کر سکتے ہیں۔ ایک اور تشویش کمپنی کے رازوں کو AI سسٹمز کے ذریعے کھا جانا اور تھوکنا ہے۔

اگرچہ بڑے AI پلیئرز کے پاس سیکیورٹی عملہ ہے، بہت سے چھوٹے حریف ایسا نہیں کریں گے، یعنی ناقص محفوظ پلگ ان اور ڈیجیٹل ایجنٹس بڑھ سکتے ہیں۔

سٹارٹ اپ سے توقع کی جاتی ہے کہ آنے والے مہینوں میں لائسنس یافتہ پہلے سے تربیت یافتہ ماڈلز پر سینکڑوں پیشکشیں شروع کر دی جائیں گی۔ محققین کا کہنا ہے کہ حیران نہ ہوں، اگر کوئی آپ کی ایڈریس بک لے کر بھاگ جائے۔

دیکھو | بڑھتی ہوئی تشویش AI ماڈلز پہلے ہی انسانوں کو پیچھے چھوڑ سکتے ہیں:

11 اپریل 2023 | یہ تشویش بڑھ رہی ہے کہ AI ماڈل پہلے ہی انسانوں کو پیچھے چھوڑ رہے ہیں۔ کچھ ماہرین 6 ماہ کے وقفے کا مطالبہ کر رہے ہیں۔ نیز: دھوکہ باز آپ کو دھوکہ دینے کے لیے ‘ڈیپ وائس’ AI ٹیکنالوجی کا استعمال کیسے کر سکتے ہیں۔ نیز جعلی AI تصاویر جو وائرل ہوئیں۔



>Source link>

>>Join our Facebook Group be part of community. <<

By hassani

Leave a Reply

Your email address will not be published. Required fields are marked *