سیم آلٹ مین سپر انٹیلیجنٹ سنشائن بیچ رہے ہیں کیونکہ مظاہرین AGI توقف کا مطالبہ کر رہے ہیں۔

author
0 minutes, 13 seconds Read

اوپن اے آئی کے سی ای او سیم آلٹ مین کو بدھ کے روز یونیورسٹی کالج لندن میں تقریر کرتے دیکھنے کے لیے قطار سیکڑوں لوگوں کی گلیوں تک پھیلی ہوئی تھی۔ انتظار کرنے والوں نے دھوپ میں کمپنی اور چیٹ جی پی ٹی استعمال کرنے کے اپنے تجربے کے بارے میں گپ شپ کی، جب کہ مٹھی بھر مظاہرین نے داخلی دروازوں کے سامنے سخت انتباہ دیا: اوپن اے آئی اور اس جیسی کمپنیوں کو نقصان پہنچانے کا موقع ملنے سے پہلے ایڈوانسڈ اے آئی سسٹم تیار کرنا بند کرنے کی ضرورت ہے۔ انسانیت

“دیکھو، شاید وہ گرفٹ بیچ رہا ہے۔ مجھے یقین ہے کہ جہنم کی امید ہے کہ وہ ہے،” مظاہرین میں سے ایک، گیڈون فوٹرمین، آکسفورڈ یونیورسٹی میں شمسی جیو انجینیئرنگ اور وجودی خطرے کا مطالعہ کرنے والے طالب علم نے آلٹ مین کے بارے میں کہا۔ “لیکن اس صورت میں، وہ کافی کے ساتھ نظام کو hyping کر رہا ہے جانا جاتا ہے نقصان پہنچاتا ہے ہمیں شاید ویسے بھی ان کو روکنا چاہئے۔ اور اگر وہ درست ہے اور وہ ایسے نظام بنا رہا ہے جو عام طور پر ذہین ہوتے ہیں، تو پھر خطرات بہت دور، بہت بڑے ہیں۔

مظاہرین کے چھوٹے گروپ کے دو ارکان اوپن اے آئی سے مطالبہ کرتے ہیں کہ وہ AGI – یا سپر انٹیلیجنٹ AI کی ترقی کو روکے۔
تصویر: دی ورج

جب آلٹمین اندر اسٹیج پر پہنچا، تاہم، اس کا پرجوش استقبال ہوا۔ OpenAI کے CEO فی الحال امریکہ میں اپنی حالیہ (اور اتنی ہی قابل قبول) سینیٹ کی سماعت کے بعد دنیا کے دورے پر ہیں۔ پچھلا ہفتہ. اب تک وہ فرانسیسی صدر ایمانوئل میکرون، پولینڈ کے وزیر اعظم میٹیوز موراویکی اور ہسپانوی وزیر اعظم پیڈرو سانچیز سے مل چکے ہیں۔ مقصد دوگنا لگتا ہے: ChatGPT کی وجہ سے AI میں دلچسپی کے دھماکے کے بعد پرسکون خوف اور AI ریگولیشن کے بارے میں بات چیت سے آگے بڑھیں۔

لندن میں، آلٹ مین نے واقف گفتگو کے نکات کو دہرایا، یہ نوٹ کرتے ہوئے کہ لوگ AI کے اثرات کے بارے میں فکر مند ہونا درست ہیں لیکن اس کے ممکنہ فوائد، ان کی رائے میں، بہت زیادہ ہیں۔ ایک بار پھر، اس نے ریگولیشن کے امکان کا خیرمقدم کیا – لیکن صرف صحیح قسم۔ انہوں نے کہا کہ وہ “روایتی یورپی نقطہ نظر اور روایتی امریکی نقطہ نظر کے درمیان کچھ دیکھنا چاہتے ہیں۔” یعنی تھوڑا سا ضابطہ لیکن بہت زیادہ نہیں۔ انہوں نے زور دیا کہ بہت زیادہ قواعد چھوٹی کمپنیوں اور اوپن سورس موومنٹ کو نقصان پہنچا سکتے ہیں۔

“میں اس بات کو یقینی بنانا چاہوں گا کہ ہم اس کے ساتھ کم از کم اتنی ہی سنجیدگی سے برتاؤ کرتے ہیں جتنا کہ ہم جوہری مواد کے ساتھ سلوک کرتے ہیں۔”

“دوسری طرف،” انہوں نے کہا، “میرے خیال میں زیادہ تر لوگ اس بات پر متفق ہوں گے کہ اگر کوئی کوڈ کو توڑتا ہے اور ایک سپر انٹیلی جنس بناتا ہے – تاہم آپ اس کی وضاحت کرنا چاہتے ہیں – [then] اس پر کچھ عالمی اصول مناسب ہیں… میں اس بات کو یقینی بنانا چاہوں گا کہ ہم اس کو کم از کم اتنی ہی سنجیدگی سے لیں جتنا کہ ہم جوہری مواد کے ساتھ برتاؤ کرتے ہیں۔ میگا اسکیل سسٹمز کے لیے کر سکتے ہیں سپر انٹیلی جنس کو جنم دیں۔”

OpenAI کے ناقدین کے مطابق، سپر انٹیلی جنس کو ریگولیٹ کرنے کی یہ بات، دوسری صورت میں مصنوعی جنرل انٹیلی جنس، یا AGI کے نام سے جانا جاتا ہے، ایک بیان بازی ہے – آلٹ مین کے لیے AI نظام کے موجودہ نقصانات سے توجہ ہٹانے اور قانون سازوں اور عوام کو سائنس سے مشغول رکھنے کا ایک طریقہ۔ -فائی منظرنامے۔

AI Now انسٹی ٹیوٹ کی مینیجنگ ڈائریکٹر سارہ مائرز ویسٹ، آلٹ مین جیسے لوگ “مستقبل میں جوابدہی کی پوزیشن”۔ بتایا کنارہ پچھلا ہفتہ. اس کے بجائے، مغرب کا کہنا ہے کہ، ہمیں AI سسٹمز کے ذریعہ پیدا ہونے والے موجودہ معلوم خطرات کے بارے میں بات کرنی چاہئے – غلط پیشن گوئی کرنے والی پولیسنگ سے لے کر نسلی طور پر متعصب چہرے کی شناخت تک غلط معلومات کے پھیلاؤ تک۔

آلٹ مین نے موجودہ نقصانات پر زیادہ توجہ نہیں دی لیکن اس دوران ایک موقع پر غلط معلومات کے موضوع پر بات کی، یہ کہتے ہوئے کہ وہ خاص طور پر AI سسٹمز کی “انٹرایکٹو، ذاتی نوعیت کی، قائل کرنے کی صلاحیت” کے بارے میں فکر مند ہیں جب غلط معلومات پھیلانے کی بات آتی ہے۔ ان کے انٹرویو لینے والے مصنف عظیم اظہر نے تجویز کیا کہ ایسے ہی ایک منظر نامے میں ایک AI سسٹم شامل ہو سکتا ہے جو کسی کو مصنوعی آواز کا استعمال کرتے ہوئے کال کرتا ہے اور وصول کنندہ کو کسی نامعلوم انجام پر قائل کرتا ہے۔ آلٹمین نے کہا: “یہ وہی ہے جو میرے خیال میں ایک چیلنج ہو گا، اور وہاں بہت کچھ کرنا ہے۔”

تاہم، انہوں نے کہا، وہ مستقبل کے بارے میں پر امید ہیں۔ انتہائی پر امید۔ آلٹمین کا کہنا ہے کہ ان کا خیال ہے کہ موجودہ AI ٹولز بھی دنیا میں عدم مساوات کو کم کریں گے اور یہ کہ “اس تکنیکی انقلاب کے دوسری طرف مزید ملازمتیں ہوں گی۔”

“یہ ٹیکنالوجی پوری دنیا کو اوپر لے جائے گی۔”

“دنیا کا میرا بنیادی نمونہ یہ ہے کہ ذہانت کی قیمت اور توانائی کی قیمت دو محدود ان پٹ ہیں، دنیا کے دو محدود ری ایجنٹس کی طرح۔ اور اگر آپ ان کو ڈرامائی طور پر سستا، ڈرامائی طور پر زیادہ قابل رسائی بنا سکتے ہیں، تو یہ واضح طور پر، امیر لوگوں کے مقابلے غریب لوگوں کی مدد کے لیے زیادہ کام کرتا ہے،” انہوں نے کہا۔ “یہ ٹیکنالوجی پوری دنیا کو اوپر لے جائے گی۔”

وہ سائنسدانوں کی صلاحیت کے بارے میں بھی پر امید تھے کہ وہ “سدھ” کے ذریعے تیزی سے طاقتور AI سسٹم کو کنٹرول میں رکھیں۔ (صف بندی AI تحقیق کا ایک وسیع موضوع ہے جسے صرف اس طرح بیان کیا جا سکتا ہے کہ “سافٹ ویئر کو وہ بنائیں جو ہم چاہتے ہیں اور وہ نہیں جو ہم نہیں کرتے۔”)

“ہمارے پاس بہت سارے آئیڈیاز ہیں جو ہم نے اس بارے میں شائع کیے ہیں کہ ہمارے خیال میں سپر انٹیلیجنٹ سسٹمز کی سیدھ کیسے کام کرتی ہے، لیکن مجھے یقین ہے کہ یہ تکنیکی طور پر حل ہونے والا مسئلہ ہے،” آلٹمین نے کہا۔ “اور میں اب اس جواب میں کچھ سال پہلے کے مقابلے میں زیادہ پر اعتماد محسوس کر رہا ہوں۔ ایسے راستے ہیں جو میرے خیال میں بہت اچھے نہیں ہوں گے، اور مجھے امید ہے کہ ہم ان سے بچیں گے۔ لیکن ایمانداری سے، میں اس رفتار سے بہت خوش ہوں کہ اس وقت جو چیزیں چل رہی ہیں۔

آلٹ مین کی گفتگو میں مظاہرین کی طرف سے ایک کتابچہ دیا گیا۔
تصویر: دی ورج

بات چیت کے باہر، اگرچہ، مظاہرین قائل نہیں تھے. ایک، سیاسی سائنس اور اخلاقیات کی تعلیم حاصل کرنے والے یو سی ایل میں ماسٹرز کے طالب علم الیسٹر سٹیورٹ نے بتایا کنارہ وہ “جدید نظاموں پر کسی قسم کا توقف یا موقوف” دیکھنا چاہتا تھا – اسی نقطہ نظر کی وکالت حال ہی میں کھلا خط جس پر AI محققین اور ایلون مسک جیسی ممتاز ٹیک شخصیات نے دستخط کیے ہیں۔ اسٹیورٹ نے کہا کہ وہ ضروری نہیں سوچتے کہ AI سے چلنے والے خوشحال مستقبل کے بارے میں آلٹ مین کا نظریہ غلط تھا لیکن چیزوں کو موقع پر چھوڑنے کے لیے “بہت زیادہ غیر یقینی صورتحال” تھی۔

کیا آلٹ مین اس دھڑے کو قائل کر سکتا ہے؟ اسٹیورٹ کا کہنا ہے کہ اوپن اے آئی کے سی ای او اسٹیج پر اپنے وقت کے بعد مظاہرین سے بات کرنے کے لیے باہر آئے لیکن وہ اسٹیورٹ کا ذہن تبدیل نہیں کر سکے۔ ان کا کہنا ہے کہ انہوں نے ایک منٹ یا اس سے زیادہ کے لیے OpenAI کے تحفظ کے نقطہ نظر کے بارے میں بات چیت کی، جس میں AI سسٹمز کے ساتھ ساتھ guardrails کی صلاحیتوں کو بیک وقت تیار کرنا بھی شامل ہے۔

اسٹیورٹ نے کہا، “میں نے اس گفتگو کو پہلے کی نسبت قدرے زیادہ پریشان چھوڑ دیا۔ “میں نہیں جانتا کہ اس کے پاس کون سی معلومات ہے جو اسے یہ سوچنے پر مجبور کرتی ہے کہ وہ کام کرے گی۔”



>Source link>

>>Join our Facebook Group be part of community. <<

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *