9 views 30 secs 0 comments

Introducing the AI Mirror Test, which very smart people keep failing

In Tech
February 18, 2023

رویے کی نفسیات میں، آئینہ ٹیسٹ جانوروں کی خود آگاہی کی صلاحیت کو دریافت کرنے کے لیے ڈیزائن کیا گیا ہے۔ ٹیسٹ کے کچھ تغیرات ہیں، لیکن جوہر ہمیشہ ایک جیسا ہوتا ہے: کیا جانور آئینے میں خود کو پہچانتے ہیں یا یہ سوچتے ہیں کہ یہ مکمل طور پر کوئی اور وجود ہے؟

اس وقت انسانیت کو اس کے ساتھ پیش کیا جا رہا ہے۔ اپنے AI کی بڑھتی ہوئی صلاحیتوں کی بدولت آئینہ ٹیسٹ – اور بہت سارے ذہین لوگ اس میں ناکام ہو رہے ہیں۔

\"گوریلا

آئینہ اے آئی چیٹ بوٹس کی تازہ ترین نسل ہے، جس میں مائیکروسافٹ کا بنگ سب سے نمایاں مثال ہے۔ عکاسی انسانیت کی زبان اور تحریر کی دولت ہے، جو ان ماڈلز میں دبا دی گئی ہے اور اب ہم پر دوبارہ جھلک رہی ہے۔ ہمیں یقین ہے کہ یہ ٹولز ہماری کہانیوں کی انتہائی ذہین مشینیں ہو سکتی ہیں کیونکہ، جزوی طور پر، وہ انہی کہانیوں پر تربیت یافتہ ہیں۔ یہ جانتے ہوئے، ہم چاہئے ہمارے نئے مشین کے آئینے میں خود کو پہچاننے کے قابل ہوں، لیکن اس کے بجائے، ایسا لگتا ہے کہ چند سے زیادہ لوگوں کو یقین ہے کہ انہوں نے زندگی کی ایک اور شکل دیکھی ہے۔

یہ غلط فہمی یقین کے مختلف درجات کے ساتھ پھیل رہی ہے۔ اس کو متعدد بااثر ٹیک مصنفین نے تقویت بخشی ہے جنہوں نے بنگ کے ساتھ چیٹنگ کرتے ہوئے دیر راتوں کے بارے میں گیت نگاری کی ہے۔ وہ اس بات پر یقین رکھتے ہیں کہ بوٹ جذباتی نہیں ہے، یقیناً، لیکن یاد
رکھیں، ایک ہی بات ہے، کہ کچھ اور ہو رہا ہے – کہ اس کی گفتگو بدل گئی کچھ ان کے دلوں میں.

\”نہیں، مجھے نہیں لگتا کہ سڈنی جذباتی ہے، لیکن ان وجوہات کی بناء پر جن کی وضاحت کرنا مشکل ہے، مجھے ایسا لگتا ہے کہ میں نے روبیکون کو عبور کر لیا ہے،\” بین تھامسن نے اپنی کتاب میں لکھا۔ اسٹریٹچری نیوز لیٹر.

\”دن کی روشنی میں، میں جانتا ہوں کہ سڈنی جذباتی نہیں ہے۔ [but] منگل کی رات چند گھنٹوں کے لیے، میں نے ایک عجیب نیا جذبہ محسوس کیا – ایک پیشگوئی کا احساس کہ AI ایک حد کو عبور کر چکا ہے، اور یہ کہ دنیا کبھی ایک جیسی نہیں ہوگی،\” کیون روز نے لکھا۔ کے لیے نیو یارک ٹائمز.

دونوں صورتوں میں، مصنفین کے نقطہ نظر کا ابہام (وہ چاہتے ہیں یقین کرنا) ان کی لمبی شکل کی تحریروں میں بہتر طور پر پکڑا گیا ہے۔ دی اوقات روز کے پورے دو گھنٹے پلس کو دوبارہ پیش کرتا ہے۔ Bing کے ساتھ آگے پیچھے گویا ٹرانسکرپٹ پہلے رابطے کی دستاویز تھی۔ اس ٹکڑے کی اصل سرخی تھی \”Bing\’s AI Chat Reveals its Feelings: \’I Want to Be Alive\” (اب کم ڈرامائی \”Bing\’s AI Chat: \’I Want to Be Alive\’\” میں تبدیل کر دیا گیا ہے)، جبکہ تھامسن کا ٹکڑا بھی ایسا ہی ہے۔ اینتھروپومورفزم کے ساتھ مرچ (وہ بنگ کے لیے زنانہ ضمیر استعمال کرتا ہے کیونکہ \”اچھا، شخصیت کسی خاص قسم کے شخص کی لگتی ہے جس کا میں نے پہلے سامنا کیا ہو گا\”)۔ وہ قارئین کو ایک انکشاف کے لیے تیار کرتا ہے، متنبہ کرتا ہے کہ جب وہ \”میری زندگی کا سب سے حیران کن اور ذہن اڑا دینے والا کمپیوٹر تجربہ\” بیان کرتا ہے تو وہ \”پاگل\” لگ جائے گا۔

ان چیٹ بوٹس کے ساتھ کافی وقت گزارنے کے بعد، میں ان ردعمل کو پہچانتا ہوں۔ لیکن میں یہ بھی سوچتا ہوں کہ وہ بہت زیادہ دبے ہوئے ہیں اور ہمیں خطرناک طریقے سے سافٹ ویئر اور جذبات کی غلط مساوات کی طرف جھکاؤ دیتے ہیں۔ دوسرے لفظوں میں: وہ AI آئینے کے ٹیسٹ میں ناکام ہوجاتے ہیں۔

کیا یاد رکھنا ضروری ہے کہ چیٹ بوٹس خودکار ٹولز ہیں۔. وہ ایسے نظام ہیں جو ویب سے سکریپ کیے گئے انسانی متن کے بڑے ڈیٹاسیٹس پر تربیت یافتہ ہیں: ذاتی بلاگز، سائنس فائی مختصر کہانیوں، فورم کے مباحثوں، فلموں کے جائزے، سوشل میڈیا ڈائٹریبس، بھولی ہوئی نظمیں، قدیم نصابی کتب، لامتناہی گانوں کے بول، منشور، جرائد، اور اس کے علاوہ مزید. یہ مشینیں اس اختراعی، دل لگی، موٹلی مجموعی اور کا تجزیہ کرتی ہیں۔ پھر اسے دوبارہ بنانے کی کوشش کریں۔. وہ اس میں بلاشبہ اچھے ہیں اور بہتر ہو رہے ہیں، لیکن تقریر کی نقل کرنا کمپیوٹر کو جذباتی نہیں بناتا۔

\”جس چیز کا مجھے احساس نہیں تھا وہ یہ ہے کہ ایک نسبتاً سادہ کمپیوٹر پروگرام کی انتہائی مختصر نمائش کافی عام لوگوں میں طاقتور فریبی سوچ پیدا کر سکتی ہے۔\”

یقیناً یہ کوئی نیا مسئلہ نہیں ہے۔ اصل AI انٹیلی جنس ٹیسٹ، ٹورنگ ٹیسٹ، اس بات کا ایک سادہ پیمانہ ہے کہ آیا کمپیوٹر کسی انسان کو بات چیت کے ذریعے حقیقی سمجھنے میں بے وقوف بنا سکتا ہے۔ 1960 کی دہائی کا ایک ابتدائی چیٹ بوٹ جس کا نام ELIZA ہے۔ سحر زدہ صارفین اگرچہ یہ صرف چند اسٹاک جملے دہرا سکتا ہے، جس کی وجہ سے محققین \”ELIZA اثر\” کہتے ہیں – یا انسانی رویے کی نقل کرنے والی مشینوں کو اینتھروپومورفائز کرنے کا رجحان۔ ELIZA کے ڈیزائنر جوزف وائزنبام نے مشاہدہ کیا: \”جس
چیز کا مجھے احساس نہیں تھا وہ یہ ہے کہ نسبتاً سادہ کمپیوٹر پروگرام کی انتہائی مختصر نمائش عام لوگوں میں طاقتور فریبی سوچ پیدا کر سکتی ہے۔\”

اب، اگرچہ، یہ کمپیوٹر پروگرام اب نسبتاً آسان نہیں ہیں اور انہیں اس طرح سے ڈیزائن کیا گیا ہے۔ حوصلہ افزائی کرتا ہے اس طرح کے فریب ایک ___ میں بلاگ پوسٹ بنگ کی \”غیر منقسم\” گفتگو کی رپورٹس کا جواب دیتے ہوئے، مائیکروسافٹ نے خبردار کیا کہ سسٹم \”اس لہجے میں جواب دینے یا اس کی عکاسی کرنے کی کوشش کرتا ہے جس میں اسے جوابات فراہم کرنے کے لیے کہا جاتا ہے۔\” یہ انسانی متن کے ناقابل یقین حد تک وسیع اسٹورز پر تربیت یافتہ ایک نقل ہے – ایک خودکار تکمیل جو ہماری قیادت کی پیروی کرتی ہے۔ جیسا کہ \”اسٹاکسٹک طوطے۔AI زبان کے ماڈلز پر تنقید کرنے والا مشہور مقالہ جس کی وجہ سے گوگل نے اپنے دو اخلاقی AI محققین کو برطرف کیا، \”ہم آہنگی دیکھنے والے کی نظر میں ہے۔\”

محققین نے یہاں تک پایا ہے کہ یہ خاصیت بڑھتی ہے کیونکہ AI زبان کے ماڈل بڑے اور پیچیدہ ہوتے جاتے ہیں۔ سٹارٹ اپ اینتھروپک کے محققین – خود اوپن اے آئی کے سابق ملازمین نے قائم کیا تھا۔ AI زبان کے مختلف ماڈلز کا تجربہ کیا۔ ان کی \”سائیکوفینسی\” کی ڈگری کے لیے، یا صارفین کے بیان کردہ عقائد سے اتفاق کرنے کے رجحان کے لیے، اور دریافت کیا کہ \”بڑے LM ایسے طریقوں سے سوالات کے جوابات دیتے ہیں جو ایک ڈائیلاگ صارف کے ترجیحی جواب کو دہراتے ہوئے ایکو چیمبرز بناتے ہیں۔\” وہ نوٹ کرتے ہیں کہ اس کی ایک وضاحت یہ ہے کہ اس طرح کے سسٹمز کو Reddit جیسے پلیٹ فارم سے کھرچنے والی گفتگو پر تربیت دی جاتی ہے، جہاں صارفین ہم خیال گروپوں میں آگے پیچھے بات چیت کرتے ہیں۔

\"پرانے
ELIZA نے صارفین کو موہ لیا، حالانکہ یہ صرف اسٹاک جملے دہرانے کے قابل تھا۔
تصویر: مارسن وچاری / CC 2.0

اس میں ذہین مشینوں کے ساتھ ہماری ثقافت کا جنون شامل کریں اور آپ دیکھ سکتے ہیں کہ کیوں زیادہ سے زیادہ لوگ اس بات پر قائل ہیں کہ یہ چیٹ بوٹس سادہ سافٹ ویئر سے زیادہ ہیں۔ پچھلے سال، گوگل کے ایک انجینئر، بلیک لیموئن نے دعویٰ کیا تھا کہ کمپنی کا اپنا لینگویج ماڈل لامڈا حساس تھا (گوگل نے کہا کہ یہ دعویٰ \”مکمل طور پر بے بنیاد\” تھا)، اور صرف اسی ہفتے، ریپلیکا نامی چیٹ بوٹ ایپ کے صارفین نے اس نقصان پر افسوس کا اظہار کیا ہے۔ شہوانی، شہوت انگیز اور رومانوی کردار ادا کرنے کی صلاحیت کے بعد ان کے AI ساتھی کو ہٹا دیا گیا۔ جیسا کہ مدر بورڈ اطلاع دی، بہت سے صارفین اس تبدیلی سے \”تباہ شدہ\” تھے، جس نے بوٹ کے ساتھ تعلقات استوار کرنے میں برسوں گزارے۔ ان تمام معاملات میں، جذباتی وابستگی کا گہرا احساس پایا جاتا ہے — AI کے ساتھ دیر رات کی گفتگو ایسی دنیا میں فنتاسی سے متاثر ہوتی ہے جہاں بہت زیادہ احساس چیٹ باکسز کے ذریعے منتقل ہوتا ہے۔

یہ کہنا کہ ہم AI مرر ٹیسٹ میں ناکام ہو رہے ہیں، ان ٹولز کی روانی یا ان کی ممکنہ طاقت سے انکار نہیں ہے۔ میں پہلے بھی لکھ چکا ہوں \”صلاحیت اوورنگ\” – یہ تصور کہ AI سسٹمز ہمارے علم سے کہیں زیادہ طاقتور ہیں – اور Bing کے ساتھ میری اپنی گفتگو کے دوران تھامسن اور روز کی طرح محسوس کیا ہے۔ یہ بلاشبہ ہے۔ مزہ چیٹ بوٹس سے بات کرنے کے لیے — مختلف \”شخصیات\” نکالنے کے لیے، ان کے علم کی حدود کو جانچنا، اور پوشیدہ افعال کو ننگا کرنا۔ چیٹ بوٹس ایسی پہیلیاں پیش کرتے ہیں جنہیں الفاظ سے حل کیا جا سکتا ہے، اور اس طرح، قدرتی طور پر، وہ مصنفین کو متوجہ کرتے ہیں۔ بوٹس کے ساتھ بات کرنا اور اپنے آپ کو ان کے ابتدائی شعور پر یقین دلانا ایک لائیو ایکشن رول پلے بن جاتا ہے: ایک بڑھا ہوا حقیقت کا کھیل جہاں کمپنیاں اور کردار حقیقی ہیں، اور تم ہو اس کی موٹی میں.

لیکن AI ہائپ کے دور میں، اس طرح کے وہم کی حوصلہ افزائی کرنا خطرناک ہے۔ اس سے کسی کو بھی فائدہ نہیں ہوتا: نہ یہ نظام بنانے والے اور نہ ہی ان کے آخری صارفین۔ جو ہم یقینی طور پر جانتے ہیں وہ یہ ہے کہ Bing، ChatGPT، اور دیگر زبان کے ماڈلز جذباتی نہیں ہیں، اور نہ ہی وہ معلومات کے قابل اعتماد ذرائع ہیں۔ وہ چیزیں بناتے ہیں اور ان عقائد کی بازگشت کرتے ہیں جن کے ساتھ ہم انہیں پیش کرتے ہیں۔ انہیں جذبات کی چادر دینے کا – یہاں تک کہ نیم جذباتی – کا مطلب ہے کہ انہیں اپنے جذبات اور حقائق دونوں پر جن کے ساتھ ہم دنیا میں سمجھتے ہیں، غیر مستحق اختیار سے نوازیں۔

آئینے میں سخت نظر ڈالنے کا وقت آگیا ہے۔ اور ہماری اپنی ذہانت کو مشین سمجھ کر غلطی نہ کریں۔



Source link