یہ مضمون، کی طرف سے گیبریل ہوانگ، 17، ولیمنگٹن، ڈیل میں ٹاور ہل اسکول سے۔، میں سے ایک ہے ٹاپ 11 فاتح لرننگ نیٹ ورک کا 10 واں سالانہ طلبہ کا ادارتی مقابلہجس کے لیے ہمیں 12,592 اندراجات موصول ہوئے۔

ہم اگلے ہفتے تمام فاتحین اور رنر اپ کا کام شائع کر رہے ہیں، اور آپ انہیں تلاش کر سکتے ہیں یہاں جیسا کہ وہ پوسٹ کرتے ہیں۔


AI توقف کا معاملہ

مصنوعی ذہانت SAT اور فلاپی برڈ کو کوڈ کر سکتی ہے۔ یہ ایوارڈ یافتہ آرٹ ورک تیار کر سکتا ہے اور ایک شخص کی طرح آپ سے بات کر سکتا ہے۔ AI یہاں ہے اور کمپنیاں اپنے چیٹ بوٹس، سافٹ ویئر اور جنریٹرز کو ہائپرسونک رفتار سے تیار کر رہی ہیں۔

انہیں توقف مارنا چاہئے۔

یہاں تک کہ ایک محدود نمونے کے سائز کے ساتھ، ہم پہلے ہی ان بڑے خطرات کو دیکھ چکے ہیں جو AI معاشرے کو لاحق ہیں۔

ڈیپ فیکس، فوٹوشاپ کی ایک شکل جو حقیقت پسندانہ تصاویر بنانے کے لیے AI سیکھنے کا استعمال کرتی ہے، پہلے ہی پروپیگنڈے کے لیے استعمال کی جا چکی ہے۔ چیٹ بوٹس اور اے آئی سافٹ ویئر کی نسل پرستانہ اور جنس پرستانہ رویے کی نمائش کی ایک اچھی طرح سے دستاویزی تاریخ ہے۔ AI کے ہاتھوں بڑے پیمانے پر ملازمتوں کی نقل مکانی کے ممکنہ خطرات ہم سب کو بڑے پیمانے پر معاشی اور سیاسی افراتفری کے خطرے میں ڈال دیتے ہیں۔

ان خطرات کے جواب میں، AI کمیونٹی میں بہت سے لوگوں نے ضابطے میں اضافے کا مطالبہ کیا ہے۔ لیکن زیادہ تر پالیسی ساز بامعنی ضوابط کو نافذ کرنے کے لیے مصنوعی ذہانت کو آسانی سے نہیں سمجھتے، اور جس رفتار سے AI ترقی کر رہا ہے اس کو پکڑنا ان کے لیے تقریباً ناممکن بنا دیتا ہے۔

“آپ حیران ہوں گے کہ میں اپنے ساتھیوں کو یہ سمجھانے میں کتنا وقت صرف کرتا ہوں کہ AI کے سب سے بڑے خطرات برے روبوٹس سے نہیں ہوں گے جن کی آنکھوں سے سرخ لیزر نکلتے ہیں،” نمائندے جے اوبرنولٹے نے کہا، جو کہ ریاستہائے متحدہ کانگریس کے چند اراکین میں سے ایک ہیں۔ مصنوعی ذہانت کے تجربے کے ساتھ۔

حل؟ ایک AI توقف۔ پہلے سے ہی، مصنوعی ذہانت کی کمیونٹی میں شامل 1,100 سے زیادہ افراد نے اس خیال کی تائید کی ہے – جس میں ایلون مسک اور اسٹیو ووزنیاک جیسے ایگزیکٹوز سے لے کر یوشوا بینجیو اور ٹرسٹن ہیرس جیسے کمپیوٹر سائنس کے سرکردہ ماہرین تعلیم شامل ہیں۔ AI توقف کے تحت، مصنوعی کو ایک مخصوص “طاقت کی سطح” سے آگے بڑھانے کے لیے کوئی ترقی یا تحقیق، علمی یا کارپوریٹ نہیں کیا جا سکتا۔

اس سے حکومتوں اور پالیسی سازوں کو مصنوعی ذہانت کے شعبے کا صحیح تجزیہ اور ان کو منظم کرنے کا وقت ملے گا۔ وہ ایسی پالیسیاں قائم کرنے کے قابل ہوں گے جو ٹرک ڈرائیوروں جیسے گروپوں کی ملازمتوں کی حفاظت کریں گی جن کی ملازمتیں AI سے چلنے والی کاروں کے ذریعے ختم کی جا سکتی ہیں۔ وہ جرائم کی شناخت کے سافٹ ویئر کو مقامی پولیس کے استعمال کرنے سے پہلے پاس کرنے کے لیے بنیادی معیارات بنا سکتے ہیں۔

اس کے اوپری حصے میں، اے آئی موریٹوریم AI ماڈلز تیار کرنے والی کمپنیوں اور ریسرچ گروپس کے لیے بھی فائدہ مند ثابت ہو سکتا ہے۔ “AI ہتھیاروں کی دوڑ” میں ایک وقفہ OpenAI جیسے گروپوں کو اپنے موجودہ AI سافٹ ویئر کی خامیوں کو دور کرنے کے لیے مزید وسائل مختص کرنے کی اجازت دے سکتا ہے بجائے اس کے کہ وہ زیادہ جدید ماڈلز تیار کرنے میں جلدی کریں۔ ایک وقفہ بالآخر ایک اعلیٰ حتمی مصنوع کا باعث بن سکتا ہے۔

AI نسل انسانی کے لیے سب سے زیادہ فائدہ مند ایجادات میں سے ایک ہو سکتی ہے، لیکن یہ سماجی طور پر سب سے زیادہ تباہ کن ایجادات میں سے ایک بھی ہو سکتی ہے۔ ایک AI وقفہ قائم کرنے سے، ہمیں AI ٹیکنالوجی کو بہتر بنانے اور سمجھنے کا موقع ملے گا، ساتھ ہی اس بات کو بھی یقینی بنایا جائے گا کہ اس کی ترقی ہمارے معاشرے کے ساتھ ہم آہنگ ہو۔

کام کا حوالہ دیا

میک نامی، راجر۔ “صرف ایک سوال ہے جو AI کے ساتھ اہمیت رکھتا ہے۔وقت، 5 اپریل 2023۔

میٹز، کیڈ اور گریگوری شمٹ۔ “ایلون مسک اور دیگر ‘معاشرے کے لیے گہرے خطرات’ کا حوالہ دیتے ہوئے AI پر توقف کا مطالبہ کرتے ہیں۔نیویارک ٹائمز، 29 مارچ 2023۔

پائپر، کیلسی،اے آئی کے ماہرین اس چیز سے خوفزدہ ہیں جو وہ بنا رہے ہیں۔ووکس، 28 نومبر 2022۔

سیموئیل، سگل۔ “AI کو سست کرنے کا معاملہ۔ووکس، 20 مارچ 2023۔



>Source link>

>>Join our Facebook Group be part of community. <<

By hassani

Leave a Reply

Your email address will not be published. Required fields are marked *