Nonprofits Accountable Tech, AI Now, and the Electronic Privacy Information Center (EPIC) پالیسی تجاویز جاری کیں۔ جو اس بات کو محدود کرنے کی کوشش کرتے ہیں کہ بڑی AI کمپنیوں کے پاس ضابطے میں کتنی طاقت ہے جو کہ جنریٹو AI کے کچھ استعمال کے خلاف سرکاری ایجنسیوں کی طاقت کو بھی بڑھا سکتی ہے۔

اس گروپ نے اس ماہ بنیادی طور پر امریکہ میں سیاستدانوں اور سرکاری ایجنسیوں کو فریم ورک بھیجا، ان سے کہا کہ وہ AI کے ارد گرد نئے قوانین اور ضوابط تیار کرتے وقت اس پر غور کریں۔

فریم ورک، جسے وہ زیرو ٹرسٹ AI گورننس کہتے ہیں، تین اصولوں پر قائم ہے: موجودہ قوانین کا نفاذ؛ جرات مندانہ، آسانی سے لاگو روشن لائن قوانین بنائیں؛ اور یہ ثابت کرنے کے لیے کمپنیوں پر بوجھ ڈالیں کہ اے آئی لائف سائیکل کے ہر مرحلے میں اے آئی سسٹمز نقصان دہ نہیں ہیں۔ AI کی اس کی تعریف میں AI اور فاؤنڈیشن ماڈل دونوں شامل ہیں جو الگورتھمک فیصلہ سازی کے ساتھ اسے فعال کرتے ہیں۔

اکاؤنٹیبل ٹیک کے شریک بانی جیسی لیہرچ بتاتے ہیں، “ہم ابھی فریم ورک کو ختم کرنا چاہتے تھے کیونکہ ٹیکنالوجی تیزی سے تیار ہو رہی ہے، لیکن نئے قوانین اس رفتار سے آگے نہیں بڑھ سکتے۔” کنارہ.

“لیکن اس سے ہمیں سب سے بڑے نقصان کو کم کرنے کا وقت ملتا ہے کیونکہ ہم ماڈلز کی پہلے سے تعیناتی کو منظم کرنے کا بہترین طریقہ تلاش کرتے ہیں۔”

انہوں نے مزید کہا کہ، انتخابی موسم آنے کے ساتھ، کانگریس جلد ہی انتخابی مہم کے لیے روانہ ہو جائے گی، جس سے اے آئی ریگولیشن کی قسمت کو ہوا میں چھوڑ دیا جائے گا۔

جیسا کہ حکومت یہ جاننا جاری رکھے ہوئے ہے کہ تخلیقی AI کو کیسے منظم کیا جائے، گروپ نے کہا کہ انسداد امتیازی سلوک، صارفین کے تحفظ اور مسابقت کے بارے میں موجودہ قوانین موجودہ نقصانات کو دور کرنے میں مدد کرتے ہیں۔

AI میں امتیازی سلوک اور تعصب ایک ایسی چیز ہے جس کے بارے میں محققین نے برسوں سے خبردار کیا ہے۔ تازہ گھومنا والا پتھر آرٹیکل نے چارٹ کیا ہے کہ کس طرح مشہور ماہرین جیسے کہ ٹمنیٹ گیبرو نے اس مسئلے پر برسوں تک خطرے کی گھنٹی بجا دی صرف ان کمپنیوں کی طرف سے نظر انداز کیا گیا جنہوں نے انہیں ملازمت دی۔

لہریچ نے اشارہ کیا۔ اوپن اے آئی میں فیڈرل ٹریڈ کمیشن کی تحقیقات ممکنہ صارفین کے نقصان کو دریافت کرنے کے لیے استعمال کیے جانے والے موجودہ قوانین کی ایک مثال کے طور پر۔ دیگر سرکاری اداروں نے بھی AI کمپنیوں کو خبردار کیا ہے کہ وہ اس کی کڑی نگرانی کریں گے۔ ان کے مخصوص شعبوں میں AI کا استعمال.

کانگریس نے کئی سماعتیں کی ہیں جو یہ جاننے کی کوشش کر رہے ہیں کہ تخلیقی AI کے عروج کے بارے میں کیا کرنا ہے۔ سینیٹ کے اکثریتی رہنما چک شومر ساتھیوں پر زور دیا AI اصول سازی میں “رفتار کو تیز کرنا”۔ بڑی AI کمپنیاں پسند کرتی ہیں۔ OpenAI کھل چکے ہیں۔ امریکی حکومت کے ساتھ مل کر قواعد و ضوابط تیار کرنے کے لیے اور یہاں تک کہ ایک غیر پابند، ناقابل نفاذ پر دستخط کرنے کے لیے وائٹ ہاؤس کے ساتھ معاہدہ ذمہ دار AI تیار کرنا۔

زیرو ٹرسٹ AI فریم ورک کی حدود کو بھی نئے سرے سے متعین کرنے کی کوشش کرتا ہے۔ ڈیجیٹل شیلڈنگ قوانین جیسے سیکشن 230 لہذا اگر ماڈل غلط یا خطرناک معلومات پھینکتا ہے تو تخلیقی AI کمپنیوں کو ذمہ دار ٹھہرایا جاتا ہے۔

“سیکشن 230 کے پیچھے خیال وسیع اسٹروک میں معنی رکھتا ہے، لیکن Yelp پر خراب جائزے میں فرق ہے کیونکہ کوئی شخص ریستوراں اور GPT سے نفرت کرتا ہے جو ہتک آمیز چیزیں بناتا ہے،” Lehrich کہتے ہیں۔ (سیکشن 230 کو جزوی طور پر آن لائن خدمات کو ہتک آمیز مواد کی ذمہ داری سے بچانے کے لیے منظور کیا گیا تھا، لیکن اس بات کی بہت کم نظیر موجود ہے کہ آیا ChatGPT جیسے پلیٹ فارم کو پیدا کرنے کے لیے ذمہ دار ٹھہرایا جا سکتا ہے۔ غلط اور نقصان دہ بیانات.)

اور جیسا کہ قانون ساز AI کمپنیوں سے ملتے رہتے ہیں، ایندھن دیتے ہیں۔ ریگولیٹری گرفتاری کا خدشہAccountable Tech اور اس کے شراکت داروں نے کئی روشن اصول، یا پالیسیاں تجویز کیں جو واضح طور پر بیان کی گئی ہیں اور جن میں سبجیکٹیوٹی کی کوئی گنجائش نہیں ہے۔

ان میں جذبات کی شناخت، پیش گوئی کرنے والی پولیسنگ، عوامی مقامات پر بڑے پیمانے پر نگرانی کے لیے استعمال ہونے والے چہرے کی شناخت، سماجی اسکورنگ، اور مکمل طور پر خودکار بھرتی، فائرنگ، اور HR مینجمنٹ کے لیے AI کے استعمال پر پابندی شامل ہے۔ وہ کسی دی گئی سروس کے لیے غیر ضروری مقدار میں حساس ڈیٹا اکٹھا کرنے یا اس پر کارروائی کرنے، تعلیم اور ملازمت جیسے شعبوں میں بائیو میٹرک ڈیٹا اکٹھا کرنے، اور “نگرانی کے اشتہارات” پر پابندی لگانے کا بھی کہتے ہیں۔

اکاونٹیبل ٹیک نے قانون سازوں پر بھی زور دیا کہ وہ بڑے کلاؤڈ فراہم کنندگان کو بڑی تجارتی AI خدمات کے مالک ہونے یا ان میں فائدہ مند دلچسپی رکھنے سے روکیں۔ بگ ٹیک کے اثرات کو محدود کریں۔ AI ماحولیاتی نظام میں کمپنیاں۔ مائیکروسافٹ اور گوگل جیسے کلاؤڈ فراہم کرنے والے جنریٹیو AI پر بہت زیادہ اثر رکھتے ہیں۔ OpenAI، سب سے مشہور جنریٹو AI ڈویلپر، Microsoft کے ساتھ کام کرتا ہے، جس نے کمپنی میں سرمایہ کاری بھی کی۔ گوگل نے اپنا بڑا لینگوئج ماڈل بارڈ جاری کیا اور تجارتی استعمال کے لیے دوسرے اے آئی ماڈلز تیار کر رہا ہے۔

احتسابی ٹیک اور اس کے شراکت دار چاہتے ہیں کہ AI کے ساتھ کام کرنے والی کمپنیاں یہ ثابت کریں کہ بڑے AI ماڈلز کو مجموعی طور پر نقصان نہیں پہنچے گا۔

گروپ نے فارماسیوٹیکل انڈسٹری میں استعمال ہونے والے طریقہ کی طرح کا ایک طریقہ تجویز کیا ہے، جہاں کمپنیاں عوام کے سامنے اے آئی ماڈل کی تعیناتی اور تجارتی ریلیز کے بعد جاری نگرانی سے پہلے ہی ضابطے کے تابع ہو جاتی ہیں۔

غیر منفعتی تنظیمیں کسی ایک سرکاری ریگولیٹری ادارے کا مطالبہ نہیں کرتی ہیں۔ تاہم، لہریچ کا کہنا ہے کہ یہ ایک ایسا سوال ہے جس پر قانون سازوں کو یہ دیکھنے کے لیے غور کرنا چاہیے کہ آیا قواعد کو الگ کرنے سے ضوابط مزید لچکدار ہوں گے یا ان پر عمل درآمد کو روک دیا جائے گا۔

Lehrich کا کہنا ہے کہ یہ بات قابل فہم ہے کہ چھوٹی کمپنیاں ان ضابطوں کی مقدار کو روک سکتی ہیں جو وہ چاہتے ہیں، لیکن ان کا خیال ہے کہ پالیسیوں کو کمپنی کے سائز کے مطابق بنانے کی گنجائش موجود ہے۔

“حقیقت پسندانہ طور پر، ہمیں AI سپلائی چین کے مختلف مراحل اور ہر مرحلے کے لیے موزوں ڈیزائن کی ضروریات کے درمیان فرق کرنے کی ضرورت ہے،” وہ کہتے ہیں۔

انہوں نے مزید کہا کہ اوپن سورس ماڈل استعمال کرنے والے ڈویلپرز کو یہ بھی یقینی بنانا چاہیے کہ یہ ہدایات پر عمل کریں۔



>Source link>

>>Join our Facebook Group be part of community. <<

By hassani

Leave a Reply

Your email address will not be published. Required fields are marked *