OpenAI کو یقین ہے کہ اس کی ٹیکنالوجی ٹیک کے مشکل ترین مسائل میں سے ایک کو حل کرنے میں مدد کر سکتی ہے: پیمانے پر مواد کی اعتدال پسندی۔. OpenAI کا دعویٰ ہے کہ GPT-4 تقریباً درست اور زیادہ مستقل ہونے کے ساتھ ساتھ ہزاروں انسانی ماڈریٹرز کی جگہ لے سکتا ہے۔ اگر یہ سچ ہے تو سب سے زیادہ زہریلا اور ذہنی طور پر ٹیکس لگانے والے کام ٹیک میں مشینوں کو آؤٹ سورس کیا جاسکتا ہے۔

ایک بلاگ پوسٹ میںاوپن اے آئی کا دعویٰ ہے کہ وہ پہلے سے ہی GPT-4 کو اپنی مواد کی پالیسیوں کو تیار کرنے اور بہتر بنانے، مواد کو لیبل لگانے اور فیصلے کرنے کے لیے استعمال کر رہا ہے۔ “میں مزید لوگوں کو اپنے اعتماد اور حفاظت اور اعتدال کو کام کرتے دیکھنا چاہتا ہوں۔ [in] اس طرح، “اوپن اے آئی کے سیفٹی سسٹم کے سربراہ لیلین وینگ بتایا سیمافور. “یہ واقعی ایک اچھا قدم ہے کہ ہم AI کا استعمال حقیقی دنیا کے مسائل کو اس طریقے سے حل کرنے کے لیے کرتے ہیں جو معاشرے کے لیے فائدہ مند ہو۔”

اوپن اے آئی مواد کی اعتدال پسندی کے روایتی طریقوں کے مقابلے میں تین بڑے فوائد دیکھتا ہے۔ سب سے پہلے، یہ دعوی کرتا ہے کہ لوگ پالیسیوں کی مختلف تشریح کرتے ہیں، جبکہ مشینیں اپنے فیصلوں میں مطابقت رکھتی ہیں۔ وہ رہنما خطوط ایک کتاب کی طرح لمبے ہو سکتے ہیں اور مسلسل تبدیل ہو سکتے ہیں۔ اگرچہ انسانوں کو سیکھنے اور اپنانے کے لیے بہت زیادہ تربیت درکار ہوتی ہے، اوپن اے آئی کا کہنا ہے کہ زبان کے بڑے ماڈلز نئی پالیسیوں کو فوری طور پر نافذ کر سکتے ہیں۔

دوسرا، GPT-4 مبینہ طور پر گھنٹوں کے اندر نئی پالیسی تیار کرنے میں مدد کر سکتا ہے۔ مسودہ تیار کرنے، لیبل لگانے، تاثرات جمع کرنے، اور ریفائننگ کے عمل میں عام طور پر ہفتوں یا کئی مہینے لگتے ہیں۔ تیسرا، OpenAI ان کارکنوں کی خیریت کا ذکر کرتا ہے جو مسلسل نقصان دہ مواد، جیسے بچوں کے ساتھ بدسلوکی یا تشدد کی ویڈیوز کے سامنے آتے ہیں۔

OpenAI اس مسئلے میں مدد کر سکتا ہے جو اس کی اپنی ٹیکنالوجی نے بڑھا دی ہے۔

تقریباً دو دہائیوں کے جدید سوشل میڈیا اور اس سے بھی زیادہ برسوں کے آن لائن کمیونٹیز کے بعد بھی مواد کی اعتدال آن لائن پلیٹ فارمز کے لیے سب سے مشکل چیلنجز میں سے ایک ہے۔ میٹا، گوگل اور ٹِک ٹِک ماڈریٹرز کی فوجوں پر انحصار کرتے ہیں جنہیں خوفناک اور اکثر تکلیف دہ مواد کو دیکھنا ہوتا ہے۔ ان میں سے زیادہ تر ترقی پذیر ممالک میں کم اجرت والے ہیں، آؤٹ سورسنگ فرموں کے لیے کام کرنا، اور دماغی صحت کے ساتھ جدوجہد کرتے ہیں کیونکہ انہیں دماغی صحت کی دیکھ بھال کی کم سے کم مقدار ملتی ہے۔

تاہم، OpenAI خود کلک ورکرز اور انسانی کام پر بہت زیادہ انحصار کرتا ہے۔. ہزاروں لوگ، جن میں سے بہت سے افریقی ممالک جیسے کینیا میں ہیں، مواد کی تشریح اور لیبل لگاتے ہیں۔ نصوص پریشان کن ہو سکتے ہیں، کام دباؤ ہے، اور تنخواہ غریب ہے.

جب کہ OpenAI اپنے نقطہ نظر کو نیا اور انقلابی قرار دیتا ہے، AI کا استعمال کیا گیا ہے۔ سالوں سے مواد کی اعتدال کے لیے. مارک زکربرگ کا ایک کامل خودکار نظام کا وژن ابھی تک مکمل نہیں ہوا ہے، لیکن Meta نقصان دہ اور غیر قانونی مواد کی اکثریت کو اعتدال میں لانے کے لیے الگورتھم کا استعمال کرتا ہے۔ یوٹیوب اور ٹِک ٹِک جیسے پلیٹ فارم اسی طرح کے سسٹمز پر شمار ہوتے ہیں، اس لیے OpenAI کی ٹیکنالوجی چھوٹی کمپنیوں کو اپیل کر سکتی ہے جن کے پاس اپنی ٹیکنالوجی تیار کرنے کے لیے وسائل نہیں ہیں۔

ہر پلیٹ فارم کھلے عام تسلیم کرتا ہے کہ پیمانے پر کامل مواد کی اعتدال ناممکن ہے۔ انسان اور مشین دونوں ہی غلطیاں کرتے ہیں، اور اگرچہ فیصد کم ہو سکتا ہے، پھر بھی لاکھوں نقصان دہ پوسٹس موجود ہیں جو پھسل جاتی ہیں اور اتنے ہی بے ضرر مواد کے ٹکڑے جو چھپ جاتے ہیں یا حذف ہو جاتے ہیں۔

خاص طور پر، گمراہ کن، غلط، اور جارحانہ مواد کا سرمئی علاقہ جو ضروری نہیں کہ غیر قانونی ہو، خودکار نظاموں کے لیے ایک بڑا چیلنج ہے۔ یہاں تک کہ انسانی ماہرین بھی ایسی پوسٹوں کو لیبل لگانے کے لیے جدوجہد کرتے ہیں، اور مشینیں اکثر اسے غلط سمجھتی ہیں۔ یہی بات طنزیہ یا تصاویر اور ویڈیوز پر بھی لاگو ہوتی ہے۔ دستاویزی جرائم یا پولیس کی بربریت.

آخر میں، OpenAI اس مسئلے سے نمٹنے میں مدد کر سکتا ہے جسے اس کی اپنی ٹیکنالوجی نے بڑھا دیا ہے۔ جنریٹو AI جیسے ChatGPT یا کمپنی کا امیج بنانے والا، DALL-E، بڑے پیمانے پر غلط معلومات پیدا کرنا اور اسے سوشل میڈیا پر پھیلانا بہت آسان بناتا ہے۔ اگرچہ OpenAI نے ChatGPT کو مزید سچا بنانے کا وعدہ کیا ہے، GPT-4 اب بھی اپنی مرضی سے تیار کرتا ہے۔ خبروں سے متعلق جھوٹ اور غلط معلومات۔



>Source link>

>>Join our Facebook Group be part of community. <<

By hassani

Leave a Reply

Your email address will not be published. Required fields are marked *