AI کے پیچھے نظر نہ آنے والی انسانی افرادی قوت، بشمول ChatGPT | نیوز 24

author
0 minutes, 12 seconds Read

بہت سے AI ماڈل کام کرنے کے قابل ہونے کے لیے ایک بڑی انسانی افرادی قوت پر منحصر ہیں۔

  • AI اکثر کام کرنے کے قابل ہونے کے لیے بڑی انسانی افرادی قوت پر انحصار کرتا ہے۔
  • کارکن اکثر ایسے کام انجام دیتے ہیں جن میں اعتدال پسند نقصان دہ اور واضح مواد شامل ہو سکتا ہے، اور یہ ان کے لیے نفسیاتی طور پر نقصان دہ ہو سکتا ہے۔
  • مزید کہانیوں کے لیے، ٹیک اینڈ ٹرینڈز ملاحظہ کریں۔ ہوم پیج.

ہم AI کہانی کا ایک بڑا حصہ کھو رہے ہیں اور یہ حقیقت ہے کہ یہ اکثر انسانی افرادی قوت پر انحصار کرتی ہے۔

یہ بات امریکہ میں قائم مصنوعی ذہانت کے تحقیقی ادارے، AI پر شراکت داری میں AI، لیبر، اور معیشت کے لیے پروگرام کی سربراہ سونم جندال نے کی ہے۔ اس مہینے کے شروع میں این بی سی نیوز کو بتایا۔

انہوں نے کہا کہ اے آئی کے ارد گرد بہت سی بحث بہت مبارک ہو، لیکن اے AI ویب پوسٹ پر شراکت داری نے کہا کہ مشین لرننگ ٹولز کو بہترین طریقے سے کام کرنے کے لیے درکار “ڈیٹا افزودگی کا کام” اکثر نظر انداز کیا جاتا تھا، [and] نازک حالات میں دور دراز کے کارکنوں کے ذریعہ انجام دیا گیا”۔

انسان AI ٹولز کو فیڈ بیک فراہم کرتے ہیں جن کا استعمال سروس کے صارفین کو بہتر اور زیادہ درست معلومات فراہم کرنے کے لیے کیا جاتا ہے۔

انسان ایسے کام انجام دیتے ہیں جیسے وہ کسی تصویر میں جو کچھ دیکھتے ہیں اس پر لیبل لگانا یا کچھ مواد واضح یا غیر محفوظ اس بارے میں تاثرات فراہم کرنا، جسے AI بورڈ پر لے سکتا ہے اور مستقبل میں محفوظ اور زیادہ درست جوابات فراہم کرنے کے لیے استعمال کر سکتا ہے۔

کچھ انسانی ان پٹ کے بغیر، AI ٹولز کے لیے یہ جاننا بہت مشکل ہے کہ آیا وہ جو ردعمل دے رہا ہے وہ درست ہیں یا مواد ممکنہ طور پر نقصان دہ ہے۔

اس لیے بڑی ٹیکنالوجی کمپنیاں اکثر ایسی فرموں تک پہنچتی ہیں جن کے پاس اے آئی ماڈلز کی تربیت کے لیے کارکنوں کی ایک بڑی فوج موجود ہوتی ہے۔

ChatGPT کی تربیت

ڈیٹا افزودگی کے کام میں شامل تنظیموں میں سے ایک ساما ہے، جو کہ امریکہ میں قائم مشین لرننگ ٹریننگ کا ادارہ ہے جو گوگل، میٹا اور مائیکروسافٹ جیسے کلائنٹس کے ڈیٹا کو لیبل کرنے کے لیے کینیا، یوگنڈا اور بھارت سے کارکنوں کی خدمات حاصل کرتا ہے۔

وقت کی طرف سے ایک تحقیقات جو کہ اس سال کے شروع میں شائع ہوا تھا اس سے معلوم ہوا کہ OpenAI، ChatGPT کے مالکان نے بھی ChatGPT کو تربیت دینے کے لیے سما سے معاہدہ کیا، اور اس کام کے لیے کارکنوں کو $1.32 اور $2 فی گھنٹہ کے درمیان وصول کیا گیا۔

OpenAI اپنے ڈیٹا افزودگی کے شراکت داروں کے ناموں کا انکشاف نہیں کرتا ہے لہذا یہ معلوم نہیں ہے کہ آیا اس نے ChatGPT کو تربیت دینے کے لیے دیگر ڈیٹا افزودگی فرموں کے ساتھ کام کیا ہے۔

OpenAI نے 2021 میں Sama کو جنسی زیادتی، نفرت انگیز تقریر، اور تشدد کی متنی وضاحتوں کا لیبل لگانے کے لیے معاہدہ کیا۔ ٹائم نے سما کے چار ملازمین سے بات کی، جو اپنا نام ظاہر نہیں کرنا چاہتے تھے، جن میں سے سبھی نے بتایا کہ وہ کام سے “ذہنی طور پر زخمی” ہیں۔

سما کے ایک کارکن نے جو OpenAI کے لیے ٹیکسٹ لیبل لگا رہے تھے، کہا کہ انہیں ایک گرافک تفصیل پڑھنی پڑی جس میں حیوانیت اور نابالغ کی تفصیل شامل تھی۔ انہوں نے اسے “تشدد” قرار دیا اور کہا کہ ہفتے بھر اس طرح کے متعدد بیانات پڑھنا عام ہے۔

سما کی طرف سے ملازمین کو دماغی صحت کے سیشنز دستیاب کرائے گئے تھے، لیکن ٹائم نے جن ملازمین سے بات کی انہوں نے کہا کہ وہ “غیر مددگار” اور “نایاب” تھے۔

سما کے ترجمان نے اشاعت کو بتایا کہ “پیشہ ورانہ طور پر تربیت یافتہ اور لائسنس یافتہ ذہنی صحت کے معالج” ملازمین کے لیے گروپ یا انفرادی سیشن کے لیے کسی بھی وقت دستیاب ہوتے ہیں۔

سما نے کام کی تکلیف دہ نوعیت کی وجہ سے، طے شدہ معاہدے سے آٹھ ماہ قبل فروری 2022 میں ChatGPT کے ساتھ اپنا معاہدہ منسوخ کر دیا۔

OpenAI کے ترجمان نے ٹائم کو ایک بیان میں کہا کہ OpenAI کا مشن “مصنوعی جنرل انٹیلی جنس سے پوری انسانیت کو فائدہ پہنچانا یقینی بنانا ہے”۔

مزید پڑھیں | اوپن اے آئی کے سربراہ امریکی کانگریس کے سامنے اے آئی کی تعمیر کے لیے لائسنس کی تجویز پیش کرتے ہیں۔

بیان میں کہا گیا ہے کہ کمپنی نے اس بات کو یقینی بنانے کے لیے سخت محنت کی کہ AI سسٹمز مفید اور محفوظ ہیں اور تعصب اور نقصان دہ مواد محدود ہے۔

“درجہ بندی اور فلٹرنگ نقصان دہ [text and images] تربیتی ڈیٹا میں شامل پرتشدد اور جنسی مواد کی مقدار کو کم کرنے اور ایسے اوزار بنانے کے لیے ایک ضروری قدم ہے جو نقصان دہ مواد کا پتہ لگا سکیں۔”

ٹائم نے کہا کہ محنت، جو اکثر عالمی جنوب سے حاصل کی جاتی ہے، AI کو محفوظ طریقے سے کام کرنے کے لیے درکار ہوتا ہے، اکثر “نقصان دہ اور استحصالی” ہو سکتا ہے۔

“یہ پوشیدہ کارکن حاشیے پر رہتے ہیں یہاں تک کہ ان کا کام اربوں ڈالر کی صنعتوں میں حصہ ڈالتا ہے۔”

ایمیزون مکینیکل ترک

ایک اور ٹول جو AI کو تربیت دینے کے لیے استعمال کیا جا سکتا ہے وہ ہے Amazon کا مکینیکل ترک۔

کراؤڈ سورسنگ مارکیٹ پلیس کاروباروں کو بین الاقوامی افرادی قوت سے ڈیٹا حاصل کرنے کی اجازت دیتی ہے، جو ایمیزون کا کہنا ہے۔ 500 000 لوگ مضبوط ہیں۔

کمپنیاں پوسٹ کرتی ہیں جسے “انسانی ذہانت کے کام” کے نام سے جانا جاتا ہے جسے فری لانس کارکنان، جنہیں ٹرکرز کہا جاتا ہے، مکمل کرنے کے لیے مقابلہ کرتے ہیں۔ ان کاموں میں تصاویر کا لیبل لگانا، سروے مکمل کرنا، یا مواد کو معتدل کرنا شامل ہیں۔

کچھ کام صرف $0.01 یا تقریباً R0.19 ادا کرتے ہیں۔

کی طرف سے حوالہ دیا گیا ایک مطالعہ نیویارک ٹائمز پتہ چلا کہ درمیانی “turkers” فی گھنٹہ اجرت $1.77 تھی۔ صرف 4% ترکوں نے کم از کم اجرت سے زیادہ کمایا۔

مکینیکل ترک بالغوں کے مواد پر مشتمل کاموں کے لیے استعمال کیا جا سکتا ہے، لیکن اس مواد کو اس طرح کا لیبل لگانا چاہیے اور اس میں غیر قانونی مواد نہیں ہو سکتا۔

ایمیزون ساid کہ مائیکرو ٹاسک کو مکمل کرنے کے لیے کارکنوں کو کراؤڈ سورس کرنا اس طرح کے کام کو مکمل کرنے کے روایتی طریقوں سے بہتر تھا، جس کے لیے عارضی افرادی قوت کی خدمات حاصل کرنے کی ضرورت تھی۔

کمپنی نے کہا کہ “جب تک ٹیکنالوجی میں بہتری آتی جا رہی ہے، ابھی بھی بہت سی چیزیں ہیں جو انسان کمپیوٹر کے مقابلے میں بہت زیادہ مؤثر طریقے سے کر سکتا ہے، جیسے مواد کو اعتدال میں لانا، ڈیٹا کی نقل تیار کرنا، یا تحقیق،” کمپنی نے کہا۔




>Source link>

>>Join our Facebook Group be part of community. <<

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *