ایڈیٹر کا نوٹ: اس کہانی نے اس ہفتے کے فیوچر آف لرننگ نیوز لیٹر کو آگے بڑھایا، جو ہر دوسرے بدھ کو سبسکرائبرز کے ان باکسز میں ٹرینڈز اور ایجوکیشن انوویشن کے بارے میں سرفہرست کہانیوں کے ساتھ مفت فراہم کیا جاتا ہے۔ آج سبسکرائب کریں!
پچھلے چند مہینوں میں، ChatGPT اور BingAI جیسی AI سے چلنے والی ٹیکنالوجیز نے ہماری زندگی کے بہت سے پہلوؤں کو تبدیل کرنے کی اپنی صلاحیت کے لیے کافی توجہ حاصل کی ہے۔ اس کا ادراک کس حد تک ہوتا ہے یہ دیکھنا باقی ہے۔
لیکن بات چیت سے جو چیز غائب نظر آتی ہے وہ یہ ہے کہ کس طرح ٹیکنالوجیز – خاص طور پر AI اور مشین لرننگ سے چلنے والی – نسلی عدم مساوات کو مزید خراب کر سکتی ہیں، اگر ہم محتاط نہیں ہیں۔
تعلیم میں، سیاہ فام اور ہسپانوی طلباء کو اسکولوں میں ہر روز عدم مساوات کا سامنا کرنا پڑتا ہے، خواہ اس کے ذریعے ہو۔ تادیبی اعمال، کورس کی جگہ کا تعین یا ثقافتی طور پر غیر متعلقہ مواد۔ ماہرین نے متنبہ کیا ہے کہ کلاس روم میں تکنیکی ٹولز کی بغیر سوچے سمجھے توسیع سے سیاہ فام اور ہسپانوی طلباء کے امتیازی سلوک کو مزید بڑھ سکتا ہے، ماہرین نے خبردار کیا ہے۔
دوسرے شعبوں میں، نسلی تعصب پر مبنی ٹیک ٹولز کے خطرات نسبتاً معروف ہوتے جا رہے ہیں۔ چہرے کی شناخت کی ٹیکنالوجی لیں۔ تحقیق نے دکھایا ہے کہ چہرے کے تجزیہ کے الگورتھم اور ڈیٹاسیٹس خراب کارکردگی کا مظاہرہ خواتین، سیاہ اور بھورے لوگوں، بوڑھوں اور بچوں کے چہروں کا جائزہ لیتے وقت۔ جب پولیس نگرانی کے مقاصد کے لیے استعمال کرتی ہے، تو ٹیکنالوجی غلط گرفتاریوں یا جان لیوا تشدد کا باعث بن سکتی ہے۔ ہاؤسنگ میں صنعتالگورتھم پر انحصار کرتے ہوئے رہن کے قرض دہندگان ڈاکٹروں کے قرض دہندگان جو بعض اوقات سیاہ اور لاطینی درخواست دہندگان سے غیر منصفانہ طور پر چارج کرتے ہیں زیادہ سود کی شرح.
ماہرین کا کہنا ہے کہ یہ ٹیکنالوجیز جزوی طور پر نسلی طور پر متعصب ہوسکتی ہیں کیونکہ یہ اپنے ڈیزائنرز کے تعصبات اور کمزوریوں کی عکاسی کرتی ہیں۔ یہاں تک کہ جب ڈویلپرز ایسا ہونے کا ارادہ نہیں رکھتے ہیں، ان کے موروثی تعصبات کسی پروڈکٹ میں کوڈ کیا جا سکتا ہے، خواہ ناقص الگورتھم، تاریخی طور پر متعصب ڈیٹاسیٹس یا خود ڈویلپرز کے تعصبات کے ذریعے۔
2020 میں، Nidhi Hebbar، Apple میں ایک سابقہ ایجوکیشن لیڈ جس نے بعد میں Aspen Tech Policy Hub میں ایڈ ٹیک میں نسلی تعصب کا مطالعہ کیا، نے Ed Tech Equity پروجیکٹ کی مشترکہ بنیاد رکھی۔ اس کا مقصد نہ صرف اسکولوں کو وہ وسائل فراہم کرنا ہے جس کی انہیں مساوی ایڈ ٹیک پروڈکٹس چننے کے لیے درکار ہے، بلکہ ایڈ ٹیک کمپنیوں کو ایسے ٹولز کے لیے جوابدہ بنانا ہے جو تاریخی طور پر کم نمائندگی والے طلبہ پر منفی اثر ڈال سکتے ہیں۔
ہیبر نے کہا، \”اکثر اوقات تکنیکی کمپنیاں واقعی کلاس روم میں سیاہ اور بھورے طلباء کے تجربے کو نہیں سمجھتی تھیں۔\” انہوں نے کہا کہ جب تکنیکی کمپنیاں اسکولوں کے لیے پروڈکٹس تیار کرتی ہیں، تو وہ یا تو ایسے اسکولوں کے ساتھ شراکت کرتی ہیں جو امیر، بنیادی طور پر سفید مضافاتی علاقوں میں ہیں یا اپنے ملازمین کے تعلیمی تجربے پر انحصار کرتے ہیں۔
ہیبر نے کہا کہ وبائی مرض کے دوران ٹیک کو اپنانے کی جلدی پریشانی کا باعث رہی ہے کیونکہ اسکول پروکیورمنٹ افسران کے پاس ہمیشہ مناسب طریقے سے ٹیک ٹولز کی جانچ کرنے یا ٹیک کمپنیوں کے ساتھ سخت بات چیت کرنے کا وقت نہیں ہوتا تھا۔
ہیبر نے کہا کہ اس نے اسکولوں کے لیے دستیاب کچھ ذاتی نوعیت کے سیکھنے والے سافٹ ویئر میں نسلی تعصبات کو دیکھا ہے۔ وہ پروڈکٹس جو طالب علم کی زبان کی فہم اور تخلیق کی مہارتوں کی پیمائش کرنے کے لیے وائس اسسٹنٹ ٹیکنالوجی کا استعمال کرتے ہیں۔
\”اکثر اوقات ٹیک کمپنیاں واقعی کلاس روم میں سیاہ اور بھوری طلباء کے تجربے کو نہیں سمجھتی تھیں۔\”
ندھی ہیبر، شریک بانی، ایڈ ٹیک ایکویٹی پروجیکٹ۔
\”اگر اس کی تربیت طلبا کو لہجے کے ساتھ نہیں کی گئی تھی، مثال کے طور پر، یا [those who] گھر میں ایک مختلف لہجے میں بات کریں، یہ بہت آسانی سے سیکھ سکتا ہے کہ کچھ طلباء غلط ہیں اور دوسرے طلباء درست ہیں، اور یہ طلباء کی حوصلہ شکنی کر سکتا ہے،\” ہیبر نے کہا۔ \”یہ طالب علموں کو سیکھنے کی رفتار کو سست کر سکتا ہے کیونکہ وہ اپنے اظہار کے طریقے سے۔\”
ہیبر کے مطابق، اس طرح کے مسائل عام ہیں جب ایڈ ٹیک کمپنیاں صرف اسکولوں کے ایک مخصوص سیٹ کے فراہم کردہ ڈیٹا پر انحصار کرتی ہیں جو مطالعہ کا انتخاب کرتے ہیں۔ انہوں نے کہا کہ ٹیک کمپنیاں اکثر طلباء کی رازداری کے خدشات کی وجہ سے نسل سے متعلق ڈیٹا اکٹھا نہیں کرتی ہیں، اور نہ ہی وہ اس بات پر نظر ڈالتے ہیں کہ مختلف نسلی یا زبانی پس منظر کے طلباء کے لیے کوئی پروڈکٹ کیسے کام کرتی ہے۔
ہیبر نے کہا کہ ٹیک کمپنیوں کا یہ دعویٰ کہ وہ ڈیٹا پرائیویسی کے مسائل کی وجہ سے ریس کا پتہ نہیں لگاتے ہیں، ایک کاپ آؤٹ ہے۔ \”اگر وہ پراعتماد نہیں ہیں کہ وہ حساس اور محتاط طریقے سے ڈیٹا کو ٹریک کر سکتے ہیں،\” انہوں نے کہا، \”تو پھر شاید انہیں طالب علم کے ڈیٹا کو بالکل بھی ٹریک نہیں کرنا چاہیے۔\”
متعلقہ: \’ایڈ ٹیک پر خرچ کرنے میں جلدی نہ کریں\’
ہیبار کے ایڈ ٹیک ایکویٹی پروجیکٹ نے، ڈیجیٹل وعدے کے تعاون سے، شروع کیا۔ مصنوعات کی تصدیق 2021 میں ان ایڈ ٹیک کمپنیوں کو تسلیم کرنے کا پروگرام جو اپنے ڈیزائن میں نسلی مساوات کو شامل کرنے کے منصوبوں کا اشتراک کرتی ہیں۔ اس کے گروپ نے بھی ایک تیار کیا ہے۔ نسلی مساوات کے لیے ایجوکیشن ٹول کٹ میں AI ان کے ڈیزائن کے عمل کے دوران کمپنیوں کی مدد کرنے کے لئے.
یہ وہی ٹول کٹ تھی جسے صابن باکس لیبز کی چیف ٹیکنالوجی آفیسر امیلیا کیلی اپنی کمپنی کے کام کی جانچ کرتی تھی۔ کمپنی، جو 2022 میں بن گئی۔ سرٹیفیکیشن حاصل کرنے والی پہلی ایڈ ٹیک کمپنی، اسپیچ ریکگنیشن ٹیکنالوجی تیار کرتی ہے جو خاص طور پر بچے کی تقریر کو ان کے فطری لہجے اور بولی میں پہچاننے کے لیے بنائی گئی ہے۔ کمپنی اپنی پروڈکٹ دیگر ایڈ ٹیک کمپنیوں اور پلیٹ فارمز کو بھی فراہم کرتی ہے، جیسے Scholastic.
کیلی نے کہا کہ جیسے ہی ملازمین نے ٹیکنالوجی بنائی، انہوں نے \”ممکنہ طور پر سب سے متنوع ڈیٹا پول\” حاصل کرنے کی کوشش کی تاکہ یہ ٹیکنالوجی \”نہ صرف متمول علاقوں کے چھوٹے چھوٹے بچوں کے لیے، بلکہ تمام بچوں کے لیے\” کام کرے۔ کیلی نے کہا کہ صابن باکس لیب کی ٹیم نے ایک ماہانہ \”مفروضہ جائزہ\” متعارف کرایا ہے، جس میں وہ مصنوعات کے ڈیزائن سے لے کر جانچ تک ہر چیز کے بارے میں اپنے مفروضوں کو چیلنج کرتے ہیں۔
اس نے دیگر ٹیک کمپنیوں پر زور دیا کہ وہ اس بات کو یقینی بنائیں کہ ان کی مصنوعات طلباء کو نقصان نہیں پہنچا رہی ہیں: \”یہ سوچنا بہت آسان ہے کہ آپ کا سسٹم کام کر رہا ہے جب آپ ٹیسٹ کے نمائندے کو کافی نہیں بناتے ہیں۔\”
ہیبر نے کہا کہ وہ اس بات پر بھی پریشان ہیں کہ اسکول کے منتظمین کی مدد کے لیے بنائی گئی ٹیکنالوجی، خاص طور پر تادیبی فیصلوں میں، سیاہ اور بھورے طلباء کو نقصان پہنچا رہی ہے۔ جیسا کہ زیادہ اسکول استعمال کرتے ہیں۔ اسکول کے تشدد اور بد سلوکی سے بچانے کے لیے چہرے کی شناخت کی ٹیکنالوجی، اس نے کہا کہ وہ فکر مند ہیں کہ سافٹ ویئر غلطی سے سیاہ یا بھورے طالب علموں کو نظم و ضبط کے لیے منتخب کر سکتا ہے کیونکہ اس کی تربیت ممکنہ طور پر تاریخی ڈیٹا پر کی گئی تھی جس میں ان طلبہ کو سفید فام یا ایشیائی طلبہ سے زیادہ شرحوں پر نظم و ضبط کیا گیا تھا۔
لیکن ہیبر اور دیگر ماہرین کا کہنا ہے کہ اس طرح کے خدشات کو اسکولوں اور اساتذہ کو ٹیکنالوجی کے استعمال یا AI پر پابندی لگانے سے نہیں روکنا چاہیے۔ غیر منفعتی تنظیم ڈیجیٹل وعدے کے ساتھ لرننگ سائنسز ریسرچ ٹیم کے ایگزیکٹو ڈائریکٹر جیریمی روسیل کے مطابق کلیدی، اساتذہ کے لیے یہ ہے کہ وہ دستاویزات طلب کریں کہ ٹیک کمپنیاں ان مسائل کو سنجیدگی سے لے رہی ہیں، اور یہ کہ ان کے پاس تعصب کو دور کرنے کا منصوبہ ہے۔
انہوں نے اسکول کے رہنماؤں کی حوصلہ افزائی کی کہ وہ انسٹی ٹیوٹ فار ایتھیکل AI ان ایجوکیشن، AI4K12 اور EdSAFE AI الائنس جیسے گروپوں کو دیکھیں، جنہوں نے کلاس رومز کے لیے ابھرتی ہوئی ٹیکنالوجیز کا انتخاب کرتے وقت اسکولوں کے لیے استعمال کرنے کے لیے فریم ورک اور اخلاقی رہنما خطوط تیار کیے ہیں۔ AI الائنس میں تقریباً 200 ممبر تنظیمیں شامل ہیں، جن میں غیر منافع بخش اور ایڈٹیک کاروبار شامل ہیں، جو ان اقدامات کی نشاندہی کرنے کے لیے اکٹھے ہوئے ہیں جو کمپنیاں الگورتھم میں تعصب کا اندازہ لگانے اور AI کا استعمال کرنے والے معلمین کی مدد کرنے کے لیے اٹھا سکتی ہیں، جم لاریمور، شریک بانی اور چیئر نے کہا۔
\”یہ سوچنا بہت آسان ہے کہ آپ کا سسٹم کام کر رہا ہے جب ایسا نہیں ہے اگر آپ ٹیسٹ کے نمائندے کو کافی نہیں بناتے ہیں۔\”
امیلیا کیلی، صابن باکس لیبز کی چیف ٹیکنالوجی آفیسر
Roschelle نے اساتذہ کو مشورہ دیا کہ وہ اپنے اسکول کے ان علاقوں کو دیکھیں جن میں ٹیکنالوجی کا استعمال کیا جا رہا ہے، اور اگر یہ کسی ایسے عمل کو خودکار بنانے کے لیے استعمال ہو رہی ہے جس میں موروثی تعصب ہو سکتا ہے۔ انہوں نے کہا کہ وہ سسٹم جو کہ کہنے کے لیے، ایک پریکٹورڈ امتحان کے دوران دھوکہ دہی کا پتہ لگانے، یا طالب علم کے رویے کی پیش گوئی کرنے اور بچوں کو نظم و ضبط کے لیے تجویز کرنے کے لیے استعمال کیے جاتے ہیں، وہ متعصب ہو سکتے ہیں – اور اس کے حقیقی نتائج بچوں کے لیے ہوتے ہیں۔
سلور لائننگ، Roschelle نے کہا، یہ ہے کہ مزید کمپنیاں ان مسائل کو سنجیدگی سے لینا شروع کر رہی ہیں اور انہیں درست کرنے کے لیے کام کر رہی ہیں۔ انہوں نے کہا کہ یہ جزوی طور پر ہیبر کے ایڈ ٹیک ایکویٹی پروجیکٹ جیسے اخلاقی AI وکیلوں کے کام کی وجہ سے ہے۔ رینی کمنگزورجینیا یونیورسٹی کے پروفیسر۔
ہیبر نے کہا کہ اسکول بھی فعال طور پر طلباء اور اساتذہ کو یہ سمجھنے کے لیے ٹولز فراہم کر سکتے ہیں کہ AI کیسے کام کرتا ہے اور اس سے وابستہ خطرات۔ انہوں نے کہا، \”AI خواندگی انفارمیشن لٹریسی کا واقعی ایک اہم حصہ بننے جا رہی ہے۔\” \”طلبہ کو واقعی یہ جاننا ہوگا کہ ان کے ساتھ بات چیت کیسے کی جائے اور یہ سمجھنا کہ یہ ٹولز کیسے کام کرتے ہیں۔\”
انہوں نے کہا کہ نوجوان نسلوں کو ان ٹولز سے روشناس ہونے کی ضرورت ہے اور یہ سمجھنے کی ضرورت ہے کہ وہ کیسے کام کرتے ہیں، تاکہ وہ بالآخر \”ان شعبوں میں جا کر ایسی ٹیکنالوجی تیار کر سکیں جو ان کے لیے کارآمد ہو۔\”
کے بارے میں یہ کہانی ایڈٹیک میں نسلی تعصب کی طرف سے تیار کیا گیا تھا ہیچنگر رپورٹ، ایک غیر منفعتی، آزاد نیوز آرگنائزیشن جو تعلیم میں عدم مساوات اور جدت پر مرکوز ہے۔ کے لیے سائن اپ کریں۔ ہیچنگر کا نیوز لیٹر
>>Join our Facebook page From top right corner. <<