ڈیو ولنر کے پاس انٹرنیٹ پر بدترین چیزوں کے ارتقاء کے لیے ایک صف اول کی نشست ہے۔

اس نے 2008 میں فیس بک پر کام کرنا شروع کیا، جب سوشل میڈیا کمپنیاں اپنے قوانین بنا رہی تھیں۔ کمپنی کے مواد کی پالیسی کے سربراہ کے طور پر، یہ مسٹر ولنر ہی تھے جنہوں نے ایک دہائی سے بھی زیادہ عرصہ قبل فیس بک کے پہلے آفیشل کمیونٹی کے معیارات لکھے تھے، جو انہوں نے کہا تھا کہ وہ ایک غیر رسمی ایک صفحے کی فہرست تھی جو زیادہ تر “پر پابندی” پر ابلتی تھی۔ہٹلر اور ننگے لوگ“اس میں جو اب گندگیوں، جرائم اور دیگر بدتمیزیوں کا ایک بہت بڑا کیٹلاگ ہے جس پر میٹا کے تمام پلیٹ فارمز پر پابندی ہے۔

چنانچہ پچھلے سال، جب سان فرانسسکو کی مصنوعی ذہانت کی لیب OpenAI Dall-E کو لانچ کرنے کی تیاری کر رہی تھی، جو ایک ایسا ٹول ہے جو کسی کو بھی چند الفاظ میں اسے بیان کر کے فوری طور پر ایک تصویر بنانے کی اجازت دیتا ہے، کمپنی نے مسٹر ولنر کو اپنے اعتماد کا سربراہ بنانے کے لیے ٹیپ کیا۔ اور حفاظت. ابتدائی طور پر، اس کا مطلب تمام امیجز کو چھاننا اور اشارہ کرنا تھا کہ Dall-E کے فلٹرز نے ممکنہ خلاف ورزیوں کے طور پر جھنڈا لگایا — اور خلاف ورزی کرنے والوں کو کامیاب ہونے سے روکنے کے طریقے تلاش کرنا۔

اس کام میں زیادہ وقت نہیں لگا جب کہ مسٹر ولنر نے خود کو ایک مانوس خطرے پر غور کیا۔

جس طرح بچوں کے شکاری کئی سالوں سے بچوں کے جنسی استحصال کی تصاویر پھیلانے کے لیے فیس بک اور دیگر بڑے ٹیک پلیٹ فارمز کا استعمال کرتے رہے ہیں، اب وہ مکمل طور پر نئی تصاویر بنانے کے لیے Dall-E کو استعمال کرنے کی کوشش کر رہے ہیں۔ “میں حیران نہیں ہوں کہ یہ ایک ایسی چیز تھی جسے لوگ کرنے کی کوشش کریں گے،” مسٹر ولنر نے کہا۔ “لیکن بہت واضح ہونے کے لئے، نہ ہی اوپن اے آئی کے لوگ تھے۔”

تخلیقی AI کے فرضی وجودی خطرات کے بارے میں حالیہ تمام باتوں کے لیے، ماہرین کا کہنا ہے کہ یہ فوری خطرہ ہے — بچے شکاری جو پہلے سے ہی نئے AI ٹولز استعمال کر رہے ہیں — جو صنعت کی غیر منقسم توجہ کے مستحق ہیں۔

ایک ___ میں نیا شائع شدہ کاغذ Stanford Internet Observatory and Thorn کی طرف سے، جو ایک غیر منافع بخش ادارہ ہے جو بچوں کے جنسی استحصال کے آن لائن پھیلاؤ کے خلاف لڑتا ہے، محققین نے پایا کہ، گزشتہ اگست سے، فوٹو ریئلسٹک AI سے پیدا ہونے والے بچوں کے جنسی استحصال کے مواد کی مقدار میں ایک چھوٹا لیکن معنی خیز اضافہ ہوا ہے۔ ڈارک ویب.

Thorn کے محققین کے مطابق، یہ زیادہ تر منظر کشی میں ظاہر ہوا ہے جو حقیقی متاثرین کی مشابہت کا استعمال کرتا ہے لیکن انہیں نئے پوز میں تصور کرتا ہے، جو کہ جنسی تشدد کی نئی اور بڑھتی ہوئی سنگین شکلوں کا نشانہ بنتا ہے۔ محققین نے پایا کہ ان میں سے زیادہ تر تصاویر Dall-E کے ذریعے نہیں بلکہ اوپن سورس ٹولز کے ذریعے تیار کی گئی ہیں جنہیں کچھ تحفظات کے ساتھ تیار اور جاری کیا گیا تھا۔

اپنے مقالے میں، محققین نے اطلاع دی ہے کہ معلوم شکاری برادریوں کے نمونے میں پائے جانے والے بچوں کے جنسی استحصال کے مواد میں سے 1 فیصد سے بھی کم فوٹو ریئلسٹک AI سے تیار کردہ تصاویر دکھائی دیتی ہیں۔ لیکن ان تخلیقی AI ٹولز کی ترقی کی انتہائی تیز رفتاری کو دیکھتے ہوئے، محققین کا اندازہ ہے کہ یہ تعداد صرف بڑھے گی۔

اسٹینفورڈ انٹرنیٹ آبزرویٹری کے چیف ٹیکنالوجسٹ ڈیوڈ تھیل نے کہا، “ایک سال کے اندر، ہم اس علاقے میں بہت زیادہ پریشانی کی حالت میں پہنچ جائیں گے،” جنہوں نے تھورن کے ڈیٹا سائنس کے ڈائریکٹر ڈاکٹر کے ساتھ مل کر مقالہ لکھا۔ ربیکا پورٹنوف، اور تھورن کی تحقیق کی سربراہ میلیسا اسٹروئبل۔ “مشین لرننگ کے لیے یہ بالکل بدترین صورت حال ہے جس کے بارے میں میں سوچ سکتا ہوں۔”

ڈاکٹر پورٹنوف ایک دہائی سے زیادہ عرصے سے مشین لرننگ اور بچوں کی حفاظت پر کام کر رہے ہیں۔

اس کے لیے، یہ خیال کہ OpenAI جیسی کمپنی پہلے سے ہی اس مسئلے کے بارے میں سوچ رہی ہے، اس حقیقت کی نشاندہی کرتی ہے کہ یہ فیلڈ کم از کم اس سے زیادہ تیز سیکھنے کے منحنی خطوط پر ہے جتنا کہ سوشل میڈیا جنات اپنے ابتدائی دنوں میں تھے۔

ڈاکٹر پورٹنوف نے کہا، “آج کی کرنسی مختلف ہے۔

پھر بھی، اس نے کہا، “اگر میں گھڑی کو ریوائنڈ کر سکتی ہوں، تو یہ ایک سال پہلے کی بات ہوگی۔”

2003 میں، کانگریس نے “کمپیوٹر سے تیار کردہ چائلڈ پورنوگرافی” پر پابندی لگانے کا ایک قانون پاس کیا – کانگریس کے مستقبل کے ثبوت کی ایک نادر مثال۔ لیکن اس وقت، ایسی تصاویر بنانا ممنوعہ طور پر مہنگا اور تکنیکی طور پر پیچیدہ تھا۔

ان امیجز کو بنانے کی لاگت اور پیچیدگی میں مسلسل کمی آرہی ہے، لیکن پچھلے اگست میں اسٹیبل ڈفیوژن کے پبلک ڈیبیو کے ساتھ بدل گئی، جو کہ لندن میں واقع مشین لرننگ کمپنی Stability AI کے ذریعہ تیار کردہ ایک مفت، اوپن سورس ٹیکسٹ ٹو امیج جنریٹر ہے۔

اپنی ابتدائی تکرار میں، Stable Diffusion نے اس قسم کی تصاویر پر کچھ حدیں رکھی ہیں جو اس کا ماڈل تیار کر سکتا ہے، بشمول عریانیت پر مشتمل۔ کمپنی کے چیف ایگزیکٹیو عماد مصدق نے کہا کہ “ہمیں لوگوں پر بھروسہ ہے، اور ہم کمیونٹی پر بھروسہ کرتے ہیں،” بتایا نیویارک ٹائمز آخری موسم خزاں.

ایک بیان میں، استحکام AI کے کمیونیکیشن کے ڈائریکٹر موتیز بشارا نے کہا کہ کمپنی نے بچوں کے جنسی استحصال کے مواد کی تخلیق سمیت “غیر قانونی یا غیر اخلاقی” مقاصد کے لیے اپنی ٹیکنالوجی کے غلط استعمال سے منع کیا ہے۔ مسٹر بشارا نے کہا، “ہم ان لوگوں کے خلاف قانون نافذ کرنے والی کوششوں کی بھرپور حمایت کرتے ہیں جو ہماری مصنوعات کو غیر قانونی یا مذموم مقاصد کے لیے استعمال کرتے ہیں۔”

چونکہ ماڈل اوپن سورس ہے، اس لیے ڈویلپرز اپنے کمپیوٹرز پر کوڈ کو ڈاؤن لوڈ اور اس میں ترمیم کر سکتے ہیں اور اسے دیگر چیزوں کے علاوہ، حقیقت پسندانہ بالغ پورنوگرافی بنانے کے لیے استعمال کر سکتے ہیں۔ اپنے مقالے میں، تھورن اور سٹینفورڈ انٹرنیٹ آبزرویٹری کے محققین نے پایا کہ شکاریوں نے ان ماڈلز کو تبدیل کیا ہے تاکہ وہ بچوں کی بھی جنسی طور پر واضح تصاویر بنانے کے قابل ہوں۔ محققین نے رپورٹ میں اس کے صاف ستھرا ورژن کا مظاہرہ کیا، ایک عورت کی AI سے تیار کردہ تصویر میں ترمیم کرکے جب تک کہ یہ بچپن میں آڈری ہیپ برن کی تصویر کی طرح نظر نہ آئے۔

استحکام AI نے اس کے بعد سے ایسے فلٹرز جاری کیے ہیں جو کمپنی “غیر محفوظ اور نامناسب مواد” کو بلاک کرنے کی کوشش کرتے ہیں۔ اور ٹیکنالوجی کے نئے ورژن ڈیٹا سیٹس کا استعمال کرتے ہوئے بنائے گئے تھے جو “کام کے لیے محفوظ نہیں” سمجھے جانے والے مواد کو خارج کرتے ہیں۔ لیکن، مسٹر تھیل کے مطابق، لوگ اب بھی پرانے ماڈل کو منظر کشی کے لیے استعمال کر رہے ہیں جس پر نئے ماڈل کی ممانعت ہے۔

Stable Diffusion کے برعکس، Dall-E اوپن سورس نہیں ہے اور یہ صرف OpenAI کے اپنے انٹرفیس کے ذریعے قابل رسائی ہے۔ بالغوں کی قانونی عریاں تصویروں کی تخلیق پر بھی پابندی لگانے کے لیے اس ماڈل کو کئی اور حفاظتی اقدامات کے ساتھ بھی تیار کیا گیا تھا۔ مسٹر ولنر نے کہا کہ ماڈلز خود آپ کے ساتھ جنسی گفتگو کرنے سے انکار کرنے کا رجحان رکھتی ہیں۔ “ہم یہ زیادہ تر ان گہرے جنسی موضوعات میں سے کچھ کے بارے میں سمجھداری سے کرتے ہیں۔”

کمپنی نے لوگوں کو اپنے Dall-E پرامپٹس میں بعض الفاظ یا فقرے استعمال کرنے سے روکنے کے لیے ابتدائی طور پر حفاظتی خطوط بھی نافذ کیے تھے۔ لیکن مسٹر ولنر نے کہا کہ شکاری اب بھی اس نظام کو استعمال کرنے کی کوشش کرتے ہیں جسے محققین “بصری مترادفات” کہتے ہیں – تخلیقی اصطلاحات جو کہ وہ تصویریں جو وہ تیار کرنا چاہتے ہیں بیان کرتے ہوئے محافظوں سے بچنے کے لیے۔

مسٹر ولنر نے کہا، “اگر آپ ماڈل کے علم کو ہٹا دیتے ہیں کہ خون کیسا لگتا ہے، تو یہ اب بھی جانتا ہے کہ پانی کیسا لگتا ہے، اور یہ جانتا ہے کہ سرخ رنگ کیا ہے،” مسٹر ولنر نے کہا۔ “یہ مسئلہ جنسی مواد کے لیے بھی موجود ہے۔”

Thorn کے پاس Safer نامی ایک ٹول ہے، جو بچوں کے ساتھ بدسلوکی کے لیے تصاویر کو اسکین کرتا ہے اور کمپنیوں کو ان کی رپورٹ نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن کو کرنے میں مدد کرتا ہے، جو بچوں کے جنسی استحصال کے مشتبہ مواد کا وفاقی طور پر نامزد کلیئرنگ ہاؤس چلاتا ہے۔ OpenAI اس مواد کو اسکین کرنے کے لیے محفوظ کا استعمال کرتا ہے جسے لوگ Dall-E کے ایڈیٹنگ ٹول پر اپ لوڈ کرتے ہیں۔ یہ بچوں کی حقیقی تصاویر کو پکڑنے کے لیے مفید ہے، لیکن مسٹر ولنر نے کہا کہ انتہائی جدید ترین خودکار ٹولز بھی AI سے تیار کردہ تصویروں کی درست شناخت کے لیے جدوجہد کر سکتے ہیں۔

بچوں کی حفاظت کے ماہرین کے درمیان یہ ایک ابھرتی ہوئی تشویش ہے: وہ AI نہ صرف حقیقی بچوں کی نئی تصاویر بنانے کے لیے استعمال کیا جائے گا بلکہ ان بچوں کی واضح تصویر کشی کے لیے بھی استعمال کیا جائے گا جو موجود نہیں ہیں۔

وہ مواد اپنے طور پر غیر قانونی ہے اور اس کی اطلاع دینے کی ضرورت ہوگی۔ لیکن اس امکان نے ان خدشات کو بھی جنم دیا ہے کہ فیڈرل کلیئرنگ ہاؤس جعلی تصویروں سے مزید ڈوب سکتا ہے جو حقیقی متاثرین کی شناخت کی کوششوں کو پیچیدہ بنا دے گا۔ صرف پچھلے سال، مرکز کی سائبر ٹِپ لائن کو تقریباً 32 ملین رپورٹس موصول ہوئیں۔

“اگر ہمیں رپورٹیں موصول ہونے لگیں، تو کیا ہم جان سکیں گے؟ کیا انہیں ٹیگ کیا جائے گا یا حقیقی بچوں کی تصاویر سے مختلف کیا جا سکے گا؟ نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن کے جنرل کونسلر یوٹا سورس نے کہا۔

کم از کم ان میں سے کچھ جوابات نہ صرف AI کمپنیوں سے آنے کی ضرورت ہوگی، جیسے OpenAI اور Stability AI، بلکہ ایسی کمپنیوں سے جو میسجنگ ایپس یا سوشل میڈیا پلیٹ فارم چلاتی ہیں، جیسے Meta، جو سائبر ٹِپ لائن کی سرفہرست رپورٹر ہے۔

گزشتہ سال، 27 ملین سے زائد تجاویز صرف فیس بک، واٹس ایپ اور انسٹاگرام سے آیا ہے۔ پہلے سے ہی، ٹیک کمپنیاں درجہ بندی کا نظام استعمال کرتی ہیں، جسے صنعتی اتحاد نے تیار کیا ہے ٹیک کولیشن، متاثرہ کی ظاہری عمر اور دکھائے گئے اعمال کی نوعیت کے لحاظ سے مشتبہ بچوں کے جنسی استحصال کے مواد کی درجہ بندی کرنا۔ اپنے مقالے میں، تھورن اور اسٹینفورڈ کے محققین کا استدلال ہے کہ ان درجہ بندیوں کو وسیع کیا جانا چاہیے تاکہ یہ بھی ظاہر کیا جا سکے کہ آیا کوئی تصویر کمپیوٹر سے تیار کی گئی تھی۔

نیویارک ٹائمز کو دیئے گئے ایک بیان میں، میٹا کے عالمی سربراہ برائے حفاظت، اینٹیگون ڈیوس نے کہا، “ہم AI سے تیار کردہ مواد کے بارے میں اپنے نقطہ نظر میں بامقصد اور ثبوت پر مبنی ہونے کے لیے کام کر رہے ہیں، جیسے کہ یہ سمجھنا کہ شناخت کی معلومات کو کب شامل کرنا ہوگا۔ سب سے زیادہ فائدہ مند ہو اور اس معلومات کو کیسے پہنچایا جائے۔” محترمہ ڈیوس نے کہا کہ کمپنی نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن کے ساتھ مل کر کام کرے گی تاکہ آگے کا بہترین راستہ طے کیا جا سکے۔

پلیٹ فارمز کی ذمہ داریوں سے ہٹ کر، محققین کا کہنا ہے کہ اور بھی بہت کچھ ہے جو AI کمپنیاں خود کر سکتی ہیں۔ خاص طور پر، وہ اپنے ماڈلز کو تربیت دے سکتے ہیں کہ وہ بچوں کی عریانیت کی تصاویر نہ بنائیں اور واضح طور پر ان تصاویر کی شناخت کریں جو مصنوعی ذہانت کے ذریعے تخلیق کی گئی ہیں کیونکہ وہ انٹرنیٹ پر اپنا راستہ بناتے ہیں۔ اس کا مطلب یہ ہوگا کہ ان تصاویر میں واٹر مارک بنانا جنہیں اسٹیبلٹی اے آئی یا اوپن اے آئی نے پہلے ہی لاگو کیا ہوا ہے اس کے مقابلے میں ہٹانا زیادہ مشکل ہے۔

جیسا کہ قانون ساز AI کو ریگولیٹ کرنا چاہتے ہیں، ماہرین کسی نہ کسی طرح کے واٹر مارکنگ یا پرووینس ٹریسنگ کو لازمی قرار دینے کو نہ صرف بچوں کے جنسی استحصال کے مواد بلکہ غلط معلومات سے لڑنے کی کلید کے طور پر دیکھتے ہیں۔

یونیورسٹی آف کیلی فورنیا، برکلے میں ڈیجیٹل فرانزک کے پروفیسر ہانی فرید نے کہا، “آپ یہاں کے سب سے کم عام ڈینومینیٹر کے طور پر ہی اچھے ہیں، یہی وجہ ہے کہ آپ ایک ریگولیٹری نظام چاہتے ہیں۔”

پروفیسر فرید فوٹو ڈی این اے تیار کرنے کے ذمہ دار ہیں، جو مائیکروسافٹ کے ذریعہ 2009 میں شروع کیا گیا ایک ٹول ہے، جسے اب بہت سی ٹیک کمپنیاں بچوں کے جنسی استحصال کی معروف تصویروں کو خود بخود تلاش کرنے اور بلاک کرنے کے لیے استعمال کرتی ہیں۔ مسٹر فرید نے کہا کہ ٹیک کمپنیاں اس ٹیکنالوجی کو تیار کرنے کے بعد لاگو کرنے میں بہت سست تھیں، جس سے بچوں کے جنسی استحصال کے مواد کی لعنت کو برسوں تک کھلے عام پھیلنے کا موقع ملا۔ وہ فی الحال AI سے تیار کردہ امیجری کو ٹریس کرنے کے لیے ایک نیا تکنیکی معیار بنانے کے لیے متعدد ٹیک کمپنیوں کے ساتھ کام کر رہا ہے۔ استحکام AI ان کمپنیوں میں شامل ہے جو اس معیار کو نافذ کرنے کی منصوبہ بندی کر رہے ہیں۔

ایک اور کھلا سوال یہ ہے کہ عدالتی نظام AI سے پیدا ہونے والے بچوں کے جنسی استحصال کے مواد کے تخلیق کاروں کے خلاف لائے جانے والے مقدمات کا علاج کیسے کرے گا – اور AI کمپنیوں کی کیا ذمہ داری ہوگی۔ اگرچہ “کمپیوٹر سے تیار کردہ چائلڈ پورنوگرافی” کے خلاف قانون دو دہائیوں سے کتابوں پر موجود ہے، لیکن عدالت میں اس کا کبھی تجربہ نہیں کیا گیا۔ پہلے کا ایک قانون جس نے اس پر پابندی لگانے کی کوشش کی جسے اس وقت ورچوئل چائلڈ پورنوگرافی کہا جاتا تھا۔ مارا سپریم کورٹ کی طرف سے 2002 میں تقریر کی خلاف ورزی پر۔

یورپی کمیشن، وائٹ ہاؤس اور امریکی سینیٹ کی عدلیہ کمیٹی کے ارکان کو سٹینفورڈ اور تھورن کے نتائج پر بریفنگ دی گئی ہے۔ مسٹر تھیل نے کہا کہ یہ بہت اہم ہے کہ کمپنیاں اور قانون ساز ان سوالات کے جوابات ڈھونڈ لیتے ہیں اس سے پہلے کہ ٹیکنالوجی مزید آگے بڑھے تاکہ فل موشن ویڈیو جیسی چیزوں کو شامل کیا جا سکے۔ مسٹر تھیل نے کہا، “ہمیں اس سے پہلے اسے حاصل کرنا ہے۔”

تھورن کی چیف ایگزیکٹو جولی کورڈو نے کہا کہ محققین کے نتائج کو ایک انتباہ اور ایک موقع کے طور پر دیکھا جانا چاہیے۔ سوشل میڈیا کے جنات کے برعکس جو ان طریقوں سے بیدار ہوئے جن کے پلیٹ فارم بچوں کے شکاریوں کو برسوں دیر سے فعال کر رہے تھے، محترمہ کورڈوا کا کہنا ہے کہ، اب بھی وقت ہے کہ AI سے پیدا ہونے والے بچوں کے ساتھ بدسلوکی کے مسئلے کو قابو سے باہر ہونے سے روکا جائے۔

“ہم جانتے ہیں کہ ان کمپنیوں کو کیا کرنا چاہیے،” محترمہ کورڈو نے کہا۔ “ہمیں صرف یہ کرنے کی ضرورت ہے۔”



>Source link>

>>Join our Facebook Group be part of community. <<

By hassani

Leave a Reply

Your email address will not be published. Required fields are marked *