بگ ٹیک پہلے ہی ہمیں AI رازداری کے مسائل کے بارے میں خبردار کر رہا ہے۔

author
0 minutes, 10 seconds Read

لہذا ایپل نے OpenAI کے ChatGPT اور Microsoft کے Copilot کے استعمال پر پابندی لگا دی ہے، وال سٹریٹ جرنل رپورٹس. ChatGPT مہینوں سے پابندی کی فہرست میں ہے، بلومبرگکی مارک گرومن نے مزید کہا.

یہ صرف ایپل نہیں ہے، بلکہ سام سنگ اور ویریزون ٹیکنالوجی کی دنیا میں اور بینکوں کا کون ہے۔ (بینک آف امریکہ، سٹی، ڈوئچے بینک، گولڈ مین، ویلز فارگو، اور جے پی مورگن)۔ یہ خفیہ ڈیٹا کے فرار ہونے کے امکان کی وجہ سے ہے؛ کسی بھی صورت میں، ChatGPT کا رازداری کی پالیسی واضح طور پر کہتی ہے۔ آپ کے اشارے اس کے ماڈلز کو تربیت دینے کے لیے استعمال کیے جا سکتے ہیں جب تک کہ آپ آپٹ آؤٹ نہ کریں۔ لیک ہونے کا خوف بے بنیاد نہیں ہے: مارچ میں، ChatGPT میں ایک بگ دوسرے صارفین کے ڈیٹا کا انکشاف.

کیا کوئی ایسی دنیا ہے جہاں ڈزنی مارول کو خراب کرنے والوں کو لیک ہونے دینا چاہے گا؟

میں ان پابندیوں کے بارے میں سوچنے کی طرف مائل ہوں۔

میں سے ایک اس ٹیکنالوجی کے لیے واضح استعمال کسٹمر سروس ہے۔ایک جگہ کمپنیاں لاگت کو کم کرنے کی کوشش کرتی ہیں۔ لیکن کسٹمر سروس کے کام کرنے کے لیے، صارفین کو اپنی تفصیلات ترک کرنی پڑتی ہیں — کبھی نجی، کبھی حساس۔ کمپنیاں اپنے کسٹمر سروس بوٹس کو محفوظ بنانے کا منصوبہ کیسے بناتی ہیں؟

یہ صرف کسٹمر سروس کا مسئلہ نہیں ہے۔ فرض کریں کہ ڈزنی نے AI کو اجازت دینے کا فیصلہ کیا ہے۔ VFX محکموں کے بجائے – اس کی مارول فلمیں لکھیں۔ کیا کوئی ایسی دنیا ہے جہاں ڈزنی مارول کو خراب کرنے والوں کو لیک ہونے دینا چاہے گا؟

ان چیزوں میں سے ایک جو یہ ہے۔ عام طور پر ٹیک انڈسٹری کے بارے میں سچ یہ ہے کہ ابتدائی مرحلے کی کمپنیاں – جیسے کہ ایک چھوٹی عمر کی تکرار فیس بکمثال کے طور پر — ڈیٹا سیکیورٹی پر زیادہ توجہ نہ دیں۔ اس صورت میں، حساس مواد کی نمائش کو محدود کرنا سمجھ میں آتا ہے، جیسا کہ OpenAI خود آپ کو تجویز کرتا ہے۔. (“براہ کرم اپنی گفتگو میں کوئی بھی حساس معلومات شیئر نہ کریں۔”) یہ AI کے لیے مخصوص مسئلہ نہیں ہے۔

یہ ممکن ہے کہ یہ بڑی، سمجھدار، رازداری پر مرکوز کمپنیاں محض بے وقوف بن رہی ہوں۔

لیکن میں اس بارے میں متجسس ہوں کہ آیا AI چیٹ بوٹس کے ساتھ اندرونی مسائل ہیں۔ AI کرنے کے ساتھ آنے والے اخراجات میں سے ایک کمپیوٹ ہے۔ اپنا ڈیٹا سینٹر بنانا مہنگا ہے، لیکن کلاؤڈ کمپیوٹ استعمال کرنے کا مطلب ہے کہ آپ کے سوالات ریموٹ سرور پر کارروائی ہو رہی ہیں، جہاں آپ اپنے ڈیٹا کو محفوظ کرنے کے لیے بنیادی طور پر کسی اور پر انحصار کر رہے ہیں۔ آپ دیکھ سکتے ہیں کہ بینک یہاں کیوں خوفزدہ ہو سکتے ہیں — مالیاتی ڈیٹا ناقابل یقین حد تک حساس ہے۔

حادثاتی عوامی لیکس کے اوپری حصے میں، جان بوجھ کر کارپوریٹ جاسوسی کا امکان بھی ہے۔ پہلے شرمانے میں، یہ ایک ٹیک انڈسٹری کے مسئلے کی طرح لگتا ہے – آخر کار، تجارتی خفیہ چوری یہاں کے خطرات میں سے ایک ہے۔ لیکن بگ ٹیک کمپنیاں اسٹریمنگ میں منتقل ہوگئیں، اس لیے مجھے حیرت ہے کہ کیا یہ چیزوں کے تخلیقی انجام کے لیے بھی کوئی مسئلہ نہیں ہے۔

جب تکنیکی مصنوعات کی بات آتی ہے تو رازداری اور افادیت کے درمیان ہمیشہ ایک پش پل ہوتا ہے۔ بہت سے معاملات میں – مثال کے طور پر، گوگل اور فیس بک کے – صارفین نے مفت مصنوعات کے لیے اپنی رازداری کا تبادلہ کیا ہے۔ گوگل کا بارڈ واضح ہے کہ سوالات استعمال کیے جائیں گے۔ “Google پروڈکٹس، سروسز، اور مشین لرننگ ٹیکنالوجیز کو بہتر اور تیار کرنے کے لیے۔”

یہ ممکن ہے کہ یہ بڑی، سمجھدار، رازداری پر مرکوز کمپنیاں محض بے فکر ہو رہی ہوں اور فکر کرنے کی کوئی بات نہیں ہے۔ لیکن ہم کہتے ہیں کہ وہ صحیح ہیں۔ اگر ایسا ہے تو، میں AI چیٹ بوٹس کے مستقبل کے لیے چند امکانات کے بارے میں سوچ سکتا ہوں۔ پہلا یہ کہ AI لہر بالکل میٹاورس کی طرح نکلی: ایک نان اسٹارٹر. دوسرا یہ کہ اے آئی کمپنیوں پر اوور ہالنگ کا دباؤ ہے۔ اور واضح طور پر سیکورٹی کے طریقوں کا خاکہ۔ تیسرا یہ ہے کہ ہر وہ کمپنی جو AI استعمال کرنا چاہتی ہے اسے اپنا ملکیتی ماڈل بنانا ہوگا یا کم از کم اپنی پروسیسنگ چلانی ہوگی، جو مزاحیہ طور پر مہنگی اور پیمانہ کرنا مشکل لگتا ہے۔ اور چوتھا آن لائن پرائیویسی ڈراؤنا خواب ہے، جہاں آپ کی ایئر لائن (یا قرض جمع کرنے والے، فارمیسی، یا کوئی بھی) آپ کا ڈیٹا مستقل بنیادوں پر لیک کرتا ہے۔

مجھے نہیں معلوم کہ یہ کیسے نکلتا ہے۔ لیکن اگر وہ کمپنیاں جو سب سے زیادہ سیکیورٹی کا شکار ہیں وہ اپنے AI کے استعمال کو بند کر رہی ہیں، تو ہم میں سے باقی لوگوں کے لیے بھی ایسا کرنے کی اچھی وجہ ہو سکتی ہے۔



>Source link>

>>Join our Facebook Group be part of community. <<

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *