دی بہتر بزنس بیورو کے نتیجے میں مزید جدید ترین گھوٹالوں کا انتباہ ہے۔ مصنوعی ذہانت، یا AI۔

جیسے جیسے ٹیکنالوجی تیزی سے تیار ہو رہی ہے، حکام نے خبردار کیا ہے کہ یہ ایسی چیز ہے جس پر ہمیں گہری نظر رکھنے اور اسے کنٹرول کرنے کی ضرورت ہے تاکہ یہ یقینی بنایا جا سکے کہ یہ قابو سے باہر نہ ہو جائے۔

چیٹ جی پی ٹیایک AI چیٹ بوٹ، حالیہ مہینوں میں مقبولیت حاصل کر رہا ہے۔ لوگ چیٹ بوٹ کو فوری طور پر دے سکتے ہیں یا اس سے سوالات پوچھ سکتے ہیں، اور سیکنڈوں میں اس کا جواب مل جائے گا۔ یہ تصاویر بھی بنا سکتا ہے۔

بی بی بی کے پاس ہے۔ پہلے خبردار کیا کہ ChatGPT کا استعمال ایسے الفاظ کے ساتھ فشنگ گھوٹالے بنانے کے لیے کیا جا سکتا ہے جو جائز تنظیموں کے ساتھ ساتھ نقالی اور رومانوی گھوٹالوں کی نقل کر سکتے ہیں۔

اس کے ساتھ ساتھ، OpenAI کے CEO، ChatGPT کے پیچھے اسٹارٹ اپ، حال ہی میں امریکی سینیٹ کے ایک پینل کو بتایا کہ مصنوعی ذہانت کا استعمال انتخابی سالمیت میں مداخلت کرنا ایک “اہم تشویش کا علاقہ” ہے، اور AI کو مزید ضابطے کی ضرورت ہے۔

کہانی اشتہار کے نیچے جاری ہے۔


ویڈیو چلانے کے لیے کلک کریں: 'امریکی کانگریس خطرات پر سماعت کر رہی ہے، اے آئی کے ضابطے: 'انسانیت پیچھے ہٹ گئی ہے'


امریکی کانگریس نے خطرات، AI کے ضابطے پر سماعت کی: ‘انسانیت نے پیچھے کی جگہ لے لی ہے’


اگرچہ مصنوعی ذہانت کے ارتقاء میں کچھ مثبت امکانات ہیں، بیٹر بزنس بیورو انتباہ کر رہا ہے کہ لوگ انٹرنیٹ پر ہوتے ہوئے، یا اپنے فون کا جواب دیتے ہوئے بھی زیادہ محتاط رہیں۔

BBB کے بحر اوقیانوس کے باب کے ترجمان کرسٹن میتھیوز نے کہا، “میرے خیال میں یہ کافی تشویشناک ہے، اور میں سمجھتا ہوں کہ یہ سمجھنا ضروری ہے کہ جو چیز عام لوگوں کے لیے قابل رسائی ہے وہ صرف برفانی تودے کی ایک قسم ہے۔”

“ہم واقعی نہیں جانتے کہ سکیمرز اور ہیکرز AI کے لحاظ سے کن چیزوں تک رسائی حاصل کرنے میں کامیاب رہے ہیں اور وہ اسے کیسے استعمال کرنے میں کامیاب رہے ہیں۔”

اس نے کہا کہ دادا دادی کا گھوٹالا – جب کوئی مدد کے لئے پکارنے والا پوتا ہونے کا بہانہ کرتا ہے – آواز کی ہیرا پھیری کے ساتھ اور بھی زیادہ نفیس ہوسکتا ہے۔

حال ہی میں ایریزونا میں، ایک ایسا معاملہ تھا جہاں دھوکہ بازوں نے ایک ماں کو قائل کرنے کی کوشش کی کہ انہوں نے اس کی بیٹی کو تاوان کے لیے اغوا کیا، اس کی آواز کاپی کرنے کے لیے AI کا استعمال کیا۔ بیٹی محفوظ نکلی۔

کہانی اشتہار کے نیچے جاری ہے۔

میتھیوز نے کہا، “وہ لوگوں کی سوشل میڈیا ویڈیوز سے صوتی کلپس لے رہے ہیں، مثال کے طور پر، اور لوگوں سے پیسے بٹورنے کے لیے اپنے ہونے کا بہانہ کرنے کی کوشش کر رہے ہیں،” میتھیوز نے کہا۔

اس نے یہ بھی کہا کہ بیورو کچھ مصنوعات کی توثیق کرنے کے لئے مشہور شخصیات کا استعمال کرتے ہوئے جعلی AI سے تیار کردہ تصاویر دیکھ رہا ہے۔


ویڈیو چلانے کے لیے کلک کریں: 'کینیڈین ٹیک ماہرین AI ریگولیشن کے لیے سپورٹ کا اشارہ دیتے ہیں'


کینیڈا کے ٹیک ماہرین AI ریگولیشن کے لیے سپورٹ کا اشارہ دیتے ہیں۔


سائبرسیکیوریٹی کے ماہر ڈیوڈ شپلی نے اے آئی میں اضافے کو اس وقت سے تشبیہ دی جب انٹرنیٹ تیار ہو رہا تھا۔

انہوں نے کہا کہ “ہم بالکل اسی مقام پر ہیں جب ہم 1990 میں تھے جب ہم آج AI کے بارے میں بات کرتے ہیں، اور ہم صرف اس بات کی سطح کو کم کر رہے ہیں کہ وہاں کیا ہو سکتا ہے،” انہوں نے کہا۔ “قوانین لکھنے سے پہلے ہمیں اس پر ایک اچھا ہینڈل کرنا ضروری ہوگا … لیکن ہمیں ایسے قوانین کی ضرورت ہے جو حقیقت میں ریگولیٹ ہوں۔”

نووا اسکاٹیا کی حکومت نے بدھ کے روز ایک نئے شعبے کا اعلان کیا، سائبر سیکیورٹی اور ڈیجیٹل حل۔ مصنوعی ذہانت نئے محکمہ کی وجہ نہیں تھی، لیکن یہ یقینی طور پر ریڈار پر ہے۔

کہانی اشتہار کے نیچے جاری ہے۔

نئے محکمے کی نائب وزیر نتاشا کلارک نے کہا، “کسی بھی ٹیکنالوجی کی طرح، اس کے بھی فائدے ہیں، لیکن ایک بار پھر، کیونکہ ہم حکومت ہیں، میں سمجھتا ہوں کہ ہمارے لیے ضروری ہے کہ ہم چیزوں کے خون بہنے والے کنارے پر نہ ہوں۔”

“ہمیں اپنے نقطہ نظر سے محتاط اور ہوشیار رہنے کی ضرورت ہے۔”

بی بی بی کا کہنا ہے کہ لوگ کسی بھی تحفے یا عدم مطابقت کو تلاش کرنے کے لیے زوم ان کرکے جعلی AI امیجز کو تلاش کرسکتے ہیں۔ وہ ویڈیوز میں سائے، دھندلا پن یا ٹمٹماہٹ کو بھی دیکھ سکتے ہیں اور اپنی معلومات کے ماخذ کی دو بار جانچ کر سکتے ہیں۔

دیگر AI شناختی نکات پر پایا جا سکتا ہے۔ بی بی بی کی ویب سائٹ.

میتھیوز نے کہا کہ ٹیکنالوجی کے ارتقا کے ساتھ حفاظت کو یقینی بنانے کے لیے تعلیم کلیدی حیثیت رکھتی ہے۔

“AI بس پھٹ رہا ہے، یہ ہر روز بدل رہا ہے،” اس نے کہا۔ “لہذا یہ نکات اگلے ہفتے میں بدل سکتے ہیں، اگلے دو ہفتوں میں تبدیل ہو سکتے ہیں۔”

– ایلکس کوک کی فائلوں کے ساتھ

&copy 2023 Global News، Corus Entertainment Inc کا ایک ڈویژن۔



>Source link>

>>Join our Facebook Group be part of community. <<

By hassani

Leave a Reply

Your email address will not be published. Required fields are marked *