Tag: Check

  • PIA gets approval from PCAA to perform ‘Check Maintenance’ at Islamabad

    کراچی: سی اے اے پاکستان کی جانب سے اسلام آباد میں اے 320 طیارے کی دیکھ بھال کی جانچ کی منظوری حاصل کرنے کے بعد، پی آئی اے کو اب اسلام آباد میں بوئنگ 777 طیاروں کی دیکھ بھال کے چیک کی منظوری دے دی گئی ہے۔

    اسلام آباد میں پی آئی اے کی انجینئرنگ کی سہولت میں اضافہ کے ساتھ، پی آئی اے انجینئرنگ ڈویژن نے بوئنگ 777 طیاروں پر کامیابی سے چیک 1 اے اور لوئر چیک کیا۔

    دیکھ بھال کی سرگرمیاں IIAP میں نئے تعمیر شدہ مینٹیننس ہینگر کے اندر انجام دی گئیں۔

    ایک ایس او پی کے طور پر، پی آئی اے کوالٹی ایشورنس اور پاکستان سول ایوی ایشن اتھارٹی کے ایئر وردی نیس ڈائریکٹوریٹ کے اہلکاروں کے ذریعے چیک-اے کی بحالی کی سرگرمی دیکھی گئی، تاکہ بین الاقوامی حفاظت اور فضائی صلاحیت کے معیارات کی تعمیل کو یقینی بنایا جا سکے۔

    سی ای او پی آئی اے اے وی ایم عامر حیات نے اسلام آباد میں بوئنگ 777 پر کامیاب چیک A کرنے پر چیف انجینئرنگ آفیسر امیر علی اور ان کی ٹیم کو مبارکباد دی۔ انہوں نے انجینئرنگ اہلکاروں کو اعلیٰ معیار کی کاریگری کو برقرار رکھنے اور مزید بہتر بنانے کی ہدایت کی۔

    کاپی رائٹ بزنس ریکارڈر، 2023



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Bangladesh ready for ODI reality check against England

    ڈھاکا: بنگلہ دیش کے نئے کوچ چندیکا ہتھورو سنگھا نے منگل کو کہا کہ وہ انگلینڈ کے خلاف حقیقت کی جانچ کر رہے ہیں لیکن جب ان کی ٹیم ایک روزہ بین الاقوامی چیمپئن کا مقابلہ کرے گی تو \”جارحانہ\” انداز اختیار کرنے کا وعدہ کیا ہے۔

    تین میچوں کی سیریز کا آغاز بدھ کو ڈھاکہ میں ہو رہا ہے اور بنگلہ دیش کا امتحان ایسے وقت میں ہو گا جب وہ 50 اوور کے فارمیٹ میں ایک مضبوط قوت بن چکا ہے۔

    انہوں نے اپنے آخری 15 ون ڈے میں سے 12 جیتے ہیں، لیکن انگلینڈ واحد مہمان ہے جس نے 2015 سے بنگلہ دیش میں ایک روزہ سیریز جیتی ہے۔

    \”وہ عالمی چیمپئن ہیں۔ ان کی ایک ٹیم کہیں اور کھیل رہی ہے۔ ان کی یہاں ایک اور ٹیم ہے۔ ان کے پاس ٹیلنٹ کی گہرائی ہے،‘‘ ہتھور سنگھا نے انگلینڈ کی ٹیسٹ ٹیم کے دورہ نیوزی لینڈ کا حوالہ دیتے ہوئے کہا۔

    \”ہم یہ دیکھنا چاہتے ہیں کہ ہم کہاں ہیں، اور اس خلا کو تلاش کرنا چاہتے ہیں جسے ہمیں پر کرنا ہے۔ اگر ہم ان حالات میں اچھی کارکردگی کا مظاہرہ کرتے ہیں تو اس سے ہمیں اعتماد ملے گا،‘‘ انہوں نے مزید کہا۔

    \”ان کے پاس دنیا کے بہترین تیز رفتار حملوں میں سے ایک ہے۔ اس دورے میں ان کے پاس پانچ تیز گیند باز اور تین اسپنر ہیں۔ چیلنج اس سیریز میں اپنے فاسٹ باؤلرز کو کھیلنا ہوگا۔

    سری لنکا کے سابق بلے باز ہتھورو سنگھا، 54، گزشتہ ہفتے بنگلہ دیش کے کوچ کے طور پر اپنے دوسرے عہدہ کے لیے واپس آئے۔

    اپنے پہلے دور حکومت میں انہیں قومی ٹیم کے کچھ بہترین لمحات کے معمار کے طور پر سراہا گیا، جس میں پاکستان، بھارت اور جنوبی افریقہ کے خلاف ون ڈے سیریز جیتنا بھی شامل ہے۔

    لیکن 2014 سے 2017 تک کوچ رہنے کے دوران ان کی اکثر بنگلہ دیش کے سینئر کرکٹرز کے ساتھ جھگڑے کی اطلاع ملی، جن میں موجودہ کپتان شکیب الحسن اور تمیم اقبال شامل ہیں۔

    واپس آنے کے بعد سے، ہتھور سنگھا نے کہا کہ وہ ٹیم کے عزم سے \”بہت متاثر\” ہیں اور چیلنج کے لیے تیار ہیں۔

    انہوں نے کہا کہ ہم نے اپنے آخری دور میں جارحانہ کرکٹ کھیلی۔

    \”گراؤنڈ سے باہر گیند کو مارنے کے علاوہ جارحانہ کرکٹ کھیلنے کے بہت سے طریقے ہیں۔ یہ وہ رویہ ہے جو ہم لا رہے ہیں۔ چاہے فیلڈنگ ہو، بولنگ ہو یا بیٹنگ، ہم جارحانہ ہوں گے۔‘‘

    ون ڈے سیریز کے بعد تین ٹی ٹوئنٹی انٹرنیشنل ہوں گے، جس کا آغاز 9 مارچ کو چٹاگانگ میں ہوگا اور 12 اور 14 مارچ کو ڈھاکہ میں واپسی ہوگی۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • FTC warns tech: \’Keep your AI claims in check\’

    FTC، بالکل نئے ڈویژن کا اعلان کر رہا ہے۔ ٹیک میں \”سانپ کا تیل\” لینا، نے ایک اور شاٹ کو ایک سیسی انتباہ کے ساتھ حد سے زیادہ شوقین صنعت کی کمانوں کے پار بھیج دیا ہے۔ \”اپنے AI دعووں کو چیک میں رکھیں۔\”

    میں نے تھوڑی دیر پہلے لکھا تھا (ٹھیک ہے، پانچ سال) کہ \”AI Powered\” بے معنی ٹیک \”تمام قدرتی\” کے مساوی ہے، لیکن اس نے گستاخانہ انداز میں ترقی کی ہے۔ ایسا لگتا ہے کہ وہاں موجود ہر پروڈکٹ کے بارے میں کسی نہ کسی طریقے سے AI کو لاگو کرنے کا دعویٰ کیا جاتا ہے، پھر بھی کچھ لوگ تفصیل میں جاتے ہیں – اور بہت کم لوگ آپ کو بتا سکتے ہیں کہ یہ بالکل کام کرتا ہے اور کیوں۔

    FTC اسے پسند نہیں کرتا ہے۔ ایجنسی لکھتی ہے کہ جب کوئی شخص \”مصنوعی ذہانت سے چلنے والا\” یا اس کا کوئی ورژن کہے تو اس کا مطلب کچھ بھی ہو، \”ایک چیز یقینی ہے: یہ ایک مارکیٹنگ کی اصطلاح ہے۔\” \”اور FTC میں، ایک چیز جو ہم گرم مارکیٹنگ کی اصطلاحات کے بارے میں جانتے ہیں وہ یہ ہے کہ کچھ مشتہرین خود کو ان کے زیادہ استعمال اور غلط استعمال سے نہیں روک سکیں گے۔\”

    ہر کوئی کہہ رہا ہے کہ AI ہر چیز کو نئے سرے سے ایجاد کر رہا ہے، لیکن TED ٹاک میں ایسا کرنا ایک چیز ہے۔ اسے اپنی پروڈکٹ کے سرکاری حصے کے طور پر دعوی کرنا بالکل اور ہے۔ اور FTC مارکیٹرز کو جاننا چاہتا ہے کہ یہ دعوے \”جھوٹے یا غیر مصدقہ\” کے طور پر شمار ہو سکتے ہیں، ایسی چیز جو کہ ایجنسی کو ریگولیٹ کرنے کا بہت تجربہ ہے۔

    لہذا اگر آپ کا پروڈکٹ AI کا استعمال کرتا ہے یا آپ کی مارکیٹنگ ٹیم کا دعویٰ ہے کہ ایسا ہوتا ہے تو FTC آپ سے غور کرنے کو کہتا ہے:

    • کیا آپ مبالغہ آرائی کر رہے ہیں کہ آپ کا AI پروڈکٹ کیا کر سکتا ہے؟ اگر آپ سائنس فکشن کا دعویٰ کر رہے ہیں کہ پروڈکٹ بیک اپ نہیں لے سکتی — جیسے جذبات کو پڑھنا، پیداواری صلاحیت کو بڑھانا، یا رویے کی پیش گوئی کرنا — تو آپ ان کو کم کرنا چاہیں گے۔
    • کیا آپ وعدہ کر رہے ہیں کہ آپ کی AI پروڈکٹ غیر AI پروڈکٹ سے بہتر کچھ کرتی ہے؟ یقینی طور پر، آپ وہ عجیب و غریب دعوے کر سکتے ہیں جیسے کہ \”5 میں سے 4 دندان ساز اپنے AI سے چلنے والے ٹوتھ برش کو ترجیح دیتے ہیں\”، لیکن بہتر ہے کہ آپ ان میں سے 4 کو ریکارڈ پر رکھیں۔ اپنے AI کی وجہ سے برتری کا دعویٰ کرنے کے لیے ثبوت کی ضرورت ہے، \”اور اگر ایسا ثبوت حاصل کرنا ناممکن ہے، تو دعویٰ نہ کریں۔\”
    • کیا آپ خطرات سے آگاہ ہیں؟ \”معقول طور پر متوقع خطرات اور اثرات\” قدرے دھندلا لگتا ہے، لیکن آپ کے وکیل آپ کو یہ سمجھنے میں مدد کر سکتے ہیں کہ آپ کو لفافے کو یہاں کیوں نہیں دھکیلنا چاہیے۔ اگر آپ کا پروڈکٹ کام نہیں کرتا ہے اگر کچھ لوگ اسے استعمال کرتے ہیں کیونکہ آپ نے کوشش بھی نہیں کی، یا اس کے نتائج متعصب ہیں کیونکہ آپ کا ڈیٹاسیٹ خراب طور پر تعمیر کیا گیا تھا… آپ کا وقت برا گزرے گا۔ \”اور آپ یہ نہیں کہہ سکتے کہ آپ ذمہ دار نہیں ہیں کیونکہ یہ ٹیکنالوجی ایک \’بلیک باکس\’ ہے جسے آپ سمجھ نہیں سکتے یا نہیں جانتے کہ جانچ کیسے کی جائے،\” FTC مزید کہتے ہیں۔ اگر آپ اسے نہیں سمجھتے ہیں اور اس کی جانچ نہیں کر سکتے ہیں، تو آپ اسے کیوں پیش کر رہے ہیں، اس کی تشہیر ہی چھوڑ دیں؟
    • کیا پروڈکٹ واقعی AI کا استعمال کرتی ہے؟ جیسا کہ میں نے بہت پہلے نشاندہی کی تھی، دعویٰ کرتا ہے کہ کوئی چیز \”AI سے چلنے والی\” ہے کیونکہ ایک انجینئر نے ML-based ٹول کا استعمال کریو کو بہتر بنانے کے لیے کیا ہے یا کسی چیز کا مطلب یہ نہیں ہے کہ آپ کی پروڈکٹ AI کا استعمال کرتی ہے، پھر بھی بہت سارے لوگ سوچتے ہیں کہ AI کی کمی یعنی پوری بالٹی اس سے بھری ہوئی ہے۔ FTC دوسری صورت میں سوچتا ہے.

    \”آپ کو یہ اندازہ لگانے کے لیے کسی مشین کی ضرورت نہیں ہے کہ FTC کیا کر سکتا ہے جب وہ دعوے غیر تعاون یافتہ ہوں،\” یہ نتیجہ اخذ کرتا ہے، بدقسمتی سے۔

    چونکہ ایجنسی نے پہلے ہی 2021 میں AI دعووں کے لئے کچھ عام فہم رہنما خطوط پیش کیے تھے (اس وقت بہت سارے \”COVID کا پتہ لگانے اور پیش گوئی کرنے\” والے تھے)، یہ سوالات کو ہدایت کرتا ہے۔ وہ دستاویزجس میں اقتباسات اور نظیریں شامل ہیں۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • FTC warns tech: \’Keep your AI claims in check\’

    FTC، بالکل نئے ڈویژن کا اعلان کر رہا ہے۔ ٹیک میں \”سانپ کا تیل\” لینا، نے ایک اور شاٹ کو ایک سیسی انتباہ کے ساتھ حد سے زیادہ شوقین صنعت کی کمانوں کے پار بھیج دیا ہے۔ \”اپنے AI دعووں کو چیک میں رکھیں۔\”

    میں نے تھوڑی دیر پہلے لکھا تھا (ٹھیک ہے، پانچ سال) کہ \”AI Powered\” بے معنی ٹیک \”تمام قدرتی\” کے مساوی ہے، لیکن اس نے گستاخانہ انداز میں ترقی کی ہے۔ ایسا لگتا ہے کہ وہاں موجود ہر پروڈکٹ کے بارے میں کسی نہ کسی طریقے سے AI کو لاگو کرنے کا دعویٰ کیا جاتا ہے، پھر بھی کچھ لوگ تفصیل میں جاتے ہیں – اور بہت کم لوگ آپ کو بتا سکتے ہیں کہ یہ بالکل کام کرتا ہے اور کیوں۔

    FTC اسے پسند نہیں کرتا ہے۔ ایجنسی لکھتی ہے کہ جب کوئی شخص \”مصنوعی ذہانت سے چلنے والا\” یا اس کا کوئی ورژن کہے تو اس کا مطلب کچھ بھی ہو، \”ایک چیز یقینی ہے: یہ ایک مارکیٹنگ کی اصطلاح ہے۔\” \”اور FTC میں، ایک چیز جو ہم گرم مارکیٹنگ کی اصطلاحات کے بارے میں جانتے ہیں وہ یہ ہے کہ کچھ مشتہرین خود کو ان کے زیادہ استعمال اور غلط استعمال سے نہیں روک سکیں گے۔\”

    ہر کوئی کہہ رہا ہے کہ AI ہر چیز کو نئے سرے سے ایجاد کر رہا ہے، لیکن TED ٹاک میں ایسا کرنا ایک چیز ہے۔ اسے اپنی پروڈکٹ کے سرکاری حصے کے طور پر دعوی کرنا بالکل اور ہے۔ اور FTC مارکیٹرز کو جاننا چاہتا ہے کہ یہ دعوے \”جھوٹے یا غیر مصدقہ\” کے طور پر شمار ہو سکتے ہیں، ایسی چیز جو کہ ایجنسی کو ریگولیٹ کرنے کا بہت تجربہ ہے۔

    لہذا اگر آپ کا پروڈکٹ AI کا استعمال کرتا ہے یا آپ کی مارکیٹنگ ٹیم کا دعویٰ ہے کہ ایسا ہوتا ہے تو FTC آپ سے غور کرنے کو کہتا ہے:

    • کیا آپ مبالغہ آرائی کر رہے ہیں کہ آپ کا AI پروڈکٹ کیا کر سکتا ہے؟ اگر آپ سائنس فکشن کا دعویٰ کر رہے ہیں کہ پروڈکٹ بیک اپ نہیں لے سکتی — جیسے جذبات کو پڑھنا، پیداواری صلاحیت کو بڑھانا، یا رویے کی پیش گوئی کرنا — تو آپ ان کو کم کرنا چاہیں گے۔
    • کیا آپ وعدہ کر رہے ہیں کہ آپ کی AI پروڈکٹ غیر AI پروڈکٹ سے بہتر کچھ کرتی ہے؟ یقینی طور پر، آپ وہ عجیب و غریب دعوے کر سکتے ہیں جیسے کہ \”5 میں سے 4 دندان ساز اپنے AI سے چلنے والے ٹوتھ برش کو ترجیح دیتے ہیں\”، لیکن بہتر ہے کہ آپ ان میں سے 4 کو ریکارڈ پر رکھیں۔ اپنے AI کی وجہ سے برتری کا دعویٰ کرنے کے لیے ثبوت کی ضرورت ہے، \”اور اگر ایسا ثبوت حاصل کرنا ناممکن ہے، تو دعویٰ نہ کریں۔\”
    • کیا آپ خطرات سے آگاہ ہیں؟ \”معقول طور پر متوقع خطرات اور اثرات\” قدرے دھندلا لگتا ہے، لیکن آپ کے وکیل آپ کو یہ سمجھنے میں مدد کر سکتے ہیں کہ آپ کو لفافے کو یہاں کیوں نہیں دھکیلنا چاہیے۔ اگر آپ کا پروڈکٹ کام نہیں کرتا ہے اگر کچھ لوگ اسے استعمال کرتے ہیں کیونکہ آپ نے کوشش بھی نہیں کی، یا اس کے نتائج متعصب ہیں کیونکہ آپ کا ڈیٹاسیٹ خراب طور پر تعمیر کیا گیا تھا… آپ کا وقت برا گزرے گا۔ \”اور آپ یہ نہیں کہہ سکتے کہ آپ ذمہ دار نہیں ہیں کیونکہ یہ ٹیکنالوجی ایک \’بلیک باکس\’ ہے جسے آپ سمجھ نہیں سکتے یا نہیں جانتے کہ جانچ کیسے کی جائے،\” FTC مزید کہتے ہیں۔ اگر آپ اسے نہیں سمجھتے ہیں اور اس کی جانچ نہیں کر سکتے ہیں، تو آپ اسے کیوں پیش کر رہے ہیں، اس کی تشہیر ہی چھوڑ دیں؟
    • کیا پروڈکٹ واقعی AI کا استعمال کرتی ہے؟ جیسا کہ میں نے بہت پہلے نشاندہی کی تھی، دعویٰ کرتا ہے کہ کوئی چیز \”AI سے چلنے والی\” ہے کیونکہ ایک انجینئر نے ML-based ٹول کا استعمال کریو کو بہتر بنانے کے لیے کیا ہے یا کسی چیز کا مطلب یہ نہیں ہے کہ آپ کی پروڈکٹ AI کا استعمال کرتی ہے، پھر بھی بہت سارے لوگ سوچتے ہیں کہ AI کی کمی یعنی پوری بالٹی اس سے بھری ہوئی ہے۔ FTC دوسری صورت میں سوچتا ہے.

    \”آپ کو یہ اندازہ لگانے کے لیے کسی مشین کی ضرورت نہیں ہے کہ FTC کیا کر سکتا ہے جب وہ دعوے غیر تعاون یافتہ ہوں،\” یہ نتیجہ اخذ کرتا ہے، بدقسمتی سے۔

    چونکہ ایجنسی نے پہلے ہی 2021 میں AI دعووں کے لئے کچھ عام فہم رہنما خطوط پیش کیے تھے (اس وقت بہت سارے \”COVID کا پتہ لگانے اور پیش گوئی کرنے\” والے تھے)، یہ سوالات کو ہدایت کرتا ہے۔ وہ دستاویزجس میں اقتباسات اور نظیریں شامل ہیں۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • FTC warns tech: \’Keep your AI claims in check\’

    FTC، بالکل نئے ڈویژن کا اعلان کر رہا ہے۔ ٹیک میں \”سانپ کا تیل\” لینا، نے ایک اور شاٹ کو ایک سیسی انتباہ کے ساتھ حد سے زیادہ شوقین صنعت کی کمانوں کے پار بھیج دیا ہے۔ \”اپنے AI دعووں کو چیک میں رکھیں۔\”

    میں نے تھوڑی دیر پہلے لکھا تھا (ٹھیک ہے، پانچ سال) کہ \”AI Powered\” بے معنی ٹیک \”تمام قدرتی\” کے مساوی ہے، لیکن اس نے گستاخانہ انداز میں ترقی کی ہے۔ ایسا لگتا ہے کہ وہاں موجود ہر پروڈکٹ کے بارے میں کسی نہ کسی طریقے سے AI کو لاگو کرنے کا دعویٰ کیا جاتا ہے، پھر بھی کچھ لوگ تفصیل میں جاتے ہیں – اور بہت کم لوگ آپ کو بتا سکتے ہیں کہ یہ بالکل کام کرتا ہے اور کیوں۔

    FTC اسے پسند نہیں کرتا ہے۔ ایجنسی لکھتی ہے کہ جب کوئی شخص \”مصنوعی ذہانت سے چلنے والا\” یا اس کا کوئی ورژن کہے تو اس کا مطلب کچھ بھی ہو، \”ایک چیز یقینی ہے: یہ ایک مارکیٹنگ کی اصطلاح ہے۔\” \”اور FTC میں، ایک چیز جو ہم گرم مارکیٹنگ کی اصطلاحات کے بارے میں جانتے ہیں وہ یہ ہے کہ کچھ مشتہرین خود کو ان کے زیادہ استعمال اور غلط استعمال سے نہیں روک سکیں گے۔\”

    ہر کوئی کہہ رہا ہے کہ AI ہر چیز کو نئے سرے سے ایجاد کر رہا ہے، لیکن TED ٹاک میں ایسا کرنا ایک چیز ہے۔ اسے اپنی پروڈکٹ کے سرکاری حصے کے طور پر دعوی کرنا بالکل اور ہے۔ اور FTC مارکیٹرز کو جاننا چاہتا ہے کہ یہ دعوے \”جھوٹے یا غیر مصدقہ\” کے طور پر شمار ہو سکتے ہیں، ایسی چیز جو کہ ایجنسی کو ریگولیٹ کرنے کا بہت تجربہ ہے۔

    لہذا اگر آپ کا پروڈکٹ AI کا استعمال کرتا ہے یا آپ کی مارکیٹنگ ٹیم کا دعویٰ ہے کہ ایسا ہوتا ہے تو FTC آپ سے غور کرنے کو کہتا ہے:

    • کیا آپ مبالغہ آرائی کر رہے ہیں کہ آپ کا AI پروڈکٹ کیا کر سکتا ہے؟ اگر آپ سائنس فکشن کا دعویٰ کر رہے ہیں کہ پروڈکٹ بیک اپ نہیں لے سکتی — جیسے جذبات کو پڑھنا، پیداواری صلاحیت کو بڑھانا، یا رویے کی پیش گوئی کرنا — تو آپ ان کو کم کرنا چاہیں گے۔
    • کیا آپ وعدہ کر رہے ہیں کہ آپ کی AI پروڈکٹ غیر AI پروڈکٹ سے بہتر کچھ کرتی ہے؟ یقینی طور پر، آپ وہ عجیب و غریب دعوے کر سکتے ہیں جیسے کہ \”5 میں سے 4 دندان ساز اپنے AI سے چلنے والے ٹوتھ برش کو ترجیح دیتے ہیں\”، لیکن بہتر ہے کہ آپ ان میں سے 4 کو ریکارڈ پر رکھیں۔ اپنے AI کی وجہ سے برتری کا دعویٰ کرنے کے لیے ثبوت کی ضرورت ہے، \”اور اگر ایسا ثبوت حاصل کرنا ناممکن ہے، تو دعویٰ نہ کریں۔\”
    • کیا آپ خطرات سے آگاہ ہیں؟ \”معقول طور پر متوقع خطرات اور اثرات\” قدرے دھندلا لگتا ہے، لیکن آپ کے وکیل آپ کو یہ سمجھنے میں مدد کر سکتے ہیں کہ آپ کو لفافے کو یہاں کیوں نہیں دھکیلنا چاہیے۔ اگر آپ کا پروڈکٹ کام نہیں کرتا ہے اگر کچھ لوگ اسے استعمال کرتے ہیں کیونکہ آپ نے کوشش بھی نہیں کی، یا اس کے نتائج متعصب ہیں کیونکہ آپ کا ڈیٹاسیٹ خراب طور پر تعمیر کیا گیا تھا… آپ کا وقت برا گزرے گا۔ \”اور آپ یہ نہیں کہہ سکتے کہ آپ ذمہ دار نہیں ہیں کیونکہ یہ ٹیکنالوجی ایک \’بلیک باکس\’ ہے جسے آپ سمجھ نہیں سکتے یا نہیں جانتے کہ جانچ کیسے کی جائے،\” FTC مزید کہتے ہیں۔ اگر آپ اسے نہیں سمجھتے ہیں اور اس کی جانچ نہیں کر سکتے ہیں، تو آپ اسے کیوں پیش کر رہے ہیں، اس کی تشہیر ہی چھوڑ دیں؟
    • کیا پروڈکٹ واقعی AI کا استعمال کرتی ہے؟ جیسا کہ میں نے بہت پہلے نشاندہی کی تھی، دعویٰ کرتا ہے کہ کوئی چیز \”AI سے چلنے والی\” ہے کیونکہ ایک انجینئر نے ML-based ٹول کا استعمال کریو کو بہتر بنانے کے لیے کیا ہے یا کسی چیز کا مطلب یہ نہیں ہے کہ آپ کی پروڈکٹ AI کا استعمال کرتی ہے، پھر بھی بہت سارے لوگ سوچتے ہیں کہ AI کی کمی یعنی پوری بالٹی اس سے بھری ہوئی ہے۔ FTC دوسری صورت میں سوچتا ہے.

    \”آپ کو یہ اندازہ لگانے کے لیے کسی مشین کی ضرورت نہیں ہے کہ FTC کیا کر سکتا ہے جب وہ دعوے غیر تعاون یافتہ ہوں،\” یہ نتیجہ اخذ کرتا ہے، بدقسمتی سے۔

    چونکہ ایجنسی نے پہلے ہی 2021 میں AI دعووں کے لئے کچھ عام فہم رہنما خطوط پیش کیے تھے (اس وقت بہت سارے \”COVID کا پتہ لگانے اور پیش گوئی کرنے\” والے تھے)، یہ سوالات کو ہدایت کرتا ہے۔ وہ دستاویزجس میں اقتباسات اور نظیریں شامل ہیں۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • China’s yuan subdued as Fed policy, geopolitical tensions check sentiment

    شنگھائی: چین کا یوآن پیر کو بڑے پیمانے پر فلیٹ رہا کیونکہ سرمایہ کاروں نے ملکی اور عالمی مالیاتی پالیسی کے نقطہ نظر کا جائزہ لیا اور چین امریکہ تعلقات میں بڑھتے ہوئے تناؤ کے تناظر میں محتاط موقف اختیار کیا۔

    چین کی کرنسی دباؤ میں ہے کیونکہ حالیہ ہفتوں میں امریکی اعداد و شمار کی ایک بڑی تعداد نے مارکیٹ کی توقعات کو تقویت بخشی ہے کہ فیڈرل ریزرو کو زیادہ دیر تک شرحیں بڑھانا پڑیں گی، جس کے نتیجے میں ڈالر کی قدر میں اضافہ ہوا ہے۔

    پیپلز بینک آف چائنا نے مارکیٹ کھلنے سے پہلے مڈ پوائنٹ کی شرح 6.8643 فی امریکی ڈالر مقرر کی، جو پچھلے طے شدہ 6.8659 سے قدرے مضبوط ہے۔

    اسپاٹ مارکیٹ میں، یوآن 6.8680 فی ڈالر پر کھلا اور دوپہر کے وقت 6.8668 پر ہاتھ بدل رہا تھا، پچھلے دیر سے بند ہونے والے سیشن سے 7 پپس نرم۔

    جیسا کہ وسیع پیمانے پر توقع کی جا رہی ہے، چین نے فروری میں مسلسل چھٹے مہینے کے لیے اپنے بینچ مارک قرضے کی شرحوں میں کوئی تبدیلی نہیں کی، دنیا کی دوسری سب سے بڑی معیشت وبائی امراض سے پیدا ہونے والی مندی سے بحالی کے مزید آثار دکھا رہی ہے۔

    تاہم، ریاستہائے متحدہ میں، مارکیٹیں اب توقع کر رہی ہیں کہ جولائی تک فیڈ فنڈز کی شرح صرف 5.3 فیصد سے کم ہو جائے گی۔

    میزوہو بینک کے چیف ایشین ایف ایکس اسٹریٹجسٹ کین چیونگ نے کہا، \”آگے دیکھتے ہوئے، Fed کے پالیسی آؤٹ لک کا اندازہ لگانے کے لیے Fed کی تقریروں کی ایک سیریز اور FOMC (فیڈرل اوپن مارکیٹ کمیٹی) منٹس کی باریک بینی سے جانچ پڑتال کی جائے گی۔\”

    چین کا یوآن 6 ہفتوں کی کم ترین سطح پر ہے، جنوری کے وسط سے سب سے بڑا ہفتہ وار نقصان

    کلائنٹس کے لیے ایک نوٹ میں، چائنا انٹرنیشنل کیپٹل کارپوریشن نے کہا کہ امریکی ڈالر ممکنہ طور پر مارچ میں امریکی ملازمت کے اعداد و شمار سے پہلے اپنے اوپری رجحان کو برقرار رکھے گا۔ یہ توقع کرتا ہے کہ یوآن اس ہفتے 6.8 اور 6.95 کے درمیان تجارت کرے گا۔

    جغرافیائی سیاسی محاذ پر، چین-امریکہ کشیدگی کو ٹھنڈا کرنے کے کوئی آثار نظر نہیں آرہے تھے کیونکہ ہفتے کے روز امریکی وزیر خارجہ انٹونی بلنکن نے چین کے اعلیٰ سفارت کار وانگ یی کو خبردار کیا تھا کہ اگر بیجنگ یوکرین پر روس کے حملے میں مادی مدد فراہم کرتا ہے تو اسے نتائج بھگتنا پڑیں گے۔

    وانگ نے امریکہ کی جانب سے مشتبہ چینی جاسوس غبارے کو مار گرانے پر چل رہے تنازعہ میں واشنگٹن کو \”پاگل\” قرار دیا۔

    مے بینک کے تجزیہ کاروں نے ایک نوٹ میں کہا، \”ویک اینڈ پر وانگ یی اور اینٹونی بلنکن کے درمیان ہونے والی ملاقات نے دونوں کے درمیان تناؤ کو کم کرنے اور آگ میں مزید ایندھن ڈالنے کے لیے کچھ نہیں کیا۔\”

    دوپہر تک، عالمی ڈالر انڈیکس 103.862 کے پچھلے بند سے 103.977 پر تھا، جبکہ آف شور یوآن 6.8742 فی ڈالر پر ٹریڈ کر رہا تھا۔



    Source link

  • India government says court should check ‘truthfulness’ of Hindenburg report on Adani

    بنگلورو/نئی دہلی: ہندوستانی حکومت نے ملک کی اعلیٰ ترین عدالت کو بتایا ہے کہ اڈانی گروپ کے خلاف ایک امریکی شارٹ سیلر کی جانب سے لگائے گئے الزامات کی \”سچائی\” کی جانچ کی جانی چاہیے، یہ بات رائٹرز کے ذریعے دیکھی گئی حکومتی فائلنگ کے مطابق ہے۔

    سپریم کورٹ نے ہنڈنبرگ ریسرچ کی 24 جنوری کی رپورٹ کے تناظر میں سرمایہ کاروں کے تحفظ کے طریقہ کار کا جائزہ لینے کے لیے تجویز کردہ پینل کے قیام کے بارے میں ابھی کوئی حکم جاری کرنا ہے۔

    اڈانی گروپ کی سات لسٹڈ فرموں نے اس رپورٹ کے بعد سے مارکیٹ ویلیو میں تقریباً 125 بلین ڈالر کی کمی کی ہے جس میں ٹیکس پناہ گاہوں کے غلط استعمال اور بندرگاہوں سے توانائی کے گروپ کی طرف سے اسٹاک میں ہیرا پھیری کا الزام لگایا گیا ہے۔

    اڈانی گروپ نے غلط کام کرنے سے انکار کیا ہے۔

    حکومت نے جمعہ کو سپریم کورٹ کو بتایا کہ کسی بھی پینل کے پاس \”موثر تحقیقات کرنے کے تمام اختیارات ہونے چاہئیں… بشمول ہر اتھارٹی اور ہندوستان سے باہر اپنی تحقیقات کے لیے تمام مدد اور پروٹوکول حاصل کرنے کے اختیارات۔\”

    اڈانی نے ہندنبرگ کی طرف سے پیدا ہونے والی شکست کے درمیان ترقی کے اہداف کو کم کر دیا۔

    پینل کو \”اڈانی گروپ آف کمپنیوں کے خلاف لگائے گئے الزامات کی سچائی یا دوسری صورت میں اس کا پتہ لگانا اور رپورٹ پیش کرنی چاہئے\”۔

    حکومت کی فائلنگ میں کہا گیا ہے کہ اسے اڈانی گروپ کے قرض اور ایکویٹی آلات پر ہندنبرگ کی مختصر پوزیشنوں کی قانونی حیثیت کا بھی جائزہ لینا چاہیے۔

    جمعہ کو ایک سماعت کے دوران، حکومت نے کہا کہ اس کی تجاویز کو سیل بند احاطہ میں رکھا جانا چاہئے، لیکن عدالت نے کہا کہ وہ پینل کے قیام پر مکمل شفافیت برقرار رکھنا چاہتی ہے۔

    ہندوستان کے بازاروں کے ریگولیٹر نے اس ہفتے کے شروع میں سپریم کورٹ کو بتایا کہ وہ شارٹ سیلر کے الزامات اور رپورٹ سے پہلے اور اس کے فوراً بعد مارکیٹ کی سرگرمیوں کو دیکھ رہا ہے۔

    اڈانی گرین مالی سال ختم ہونے کے بعد ری فنانسنگ پلان کا انکشاف کرے گا۔

    ایشیا انڈیکس نے جمعہ کو کہا کہ وہ 22 فروری سے اڈانی کے دو حالیہ سیمنٹ حصول – امبوجا سیمنٹس لمیٹڈ اور اے سی سی لمیٹڈ – کو S&P BSE 100 ESG انڈیکس سے گرا دے گا۔

    اڈانی گروپ نے سرمایہ کاروں کے خدشات کو دور کرنے کی کوشش کی ہے۔

    اکنامک ٹائمز اخبار نے جمعہ کے روز اطلاع دی کہ گروپ اگلے 20 دنوں میں حصص کے خلاف تمام قرضوں کی مکمل طور پر پہلے سے ادائیگی کرنے کا ارادہ رکھتا ہے۔

    اڈانی گروپ نے رپورٹ پر تبصرہ کرنے کے لیے رائٹرز کی درخواست کا فوری جواب نہیں دیا۔

    گروپ کی قابل تجدید توانائی کی شاخ، اڈانی گرین انرجی، مالی سال کے اختتام کے بعد اپنے ری فنانسنگ پلان کا انکشاف کرنے کا ارادہ رکھتی ہے، گروپ کے ایک ایگزیکٹو نے جمعرات کو بانڈ ہولڈرز کو ایک کال پر بتایا، ذرائع نے رائٹرز کو بتایا۔

    پرافٹ مارٹ سیکیورٹیز کے ریسرچ کے سربراہ اویناش گورکشاکر نے کہا کہ ری فنانسنگ کے منصوبے جذبات کے لیے مثبت تھے، لیکن گروپ کے اسٹاک میں اتار چڑھاؤ جاری رہے گا۔

    ہندوستان کا اڈانی گروپ مزید کاروبار ختم کرنے کا ارادہ رکھتا ہے۔ قرض کے خدشات کو مسترد کرتا ہے

    \”ہمیں یہ جاننے کی ضرورت ہوگی کہ وہ اپنے مستقبل کی ترقی کے منصوبوں کو کس طرح فنڈ دینے جا رہے ہیں۔ تازہ فنڈنگ ​​آسان نہیں ہوگی،\” انہوں نے کہا۔

    اڈانی گرین انرجی بانڈز 2024 میں واجب الادا ہیں اور 4.375٪ کوپن کی پیشکش جمعرات کو ڈالر پر 84.5 سینٹس تک پہنچ گئی جو ایک دن پہلے 75 سینٹس تھی، ٹریڈ ویب کے اعداد و شمار نے ظاہر کیا۔

    اڈانی گرین کے حصص جمعہ کو 2% بڑھ کر بند ہوئے، 24 جنوری کی رپورٹ کے بعد سے تقریباً 70% کی کمی کے بعد۔ اڈانی پاور 5٪ چڑھ گیا، جبکہ اڈانی پورٹس اور خصوصی اقتصادی زون 0.25٪ ختم ہوا۔

    اڈانی گروپ کی فلیگ شپ فرم، اڈانی انٹرپرائزز، 4.1 فیصد گر کر بند ہوئی، جبکہ اڈانی ٹوٹل گیس کے حصص، جو اس رپورٹ سے سب سے زیادہ متاثر ہوئے ہیں، 5 فیصد نیچے بند ہوئے۔



    Source link

  • Can \’we the people\’ keep AI in check?

    ٹیکنولوجسٹ اور محقق Aviv Ovadya اس بات کا یقین نہیں ہے کہ تخلیقی AI کو کنٹرول کیا جا سکتا ہے، لیکن وہ سوچتا ہے کہ اسے قابو میں رکھنے کا سب سے قابل عمل ذریعہ صرف ان لوگوں کو سونپنا ہو سکتا ہے جو AI سے متاثر ہوں گے اجتماعی طور پر اس کو روکنے کے طریقوں پر فیصلہ کریں۔

    اس کا مطلب ہے آپ; اس کا مطلب ہے میرا۔ یہ افراد کے بڑے نیٹ ورکس کی طاقت ہے کہ وہ مسائل کو تیزی سے اور زیادہ مساوی طریقے سے حل کریں جتنا کہ افراد کا ایک چھوٹا گروپ اکیلے کر سکتا ہے (بشمول، واشنگٹن میں)۔ یہ بنیادی طور پر ہجوم کی حکمت پر انحصار کرتا ہے، اور یہ سائنسی تحقیق، کاروبار، سیاست، اور سماجی تحریکوں سمیت بہت سے شعبوں میں ہو رہا ہے۔

    تائیوان میں، مثال کے طور پر، 2015 میں شہری ذہن رکھنے والے ہیکرز نے ایک پلیٹ فارم تشکیل دیا – \”ورچوئل تائیوان\” – جو کہ \”بنیادی طور پر ڈیجیٹل معیشت سے متعلق مسائل کے پالیسی حل پر بحث کرنے کے لیے عوامی، نجی اور سماجی شعبوں کے نمائندوں کو اکٹھا کرتا ہے۔\” وضاحت کی نیو یارک ٹائمز میں تائیوان کے ڈیجیٹل وزیر، آڈری تانگ کے ذریعہ 2019 میں۔ اس وقت سے، vTaiwan، جیسا کہ یہ جانا جاتا ہے، \”آن لائن مباحثے اور اسٹیک ہولڈرز کے ساتھ آمنے سامنے بات چیت کے مرکب پر انحصار کرتے ہوئے\” درجنوں مسائل سے نمٹا ہے، تانگ نے اس وقت لکھا۔

    اسی طرح کی ایک پہل ہے۔ اوریگون کے شہریوں کے اقدام کا جائزہ، جس پر 2011 میں قانون میں دستخط کیے گئے تھے اور ریاست کی ووٹنگ کی آبادی کو شہری کی طرف سے چلنے والے \”جان بوجھ کر عمل\” کے ذریعے بیلٹ اقدامات کے بارے میں مطلع کرتے ہیں۔ تقریباً 20 سے 25 شہریوں کو جو پورے اوریگون ووٹر کے نمائندے ہیں ایک اقدام کی خوبیوں پر بحث کے لیے اکٹھا کیا جاتا ہے۔ اس کے بعد وہ اجتماعی طور پر اس اقدام کے بارے میں ایک بیان لکھتے ہیں جو ریاست کے دوسرے ووٹروں کو بھیجا جاتا ہے تاکہ وہ انتخابات کے دنوں میں بہتر طور پر باخبر فیصلے کر سکیں۔

    نام نہاد سوچے سمجھے عمل نے آسٹریلیا (واٹر پالیسی)، کینیڈا (انتخابی اصلاحات)، چلی (پنشن اور صحت کی دیکھ بھال)، اور ارجنٹائن (ہاؤسنگ، زمین کی ملکیت) سمیت دیگر مقامات کے مسائل کو حل کرنے میں بھی کامیابی سے مدد کی ہے۔

    \”اس کام کو کرنے میں رکاوٹیں ہیں\” جیسا کہ یہ AI سے متعلق ہے، Ovadya تسلیم کرتے ہیں، جو ہارورڈ کے Berkman Klein Center سے وابستہ ہیں اور جن کا کام تیزی سے سماج اور جمہوریت پر AI کے اثرات پر مرکوز ہے۔ \”لیکن تجرباتی طور پر، یہ دنیا بھر کے ہر براعظم میں، ہر پیمانے پر کیا گیا ہے\” اور \”ہم اس میں سے کچھ چیزیں جتنی تیزی سے حاصل کر سکتے ہیں، اتنا ہی بہتر ہے،\” وہ نوٹ کرتے ہیں۔

    لوگوں کو یہ فیصلہ کرنے دینا کہ خاص طور پر AI کے ارد گرد قابل قبول رہنما خطوط کچھ لوگوں کو عجیب لگ سکتے ہیں، لیکن یہاں تک کہ تکنیکی ماہرین کے خیال میں یہ حل کا حصہ ہے۔ میرا مورتی، ممتاز AI اسٹارٹ اپ OpenAI کی چیف ٹیکنالوجی آفیسر، وقت بتاتا ہے ایک نئے انٹرویو میں میگزین، \”[W[e’re a small group of people and we need a ton more input in this system and a lot more input that goes beyond the technologies— definitely regulators and governments and everyone else.”

    Asked if Murati fears that government involvement can slow innovation or whether she thinks it’s too early for policymakers and regulators to get involved, she tells the outlet, “It’s not too early. It’s very important for everyone to start getting involved given the impact these technologies are going to have.”

    In the current regulatory vacuum, OpenAI has taken a self-governing approach for now, instituting guidelines for the safe use of its tech and pushing out new iterations in dribs and drabs — sometimes to the frustration of the wider public.

    The European Union has meanwhile been drafting a regulatory framework — AI Act — that’s making its way through the European Parliament and aims to become a global standard. The law would assign applications of AI to three risk categories: applications and systems that create an “unacceptable risk”; “high-risk applications,” such as a “CV-scanning tool that ranks job applicants” that would be subject to specific legal requirements; and applications not explicitly banned or listed as high-risk that would largely be left unregulated.

    The U.S. Department of Commerce has also drafted a voluntary framework meant as guidance for companies, but there remains no regulation– zilcho — when it’s sorely needed. (In addition to OpenAI, tech behemoths like Microsoft and Google  — despite being burned by earlier releases of their own AI that backfired — are very publicly racing again to roll out AI-infused products and applications, lest they be left behind.)

    A kind of World Wide Web consortium, an international organization created in 1994 to set standards for the World Wide Web, would seemingly make sense. Indeed, in that Time interview, Murati observes that “different voices, like philosophers, social scientists, artists, and people from the humanities” should be brought together to answer the many “ethical and philosophical questions that we need to consider.”

    Maybe the industry starts there, and so-called collective intelligence fills in many of the gaps between the broad brush strokes. 

    Maybe some new tools help toward that end. Open AI CEO Sam Altman is also a cofounder, for example, of a retina-scanning company in Berlin called WorldCoin that wants to make it easy to authenticate someone’s identity easily. Questions have been raised about the privacy and security implications of WorldCoin’s biometric approach, but its potential applications include distributing a global universal basic income, as well as empowering new forms of digital democracy.

    Either way, Ovadya thinks that turning to deliberative processes involving wide swaths of people from around the world is the way to create boundaries around AI while also giving the industry’s players more credibility.

    “OpenAI is getting some flack right now from everyone,” including over its perceived liberal bias, says Ovadya. “It would be helpful [for the company] اس بارے میں کہ وہ اپنی مستقبل کی پالیسیاں کیسے قائم کرتا ہے اس کے بارے میں واقعی ٹھوس جواب حاصل کرنا۔

    Ovadya اسی طرح Stability.AI کی طرف اشارہ کرتا ہے، اوپن سورس AI کمپنی جس کے سی ای او، عماد مصدق نے بار بار یہ تجویز کیا ہے کہ استحکام OpenAI سے زیادہ جمہوری ہے کیونکہ یہ ہر جگہ دستیاب ہے، جبکہ OpenAI صرف ان میں دستیاب ہے۔ ممالک ابھی جہاں یہ \”محفوظ رسائی\” فراہم کر سکتا ہے۔

    Ovadya کہتے ہیں، \”عماد ایٹ اسٹیبلٹی کا کہنا ہے کہ وہ \’AI کو جمہوری بنا رہا ہے۔\’ ٹھیک ہے، کیا یہ اچھا نہیں ہوگا کہ جمہوری عمل کو استعمال کرتے ہوئے یہ معلوم کیا جائے کہ لوگ واقعی کیا چاہتے ہیں؟

    کیا \’ہم لوگ\’ AI کو کنٹرول میں رکھ سکتے ہیں؟ کی طرف سے کونی لوئیزوس اصل میں شائع ہوا ٹیک کرنچ



    Source link

  • Can \’we the people\’ keep AI in check?

    ٹیکنولوجسٹ اور محقق Aviv Ovadya اس بات کا یقین نہیں ہے کہ تخلیقی AI کو کنٹرول کیا جا سکتا ہے، لیکن وہ سوچتا ہے کہ اسے قابو میں رکھنے کا سب سے قابل عمل ذریعہ صرف ان لوگوں کو سونپنا ہو سکتا ہے جو AI سے متاثر ہوں گے اجتماعی طور پر اس کو روکنے کے طریقوں پر فیصلہ کریں۔

    اس کا مطلب ہے آپ; اس کا مطلب ہے میرا۔ یہ افراد کے بڑے نیٹ ورکس کی طاقت ہے کہ وہ مسائل کو تیزی سے اور زیادہ مساوی طریقے سے حل کریں جتنا کہ افراد کا ایک چھوٹا گروپ اکیلے کر سکتا ہے (بشمول، واشنگٹن میں)۔ یہ بنیادی طور پر ہجوم کی حکمت پر انحصار کرتا ہے، اور یہ سائنسی تحقیق، کاروبار، سیاست، اور سماجی تحریکوں سمیت بہت سے شعبوں میں ہو رہا ہے۔

    تائیوان میں، مثال کے طور پر، 2015 میں شہری ذہن رکھنے والے ہیکرز نے ایک پلیٹ فارم تشکیل دیا – \”ورچوئل تائیوان\” – جو کہ \”بنیادی طور پر ڈیجیٹل معیشت سے متعلق مسائل کے پالیسی حل پر بحث کرنے کے لیے عوامی، نجی اور سماجی شعبوں کے نمائندوں کو اکٹھا کرتا ہے۔\” وضاحت کی نیو یارک ٹائمز میں تائیوان کے ڈیجیٹل وزیر، آڈری تانگ کے ذریعہ 2019 میں۔ اس وقت سے، vTaiwan، جیسا کہ یہ جانا جاتا ہے، \”آن لائن مباحثے اور اسٹیک ہولڈرز کے ساتھ آمنے سامنے بات چیت کے مرکب پر انحصار کرتے ہوئے\” درجنوں مسائل سے نمٹا ہے، تانگ نے اس وقت لکھا۔

    اسی طرح کی ایک پہل ہے۔ اوریگون کے شہریوں کے اقدام کا جائزہ، جس پر 2011 میں قانون میں دستخط کیے گئے تھے اور ریاست کی ووٹنگ کی آبادی کو شہری کی طرف سے چلنے والے \”جان بوجھ کر عمل\” کے ذریعے بیلٹ اقدامات کے بارے میں مطلع کرتے ہیں۔ تقریباً 20 سے 25 شہریوں کو جو پورے اوریگون ووٹر کے نمائندے ہیں ایک اقدام کی خوبیوں پر بحث کے لیے اکٹھا کیا جاتا ہے۔ اس کے بعد وہ اجتماعی طور پر اس اقدام کے بارے میں ایک بیان لکھتے ہیں جو ریاست کے دوسرے ووٹروں کو بھیجا جاتا ہے تاکہ وہ انتخابات کے دنوں میں بہتر طور پر باخبر فیصلے کر سکیں۔

    نام نہاد سوچے سمجھے عمل نے آسٹریلیا (واٹر پالیسی)، کینیڈا (انتخابی اصلاحات)، چلی (پنشن اور صحت کی دیکھ بھال)، اور ارجنٹائن (ہاؤسنگ، زمین کی ملکیت) سمیت دیگر مقامات کے مسائل کو حل کرنے میں بھی کامیابی سے مدد کی ہے۔

    \”اس کام کو کرنے میں رکاوٹیں ہیں\” جیسا کہ یہ AI سے متعلق ہے، Ovadya تسلیم کرتے ہیں، جو ہارورڈ کے Berkman Klein Center سے وابستہ ہیں اور جن کا کام تیزی سے سماج اور جمہوریت پر AI کے اثرات پر مرکوز ہے۔ \”لیکن تجرباتی طور پر، یہ دنیا بھر کے ہر براعظم میں، ہر پیمانے پر کیا گیا ہے\” اور \”ہم اس میں سے کچھ چیزیں جتنی تیزی سے حاصل کر سکتے ہیں، اتنا ہی بہتر ہے،\” وہ نوٹ کرتے ہیں۔

    لوگوں کو یہ فیصلہ کرنے دینا کہ خاص طور پر AI کے ارد گرد قابل قبول رہنما خطوط کچھ لوگوں کو عجیب لگ سکتے ہیں، لیکن یہاں تک کہ تکنیکی ماہرین کے خیال میں یہ حل کا حصہ ہے۔ میرا مورتی، ممتاز AI اسٹارٹ اپ OpenAI کی چیف ٹیکنالوجی آفیسر، وقت بتاتا ہے ایک نئے انٹرویو میں میگزین، \”[W[e’re a small group of people and we need a ton more input in this system and a lot more input that goes beyond the technologies— definitely regulators and governments and everyone else.”

    Asked if Murati fears that government involvement can slow innovation or whether she thinks it’s too early for policymakers and regulators to get involved, she tells the outlet, “It’s not too early. It’s very important for everyone to start getting involved given the impact these technologies are going to have.”

    In the current regulatory vacuum, OpenAI has taken a self-governing approach for now, instituting guidelines for the safe use of its tech and pushing out new iterations in dribs and drabs — sometimes to the frustration of the wider public.

    The European Union has meanwhile been drafting a regulatory framework — AI Act — that’s making its way through the European Parliament and aims to become a global standard. The law would assign applications of AI to three risk categories: applications and systems that create an “unacceptable risk”; “high-risk applications,” such as a “CV-scanning tool that ranks job applicants” that would be subject to specific legal requirements; and applications not explicitly banned or listed as high-risk that would largely be left unregulated.

    The U.S. Department of Commerce has also drafted a voluntary framework meant as guidance for companies, but there remains no regulation– zilcho — when it’s sorely needed. (In addition to OpenAI, tech behemoths like Microsoft and Google  — despite being burned by earlier releases of their own AI that backfired — are very publicly racing again to roll out AI-infused products and applications, lest they be left behind.)

    A kind of World Wide Web consortium, an international organization created in 1994 to set standards for the World Wide Web, would seemingly make sense. Indeed, in that Time interview, Murati observes that “different voices, like philosophers, social scientists, artists, and people from the humanities” should be brought together to answer the many “ethical and philosophical questions that we need to consider.”

    Maybe the industry starts there, and so-called collective intelligence fills in many of the gaps between the broad brush strokes. 

    Maybe some new tools help toward that end. Open AI CEO Sam Altman is also a cofounder, for example, of a retina-scanning company in Berlin called WorldCoin that wants to make it easy to authenticate someone’s identity easily. Questions have been raised about the privacy and security implications of WorldCoin’s biometric approach, but its potential applications include distributing a global universal basic income, as well as empowering new forms of digital democracy.

    Either way, Ovadya thinks that turning to deliberative processes involving wide swaths of people from around the world is the way to create boundaries around AI while also giving the industry’s players more credibility.

    “OpenAI is getting some flack right now from everyone,” including over its perceived liberal bias, says Ovadya. “It would be helpful [for the company] اس بارے میں کہ وہ اپنی مستقبل کی پالیسیاں کیسے قائم کرتا ہے اس کے بارے میں واقعی ٹھوس جواب حاصل کرنا۔

    Ovadya اسی طرح Stability.AI کی طرف اشارہ کرتا ہے، اوپن سورس AI کمپنی جس کے سی ای او، عماد مصدق نے بار بار یہ تجویز کیا ہے کہ استحکام OpenAI سے زیادہ جمہوری ہے کیونکہ یہ ہر جگہ دستیاب ہے، جبکہ OpenAI صرف ان میں دستیاب ہے۔ ممالک ابھی جہاں یہ \”محفوظ رسائی\” فراہم کر سکتا ہے۔

    Ovadya کہتے ہیں، \”عماد ایٹ اسٹیبلٹی کا کہنا ہے کہ وہ \’AI کو جمہوری بنا رہا ہے۔\’ ٹھیک ہے، کیا یہ اچھا نہیں ہوگا کہ جمہوری عمل کو استعمال کرتے ہوئے یہ معلوم کیا جائے کہ لوگ واقعی کیا چاہتے ہیں؟

    کیا \’ہم لوگ\’ AI کو کنٹرول میں رکھ سکتے ہیں؟ کی طرف سے کونی لوئیزوس اصل میں شائع ہوا ٹیک کرنچ



    Source link

  • Can \’we the people\’ keep AI in check?

    ٹیکنولوجسٹ اور محقق Aviv Ovadya اس بات کا یقین نہیں ہے کہ تخلیقی AI کو کنٹرول کیا جا سکتا ہے، لیکن وہ سوچتا ہے کہ اسے قابو میں رکھنے کا سب سے قابل عمل ذریعہ صرف ان لوگوں کو سونپنا ہو سکتا ہے جو AI سے متاثر ہوں گے اجتماعی طور پر اس کو روکنے کے طریقوں پر فیصلہ کریں۔

    اس کا مطلب ہے آپ; اس کا مطلب ہے میرا۔ یہ افراد کے بڑے نیٹ ورکس کی طاقت ہے کہ وہ مسائل کو تیزی سے اور زیادہ مساوی طریقے سے حل کریں جتنا کہ افراد کا ایک چھوٹا گروپ اکیلے کر سکتا ہے (بشمول، واشنگٹن میں)۔ یہ بنیادی طور پر ہجوم کی حکمت پر انحصار کرتا ہے، اور یہ سائنسی تحقیق، کاروبار، سیاست، اور سماجی تحریکوں سمیت بہت سے شعبوں میں ہو رہا ہے۔

    تائیوان میں، مثال کے طور پر، 2015 میں شہری ذہن رکھنے والے ہیکرز نے ایک پلیٹ فارم تشکیل دیا – \”ورچوئل تائیوان\” – جو کہ \”بنیادی طور پر ڈیجیٹل معیشت سے متعلق مسائل کے پالیسی حل پر بحث کرنے کے لیے عوامی، نجی اور سماجی شعبوں کے نمائندوں کو اکٹھا کرتا ہے۔\” وضاحت کی نیو یارک ٹائمز میں تائیوان کے ڈیجیٹل وزیر، آڈری تانگ کے ذریعہ 2019 میں۔ اس وقت سے، vTaiwan، جیسا کہ یہ جانا جاتا ہے، \”آن لائن مباحثے اور اسٹیک ہولڈرز کے ساتھ آمنے سامنے بات چیت کے مرکب پر انحصار کرتے ہوئے\” درجنوں مسائل سے نمٹا ہے، تانگ نے اس وقت لکھا۔

    اسی طرح کی ایک پہل ہے۔ اوریگون کے شہریوں کے اقدام کا جائزہ، جس پر 2011 میں قانون میں دستخط کیے گئے تھے اور ریاست کی ووٹنگ کی آبادی کو شہری کی طرف سے چلنے والے \”جان بوجھ کر عمل\” کے ذریعے بیلٹ اقدامات کے بارے میں مطلع کرتے ہیں۔ تقریباً 20 سے 25 شہریوں کو جو پورے اوریگون ووٹر کے نمائندے ہیں ایک اقدام کی خوبیوں پر بحث کے لیے اکٹھا کیا جاتا ہے۔ اس کے بعد وہ اجتماعی طور پر اس اقدام کے بارے میں ایک بیان لکھتے ہیں جو ریاست کے دوسرے ووٹروں کو بھیجا جاتا ہے تاکہ وہ انتخابات کے دنوں میں بہتر طور پر باخبر فیصلے کر سکیں۔

    نام نہاد سوچے سمجھے عمل نے آسٹریلیا (واٹر پالیسی)، کینیڈا (انتخابی اصلاحات)، چلی (پنشن اور صحت کی دیکھ بھال)، اور ارجنٹائن (ہاؤسنگ، زمین کی ملکیت) سمیت دیگر مقامات کے مسائل کو حل کرنے میں بھی کامیابی سے مدد کی ہے۔

    \”اس کام کو کرنے میں رکاوٹیں ہیں\” جیسا کہ یہ AI سے متعلق ہے، Ovadya تسلیم کرتے ہیں، جو ہارورڈ کے Berkman Klein Center سے وابستہ ہیں اور جن کا کام تیزی سے سماج اور جمہوریت پر AI کے اثرات پر مرکوز ہے۔ \”لیکن تجرباتی طور پر، یہ دنیا بھر کے ہر براعظم میں، ہر پیمانے پر کیا گیا ہے\” اور \”ہم اس میں سے کچھ چیزیں جتنی تیزی سے حاصل کر سکتے ہیں، اتنا ہی بہتر ہے،\” وہ نوٹ کرتے ہیں۔

    لوگوں کو یہ فیصلہ کرنے دینا کہ خاص طور پر AI کے ارد گرد قابل قبول رہنما خطوط کچھ لوگوں کو عجیب لگ سکتے ہیں، لیکن یہاں تک کہ تکنیکی ماہرین کے خیال میں یہ حل کا حصہ ہے۔ میرا مورتی، ممتاز AI اسٹارٹ اپ OpenAI کی چیف ٹیکنالوجی آفیسر، وقت بتاتا ہے ایک نئے انٹرویو میں میگزین، \”[W[e’re a small group of people and we need a ton more input in this system and a lot more input that goes beyond the technologies— definitely regulators and governments and everyone else.”

    Asked if Murati fears that government involvement can slow innovation or whether she thinks it’s too early for policymakers and regulators to get involved, she tells the outlet, “It’s not too early. It’s very important for everyone to start getting involved given the impact these technologies are going to have.”

    In the current regulatory vacuum, OpenAI has taken a self-governing approach for now, instituting guidelines for the safe use of its tech and pushing out new iterations in dribs and drabs — sometimes to the frustration of the wider public.

    The European Union has meanwhile been drafting a regulatory framework — AI Act — that’s making its way through the European Parliament and aims to become a global standard. The law would assign applications of AI to three risk categories: applications and systems that create an “unacceptable risk”; “high-risk applications,” such as a “CV-scanning tool that ranks job applicants” that would be subject to specific legal requirements; and applications not explicitly banned or listed as high-risk that would largely be left unregulated.

    The U.S. Department of Commerce has also drafted a voluntary framework meant as guidance for companies, but there remains no regulation– zilcho — when it’s sorely needed. (In addition to OpenAI, tech behemoths like Microsoft and Google  — despite being burned by earlier releases of their own AI that backfired — are very publicly racing again to roll out AI-infused products and applications, lest they be left behind.)

    A kind of World Wide Web consortium, an international organization created in 1994 to set standards for the World Wide Web, would seemingly make sense. Indeed, in that Time interview, Murati observes that “different voices, like philosophers, social scientists, artists, and people from the humanities” should be brought together to answer the many “ethical and philosophical questions that we need to consider.”

    Maybe the industry starts there, and so-called collective intelligence fills in many of the gaps between the broad brush strokes. 

    Maybe some new tools help toward that end. Open AI CEO Sam Altman is also a cofounder, for example, of a retina-scanning company in Berlin called WorldCoin that wants to make it easy to authenticate someone’s identity easily. Questions have been raised about the privacy and security implications of WorldCoin’s biometric approach, but its potential applications include distributing a global universal basic income, as well as empowering new forms of digital democracy.

    Either way, Ovadya thinks that turning to deliberative processes involving wide swaths of people from around the world is the way to create boundaries around AI while also giving the industry’s players more credibility.

    “OpenAI is getting some flack right now from everyone,” including over its perceived liberal bias, says Ovadya. “It would be helpful [for the company] اس بارے میں کہ وہ اپنی مستقبل کی پالیسیاں کیسے قائم کرتا ہے اس کے بارے میں واقعی ٹھوس جواب حاصل کرنا۔

    Ovadya اسی طرح Stability.AI کی طرف اشارہ کرتا ہے، اوپن سورس AI کمپنی جس کے سی ای او، عماد مصدق نے بار بار یہ تجویز کیا ہے کہ استحکام OpenAI سے زیادہ جمہوری ہے کیونکہ یہ ہر جگہ دستیاب ہے، جبکہ OpenAI صرف ان میں دستیاب ہے۔ ممالک ابھی جہاں یہ \”محفوظ رسائی\” فراہم کر سکتا ہے۔

    Ovadya کہتے ہیں، \”عماد ایٹ اسٹیبلٹی کا کہنا ہے کہ وہ \’AI کو جمہوری بنا رہا ہے۔\’ ٹھیک ہے، کیا یہ اچھا نہیں ہوگا کہ جمہوری عمل کو استعمال کرتے ہوئے یہ معلوم کیا جائے کہ لوگ واقعی کیا چاہتے ہیں؟

    کیا \’ہم لوگ\’ AI کو کنٹرول میں رکھ سکتے ہیں؟ کی طرف سے کونی لوئیزوس اصل میں شائع ہوا ٹیک کرنچ



    Source link