Tag: customers

  • OpenAI launches an API for ChatGPT, plus dedicated capacity for enterprise customers

    فون کرنے کے لئے چیٹ جی پی ٹیسان فرانسسکو میں قائم سٹارٹ اپ OpenAI کی طرف سے تیار کردہ مفت ٹیکسٹ جنریٹنگ AI، ایک ہٹ ایک بہت بڑی کمی ہے۔

    دسمبر تک، ChatGPT کے پاس ایک تھا۔ اندازہ لگایا گیا 100 ملین سے زیادہ ماہانہ فعال صارفین۔ یہ ہے متوجہ میڈیا کی بڑی توجہ اور سوشل میڈیا پر ان گنت میمز کو جنم دیا۔ اس کی عادت ہو گئی ہے۔ لکھنا ایمیزون کے کنڈل اسٹور میں سیکڑوں ای بکس۔ اور اس کا سہرا کم از کم coauthoring کا ہے۔ ایک سائنسی کاغذ.

    لیکن اوپن اے آئی، ایک کاروبار ہونے کے ناطے – اگرچہ ایک محدود منافع والا – کسی نہ کسی طرح ChatGPT کو منیٹائز کرنا پڑا، ایسا نہ ہو کہ سرمایہ کار پریشان ہو جائیں۔ اس نے ایک پریمیم سروس کے آغاز کے ساتھ اس کی طرف ایک قدم اٹھایا، چیٹ جی پی ٹی پلس، فروری میں. اور اس نے آج ایک بڑا اقدام کیا، ایک API متعارف کرایا جو کسی بھی کاروبار کو اپنی ایپس، ویب سائٹس، مصنوعات اور خدمات میں ChatGPT ٹیک بنانے کی اجازت دے گا۔

    ایک API ہمیشہ منصوبہ تھا۔ یہ OpenAI کے صدر اور چیئرمین (اور شریک بانیوں میں سے ایک) گریگ بروک مین کے مطابق ہے۔ اس نے کل سہ پہر ChatGPT API کے آغاز سے پہلے ایک ویڈیو کال کے ذریعے مجھ سے بات کی۔

    بروک مین نے کہا کہ \”ان APIs کو ایک خاص معیار کی سطح تک پہنچانے میں ہمیں کچھ وقت لگتا ہے۔\” \”میرے خیال میں یہ اس قسم کی ہے، جیسے، صرف مانگ اور پیمانے کو پورا کرنے کے قابل ہونا۔\”

    بروک مین کا کہنا ہے کہ ChatGPT API اسی AI ماڈل سے چلتا ہے جو OpenAI کے بے حد مقبول ChatGPT کے پیچھے ہے، جسے \”gpt-3.5-turbo\” کہا جاتا ہے۔ GPT-3.5 سب سے طاقتور ٹیکسٹ تیار کرنے والا ماڈل ہے جو OpenAI آج اپنے API سوٹ کے ذریعے پیش کرتا ہے۔ \”ٹربو\” مانیکر سے مراد ہے۔ مرضی کے مطابق، زیادہ ذمہ دار GPT-3.5 کا ورژن جسے OpenAI خاموشی سے ChatGPT کی جانچ کر رہا ہے۔

    $0.002 فی 1,000 ٹوکنز، یا تقریباً 750 الفاظ کی قیمت پر، بروک مین کا دعویٰ ہے کہ API \”نان چیٹ\” ایپلی کیشنز سمیت متعدد تجربات چلا سکتا ہے۔ Snap، Quizlet، Instacart اور Shopify ابتدائی اپنانے والوں میں شامل ہیں۔

    gpt-3.5-turbo تیار کرنے کے پیچھے ابتدائی محرک ChatGPT کے بہت بڑے کمپیوٹ اخراجات کو کم کرنا ہو سکتا ہے۔ اوپن اے آئی کے سی ای او سیم آلٹ مین نے ایک بار چیٹ جی پی ٹی کے اخراجات کو \”آنکھوں میں پانی ڈالنے والا\” کہا تھا۔ ان کا اندازہ لگانا کمپیوٹ کے اخراجات میں چند سینٹ فی چیٹ پر۔ (ایک ملین سے زیادہ صارفین کے ساتھ، اس میں ممکنہ طور پر تیزی سے اضافہ ہوتا ہے۔)

    لیکن بروک مین کا کہنا ہے کہ gpt-3.5-turbo کو دوسرے طریقوں سے بہتر بنایا گیا ہے۔

    \”اگر آپ AI سے چلنے والا ٹیوٹر بنا رہے ہیں، تو آپ کبھی نہیں چاہیں گے کہ ٹیوٹر صرف طالب علم کو جواب دے۔ آپ چاہتے ہیں کہ یہ ہمیشہ اس کی وضاحت کرے اور سیکھنے میں ان کی مدد کرے — یہ اس قسم کے نظام کی ایک مثال ہے جسے آپ بنانے کے قابل ہونا چاہیے۔ [with the API]\”بروک مین نے کہا۔ \”ہم سوچتے ہیں کہ یہ کچھ ایسا ہونے جا رہا ہے جو صرف، جیسے، API کو بہت زیادہ قابل استعمال اور قابل رسائی بنائے گا۔\”

    ChatGPT API انڈر پن کرتا ہے۔ میرا AI، Snap کی Snapchat+ سبسکرائبرز کے لیے حال ہی میں اعلان کردہ چیٹ بوٹ، اور Quizlet کی نئی Q-Chat ورچوئل ٹیوٹر کی خصوصیت۔ Shopify نے خریداری کی سفارشات کے لیے ذاتی نوعیت کا اسسٹنٹ بنانے کے لیے ChatGPT API کا استعمال کیا، جب کہ Instacart نے Ask Instacart بنانے کے لیے اس کا فائدہ اٹھایا، جو ایک آنے والا ٹول ہے جو Instacart کے صارفین کو کھانے کے بارے میں پوچھنے اور کمپنی کے ریٹیل سے پروڈکٹ ڈیٹا کے ذریعے مطلع \”شاپ کے قابل\” جوابات حاصل کرنے کی اجازت دے گا۔ شراکت دار

    Instacart کے چیف آرکیٹیکٹ JJ Zhuang نے مجھے ای میل کے ذریعے بتایا، \”گروسری کی خریداری کے لیے بہت سے عوامل جیسے بجٹ، صحت اور غذائیت، ذاتی ذوق، موسمی، کھانا پکانے کی مہارت، تیاری کا وقت، اور ترکیب کی حوصلہ افزائی کے ساتھ، ایک بڑا ذہنی بوجھ درکار ہو سکتا ہے۔\” . \”کیا ہوگا اگر AI اس ذہنی بوجھ کو اٹھا سکتا ہے، اور ہم گھریلو رہنماؤں کی مدد کر سکتے ہیں جو عام طور پر گروسری کی خریداری، کھانے کی منصوبہ بندی، اور میز پر کھانا ڈالنے کے ذمہ دار ہوتے ہیں – اور حقیقت میں گروسری کی خریداری کو حقیقی معنوں میں تفریحی بنا سکتے ہیں؟ Instacart کا AI سسٹم، OpenAI کے ChatGPT کے ساتھ مربوط ہونے پر، ہمیں بالکل ایسا کرنے کے قابل بنائے گا، اور ہم Instacart ایپ میں جو کچھ ممکن ہے اس کے ساتھ تجربہ کرنا شروع کر کے بہت خوش ہیں۔\”

    \"Instacart

    تصویری کریڈٹ: انسٹا کارٹ

    وہ لوگ جو ChatGPT ساگا کو قریب سے پیروی کر رہے ہیں، اگرچہ، یہ سوچ رہے ہوں گے کہ کیا یہ ریلیز کے لیے تیار ہے – اور بجا طور پر۔

    ابتدائی طور پر، صارفین ChatGPT کو سوالات کے جوابات دینے کے قابل تھے۔ نسل پرست اور جنس پرست طریقے، متعصب ڈیٹا کا عکس جس پر ChatGPT کو ابتدائی طور پر تربیت دی گئی تھی۔ (ChatGPT کے تربیتی اعداد و شمار میں انٹرنیٹ کے مواد کا ایک وسیع ذخیرہ شامل ہے، یعنی ای بکس، Reddit پوسٹس اور ویکیپیڈیا کے مضامین۔) چیٹ جی پی ٹی یہ انکشاف کیے بغیر حقائق بھی ایجاد کرتا ہے کہ وہ ایسا کر رہا ہے، AI میں ایک رجحان جسے کہا جاتا ہے۔ فریب.

    ChatGPT – اور اس جیسے سسٹمز – کے لیے حساس ہیں۔ فوری بنیاد پر حملے نیز، یا بدنیتی پر مبنی مخالفانہ اشارے جو انہیں ایسے کام انجام دینے پر مجبور کرتے ہیں جو ان کے اصل مقاصد کا حصہ نہیں تھے۔ پوری کمیونٹیز Reddit پر چیٹ جی پی ٹی کو \”جیل بریک\” کرنے کے طریقے تلاش کرنے اور کسی بھی حفاظتی اقدامات کو نظرانداز کرنے کے ارد گرد تشکیل دیا گیا ہے جو OpenAI نے رکھا ہے۔ کم جارحانہ مثالوں میں سے ایک میں، اسٹارٹ اپ اسکیل AI کا ایک عملہ ChatGPT حاصل کرنے کے قابل تھا ظاہر کرنا اس کے اندرونی تکنیکی کام کے بارے میں معلومات۔

    برانڈز، بلا شبہ، کراس ہیئرز میں پھنسنا نہیں چاہیں گے۔ بروک مین اٹل ہے کہ وہ نہیں ہوں گے۔ ایسا کیوں؟ ایک وجہ، وہ کہتے ہیں، پسدید پر مسلسل بہتری ہے – بعض صورتوں میں کینیا کے کنٹریکٹ ورکرز کے اخراجات. لیکن بروک مین نے ایک نئے (اور فیصلہ کن طور پر کم متنازعہ) نقطہ نظر پر زور دیا جسے OpenAI Chat Markup Language، یا ChatML کہتا ہے۔ ChatML میٹا ڈیٹا کے ساتھ پیغامات کی ترتیب کے طور پر ChatGPT API کو متن فیڈ کرتا ہے۔ یہ معیاری ChatGPT کے برعکس ہے، جو ٹوکن کی ایک سیریز کے طور پر پیش کردہ خام متن کو استعمال کرتا ہے۔ (مثال کے طور پر لفظ \”لاجواب\” کو ٹوکن \”فین\”، \”ٹاس\” اور \”ٹک\” میں تقسیم کیا جائے گا۔)

    مثال کے طور پر، \”میری 30ویں سالگرہ کے لیے پارٹی کے کچھ دلچسپ خیالات کیا ہیں؟\” ایک ڈویلپر اس پرامپٹ کو ایک اضافی پرامپٹ کے ساتھ شامل کرنے کا انتخاب کر سکتا ہے جیسے کہ \”آپ ایک تفریحی بات چیت کرنے والی چیٹ بوٹ ہیں جو صارفین کے سوالات میں ان کی مدد کرنے کے لیے ڈیزائن کیا گیا ہے۔ آپ کو سچائی اور پرلطف انداز میں جواب دینا چاہیے! یا ChatGPT API پر کارروائی کرنے سے پہلے \”آپ ایک بوٹ ہیں\”۔ بروک مین کے مطابق، یہ ہدایات ChatGPT ماڈل کے جوابات کو بہتر بنانے اور فلٹر کرنے میں مدد کرتی ہیں۔

    \”ہم ایک اعلی سطحی API پر جا رہے ہیں۔ اگر آپ کے پاس سسٹم میں ان پٹ کی نمائندگی کرنے کا زیادہ منظم طریقہ ہے، جہاں آپ کہتے ہیں، \’یہ ڈویلپر کی طرف سے ہے\’ یا \’یہ صارف کی طرف سے ہے\’ … مجھے توقع کرنی چاہیے کہ، ایک ڈویلپر کے طور پر، آپ حقیقت میں زیادہ مضبوط ہو سکتے ہیں۔ [using ChatML] اس قسم کے فوری حملوں کے خلاف، \”بروک مین نے کہا۔

    ایک اور تبدیلی جو (امید ہے کہ) غیر ارادی ChatGPT رویے کو روکے گی وہ زیادہ کثرت سے ماڈل اپ ڈیٹس ہے۔ جی پی ٹی-3.5-ٹربو کے اجراء کے ساتھ، ڈیولپرز خود بخود OpenAI کے تازہ ترین مستحکم ماڈل میں اپ گریڈ ہو جائیں گے، Brockman کا کہنا ہے کہ gpt-3.5-turbo-0301 (آج جاری) سے شروع ہو رہا ہے۔ ڈیولپرز کے پاس پرانے ماڈل کے ساتھ رہنے کا اختیار ہوگا اگر وہ ایسا کرتے ہیں، تاہم، جو کسی حد تک فائدے کی نفی کر سکتا ہے۔

    چاہے وہ جدید ترین ماڈل کو اپ ڈیٹ کرنے کا انتخاب کریں یا نہ کریں، بروک مین نوٹ کرتا ہے کہ کچھ صارفین – بنیادی طور پر بڑے کاروباری ادارے جس کے مطابق بڑے بجٹ ہوتے ہیں – وقف صلاحیت کے منصوبوں کے تعارف کے ساتھ سسٹم کی کارکردگی پر گہرا کنٹرول حاصل کریں گے۔ سب سے پہلے دستاویزات میں تفصیلی لیک اس ماہ کے شروع میں، OpenAI کے وقف صلاحیت کے منصوبے، جو آج شروع کیے گئے، صارفین کو ایک OpenAI ماڈل چلانے کے لیے کمپیوٹ انفراسٹرکچر کے مختص کے لیے ادائیگی کرنے دیں – مثال کے طور پر، gpt-3.5-turbo۔ (ویسے یہ بیک اینڈ پر Azure ہے۔)

    مثال کے بوجھ پر \”مکمل کنٹرول\” کے علاوہ – عام طور پر، مشترکہ کمپیوٹ وسائل پر OpenAI API کو کالز ہوتی ہیں – وقف صلاحیت صارفین کو طویل سیاق و سباق کی حدود جیسی خصوصیات کو فعال کرنے کی صلاحیت فراہم کرتی ہے۔ سیاق و سباق کی حدود اس متن کا حوالہ دیتے ہیں جس پر ماڈل اضافی متن بنانے سے پہلے غور کرتا ہے۔ طویل سیاق و سباق کی حدود ماڈل کو بنیادی طور پر مزید متن کو \”یاد رکھنے\” کی اجازت دیتی ہیں۔ اگرچہ اعلیٰ سیاق و سباق کی حدود تمام تعصب اور زہریلے مسائل کو حل نہیں کرسکتی ہیں، لیکن وہ gpt-3.5-turbo جیسے ماڈلز کی قیادت کرسکتی ہیں۔ کم hallucinate.

    بروک مین کا کہنا ہے کہ وقف صلاحیت والے صارفین 16k سیاق و سباق کی ونڈو کے ساتھ gpt-3.5-ٹربو ماڈل کی توقع کر سکتے ہیں، یعنی وہ معیاری ChatGPT ماڈل سے چار گنا زیادہ ٹوکن لے سکتے ہیں۔ اس سے کسی کو ٹیکس کوڈ کے صفحات اور صفحات میں چسپاں کرنے اور ماڈل سے معقول جوابات حاصل کرنے کی اجازت مل سکتی ہے، کہیے – ایک ایسا کارنامہ جو آج ممکن نہیں ہے۔

    بروک مین نے مستقبل میں عام ریلیز کا اشارہ کیا، لیکن جلد ہی نہیں۔

    بروک مین نے کہا، \”سیاق و سباق کی کھڑکیوں نے رینگنا شروع کر دیا ہے، اور اس وجہ کا ایک حصہ یہ ہے کہ ہم ابھی صرف صلاحیت کے حامل صارفین ہیں، کیونکہ ہماری طرف بہت سارے پرفارمنس ٹریڈ آفس ہیں۔\” \”ہم بالآخر اسی چیز کا آن ڈیمانڈ ورژن پیش کرنے کے قابل ہو سکتے ہیں۔\”

    اوپن اے آئی کے بڑھتے ہوئے دباؤ کو دیکھتے ہوئے a کے بعد منافع کمانا اربوں ڈالر کی سرمایہ کاری مائیکروسافٹ سے، یہ بہت حیران کن نہیں ہوگا.





    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Google Cloud partners with Tezos blockchain to bring web3 technology to its customers

    Google Cloud and the Tezos Foundation have announced a partnership to expand web3 application development and provide new services for their customers. The partnership will make it easier for Google Cloud customers to become Tezos network validators, and Google Cloud will also become a baker. Tezos is an open source proof-of-stake blockchain that has partnered with major brands and companies, and it recently partnered with the California DMV to help the agency digitize car titles. Google Cloud is trying to reduce the barrier to entry for developers to build on the Tezos blockchain and is looking to partner with other key players in the web3 ecosystem. This year, Google Cloud plans to focus on the core principles of blockchain technology. Join my Facebook group to learn more about Google Cloud and Tezos\’ partnership and its implications for the web3 ecosystem.



    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • JD Sports says 10 million customers hit by cyber-attack

    اسپورٹس ویئر چین کا کہنا ہے کہ حملے کے بعد اس کے صارفین سے متعلق ذخیرہ شدہ ڈیٹا خطرے میں پڑ سکتا ہے۔



    Source link

  • Don’t blame customers in incidents of frauds and scams, SBP official tells banks

    اسٹیٹ بینک آف پاکستان (SBP) کے ڈائریکٹر پیمنٹ سسٹم ڈپارٹمنٹ سہیل جواد نے بدھ کے روز کمرشل بینکوں پر تنقید کی اور ان پر صارفین کے ساتھ توہین آمیز سلوک کرنے کا الزام لگایا \”یہ ایک اہم وجہ ہے کہ بہت سے لوگ مالی طور پر باہر رہنے کا انتخاب کرتے ہیں۔\”

    کراچی کے ایک مقامی ہوٹل میں چوتھی ڈیجیٹل بینکنگ اینڈ پیمنٹ سمٹ اینڈ ایکسپو – DigiBAP2023 سے خطاب کرتے ہوئے، انہوں نے کہا کہ بینک صرف ترجیحی صارفین کے ساتھ احترام کے ساتھ پیش آتے ہیں۔

    \”جب ایک عام گاہک بینک میں جاتا ہے، تو اسے وہ سروس نہیں ملتی جس کے وہ حقدار ہوتے ہیں۔\”

    اسٹیٹ بینک ڈیجیٹل بینک کے قیام کے لیے پانچ درخواست گزاروں کو NOC جاری کرتا ہے۔

    اس تقریب میں پاکستان کی غیر بینکاری آبادی کی مالی شمولیت پر تبادلہ خیال کیا گیا۔ مالی شمولیت کو فروغ دینے کے لیے، SBP نے پانچ ڈیجیٹل بینکوں کو لائسنس دیے۔

    ان مالیاتی اداروں نے مالیاتی شعبے کی ترقی میں مدد کرنے کے لیے بینک سے محروم عوام میں مالی شمولیت اور ٹیکنالوجی اور کسٹمر سروسز میں سرمایہ کاری کرنے کا وعدہ کیا ہے۔

    مشرق بینک، راقمی اور ایزی پیسہ DB کے اعلیٰ عہدیداروں نے مستقبل میں اس مقصد کے لیے اپنے عزم کا اعادہ کیا۔ ان تینوں مالیاتی اداروں نے حال ہی میں اسٹیٹ بینک سے ڈیجیٹل بینکنگ لائسنس حاصل کیا ہے۔

    ایک ریگولیٹر کے طور پر بات کرتے ہوئے، جاوید نے پاکستان کی بینکنگ انڈسٹری میں خرابیوں کے بارے میں تفصیل سے بات کی اور ان خرابیوں پر بات کی جن کو دور کیا جانا چاہیے۔ انہوں نے امید ظاہر کی کہ ڈیجیٹل بینک مسائل کے خاتمے کے لیے کام کریں گے۔

    جاوید نے مزید کہا کہ جب صارفین فراڈ یا گھوٹالوں کی شکایت کرنے کے لیے بینکوں سے رابطہ کرتے ہیں، تو انہیں بتایا جاتا ہے کہ یہ ان کی غلطی تھی کیونکہ انہوں نے اپنے اکاؤنٹس سے متعلق اہم معلومات فراہم کیں۔

    انہوں نے نشاندہی کی کہ بینک کال سینٹرز صارفین کو گھنٹوں انتظار کرنے پر مجبور کرتے ہیں اور یہاں تک کہ جب وہ بینک حکام سے رابطہ کرنے کے قابل ہوتے ہیں، تب بھی ان کی شکایات کو شاذ و نادر ہی دور کیا جاتا ہے۔

    FY21-22: ڈیجیٹل ادائیگیوں میں تیزی سے اضافہ ہو رہا ہے۔

    \”میرے خیال میں یہ رویہ ان اہم وجوہات میں سے ایک ہے جس کی وجہ سے لوگ مالی طور پر باہر رہنے کا انتخاب کرتے ہیں،\” انہوں نے مزید کہا۔

    اسٹیٹ بینک آفیشل نے کہا کہ اگر بینک صارفین کا احترام کرنے اور ان کی خدمت کرنے میں ناکام رہے تو ایس بی پی سینٹرل بینک ڈیجیٹل کرنسی (CBDC) شروع کرے گا \”اور میں نہیں چاہوں گا کہ بینک ڈیجیٹل کرنسی کا حصہ بنیں\”۔

    CBDC ایک مجازی رقم ہے جسے مرکزی بینک کی طرف سے حمایت اور جاری کیا جاتا ہے۔

    \”سی بی ڈی سی ٹیکنالوجی خلل ڈالنے والی ہے، جس کا مطلب ہے کہ یہ پورے نظام میں انقلاب برپا کر دے گی۔\”

    انہوں نے مزید کہا کہ ملک میں کئی طرح کے بینکنگ فراڈ ہورہے ہیں اور بینکوں پر زور دیا کہ وہ اس کا جواب دیں۔

    \”میرا یہ کہنے کا مطلب یہ نہیں ہے کہ بینک کچھ نہیں کر رہے ہیں، تاہم، فراڈ کرنے والے سسٹم سے آگے رہتے ہیں اور ہر وقت نئی تکنیکوں کے ساتھ آتے ہیں۔\”

    \”ایس بی پی کو جو چیز پسند نہیں ہے وہ یہ ہے کہ بینک صارفین کو بتاتے ہیں کہ یہ ان کی غلطی تھی کیونکہ انہوں نے اپنا پاس ورڈ دیا تھا۔\”

    \”ہم ذمہ داری کے ڈھانچے کو تبدیل کرنے کے بارے میں سوچ رہے ہیں۔ دھوکہ دہی کی صورت میں، ہم بینکوں سے کہہ رہے ہیں کہ وہ چند دنوں میں رقم واپس کرنے پر راضی ہوجائیں۔

    جاوید کے مطابق پاکستان کی معیشت کا ایک بہت بڑا مسئلہ بڑی مقدار میں نقدی کی موجودگی تھی۔

    \”یہ ظاہر کرتا ہے کہ لوگ مالی طور پر باہر رہنے کا انتخاب کر رہے ہیں،\” انہوں نے کہا۔ \”لوگ نقد رقم کے استعمال سے ٹھیک ہیں کیونکہ یہ مفت اور آسان ہے۔ زبان اور اصطلاحات جو بینک استعمال کرتے ہیں وہ بھی ممکنہ صارفین کو دور کر دیتے ہیں۔

    اس موقع پر گفتگو کرتے ہوئے مشرق بینک کے سی ای او عرفان لودھی نے کہا کہ ان کی تنظیم طویل مدتی وژن کے ساتھ پاکستانی مارکیٹ میں داخل ہوئی ہے اور مارکیٹ میں زیادہ سے زیادہ رسائی اور مالی شمولیت کو حاصل کرنے کے منصوبے ہیں۔

    ان کا کہنا تھا کہ مالیاتی شعبے میں آنے والے نئے افراد کو فوری منافع کی خواہش کے بجائے خدمات کے خلا کو پر کر کے مارکیٹ میں جگہ بنانے پر توجہ دینی چاہیے۔

    ایس بی پی کے سابق گورنر ڈاکٹر عشرت حسین نے اپنے خطاب میں کہا کہ مالیاتی اصلاحات ایک مسلسل عمل ہے۔

    انہوں نے کہا کہ ایس بی پی نے گزشتہ برسوں میں اسلامی بینکاری، مائیکرو فنانس بینکنگ اور خواتین کے لیے بینکنگ جیسے نئے اقدامات کی حوصلہ افزائی کی ہے۔ \”اس نے زراعت اور چھوٹے اور درمیانے درجے کے کاروباری اداروں سے روایتی طور پر معاشرے کے غیر محفوظ طبقات کو مالی خدمات بھی فراہم کیں۔\”

    انہوں نے کہا کہ \”ڈیجیٹل بینک مستقبل ہیں اور ان کے پاس مالی شمولیت کو فروغ دینے اور خلا کو پر کرنے کے ذرائع اور مواقع ہیں جو روایتی بینک نہیں کر سکتے،\” انہوں نے کہا۔

    راقمی کے ایگزیکٹو ڈائریکٹر ندیم حسین نے کہا کہ لوگوں نے بینکوں میں پیسہ بچانے کا انتخاب نہیں کیا کیونکہ ریٹرن مہنگائی کو کم نہیں کرتے تھے۔

    یو بی ایل کے صدر اور چیف ایگزیکٹو شہزاد دادا کا کہنا تھا کہ تنظیم میں ثقافتی تبدیلی ایک بہت بڑا چیلنج ہے۔

    انہوں نے کہا کہ ان کا بینک ڈیزائن سوچ اور ڈیٹا اینالیٹکس کی بنیاد پر آگے بڑھ رہا ہے تاکہ صارفین کو بڑھتی ہوئی خدمات کے ساتھ بینکنگ کے مستقبل میں داخل ہو سکے۔



    Source link

  • Don’t blame customers in incidences of frauds and scams, SBP official tells banks

    اسٹیٹ بینک آف پاکستان (SBP) کے ڈائریکٹر پیمنٹ سسٹم ڈپارٹمنٹ سہیل جواد نے بدھ کے روز کمرشل بینکوں پر تنقید کی اور ان پر صارفین کے ساتھ توہین آمیز سلوک کرنے کا الزام لگایا \”یہ ایک اہم وجہ ہے کہ بہت سے لوگ مالی طور پر باہر رہنے کا انتخاب کرتے ہیں۔\”

    کراچی کے ایک مقامی ہوٹل میں چوتھی ڈیجیٹل بینکنگ اینڈ پیمنٹ سمٹ اینڈ ایکسپو – DigiBAP2023 سے خطاب کرتے ہوئے، انہوں نے کہا کہ بینک صرف ترجیحی صارفین کے ساتھ احترام کے ساتھ پیش آتے ہیں۔

    \”جب ایک عام گاہک بینک میں جاتا ہے، تو اسے وہ سروس نہیں ملتی جس کے وہ حقدار ہوتے ہیں۔\”

    اسٹیٹ بینک ڈیجیٹل بینک کے قیام کے لیے پانچ درخواست گزاروں کو NOC جاری کرتا ہے۔

    اس تقریب میں پاکستان کی غیر بینکاری آبادی کی مالی شمولیت پر تبادلہ خیال کیا گیا۔ مالی شمولیت کو فروغ دینے کے لیے، SBP نے پانچ ڈیجیٹل بینکوں کو لائسنس دیے۔

    ان مالیاتی اداروں نے مالیاتی شعبے کی ترقی میں مدد کرنے کے لیے بینک سے محروم عوام میں مالی شمولیت اور ٹیکنالوجی اور کسٹمر سروسز میں سرمایہ کاری کرنے کا وعدہ کیا ہے۔

    مشرق بینک، راقمی اور ایزی پیسہ DB کے اعلیٰ عہدیداروں نے مستقبل میں اس مقصد کے لیے اپنے عزم کا اعادہ کیا۔ ان تینوں مالیاتی اداروں نے حال ہی میں اسٹیٹ بینک سے ڈیجیٹل بینکنگ لائسنس حاصل کیا ہے۔

    ایک ریگولیٹر کے طور پر بات کرتے ہوئے، جاوید نے پاکستان کی بینکنگ انڈسٹری میں خرابیوں کے بارے میں تفصیل سے بات کی اور ان خرابیوں پر بات کی جن کو دور کیا جانا چاہیے۔ انہوں نے امید ظاہر کی کہ ڈیجیٹل بینک مسائل کے خاتمے کے لیے کام کریں گے۔

    جاوید نے مزید کہا کہ جب صارفین فراڈ یا گھوٹالوں کی شکایت کرنے کے لیے بینکوں سے رابطہ کرتے ہیں، تو انہیں بتایا جاتا ہے کہ یہ ان کی غلطی تھی کیونکہ انہوں نے اپنے اکاؤنٹس سے متعلق اہم معلومات فراہم کیں۔

    انہوں نے نشاندہی کی کہ بینک کال سینٹرز صارفین کو گھنٹوں انتظار کرنے پر مجبور کرتے ہیں اور یہاں تک کہ جب وہ بینک حکام سے رابطہ کرنے کے قابل ہوتے ہیں، تب بھی ان کی شکایات کو شاذ و نادر ہی دور کیا جاتا ہے۔

    FY21-22: ڈیجیٹل ادائیگیوں میں تیزی سے اضافہ ہو رہا ہے۔

    \”میرے خیال میں یہ رویہ ان اہم وجوہات میں سے ایک ہے جس کی وجہ سے لوگ مالی طور پر باہر رہنے کا انتخاب کرتے ہیں،\” انہوں نے مزید کہا۔

    اسٹیٹ بینک آفیشل نے کہا کہ اگر بینک صارفین کا احترام کرنے اور ان کی خدمت کرنے میں ناکام رہے تو ایس بی پی سینٹرل بینک ڈیجیٹل کرنسی (CBDC) شروع کرے گا \”اور میں نہیں چاہوں گا کہ بینک ڈیجیٹل کرنسی کا حصہ بنیں\”۔

    CBDC ایک مجازی رقم ہے جسے مرکزی بینک کی طرف سے حمایت اور جاری کیا جاتا ہے۔

    \”سی بی ڈی سی ٹیکنالوجی خلل ڈالنے والی ہے، جس کا مطلب ہے کہ یہ پورے نظام میں انقلاب برپا کر دے گی۔\”

    انہوں نے مزید کہا کہ ملک میں کئی طرح کے بینکنگ فراڈ ہورہے ہیں اور بینکوں پر زور دیا کہ وہ اس کا جواب دیں۔

    \”میرا یہ کہنے کا مطلب یہ نہیں ہے کہ بینک کچھ نہیں کر رہے ہیں، تاہم، فراڈ کرنے والے سسٹم سے آگے رہتے ہیں اور ہر وقت نئی تکنیکوں کے ساتھ آتے ہیں۔\”

    \”ایس بی پی کو جو چیز پسند نہیں ہے وہ یہ ہے کہ بینک صارفین کو بتاتے ہیں کہ یہ ان کی غلطی تھی کیونکہ انہوں نے اپنا پاس ورڈ دیا تھا۔\”

    \”ہم ذمہ داری کے ڈھانچے کو تبدیل کرنے کے بارے میں سوچ رہے ہیں۔ دھوکہ دہی کی صورت میں، ہم بینکوں سے کہہ رہے ہیں کہ وہ چند دنوں میں رقم واپس کرنے پر راضی ہوجائیں۔

    جاوید کے مطابق پاکستان کی معیشت کا ایک بہت بڑا مسئلہ بڑی مقدار میں نقدی کی موجودگی تھی۔

    \”یہ ظاہر کرتا ہے کہ لوگ مالی طور پر باہر رہنے کا انتخاب کر رہے ہیں،\” انہوں نے کہا۔ \”لوگ نقد رقم کے استعمال سے ٹھیک ہیں کیونکہ یہ مفت اور آسان ہے۔ زبان اور اصطلاحات جو بینک استعمال کرتے ہیں وہ بھی ممکنہ صارفین کو دور کر دیتے ہیں۔

    اس موقع پر گفتگو کرتے ہوئے مشرق بینک کے سی ای او عرفان لودھی نے کہا کہ ان کی تنظیم طویل مدتی وژن کے ساتھ پاکستانی مارکیٹ میں داخل ہوئی ہے اور مارکیٹ میں زیادہ سے زیادہ رسائی اور مالی شمولیت کو حاصل کرنے کے منصوبے ہیں۔

    ان کا کہنا تھا کہ مالیاتی شعبے میں آنے والے نئے افراد کو فوری منافع کی خواہش کے بجائے خدمات کے خلا کو پر کر کے مارکیٹ میں جگہ بنانے پر توجہ دینی چاہیے۔

    ایس بی پی کے سابق گورنر ڈاکٹر عشرت حسین نے اپنے خطاب میں کہا کہ مالیاتی اصلاحات ایک مسلسل عمل ہے۔

    انہوں نے کہا کہ ایس بی پی نے گزشتہ برسوں میں اسلامی بینکاری، مائیکرو فنانس بینکنگ اور خواتین کے لیے بینکنگ جیسے نئے اقدامات کی حوصلہ افزائی کی ہے۔ \”اس نے زراعت اور چھوٹے اور درمیانے درجے کے کاروباری اداروں سے روایتی طور پر معاشرے کے غیر محفوظ طبقات کو مالی خدمات بھی فراہم کیں۔\”

    انہوں نے کہا کہ \”ڈیجیٹل بینک مستقبل ہیں اور ان کے پاس مالی شمولیت کو فروغ دینے اور خلا کو پر کرنے کے ذرائع اور مواقع ہیں جو روایتی بینک نہیں کر سکتے،\” انہوں نے کہا۔

    راقمی کے ایگزیکٹو ڈائریکٹر ندیم حسین نے کہا کہ لوگوں نے بینکوں میں پیسہ بچانے کا انتخاب نہیں کیا کیونکہ ریٹرن مہنگائی کو کم نہیں کرتے تھے۔

    یو بی ایل کے صدر اور چیف ایگزیکٹو شہزاد دادا کا کہنا تھا کہ تنظیم میں ثقافتی تبدیلی ایک بہت بڑا چیلنج ہے۔

    انہوں نے کہا کہ ان کا بینک ڈیزائن سوچ اور ڈیٹا اینالیٹکس کی بنیاد پر آگے بڑھ رہا ہے تاکہ صارفین کو بڑھتی ہوئی خدمات کے ساتھ بینکنگ کے مستقبل میں داخل ہو سکے۔



    Source link