Tag: models

  • Your gut\’s microbiome, on a chip: Organ-on-a-chip devices simulate the gastrointestinal system to examine food and drug metabolism without clinical trials or animal models.

    آنت جسم کے سب سے پیچیدہ اعضاء میں سے ایک ہے۔ اندر، یہ متنوع مائکروبیل آبادی کے ساتھ مل جاتا ہے جو خوراک اور ادویات کو ہضم کرنے کے لیے آنتوں کے خلیوں کے ساتھ بات چیت اور تعاون کرتا ہے۔ اس مائکرو بایوم میں رکاوٹیں بیماریوں کے وسیع میدان عمل سے مضبوط روابط رکھتی ہیں، جیسے کہ آنتوں کی سوزش کی بیماری، موٹاپا، دمہ، اور یہاں تک کہ نفسیاتی اور طرز عمل کی خرابیاں۔

    اس لیے گٹ کے درست ماڈل اس کے کام اور اس سے منسلک بیماریوں کو سمجھنے کے لیے بے حد مفید ہیں۔ اے پی ایل بائیو انجینیئرنگ میں، اے آئی پی پبلشنگ کی طرف سے، یونیورسٹی آف کیلیفورنیا، برکلے اور لارنس برکلے نیشنل لیب کے محققین نے بتایا کہ گٹ آن اے چپ ڈیوائسز لیب کے ماڈلز اور انسانی حیاتیات کو کیسے پل سکتی ہیں۔

    آرگن آن اے چپ ڈیوائسز انسانی اعضاء کے چھوٹے ماڈل ہیں۔ ان میں چھوٹے چھوٹے مائیکرو چینلز ہوتے ہیں جہاں خلیات اور ٹشو کلچر عین کنٹرول شدہ غذائی اجزاء کے ساتھ تعامل کرتے ہیں۔ خلیے کے ماحول کو اس طرح سے منظم کرنا بافتوں کے حقیقت پسندانہ ماڈل بنانے کے لیے بہت ضروری ہے۔

    ان ماڈلز کا استعمال کلینیکل ٹرائلز کے وقت طلب اور مہنگے چیلنجوں اور جانوروں کی جانچ کے پیچھے اخلاقی مسائل سے بچتا ہے۔

    \”طبی تحقیق کو اس وقت بڑی رکاوٹوں کا سامنا ہے، انسانی اعضاء کے کام کو کنٹرول کرنے والی بنیادی سائنس کو سمجھنے اور نئی ادویات اور علاج کی تحقیق اور ترقی دونوں لحاظ سے،\” مصنف امین والی نے کہا۔ \”انسانی اعضاء کے درست ماڈلز تک رسائی جن کا لیبارٹری میں آسانی سے مطالعہ کیا جا سکتا ہے، سائنسی دریافتوں اور نئی ادویات کی نشوونما کو نمایاں طور پر تیز کر سکتا ہے۔\”

    مائکرو بایوم کی ماڈلنگ خاص طور پر اس کی منفرد ماحولیاتی حالات کی وجہ سے مشکل ہے۔ تخلیقی ڈیزائن کے ذریعے، گٹ آن اے چپ ڈیوائسز ان میں سے بہت سی خصوصیات کو نقل کر سکتے ہیں، جیسے کہ گٹ کا انیروبک ماحول، سیال کا بہاؤ، اور سکڑاؤ/آرام کی نبض۔ اس ماحول میں آنتوں کے خلیوں کے بڑھنے کا مطلب یہ ہے کہ وہ معیاری لیبارٹری سیل ثقافتوں کے مقابلے انسانی حیاتیات سے زیادہ مشابہت رکھتے ہیں۔

    والیئی نے کہا، \”حالیہ گٹ آن اے-چپ ماڈلز نے انسانی آنتوں کے خلیات اور مائکرو بایوم کی چند دنوں اور حتیٰ کہ ہفتوں تک ایک قابل عمل ثقافت کو برقرار رکھنے میں کامیابی کا مظاہرہ کیا ہے۔\” \”یہ حیاتیاتی طور پر متعلقہ حالات کے تحت مائکرو بایوم کا تجزیہ کرنے کے نئے طریقے کھولتا ہے۔\”

    مصنفین کلیدی گٹ آن اے چپ ڈیوائسز اور مائکروبیل اور انسانی سیلولر بائیولوجی کی تقلید میں ان کی کامیابی پر روشنی ڈالتے ہیں۔ وہ ٹکنالوجی کا استعمال کرتے ہوئے موجودہ بیماری کے ماڈل اور منشیات کے مطالعے کی بھی وضاحت کرتے ہیں۔

    ویلیئی نے کہا کہ \”اس کی منفرد صلاحیتیں آرگن آن اے چپ کو مستقبل میں کافی تحقیقی تحقیقات کے لیے موزوں بناتی ہیں۔\”

    ٹیم فی الحال dysbiosis کی تحقیقات کر رہی ہے، صحت کے بڑے نتائج کے ساتھ گٹ مائکروبیل کمیونٹی میں عدم توازن۔ ان کا مقصد اس حالت کی تشخیص، تخفیف اور علاج کے لیے جدید طریقے تلاش کرنا ہے۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Your gut\’s microbiome, on a chip: Organ-on-a-chip devices simulate the gastrointestinal system to examine food and drug metabolism without clinical trials or animal models.

    آنت جسم کے سب سے پیچیدہ اعضاء میں سے ایک ہے۔ اندر، یہ متنوع مائکروبیل آبادی کے ساتھ مل جاتا ہے جو خوراک اور ادویات کو ہضم کرنے کے لیے آنتوں کے خلیوں کے ساتھ بات چیت اور تعاون کرتا ہے۔ اس مائکرو بایوم میں رکاوٹیں بیماریوں کے وسیع میدان عمل سے مضبوط روابط رکھتی ہیں، جیسے کہ آنتوں کی سوزش کی بیماری، موٹاپا، دمہ، اور یہاں تک کہ نفسیاتی اور طرز عمل کی خرابیاں۔

    اس لیے گٹ کے درست ماڈل اس کے کام اور اس سے منسلک بیماریوں کو سمجھنے کے لیے بے حد مفید ہیں۔ اے پی ایل بائیو انجینیئرنگ میں، اے آئی پی پبلشنگ کی طرف سے، یونیورسٹی آف کیلیفورنیا، برکلے اور لارنس برکلے نیشنل لیب کے محققین نے بتایا کہ گٹ آن اے چپ ڈیوائسز لیب کے ماڈلز اور انسانی حیاتیات کو کیسے پل سکتی ہیں۔

    آرگن آن اے چپ ڈیوائسز انسانی اعضاء کے چھوٹے ماڈل ہیں۔ ان میں چھوٹے چھوٹے مائیکرو چینلز ہوتے ہیں جہاں خلیات اور ٹشو کلچر عین کنٹرول شدہ غذائی اجزاء کے ساتھ تعامل کرتے ہیں۔ خلیے کے ماحول کو اس طرح سے منظم کرنا بافتوں کے حقیقت پسندانہ ماڈل بنانے کے لیے بہت ضروری ہے۔

    ان ماڈلز کا استعمال کلینیکل ٹرائلز کے وقت طلب اور مہنگے چیلنجوں اور جانوروں کی جانچ کے پیچھے اخلاقی مسائل سے بچتا ہے۔

    \”طبی تحقیق کو اس وقت بڑی رکاوٹوں کا سامنا ہے، انسانی اعضاء کے کام کو کنٹرول کرنے والی بنیادی سائنس کو سمجھنے اور نئی ادویات اور علاج کی تحقیق اور ترقی دونوں لحاظ سے،\” مصنف امین والی نے کہا۔ \”انسانی اعضاء کے درست ماڈلز تک رسائی جن کا لیبارٹری میں آسانی سے مطالعہ کیا جا سکتا ہے، سائنسی دریافتوں اور نئی ادویات کی نشوونما کو نمایاں طور پر تیز کر سکتا ہے۔\”

    مائکرو بایوم کی ماڈلنگ خاص طور پر اس کی منفرد ماحولیاتی حالات کی وجہ سے مشکل ہے۔ تخلیقی ڈیزائن کے ذریعے، گٹ آن اے چپ ڈیوائسز ان میں سے بہت سی خصوصیات کو نقل کر سکتے ہیں، جیسے کہ گٹ کا انیروبک ماحول، سیال کا بہاؤ، اور سکڑاؤ/آرام کی نبض۔ اس ماحول میں آنتوں کے خلیوں کے بڑھنے کا مطلب یہ ہے کہ وہ معیاری لیبارٹری سیل ثقافتوں کے مقابلے انسانی حیاتیات سے زیادہ مشابہت رکھتے ہیں۔

    والیئی نے کہا، \”حالیہ گٹ آن اے-چپ ماڈلز نے انسانی آنتوں کے خلیات اور مائکرو بایوم کی چند دنوں اور حتیٰ کہ ہفتوں تک ایک قابل عمل ثقافت کو برقرار رکھنے میں کامیابی کا مظاہرہ کیا ہے۔\” \”یہ حیاتیاتی طور پر متعلقہ حالات کے تحت مائکرو بایوم کا تجزیہ کرنے کے نئے طریقے کھولتا ہے۔\”

    مصنفین کلیدی گٹ آن اے چپ ڈیوائسز اور مائکروبیل اور انسانی سیلولر بائیولوجی کی تقلید میں ان کی کامیابی پر روشنی ڈالتے ہیں۔ وہ ٹکنالوجی کا استعمال کرتے ہوئے موجودہ بیماری کے ماڈل اور منشیات کے مطالعے کی بھی وضاحت کرتے ہیں۔

    ویلیئی نے کہا کہ \”اس کی منفرد صلاحیتیں آرگن آن اے چپ کو مستقبل میں کافی تحقیقی تحقیقات کے لیے موزوں بناتی ہیں۔\”

    ٹیم فی الحال dysbiosis کی تحقیقات کر رہی ہے، صحت کے بڑے نتائج کے ساتھ گٹ مائکروبیل کمیونٹی میں عدم توازن۔ ان کا مقصد اس حالت کی تشخیص، تخفیف اور علاج کے لیے جدید طریقے تلاش کرنا ہے۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Your gut\’s microbiome, on a chip: Organ-on-a-chip devices simulate the gastrointestinal system to examine food and drug metabolism without clinical trials or animal models.

    آنت جسم کے سب سے پیچیدہ اعضاء میں سے ایک ہے۔ اندر، یہ متنوع مائکروبیل آبادی کے ساتھ مل جاتا ہے جو خوراک اور ادویات کو ہضم کرنے کے لیے آنتوں کے خلیوں کے ساتھ بات چیت اور تعاون کرتا ہے۔ اس مائکرو بایوم میں رکاوٹیں بیماریوں کے وسیع میدان عمل سے مضبوط روابط رکھتی ہیں، جیسے کہ آنتوں کی سوزش کی بیماری، موٹاپا، دمہ، اور یہاں تک کہ نفسیاتی اور طرز عمل کی خرابیاں۔

    اس لیے گٹ کے درست ماڈل اس کے کام اور اس سے منسلک بیماریوں کو سمجھنے کے لیے بے حد مفید ہیں۔ اے پی ایل بائیو انجینیئرنگ میں، اے آئی پی پبلشنگ کی طرف سے، یونیورسٹی آف کیلیفورنیا، برکلے اور لارنس برکلے نیشنل لیب کے محققین نے بتایا کہ گٹ آن اے چپ ڈیوائسز لیب کے ماڈلز اور انسانی حیاتیات کو کیسے پل سکتی ہیں۔

    آرگن آن اے چپ ڈیوائسز انسانی اعضاء کے چھوٹے ماڈل ہیں۔ ان میں چھوٹے چھوٹے مائیکرو چینلز ہوتے ہیں جہاں خلیات اور ٹشو کلچر عین کنٹرول شدہ غذائی اجزاء کے ساتھ تعامل کرتے ہیں۔ خلیے کے ماحول کو اس طرح سے منظم کرنا بافتوں کے حقیقت پسندانہ ماڈل بنانے کے لیے بہت ضروری ہے۔

    ان ماڈلز کا استعمال کلینیکل ٹرائلز کے وقت طلب اور مہنگے چیلنجوں اور جانوروں کی جانچ کے پیچھے اخلاقی مسائل سے بچتا ہے۔

    \”طبی تحقیق کو اس وقت بڑی رکاوٹوں کا سامنا ہے، انسانی اعضاء کے کام کو کنٹرول کرنے والی بنیادی سائنس کو سمجھنے اور نئی ادویات اور علاج کی تحقیق اور ترقی دونوں لحاظ سے،\” مصنف امین والی نے کہا۔ \”انسانی اعضاء کے درست ماڈلز تک رسائی جن کا لیبارٹری میں آسانی سے مطالعہ کیا جا سکتا ہے، سائنسی دریافتوں اور نئی ادویات کی نشوونما کو نمایاں طور پر تیز کر سکتا ہے۔\”

    مائکرو بایوم کی ماڈلنگ خاص طور پر اس کی منفرد ماحولیاتی حالات کی وجہ سے مشکل ہے۔ تخلیقی ڈیزائن کے ذریعے، گٹ آن اے چپ ڈیوائسز ان میں سے بہت سی خصوصیات کو نقل کر سکتے ہیں، جیسے کہ گٹ کا انیروبک ماحول، سیال کا بہاؤ، اور سکڑاؤ/آرام کی نبض۔ اس ماحول میں آنتوں کے خلیوں کے بڑھنے کا مطلب یہ ہے کہ وہ معیاری لیبارٹری سیل ثقافتوں کے مقابلے انسانی حیاتیات سے زیادہ مشابہت رکھتے ہیں۔

    والیئی نے کہا، \”حالیہ گٹ آن اے-چپ ماڈلز نے انسانی آنتوں کے خلیات اور مائکرو بایوم کی چند دنوں اور حتیٰ کہ ہفتوں تک ایک قابل عمل ثقافت کو برقرار رکھنے میں کامیابی کا مظاہرہ کیا ہے۔\” \”یہ حیاتیاتی طور پر متعلقہ حالات کے تحت مائکرو بایوم کا تجزیہ کرنے کے نئے طریقے کھولتا ہے۔\”

    مصنفین کلیدی گٹ آن اے چپ ڈیوائسز اور مائکروبیل اور انسانی سیلولر بائیولوجی کی تقلید میں ان کی کامیابی پر روشنی ڈالتے ہیں۔ وہ ٹکنالوجی کا استعمال کرتے ہوئے موجودہ بیماری کے ماڈل اور منشیات کے مطالعے کی بھی وضاحت کرتے ہیں۔

    ویلیئی نے کہا کہ \”اس کی منفرد صلاحیتیں آرگن آن اے چپ کو مستقبل میں کافی تحقیقی تحقیقات کے لیے موزوں بناتی ہیں۔\”

    ٹیم فی الحال dysbiosis کی تحقیقات کر رہی ہے، صحت کے بڑے نتائج کے ساتھ گٹ مائکروبیل کمیونٹی میں عدم توازن۔ ان کا مقصد اس حالت کی تشخیص، تخفیف اور علاج کے لیے جدید طریقے تلاش کرنا ہے۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Anthropic begins supplying its text-generating AI models to select startups

    بشریاوپن اے آئی کے سابق ملازمین کے تعاون سے قائم کردہ ایک بزدل AI اسٹارٹ اپ نے شراکت داروں کو اپنے AI ٹیکسٹ تیار کرنے والے ماڈلز تک رسائی کی پیشکش شروع کر دی ہے۔

    پہلا تجارتی منصوبہ جس نے اعلان کیا کہ یہ انتھروپک ماڈلز کو ضم کر رہا ہے۔ رابن AI، ایک قانونی ٹیک اسٹارٹ اپ جس نے سرمایہ کاروں سے $13 ملین سے زیادہ جمع کیا ہے بشمول Plural, Episode 1 اور Google Black Founders Fund۔ iOS اور Android کے لیے Quora کی تجرباتی چیٹ بوٹ ایپ، پوAnthropic ماڈلز کا استعمال کرتا ہے، لیکن فی الحال اس سے کمائی نہیں کی گئی ہے۔

    رابن کے سی ای او رچرڈ رابنسن نے انتھروپک تعلقات کے حوالے سے کچھ تفصیلات کا انکشاف کیا، لیکن ٹیک کرنچ کو بتایا کہ رابن نے قانونی متن کے ڈیٹا سیٹ پر ایک اینتھروپک ماڈل کو ٹھیک کرنے کے لیے کام کیا تاکہ معاہدوں کا مسودہ تیار کیا جا سکے۔

    \”ہم قانونی شعبے کے لیے Anthropic کے لانچ پارٹنر بننے کے لیے بہت خوش قسمت ہیں – AI سیفٹی پر ٹیم کی توجہ ہمارے \’وکیل-ان-دی-لوپ\’ سافٹ ویئر-ایس-ایک-سروس پروڈکٹ کے ساتھ سیدھ میں ہے – جان بوجھ کر بھی خطرے کا انتظام کرنے کے لیے ڈیزائن کیا گیا ہے۔ رابنسن نے ایک بیان میں کہا کہ سب سے زیادہ جدید ماڈل \’فریب،\’۔

    \"رابن

    Robin AI انتھروپک ماڈل استعمال کرنے والے پہلے تجارتی منصوبوں میں سے ایک ہے۔

    انتھروپک اپنے کام کو تخلیقی متن AI اسپیس میں تیار کرنے کے اپنے منصوبوں کے بارے میں نسبتاً خاموش رہا ہے، اس کی بجائے علمی تحقیق پر توجہ مرکوز کرنے کو ترجیح دیتا ہے۔ لیکن پچھلے سال کے آخر میں، کمپنی نے AI سسٹم کے لیے ایک بند بیٹا لانچ کیا، جسے کہا جاتا ہے۔ کلاڈ، OpenAI کی طرح چیٹ جی پی ٹی جو کلیدی طریقوں سے اصل پر بہتر ہوتا دکھائی دیا۔ کلاڈ کو \”آئینی AI\” کے نام سے تیار کردہ اینتھروپک تکنیک کا استعمال کرتے ہوئے تخلیق کیا گیا تھا، جس کا مقصد AI نظام کو انسانی ارادوں کے ساتھ سیدھ میں لانے کے لیے \”اصول پر مبنی\” نقطہ نظر فراہم کرنا ہے – ChatGPT کی طرح AI کو اصولوں کے ایک سادہ سیٹ کا استعمال کرتے ہوئے سوالات کا جواب دینے کی اجازت دینا (مثلاً اجتناب نقصان دہ مشورہ دینا) بطور رہنما۔

    کلاڈ کے ابتدائی تاثرات اچھے تھے۔ لیکن ChatGPT کی طرح، سسٹم کو محدودیت کا سامنا کرنا پڑا، جیسے سوالات کے خطرناک جوابات دینا (مثلاً گھر میں میتھ کیسے بنایا جائے) اور متضاد، حقیقت میں غلط بیانات دینا۔

    یہ واضح نہیں ہے کہ آیا ماڈل رابن استعمال کر رہا ہے۔ ہے کلاڈ یا کچھ مشتق – نہ ہی رابن اور نہ ہی انتھروپک کہیں گے۔ اور بار بار اُکسانے کے بعد بھی، Anthropic یہ ظاہر نہیں کرے گا کہ یہ فی الحال کتنے پارٹنرز کے ساتھ کام کر رہا ہے (یا وہ ان کے ساتھ کیسے کام کرنے آئے ہیں) اور کتنے ماڈلز کو تجارتی استعمال کے لیے کھولنے کا ارادہ ہے۔

    لیکن اس میں کوئی شک نہیں کہ انتھروپک سرمایہ کاروں کی طرف سے کسی نہ کسی طرح کا دباؤ محسوس کر رہا ہے کہ وہ اپنی AI ٹیک کی جانب لگائے گئے کروڑوں ڈالر کی واپسی کے لیے۔

    ابھی حال ہی میں، گوگل نے سٹارٹ اپ میں 10% حصص کے لیے اینتھروپک میں $300 ملین دینے کا وعدہ کیا ہے۔ معاہدے کی شرائط کے تحت، جو پہلے تھا۔ اطلاع دی فنانشل ٹائمز کے مطابق، اینتھروپک نے گوگل کلاؤڈ کو اپنا \”ترجیحی کلاؤڈ فراہم کنندہ\” بنانے پر رضامندی ظاہر کی[ing] AI کمپیوٹنگ سسٹمز۔\”

    تجسس کے ساتھ، انتھروپک کی بنیاد منافع پر مبنی مشن کے ساتھ نہیں رکھی گئی تھی۔ Dario Amodei، OpenAI میں ریسرچ کے سابق VP، نے 2021 میں کمپنی کو ایک عوامی فائدے کی کارپوریشن کے طور پر شروع کیا، جس میں OpenAI کے سابق پبلک پالیسی لیڈ جیک کلارک سمیت OpenAI کے متعدد ملازمین بھی شامل تھے۔ Amodei کمپنی کی سمت، یعنی اسٹارٹ اپ کی تیزی سے تجارتی توجہ پر اختلاف کے بعد OpenAI سے الگ ہوگیا۔

    لیکن اے آئی سسٹمز کو تیار کرنا اور برقرار رکھنا مہنگا ہے۔ غبارے کے اخراجات نے اینتھروپک کو بیرونی حمایت حاصل کرنے پر مجبور کیا، بشمول سرمایہ کاروں کے ایک گروپ سے $580 ملین کی قسط جس میں FTX کے بانی سیم بینک مین فرائیڈ، کیرولین ایلیسن، جم میک کلیو، نشاد سنگھ، جان ٹالن اور سینٹر فار ایمرجنگ رسک ریسرچ شامل ہیں۔

    آیا اسٹارٹ اپ پارٹنرشپ – اور بگ ٹیک سرمایہ کاری – انتھروپک کی ترجیحات میں تبدیلی کی نشاندہی کرتی ہے ابھی تک واضح نہیں ہے۔ لیکن کیا ہے واضح ہے کہ کمپنی کا خیال ہے کہ اس کی ٹیکنالوجی کو حریفوں جیسے OpenAI، Cohere اور AI21 Labs سے مقابلہ کرنے کے لیے مختلف کیا گیا ہے، یہ سبھی APIs کے ذریعے اپنے ٹیکسٹ بنانے والے AI تک بامعاوضہ رسائی کی پیشکش کرتے ہیں۔



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Custom, 3D-printed heart replicas look and pump just like the real thing: The soft robotic models are patient-specific and could help clinicians zero in on the best implant for an individual.

    MIT engineers have developed a procedure to 3D print a soft and flexible replica of a patient\’s heart, which they can then control to mimic the patient\’s blood-pumping ability. The process involves converting medical images of a patient\’s heart into a 3D computer model, which is then printed using a polymer-based ink. The team also fabricated sleeves to wrap around the printed forms and connect to a pneumatic system, which can be tuned to rhythmically inflate the sleeve\’s bubbles and contract the heart. This procedure could potentially be used to test therapies for various types of heart disease, as well as help doctors tailor treatments to patients\’ specific heart form and function. The research was led by Luca Rosalia, a graduate student in the MIT-Harvard Program in Health Sciences and Technology, and was recently published in Science Robotics.



    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • OpenAI\’s Foundry will let customers buy dedicated compute to run its AI models

    OpenAI is quietly launching a new developer platform that lets customers run the company’s newer machine learning models, like GPT-3.5, on dedicated capacity. In screenshots of documentation published to Twitter by users with early access, OpenAI describes the forthcoming offering, called Foundry, as “designed for cutting-edge customers running larger workloads.”

    “[Foundry allows] inference at scale with full control over the model configuration and performance profile,” the documentation reads.

    If the screenshots are to be believed, Foundry — whenever it launches — will deliver a “static allocation” of compute capacity dedicated to a single customer. Users will be able to monitor specific instances with the same tools and dashboards that OpenAI uses to build and optimize models. In addition, Foundry will provide some level of version control, letting customers decide whether or not to upgrade to newer model releases, as well as “more robust” fine-tuning for OpenAI’s latest models.

    Foundry will also offer service-level commitments for instance uptime and on-calendar engineering support. Rentals will be based on dedicated compute units with three-month or one-year commitments; running an individual model instance will require a specific number of compute units (see the chart below).

    Instances won’t be cheap. Running a lightweight version of GPT-3.5 will cost $78,000 for a three-month commitment or $264,000 over a one-year commitment. To put that into perspective, one of Nvidia’s recent-gen supercomputers, the DGX Station, runs $149,000 per unit.

    Eagle-eyed Twitter and Reddit users spotted that one of the text-generating models listed in the instance pricing chart has a 32k max context window. (The context window refers to the text that the model considers before generating additional text; longer context windows allow the model to “remember” more text essentially.) GPT-3.5, OpenAI’s latest text-generating model, has a 4k max context window, suggesting that this mysterious new model could be the long-awaited GPT-4 — or a stepping stone toward it.

    OpenAI is under increasing pressure to turn a profit after a multi-billion-dollar investment from Microsoft. The company reportedly expects to make $200 million in 2023, a pittance compared to the more than $1 billion that’s been put toward the startup so far.

    Compute costs are largely to blame. Training state-of-the-art AI models can command upwards of millions of dollars, and running them generally isn’t much cheaper. According to OpenAI co-founder and CEO Sam Altman, it costs a few cents per chat to run ChatGPT, OpenAI’s viral chatbot — not an insignificant amount considering that ChatGPT had over a million users as of last December.

    In moves toward monetization, OpenAI recently launched a “pro” version of ChatGPT, ChatGPT Plus, starting at $20 per month and teamed up with Microsoft to develop Bing chat, a controversial chatbot (putting it mildly) that’s captured mainstream attention. According to Semafor and The Information, OpenAI plans to introduce a mobile ChatGPT app in the future and bring its AI language technology into Microsoft apps like Word, PowerPoint and Outlook.

    Separately, OpenAI continues to make its tech available through Microsoft’s Azure OpenAI Service, a business-focused model-serving platform, and maintain Copilot, a premium code-generating service developed in partnership with GitHub.





    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk

  • Replicate wants to take the pain out of running and hosting ML models

    نقل کرنا, ایک سٹارٹ اپ جو کلاؤڈ میں مشین لرننگ ماڈلز چلاتا ہے، آج $17.8 ملین وینچر کیپیٹل بیکنگ کے ساتھ اسٹیلتھ سے شروع ہوا ہے۔ کل میں سے $12.5 ملین اینڈریسن ہورووٹز کی قیادت میں سیریز A سے Y Combinator، Sequoia اور فرشتہ سرمایہ کاروں بشمول Figma کے CEO Dylan Field اور Vercel\’s Guillermo Rauch سے حاصل ہوئے، جب کہ باقی حصہ پہلے سے نامعلوم بیج راؤنڈ سے حاصل ہوا۔

    کمپنی کو بین فرشمین نے مشترکہ طور پر قائم کیا تھا، جنہوں نے Docker میں اوپن سورس پروڈکٹ کی کوششوں کی قیادت کی، اور Andreas Jansson، جو پہلے Spotify میں مشین لرننگ انجینئر تھے۔ جس طرح سے Firshman یہ بتاتا ہے، وہ اور Jansson کو باہمی احساس ہوا کہ AI ایک \”مضحکہ خیز\” رفتار سے تیز ہو رہا تھا، لیکن یہ کہ تکنیکی رکاوٹیں بڑے پیمانے پر اپنانے کی راہ میں کھڑی تھیں۔

    Replicate درج کریں، جو اوپن سورس ماڈلز کی ایک لائبریری پیش کرتا ہے جسے سافٹ ویئر ڈویلپرز کوڈ کی چند لائنوں کے ساتھ چلا سکتے ہیں۔ یہ پلیٹ فارم خود بخود کسٹم مشین لرننگ ماڈلز کے لیے ایک API سرور تیار کر سکتا ہے، جو GPUs کے ایک بڑے کلسٹر پر تعینات ہے۔

    \”اگر آپ کو ایک ٹن ٹریفک ملتا ہے، تو ہم مانگ کو سنبھالنے کے لیے پیمانہ بڑھاتے ہیں۔ اگر آپ کو کوئی ٹریفک نہیں ملتی ہے، تو ہم صفر تک پہنچ جاتے ہیں اور کوئی چیز چارج نہیں کرتے،\” فرش مین نے وضاحت کی۔ \”ہم آپ کو صرف اس بات کا بل دیتے ہیں کہ آپ کا کوڈ کتنی دیر تک چل رہا ہے۔ متبادل عام طور پر ایمیزون ویب سروسز پر خود ماڈلز کو تعینات کرنا ہے۔ عام طور پر، آپ کو سرورز، Kubernetes، GPUs، API سرورز، آٹو اسکیلنگ اور بہت کچھ سے لڑنا پڑے گا۔

    کور ٹو ریپلیکیٹ Cog ہے، ایک اوپن سورس ٹول جو ڈویلپرز کو مشین لرننگ ماڈلز کو معیاری، پروڈکشن کے لیے تیار کنٹینر فارمیٹ میں پیک کرنے دیتا ہے۔ Firshman اور Jansson نے Cog تیار کیا، جو کسی بھی جدید میک او ایس، لینکس یا ونڈوز 11 مشین پر چلتا ہے۔

    \”AI فی الحال سافٹ ویئر انجینئرز کے لیے استعمال کرنا بہت مشکل ہے اور آپ کو اسے استعمال کرنے کے لیے مشین لرننگ انجینئر بننا ہوگا،\” فرش مین نے کہا۔ \”کمپنیوں اور مجموعی طور پر صنعت کو مشین لرننگ ماہرین کی کمی کی وجہ سے روکا جا رہا ہے۔ ہم سافٹ ویئر انجینئرز کے لیے مشین لرننگ کو صفر کے تجربے کے ساتھ استعمال کرنا ممکن بنا رہے ہیں، کوڈ کی صرف چند سطروں کے ساتھ، تاکہ وہ AI کے ساتھ مصنوعات بنا سکیں اور اسے کاروباری مسائل پر لاگو کر سکیں۔\”

    \"نقل

    نقل تیار کرنے کے لیے ہزاروں تیار ماڈلز کی میزبانی کرتا ہے، بشمول ٹیکسٹ ٹو امیج اور امیج ٹو ٹیکسٹ ماڈلز (a la Stable Diffusion)۔ تصویری کریڈٹ: نقل کرنا

    نقل کرنے والا واحد ایسا نہیں ہے۔ اسٹارٹ اپ وینڈرز کے ساتھ مقابلہ کرتا ہے بشمول گلے ملنے والا چہرہ اور OctoML (اور ایک حد تک رن وے ایم ایل)، جس نے اجتماعی طور پر وینچر کیپیٹل میں سیکڑوں ملین جمع کیے ہیں۔ گوگل، ایمیزون اور مائیکروسافٹ کو حریف تصور کیا جا سکتا ہے، نیز کلاؤڈ میں مشین کے جھکاؤ والے ماڈلز کو تیار کرنے، لانچ کرنے اور برقرار رکھنے کے لیے اپنے حل پیش کرتے ہیں۔ (دیکھیں۔ سیج میکر، آٹو ایم ایل اور Azure کے no-code ML ٹولز

    تو کیا نقل کو الگ کرتا ہے؟ فرش مین کا دعویٰ ہے کہ ڈویلپر کا تجربہ \”بہت بہتر\” ہے، جو یقیناً دیکھنا باقی ہے – بہر حال، ریپلیکیٹ بالکل نیا ہے۔ تفریق کا ایک واضح نکتہ، اگرچہ، Replicate کی AI لائبریری کی وسعت ہے۔ پلیٹ فارم ڈفیوژن ماڈل پیش کرتا ہے بشمول مستحکم بازی، ویڈیوز بنانے اور اس میں ترمیم کرنے کے ماڈلز، تصاویر کے لیے اعلیٰ درجے کے ماڈلز اور مختلف امیج ٹو ٹیکسٹ اور ٹیکسٹ ٹو امیج ماڈلز۔

    تیز، درد کے بغیر تعیناتی توجہ مرکوز ہے. Replicate کی ویب سائٹ وعدہ کرتی ہے: \”Next.js اور Vercel جیسے Replicate اور ٹولز کے ساتھ، آپ ایک خیال کے ساتھ جاگ سکتے ہیں اور اسے سونے کے وقت تک ہیکر نیوز کے صفحہ اول پر دیکھ سکتے ہیں۔\”

    ایسا لگتا ہے کہ مارکیٹنگ ڈویلپر کمیونٹی کے ساتھ گونج رہی ہے، جس نے پچھلے کچھ مہینوں میں ریپلیکیٹ کو جوش و خروش سے قبول کیا ہے – کم از کم فرش مین کے مطابق۔ ان کا کہنا ہے کہ پلیٹ فارم نے گزشتہ سال کے وسط سے فعال صارفین میں ماہانہ بہ ماہ 149% اور API کالز میں 125% اضافہ دیکھا ہے۔ انٹرپرائز کے صارفین میں Character.ai شامل ہیں، لیبل باکس اور Unsplash.

    فرش مین نے کہا، \”ہم پیدا کرنے والے AI میں نمو کو مؤثر طریقے سے ترتیب دے رہے ہیں۔ \”بانی بہت ساری نئی مصنوعات بنا رہے ہیں، سرمایہ کار اس میں سرمایہ کاری کر رہے ہیں اور صارفین ان تمام نئی چیزوں کے لیے آواز اٹھا رہے ہیں۔\”

    تخلیقی AI کی طرف جھکاؤ یقینی طور پر Replicate کی طرف سے ایک دانشمندانہ فیصلہ ہے۔ وہ طبقہ – جس کے تحت ChatGPT اور Stable Diffusion جیسی ٹیکنالوجیز گرتی ہیں – نے پچھلے کئی سالوں میں سرمایہ کاری میں بڑے پیمانے پر اضافہ دیکھا ہے۔ پچ بک (بذریعہ بیزنگا) رپورٹ کرتی ہے کہ VCs نے 2020 کے مقابلے میں 2022 میں 425% زیادہ ڈالر جنریٹو AI میں جمع کیے، 2022 میں اسپیس کی کل رقم 2.1 بلین ڈالر تک پہنچ گئی۔

    فرش مین ترقی کو جاری دیکھتا ہے – اور فائدہ اٹھا رہا ہے۔

    \”ابھی تک یہ انٹرپرائز کے شعور میں داخل نہیں ہوا ہے کہ ان کے کاروبار کے بہت سے حصوں کو کس قدر پیدا کرنے والا AI متاثر کرے گا: کسٹمر سپورٹ، مارکیٹنگ، سیلز، مواد کی تخلیق، اور شاید دوسری چیزیں جن کا ہم نے ابھی تک اندازہ نہیں لگایا تھا،\” انہوں نے کہا۔ \”بہت جلد، کسٹمر سپورٹ زیادہ تر خودکار اور انتہائی اچھی ہو جائے گی – ماضی کے خوفناک چیٹ بوٹس نہیں۔ مارکیٹنگ کے لیے اثاثے بنانا زیادہ تر خودکار ہوگا۔ آپ کو نظر آنے والے زیادہ تر اشتہارات خود بخود تیار اور ذاتی نوعیت کے ہو جائیں گے۔ ویڈیو گیمز کے لیے اثاثے بنانا زیادہ تر خودکار ہوں گے۔ اور یہ اس ٹیکنالوجی کے ساتھ ہے جو آج ہمارے پاس ہے۔



    Source link

    Join our Facebook page
    https://www.facebook.com/groups/www.pakistanaffairs.pk