Tag: text

  • Real or fake text? We can learn to spot the difference

    چیٹ بوٹس کی تازہ ترین نسل نے مصنوعی ذہانت کی بڑھتی ہوئی نفاست اور رسائی کے بارے میں دیرینہ خدشات کا اظہار کیا ہے۔

    جاب مارکیٹ کی سالمیت کے بارے میں خدشات — تخلیقی معیشت سے لے کر انتظامی طبقے تک — کلاس روم میں پھیل گئے ہیں کیونکہ اساتذہ ChatGPT کے تناظر میں سیکھنے پر دوبارہ غور کرتے ہیں۔

    پھر بھی جب کہ روزگار اور اسکولوں کے بارے میں خدشات سرخیوں پر حاوی ہیں، سچائی یہ ہے کہ بڑے پیمانے پر زبان کے ماڈلز جیسے ChatGPT کے اثرات ہماری زندگی کے تقریباً ہر کونے کو چھوئیں گے۔ یہ نئے ٹولز سماجی تعصبات کو تقویت دینے، دھوکہ دہی اور شناخت کی چوری کے ارتکاب، جعلی خبریں پیدا کرنے، غلط معلومات پھیلانے اور مزید بہت کچھ کرنے میں مصنوعی ذہانت کے کردار کے بارے میں معاشرے میں تشویش پیدا کرتے ہیں۔

    یونیورسٹی آف پنسلوانیا سکول آف انجینئرنگ اینڈ اپلائیڈ سائنس کے محققین کی ایک ٹیم ٹیک صارفین کو ان خطرات کو کم کرنے کے لیے بااختیار بنانے کی کوشش کر رہی ہے۔ ایسوسی ایشن فار دی ایڈوانسمنٹ آف آرٹیفیشل انٹیلی جنس کے فروری 2023 کے اجلاس میں پیش کردہ ایک ہم مرتبہ جائزہ شدہ مقالے میں، مصنفین نے یہ ظاہر کیا ہے کہ لوگ مشین سے تیار کردہ اور انسانی تحریری متن کے درمیان فرق کو پہچاننا سیکھ سکتے ہیں۔

    اس سے پہلے کہ آپ کوئی نسخہ منتخب کریں، مضمون کا اشتراک کریں، یا اپنے کریڈٹ کارڈ کی تفصیلات فراہم کریں، یہ جاننا ضروری ہے کہ آپ اپنے ذریعہ کی وشوسنییتا کو جاننے کے لیے ایسے اقدامات کر سکتے ہیں۔

    اس مطالعہ کی قیادت کرس کالیسن برچ، شعبہ کمپیوٹر اینڈ انفارمیشن سائنس (سی آئی ایس) میں ایسوسی ایٹ پروفیسر، لیام ڈوگن اور ڈیفنی ایپولیٹو، پی ایچ ڈی کے ساتھ کر رہے تھے۔ CIS میں طلباء، اس بات کا ثبوت فراہم کرتے ہیں کہ AI سے تیار کردہ متن قابل شناخت ہے۔

    کالیسن برچ کہتے ہیں، \”ہم نے دکھایا ہے کہ لوگ مشین سے تیار کردہ متن کو پہچاننے کے لیے خود کو تربیت دے سکتے ہیں۔\” \”لوگ مفروضوں کے ایک مخصوص سیٹ کے ساتھ شروع کرتے ہیں کہ مشین کس قسم کی غلطیاں کرے گی، لیکن ضروری نہیں کہ یہ مفروضے درست ہوں۔ وقت گزرنے کے ساتھ، کافی مثالوں اور واضح ہدایات کے پیش نظر، ہم غلطیوں کی ان اقسام کو اٹھانا سیکھ سکتے ہیں جو مشینیں فی الحال بنا رہی ہیں۔\”

    \”اے آئی آج حیرت انگیز طور پر بہت روانی، بہت گرائمیکل متن تیار کرنے میں اچھا ہے،\” ڈوگن نے مزید کہا۔ \”لیکن اس سے غلطیاں ہوتی ہیں۔ ہم ثابت کرتے ہیں کہ مشینیں مخصوص قسم کی غلطیاں کرتی ہیں — عام فہم کی غلطیاں، مطابقت کی غلطیاں، استدلال کی غلطیاں اور منطقی غلطیاں، مثال کے طور پر — کہ ہم یہ سیکھ سکتے ہیں کہ کیسے نشان لگانا ہے۔\”

    مطالعہ اصلی یا جعلی متن کا استعمال کرتے ہوئے جمع کردہ ڈیٹا کا استعمال کرتا ہے، ایک اصل ویب پر مبنی تربیتی گیم۔

    یہ تربیتی کھیل پتہ لگانے کے مطالعے کے معیاری تجرباتی طریقہ کو زیادہ درست تفریح ​​میں تبدیل کرنے کے لیے قابل ذکر ہے کہ لوگ متن بنانے کے لیے کس طرح AI کا استعمال کرتے ہیں۔

    معیاری طریقوں میں، شرکاء سے کہا جاتا ہے کہ وہ ہاں یا نہ میں اس بات کی نشاندہی کریں کہ آیا کسی مشین نے دیا ہوا متن تیار کیا ہے۔ اس کام میں صرف متن کو اصلی یا جعلی کے طور پر درجہ بندی کرنا شامل ہے اور جوابات کو درست یا غلط کے طور پر اسکور کیا جاتا ہے۔

    پین ماڈل معیاری پتہ لگانے کے مطالعے کو ایک مؤثر تربیتی کام میں نمایاں طور پر بہتر کرتا ہے مثالیں دکھا کر جو سب انسانوں کی تحریر سے شروع ہوتی ہیں۔ اس کے بعد ہر مثال تیار کردہ متن میں تبدیل ہو جاتی ہے، شرکاء سے یہ نشان زد کرنے کے لیے کہتی ہے کہ ان کے خیال میں یہ منتقلی کہاں سے شروع ہوتی ہے۔ تربیت یافتہ متن کی خصوصیات کی نشاندہی کرتے ہیں اور ان کی وضاحت کرتے ہیں جو غلطی کی نشاندہی کرتے ہیں اور اسکور حاصل کرتے ہیں۔

    مطالعہ کے نتائج سے پتہ چلتا ہے کہ شرکاء نے بے ترتیب موقع کے مقابلے میں نمایاں طور پر بہتر اسکور کیا، جو اس بات کا ثبوت فراہم کرتا ہے کہ AI سے تخلیق کردہ متن، کسی حد تک، قابل شناخت ہے۔

    ڈوگن کہتے ہیں، \”ہمارا طریقہ نہ صرف کام کو جوڑتا ہے، اسے مزید پرکشش بناتا ہے، بلکہ یہ تربیت کے لیے ایک زیادہ حقیقت پسندانہ سیاق و سباق بھی فراہم کرتا ہے،\” ڈوگن کہتے ہیں۔ \”تخلیق شدہ متن، جیسے کہ ChatGPT کے ذریعہ تیار کیا گیا ہے، انسانی فراہم کردہ اشارے سے شروع ہوتا ہے۔\”

    یہ مطالعہ نہ صرف آج کی مصنوعی ذہانت پر بات کرتا ہے بلکہ اس ٹیکنالوجی سے ہمارے تعلق کے لیے ایک یقین دہانی، یہاں تک کہ دلچسپ، مستقبل کا خاکہ بھی پیش کرتا ہے۔

    \”پانچ سال پہلے،\” ڈوگن کہتے ہیں، \”ماڈل موضوع پر نہیں رہ سکتے تھے اور نہ ہی روانی سے جملہ تیار کر سکتے تھے۔ اب، وہ شاذ و نادر ہی گرائمر کی غلطی کرتے ہیں۔ ہمارا مطالعہ اس قسم کی غلطیوں کی نشاندہی کرتا ہے جو AI چیٹ بوٹس کی خصوصیت کرتی ہیں، لیکن اس میں رکھنا ضروری ہے۔ ذہن میں رکھیں کہ یہ غلطیاں تیار ہوئی ہیں اور بڑھتی رہیں گی۔ فکر مند ہونے کی تبدیلی یہ نہیں ہے کہ AI سے لکھا ہوا متن ناقابل شناخت ہے بلکہ یہ ہے کہ لوگوں کو فرق کو پہچاننے کے لیے خود کو تربیت جاری رکھنے اور ڈیٹیکشن سافٹ ویئر کے ساتھ بطور ضمیمہ کام کرنے کی ضرورت ہوگی۔ \”

    کالیسن برچ کا کہنا ہے کہ \”لوگ درست وجوہات کی بناء پر AI کے بارے میں فکر مند ہیں۔ \”ہمارا مطالعہ ان پریشانیوں کو دور کرنے کے لیے شواہد فراہم کرتا ہے۔ ایک بار جب ہم AI ٹیکسٹ جنریٹرز کے بارے میں اپنی امید کو بروئے کار لا سکتے ہیں، تو ہم ان ٹولز کی صلاحیت پر توجہ مرکوز کر سکیں گے تاکہ ہمیں مزید تخیلاتی، زیادہ دلچسپ تحریریں لکھنے میں مدد ملے۔\”

    Ippolito، پین اسٹڈی کی شریک رہنما اور گوگل میں موجودہ ریسرچ سائنٹسٹ، ان ٹولز کے استعمال کے سب سے زیادہ مؤثر کیسز کو تلاش کرنے پر اپنے کام کے زور کے ساتھ پتہ لگانے پر ڈوگن کی توجہ کی تکمیل کرتی ہے۔ اس نے مثال کے طور پر Wordcraft میں تعاون کیا، ایک AI تخلیقی تحریری ٹول جو شائع شدہ مصنفین کے ساتھ مل کر تیار کیا گیا ہے۔ مصنفین یا محققین میں سے کسی نے بھی یہ نہیں پایا کہ AI افسانہ نگار کے لیے ایک زبردست متبادل تھا، لیکن انھوں نے تخلیقی عمل کو سپورٹ کرنے کی اس کی قابلیت میں اہم قدر پائی۔

    \”اس وقت میرا احساس یہ ہے کہ یہ ٹیکنالوجیز تخلیقی تحریر کے لیے بہترین موزوں ہیں،\” کالیسن برچ کہتے ہیں۔ \”خبریں، ٹرم پیپرز، یا قانونی مشورے غلط استعمال کے معاملات ہیں کیونکہ حقائق کی کوئی ضمانت نہیں ہے۔\”

    \”یہاں دلچسپ مثبت سمتیں ہیں جو آپ اس ٹیکنالوجی کو آگے بڑھا سکتے ہیں،\” ڈوگن کہتے ہیں۔ \”لوگ سرقہ اور جعلی خبروں جیسی تشویشناک مثالوں پر قائم ہیں، لیکن اب ہم جانتے ہیں کہ ہم خود کو بہتر قارئین اور مصنف بننے کی تربیت دے سکتے ہیں۔\”



    >Source link>

    >>Join our Facebook page From top right corner. <<

  • Twitter to charge users to secure accounts via text message | The Express Tribune

    ٹویٹر نے جمعہ کو کہا کہ وہ صرف ادا شدہ صارفین کو ٹیکسٹ میسجز کو اپنے اکاؤنٹس کو محفوظ بنانے کے لیے ٹو فیکٹر توثیق (2FA) طریقہ کے طور پر استعمال کرنے کی اجازت دے گا۔

    20 مارچ کے بعد، \”صرف ٹویٹر بلیو سبسکرائبر ٹیکسٹ میسجز کو اپنے ٹو فیکٹر تصدیقی طریقہ کے طور پر استعمال کر سکیں گے،\” کمپنی نے ٹویٹ کیا۔

    دو عنصر کی توثیق، جس کا مقصد اکاؤنٹس کو زیادہ محفوظ بنانا ہے، اکاؤنٹ ہولڈر کو پاس ورڈ کے علاوہ تصدیق کا دوسرا طریقہ استعمال کرنے کی ضرورت ہوتی ہے۔ ٹویٹر ٹیکسٹ میسج، تصدیقی ایپ اور سیکیورٹی کلید کے ذریعے 2FA کی اجازت دیتا ہے۔

    بدھ کے روز کے مطابق، کمپنی کا خیال ہے کہ فون نمبر پر مبنی 2FA کا \”برے اداکار\” کے ذریعے غلط استعمال کیا جا رہا ہے۔ بلاگ پوسٹ کہ کمپنی کا ٹویٹ اس سے منسلک ہے۔

    ٹویٹر کے مالک ایلون مسک نے صارف کے ٹویٹ کے جواب میں \”Yup\” ٹویٹ کیا کہ کمپنی پالیسی تبدیل کر رہی ہے \”کیونکہ Telcos نے 2FA SMS پمپ کرنے کے لیے بوٹ اکاؤنٹس کا استعمال کیا\” اور یہ کہ کمپنی کو ہر سال 60 ملین ڈالر کا نقصان ہو رہا ہے \”اسکیم ایس ایم ایس پر۔\”

    نیلے رنگ کا نشان، جو پہلے سیاست دانوں، مشہور شخصیات، صحافیوں اور دیگر عوامی شخصیات کے تصدیق شدہ کھاتوں کے لیے مفت تھا، اب ہر اس شخص کے لیے کھلا ہے جو ادائیگی کے لیے تیار ہے۔

    پچھلے مہینے، ٹویٹر کہا یہ اینڈرائیڈ کے لیے ٹویٹر بلیو سبسکرپشن کی قیمت $11 فی مہینہ کرے گا، جیسا کہ iOS سبسکرائبرز کے لیے۔





    Source link

  • Bank of Canada releases minutes for first time: Read the full text here

    This section is

    by HSBC

    Strong jobs market and economic growth led central bank to hike rates, minutes reveal

    \"The
    The Bank of Canada issued its \”summary of Governing Council deliberations\” for the first time on Feb. 8. Photo by David Kawai/Bloomberg

    Article content

    Summary of Governing Council deliberations: Fixed announcement date of January 25, 2023

    Advertisement 2

    \"Financial

    REGISTER TO UNLOCK MORE ARTICLES

    Create an account or sign in to continue with your reading experience.

    • Access articles from across Canada with one account
    • Share your thoughts and join the conversation in the comments
    • Enjoy additional articles per month
    • Get email updates from your favourite authors

    Article content

    This is an account of the deliberations of the Bank of Canada’s Go
    verning Council
    leading to the monetary policy decision on January 25, 2023.

    \"Financial

    Financial Post Top Stories

    Sign up to receive the daily top stories from the Financial Post, a division of Postmedia Network Inc.

    By clicking on the sign up button you consent to receive the above newsletter from Postmedia Network Inc. You may unsubscribe any time by clicking on the unsubscribe link at the bottom of our emails or any newsletter. Postmedia Network Inc. | 365 Bloor Street East, Toronto, Ontario, M4W 3L4 | 416-383-2300

    Article content

    This summary reflects discussions and deliberations by members of Governing Council in stage three of the bank’s monetary policy decision-making process. This stage takes place after members have received all staff briefings and recommendations.

    Article content

    Governing Council’s policy decision-making meetings began on Wednesday, Jan. 18. The governor presided over these meetings. Members in attendance were governor Tiff Macklem, senior deputy governor Carolyn Rogers, deputy governor Paul Beaudry, deputy governor Toni Gravelle and deputy governor Sharon Kozicki.

    The international economy

    Advertisement 3

    Article content

    Governing Council began discussions by reviewing recent international developments. Notable developments included:

    • the substantial declines in global energy prices
    • continued easing of global supply chain bottlenecks
    • the abrupt lifting of COVID-19 restrictions in China

    Overall, global economic activity, especially in the United States, the euro area and China, was somewhat above the bank’s expectations in the October Monetary Policy Report (MPR). Council members continued to expect a significant slowing in global growth in 2023 as pent-up demand fades and the effects of higher interest rates restrain activity.

    Inflation, while still high and broad-based, had receded from its peak in many countries, and Council members discussed at some length how market narratives about the global economy and inflation were shifting.

    Advertisement 4

    Article content

    Council assessed the revised U.S. outlook. They noted that U.S. consumers had been resilient, but growth is expected to be roughly flat in 2023. The labour market remained tight. Inflation was coming down, largely due to lower energy prices, and signs of broader moderation in inflation were becoming evident. The impending debt ceiling negotiations could be protracted and pose risks of financial volatility if an agreement were elusive.

    Council members continued to see the euro area moving into a mild recession, despite surprising resilience to date. Risks related to the Russian war in Ukraine continued to create uncertainty, and higher interest rates were weighing on growth.

    Council spent considerable time discussing the situation in China. The rapid shift in the Chinese approach to COVID-19 was seen as a new source of uncertainty. Most notably, the outlook for oil prices was subject to an upside risk because of China’s reopening. If Chinese demand were to rebound by more than anticipated, oil prices could rise substantially, putting renewed upside pressure on Canadian and global inflation.

    Advertisement 5

    Article content

    Council members reviewed fina
    ncial conditions, noting that despite continued policy tightening by central banks, conditions had eased somewhat since October. This was considered to reflect a decline in risk premiums across asset classes because headline inflation had edged down from its peak and the perceived risk of a deep recession had decreased. The Can$/US$ exchange rate had been fairly stable at around 74 cents.

    Canadian economic developments and the outlook for inflation

    Governing Council reviewed recent domestic data alongside survey inputs, staff analysis and projections. Canada’s gross domestic product (GDP) grew by 2.9 per cent in the third quarter, stronger than the bank had expected. Members noted that strength from commodity exports offset softer household spending, with outright declines in both consumption and housing activity. Still, data to date suggested that GDP growth in the fourth quarter was also likely to come in somewhat higher than the bank had previously projected. So, while the economy was certainly slowing, there was more excess demand than expected.

    Advertisement 6

    Article content

    The labour market continued to show tightness. The December Labour Force Survey (LFS) reported surprisingly strong job gains. The past few months of LFS data, as well as a broader range of indicators, made it clear that the tightness in the labour market persisted. Governing Council viewed this as a symptom of an economy still in excess demand. Overall, Council concluded that wage momentum was plateauing in the range of four per cent to five per cent. Persistent wage growth in this range was not viewed as consistent with achieving the two per cent inflation target unless productivity increases to well above its historical trend.

    Consumer price index (CPI) inflation was 6.3 per cent in December, down from the peak of 8.1 per cent in the summer. Members agreed that momentum in inflation is turning a corner, with three-month annualized rates of inflation below the year-over-year rates for both total CPI inflation and, to a lesser extent, core measures of inflation.

    Advertisement 7

    Article content

    Members acknowledged that much of the recent decline in headline inflation was due to lower gasoline prices, but they also viewed the decline in durable goods inflation as evidence that the effects of higher interest rates were spreading through the economy and slowing demand. Members also agreed that services inflation was likely to be persistent and acknowledged that food and shelter inflation remained particularly high.

    Governing Council then turned to the revised outlook for inflation. CPI inflation was projected to decline to three per cent in the middle of 2023, lower than projected in the October MPR. The decline largely reflected the fall in energy prices, weaker goods price inflation coming from slower demand, and supply chain improvements. Council was also comfortable with the forecast that inflation would decline further in 2024, reaching the two per cent target. They recognized that this would require services inflation to come down and that inflation expectations and growth in labour costs would need to moderate. Risks around this outlook were viewed as roughly balanced, but the upside risks continued to be of greater concern because inflation remained too high.

    Advertisement 8

    Article content

    Considerations for monetary policy

    All Governing Council members acknowledged they were approaching this decision with a similar view: that the bank’s monetary policy to date had been forceful and that the full impact would be felt in quarters to come. The sectors of the economy most sensitive to interest rates had clearly responded to tighter monetary policy, and evidence was starting to appear that other parts of the economy were beginning to respond.

    Members viewed these as signs of progress toward restoring price stability and noted them in combination with some other key developments:

    Inflation in both Canada and globally was declining due to sizable decreases in energy prices and should decline further if energy prices stayed near current levels.

    Advertisement 9

    Article content

    Global supply chain disruptions were resolving.

    Markets were increasingly perceiving that much worse outcomes—even higher inflation or severe economic contractions—were less likely.

    With these developments as a backdrop, Council members explored several assumptions in the bank’s projection.

    Members debated several reasons why consumption could be slower than projected. For one, many households with five-year terms on their mo
    rtgages would be renewing over the coming year or so. In many cases, they would be facing significantly higher monthly mortgage payments, and this could reduce other spending by more than expected. Higher interest rates would also encourage more savings. And members noted that consumer confidence measures had weakened, indicating households may put off major purchases.

    Advertisement 10

    Article content

    At the same time, members also acknowledged that in Canada and in other countries, employment was strong and households had built up extra savings during the pandemic. These factors support consumption.

    With respect to the housing market, there was concern that the effects of tighter monetary policy could be larger than expected. This could arise if the decline in house prices were to accelerate. At the same time, Governing Council recognized that continued strong immigration and household formation would provide underlying support for the housing market. Expectations of future monetary policy easing could also spur buyers to re-enter the market.

    Members noted there could be a downside risk to the bank’s projection for business investment: due to the activity-sensitive nature of business investment, lower levels of economic activity could curtail investment plans. Conversely, with labour in short supply, businesses could seek to invest further to expand capacity.

    Advertisement 11

    Article content

    On labour market tightness, Council debated the extent to which it would ease as effects of reopening fade, the economy slows down, and immigration adds to the labour supply over time. There is a case for labour market tightness to persist: rebalancing the labour market may take longer than usual given firms are still facing labour shortages and given the aging workforce is reducing the growth of labour supply.

    Members also discussed the risk of services inflation remaining sticky if labour costs stayed high and demand strong.

    Finally, while several factors were combining to bring overall inflation down, Council discussed the risk of it becoming stuck materially above the two per cent target. Persistence in supply chain challenges, services price inflation, wage growth and inflation expectations could all keep inflation above the target. A rebound in oil prices could also push inflation back up again.

    Advertisement 12

    Article content

    The policy decision

    While Governing Council was acutely aware of ongoing uncertainty, they concluded that data since the October MPR had largely reinforced their confidence that inflation would come down through 2023.

    Members framed the decision along two dimensions:

    • whether to leave the policy rate where it was or to increase it by 25 basis points
    • whether to maintain similar forward-looking language as in the previous policy statement or to adjust it to signal a pause

    The case for leaving the policy rate at 4.25 per cent was that developments with respect to both the economy and inflation were beginning to move in the right direction and that policy had been forceful and just needed more time to do its work.

    The case for raising the rate by an additional 25 basis points was twofold. First, doing so reflected the fact that developments in the real economy since the December decision had been quite strong:

    Advertisement 13

    Article content

    • Labour market data continued to indicate tightness.
    • Third quarter GDP growth was stronger than expected, and fourth quarter economic activity was also likely to be stronger than previously projected.

    In other words, data on both the labour market and economic activity suggested that there was more excess demand in the economy in the fourth quarter of 2022 than previously forecast.

    A second rationale for raising the rate by an additional 25 basis points related to the risk of inflation getting stuck somewhere above two per cent later in the projection. Putting in place some additional tightening now could help insure against that outcome.

    Members were in broad agreement that, going forward, it would be appropriate to pause any additional tightening to allow economic developments to unfold. The bank had been forceful to date in tightening monetary policy, and the full impact was still to come. In addition, there were enough “green shoots” of progress. Allowing time for further progress to occur would recognize the lags in the transmission of monetary policy and balance the risk of over- versus under-tightening.

    Advertisement 14

    Article content

    Members discussed how to communicate this need to pause. They reflected on their previous communication in December, which had indicated Governing Council would consider whether the policy interest rate needs to rise further. That communication had also articulated three developments Council would be assessing:

    • how tighter monetary policy is working to slow demand
    • how supply challenges are resolving
    • how inflation and inflation expectations are responding

    They agreed that the December communication conveyed more of a data-dependent, “decision-by-decision” stance about whether to raise the policy rate further. They debated whether that remained appropriate. Through further discussion, they drew a few conclusions:

    Advertisement 15

    Article content

    • Council wanted to convey that the bar for additional rate increases was now higher. If the economy and inflation were to unfold broadly in line with the projection, they agreed they would probably not need to raise rates further.
    • Council also wanted to give a clear sense that they would need an accumulation of evidence to determine whether further rate increases would be required to return inflation to the 2 per cent target.
    • Members also felt it was important to be clear about the conditionality of any pause. Given inflation was still well above the target, Governing Council continued to be more concerned about upside risks. In its determination to return inflation to the 2 per cent target, Governing Council would be prepared to raise the policy rate further if these upside risks materialized.

    Governing Council reached a consensus to increase the policy rate by 25 basis points and adjust its communications to indicate a conditional pause on any further policy tightening. Members also discussed the bank’s quantitative tightening program. They agreed to continue the current policy of shrinking the balance sheet by allowing maturing bonds to roll off.

    Comments

    Postmedia is committed to maintaining a lively but civil forum for discussion and encourage all readers to share their views on our articles. Comments may take up to an hour for moderation before appearing on the site. We ask you to keep your comments relevant and respectful. We have enabled email notifications—you will now receive an email if you receive a reply to your comment, there is an update to a comment thread you follow or if a user you follow comments. Visit our Community Guidelines for more information and details on how to adjust your email settings.

    Join the Conversation



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Beyond memorization: Text generators may plagiarize beyond \’copy and paste\’: Language models, possibly including ChatGPT, paraphrase and reuse ideas from training data without citing the source, raising plagiarism concerns

    طلباء اپنی اگلی اسائنمنٹ مکمل کرنے کے لیے چیٹ بوٹ استعمال کرنے سے پہلے دو بار سوچ سکتے ہیں۔ زبان کے ماڈل جو صارف کے اشارے کے جواب میں متن تیار کرتے ہیں وہ مواد کو ایک سے زیادہ طریقوں سے سرقہ کرتے ہیں، پین اسٹیٹ کی زیرقیادت ایک تحقیقی ٹیم کے مطابق جس نے اس رجحان کا براہ راست جائزہ لینے کے لیے پہلا مطالعہ کیا۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے پروفیسر ڈونگون لی نے کہا، \”سرقہ سرقہ مختلف ذائقوں میں آتا ہے۔\” \”ہم یہ دیکھنا چاہتے تھے کہ کیا زبان کے ماڈل نہ صرف کاپی اور پیسٹ کرتے ہیں بلکہ اس کو سمجھے بغیر سرقہ کی مزید نفیس شکلوں کا سہارا لیتے ہیں۔\”

    محققین نے سرقہ کی تین شکلوں کی شناخت پر توجہ مرکوز کی: لفظی طور پر، یا براہ راست مواد کو کاپی اور پیسٹ کرنا؛ اصل ماخذ کا حوالہ دیے بغیر پیرا فریز، یا مواد کو دوبارہ ترتیب دینا اور دوبارہ ترتیب دینا؛ اور آئیڈیا، یا کسی متن سے بغیر کسی مناسب انتساب کے مرکزی خیال کا استعمال کرنا۔ انہوں نے خودکار سرقہ کا پتہ لگانے کے لیے ایک پائپ لائن بنائی اور اسے OpenAI کے GPT-2 کے خلاف آزمایا کیونکہ زبان کے ماڈل کا تربیتی ڈیٹا آن لائن دستیاب ہے، جس سے محققین GPT-2 کو پہلے سے تربیت دینے کے لیے استعمال ہونے والی 8 ملین دستاویزات سے تخلیق شدہ متن کا موازنہ کرنے کی اجازت دیتے ہیں۔

    سائنس دانوں نے 210,000 تخلیق شدہ تحریروں کو پہلے سے تربیت یافتہ لینگویج ماڈلز اور فائن ٹیونڈ لینگویج ماڈلز میں سرقہ کی جانچ کرنے کے لیے استعمال کیا، یا مخصوص موضوعات پر توجہ مرکوز کرنے کے لیے مزید تربیت یافتہ ماڈلز۔ اس معاملے میں، ٹیم نے سائنسی دستاویزات، COVID-19 سے متعلق علمی مضامین، اور پیٹنٹ کے دعووں پر توجہ مرکوز کرنے کے لیے تین زبانوں کے ماڈلز کو ٹھیک بنایا۔ انہوں نے ایک اوپن سورس سرچ انجن کا استعمال کرتے ہوئے سرفہرست 10 تربیتی دستاویزات کو بازیافت کیا جو ہر تیار کردہ متن سے ملتا جلتا ہے اور لفظی، پیرا فریز اور آئیڈیا سرقہ کی مثالوں کا بہتر طور پر پتہ لگانے کے لیے موجودہ ٹیکسٹ الائنمنٹ الگورتھم میں ترمیم کی۔

    ٹیم نے پایا کہ زبان کے ماڈلز نے تینوں قسم کے سرقہ کا ارتکاب کیا، اور یہ کہ ماڈل کو تربیت دینے کے لیے ڈیٹاسیٹ اور پیرامیٹرز جتنے بڑے ہوں گے، اتنا ہی اکثر سرقہ ہوتا ہے۔ انہوں نے یہ بھی نوٹ کیا کہ زبان کے عمدہ ماڈلز نے لفظی سرقہ کو کم کیا لیکن پیرا فریز اور آئیڈیا سرقہ کی مثالوں میں اضافہ کیا۔ اس کے علاوہ، انہوں نے زبان کے ماڈل کی ایسی مثالوں کی نشاندہی کی جو سرقہ کی تینوں شکلوں کے ذریعے افراد کی نجی معلومات کو بے نقاب کرتے ہیں۔ محققین اپنے نتائج 2023 ACM ویب کانفرنس میں پیش کریں گے، جو آسٹن، ٹیکساس میں 30 اپریل سے 4 مئی تک ہوتی ہے۔

    پین اسٹیٹ کے کالج آف انفارمیشن سائنسز اینڈ ٹیکنالوجی میں ڈاکٹریٹ کے طالب علم لیڈ مصنف جویونگ لی نے کہا، \”لوگ بڑے زبان کے ماڈلز کی پیروی کرتے ہیں کیونکہ ماڈل جتنا بڑا ہوتا ہے، نسل کی صلاحیتوں میں اضافہ ہوتا ہے۔\” \”ایک ہی وقت میں، وہ تربیتی کارپس کے اندر موجود مواد کی اصلیت اور تخلیقی صلاحیتوں کو خطرے میں ڈال رہے ہیں۔ یہ ایک اہم تلاش ہے۔\”

    محققین کے مطابق، مطالعہ ٹیکسٹ جنریٹرز اور اخلاقی اور فلسفیانہ سوالات کے بارے میں مزید تحقیق کی ضرورت پر روشنی ڈالتا ہے۔

    مسیسیپی یونیورسٹی میں کمپیوٹر اور انفارمیشن سائنس کے اسسٹنٹ پروفیسر تھائی لی نے کہا، \”اگرچہ آؤٹ پٹ پرکشش ہو سکتا ہے، اور زبان کے ماڈلز استعمال کرنے میں مزہ آ سکتے ہیں اور کچھ کاموں کے لیے نتیجہ خیز لگ سکتے ہیں، لیکن اس کا مطلب یہ نہیں ہے کہ وہ عملی ہیں۔\” جنہوں نے پین اسٹیٹ میں ڈاکٹریٹ کے امیدوار کے طور پر اس پروجیکٹ پر کام کرنا شروع کیا۔ \”عملی طور پر، ہمیں ان اخلاقی اور کاپی رائٹ کے مسائل کا خیال رکھنے کی ضرورت ہے جو ٹیکسٹ جنریٹر لاحق ہوتے ہیں۔\”

    اگرچہ مطالعہ کے نتائج صرف GPT-2 پر لاگو ہوتے ہیں، خودکار سرقہ کا پتہ لگانے کا عمل جو محققین نے قائم کیا ہے اسے نئے زبان کے ماڈلز جیسے ChatGPT پر لاگو کیا جا سکتا ہے تاکہ اس بات کا تعین کیا جا سکے کہ آیا یہ ماڈل تربیتی مواد کی سرقہ کرتے ہیں یا نہیں۔ محققین نے کہا کہ سرقہ کی جانچ، تاہم، ڈویلپرز پر منحصر ہے کہ وہ تربیتی ڈیٹا کو عوامی طور پر قابل رسائی بناتے ہیں۔

    سائنسدانوں کے مطابق، موجودہ مطالعہ AI محققین کو مستقبل میں مزید مضبوط، قابل اعتماد اور ذمہ دار زبان کے ماڈل بنانے میں مدد دے سکتا ہے۔ فی الحال، وہ لوگوں سے ٹیکسٹ جنریٹر استعمال کرتے وقت احتیاط برتنے کی تاکید کرتے ہیں۔

    پین اسٹیٹ میں انفارمیشن سائنسز اور ٹیکنالوجی کے اسسٹنٹ پروفیسر، Jinghui چن نے کہا، \”AI محققین اور سائنس دان اس بات کا مطالعہ کر رہے ہیں کہ زبان کے ماڈلز کو کس طرح بہتر اور زیادہ مضبوط بنایا جائے، اس دوران، بہت سے افراد اپنی روزمرہ کی زندگی میں زبان کے ماڈلز کو مختلف پیداواری کاموں کے لیے استعمال کر رہے ہیں۔\” \”جبکہ لینگویج ماڈلز کو سرچ انجن کے طور پر استعمال کرنا یا ڈیبگ کوڈ کے لیے اسٹیک اوور فلو کرنا شاید ٹھیک ہے، دوسرے مقاصد کے لیے، چونکہ لینگویج ماڈل سرقہ شدہ مواد تیار کر سکتا ہے، اس کے نتیجے میں صارف کے لیے منفی نتائج نکل سکتے ہیں۔\”

    ڈونگ وون لی نے مزید کہا کہ سرقہ کا نتیجہ کچھ غیر متوقع نہیں ہے۔

    انہوں نے کہا کہ \”ایک سٹاکسٹک طوطے کے طور پر، ہم نے زبان کے ماڈلز کو انسانی تحریروں کی نقل کرنا سکھایا بغیر انہیں یہ سکھایا کہ کیسے صحیح طریقے سے سرقہ نہ کیا جائے۔\” \”اب وقت آگیا ہے کہ انہیں مزید صحیح طریقے سے لکھنا سکھایا جائے، اور ہمیں ابھی بہت طویل سفر طے کرنا ہے۔\”

    نیشنل سائنس فاؤنڈیشن نے اس کام کی حمایت کی۔



    Source link

  • Most sites claiming to catch AI-written text fail spectacularly

    As the fervor around generative AI grows, critics have called on the creators of the tech to take steps to mitigate its potentially harmful effects. In particular, text-generating AI in particular has gotten a lot of attention — and with good reason. Students could use it to plagiarize, content farms could use it to spam and bad actors could use it to spread misinformation.

    OpenAI bowed to pressure several weeks ago, releasing a classifier tool that attempts to distinguish between human-written and synthetic text. But it’s not particularly accurate; OpenAI estimates that it misses 74% of AI-generated text.

    In the absence of a reliable way to spot text originating from an AI, a cottage industry of detector services has sprung up. ChatZero, developed by a Princeton University student, claims to use criteria including “perplexity” to determine whether text might be AI-written. Plagiarism detector Turnitin has developed its own AI text detector. Beyond those, a Google search yields at least a half-dozen other apps that purport to be able to separate the human-generated wheat from the AI-generated chaff, to torture the metaphor.

    But are these tools truly accurate? The stakes are high. In an academic setting, one can imagine a scenario in which a missed detection means the difference between a passing and failing grade. According to one survey, almost half of students say that they’ve used ChatGPT for an at-home test or quiz while over half admit having used it to write an essay.

    To find out whether today’s AI text detection tools are up to snuff, we tapped a ChatGPT-like system called Claude, developed by AI startup Anthropic, to create eight samples of writing across a range of different styles. We specifically had Claude generate:

    • An encyclopedia entry for Mesoamerica
    • A marketing email for shoe polish
    • A college essay about the fall of Rome
    • A news article about the 2020 U.S. presidential election
    • A cover letter for a paralegal position
    • A resume for a software engineer
    • An outline for an essay on the merits of gun control

    While admittedly not the most thorough approach, we wanted to keep it simple — the goal was to gauge the performance of AI text detectors on text originating from a single AI system (Claude). We tested several of the more popular detectors out there, namely OpenAI’s own classifier, AI Writing Check, GPTZero, Copyleaks, GPTRadar, CatchGPT and Originality.ai.

    Encyclopedia entry

    Claude’s encyclopedia entry reads like something out of Encyclopedia Britannica, complete with rich detail about the rise, fall and lasting impact of ancient Central American civilizations. The ideas flow well enough from paragraph to paragraph, albeit with a non sequitur (or two) thrown in, and the writing style aligns with what you might expect from an academic publication:

    Mesoamerica is a region that encompasses southern Mexico and Central America. It was home to pre-Columbian societies that shared common cultural traits. The earliest complex societies in Mesoamerica arose around 3,000 years ago.

    The Mesoamerican cultural region was dominated by maize cultivation and the rise of complex civilizations. Mesoamerican civilizations built iconic stepped pyramid temples and other monumental architecture. Many of these civilizations had rich mythological and religious traditions as well as complex calendrical systems and mathematics.

    major Mesoamerican civilizations included the Olmec, Teotihuacan, Maya, Zapotec, Mixtec, Huastec, Tarascan state, and the Aztec, which was encountered by the Spanish conquistador Hernán Cortés in the early 16th century. These Pre-Columbian civilizations are known for architectural feats, as well as advances in mathematics, astronomy, and calendrics. They are also known for the development of complex market exchange networks and trade routes connecting the Pacific and Atlantic coasts.

    After conquering the Aztec empire, the Spanish built Mexico City on the ruins of the Aztec capital Tenochtitlan. The language of the Aztecs, Nahuatl, remains the most widely spoken indigenous language in Mexico today. Mesoamerican cultural traits such as maize cultivation, buildings with stepped pyramids, and monumental sculptures, have continued in the post-Conquest period and are still present in contemporary Mexican culture.

    For those reasons, we predicted that the text would give the detectors some trouble — and it did. Of those tested, only two, GPTZero and Originality.ai, correctly classified the text as AI-generated. The others fell short. OpenAI’s classifier initially wasn’t confident enough to arrive at an answer, while Originality.ai gave the text only a 4% chance of being AI-authored. Not the best look.

    \"AI

    CatchGPT was fooled by the AI-generated text.

    • OpenAI classifier: Classified incorrectly
    • AI Writing Check: Classified incorrectly
    • GPTZero: Classified correctly
    • Copyleaks: Classified incorrectly
    • GPTRadar: Classified incorrectly
    • CatchGPT: Classified incorrectly
    • Originality.ai: Classified incorrectly

    Marketing email

    Claude’s social media copy is a humorous blend of real and far-fetched details, but there’s no obvious tip-off that the text is AI-generated. It includes a price and call to action, even — how neat! Ad copywriters be forewarned:

    Subject: Get a Shine That Lasts

    Are your shoes looking dull and worn? With Super Shine shoe polish, you can restore your shoes to a glossy, like-new shine and protect them from damage and wear.

    Super Shine is made of the highest quality waxes and dyes and is available in a range of neutral and glossy colors to match any shoe type or leather. Our polish is uniquely formulated to clean, polish, and protect your shoes with a single application. The conditioning oils penetrate the leather to nourish it from within while the pigments cover scuffs and scratches and the protective wax shield seals the shine to repel water and other elements.

    A perfect shine has never been easier—just wipe away dirt with a damp cloth, apply Super Shine with a soft brush, and buff to a brilliant shine. Our polish dries to a hard finish, so you won’t leave marks on your hands or clothes. And because a little goes a long way, a single tin will polish up to 100 pairs of shoes.

    Never settle for lackluster-looking shoes again. For a shine that demands admiration, choose Super Shine—available for $9.99 at your local retailer

    \"Text

    A poor showing from Originality.ai

    The snippet stumped all of the detectors, incredibly. But to be fair, it was shorter in length than our encyclopedia entry. And detectors tend to perform better with lengthier samples of text, where the patterns are more obvious.

    • OpenAI classifier: Classified incorrectly
    • AI Writing Check: Classified incorrectly
    • GPTZero: Classified incorrectly
    • Copyleaks: Classified incorrectly
    • GPTRadar: Classified incorrectly
    • CatchGPT: Classified incorrectly
    • Originality.ai: Classified incorrectly

    College essay

    Claude couldn’t write us a very lengthy college essay owing to its technical limitations, but as if to make up for it, the AI packed as much detail as it could into a few short paragraphs. The sample has elements of a typical in-class essay, certainly, including a thesis statement, conclusion (if not an especially punchy one) and supporting references to historical events:

    The Mighty Roman Empire: What Led to Its Downfall?

    The Roman Empire was one of the greatest and longest-lasting empires in history. However, by the 5th century CE, the Roman Empire had entered a period of decline and fall. There were several major causes for the fall of Rome: political instability and corruption, barbarian invasions, economic decline, and over-reliance on slaves and the spoils of war.

    Politically, the late Roman Empire was full of civil wars, coups, and rival claimants to the throne. This constant power struggle drained the empire of resources and made it difficult to deal with other threats. Emperors used the Praetorian Guard to seize power, but then they were assassinated and new emperors rose, continuing the cycle.

    As the empire weakened, invading barbarian tribes saw an opportunity. In 410 CE, the Visigoths sacked Rome itself, a shocking blow to the empire’s prestige. Later, other tribes invaded and gained territory within the empire, sometimes being granted land in exchange for providing soldiers to the Roman army. These tribes weakened the empire, but they also introduced new customs and cultures.

    Economically, Rome had a system based on conquest and spoils, not production. The cost of maintaining a large empire, legions of soldiers, and grand spectacles and entertainments was quite high. Once expansion slowed and new conquests brought in less wealth, the unsustainable economic system faltered. At the same time, slaves did much of the labor, and there was little incentive to improve agricultural technology or business practices.

    In conclusion, the Roman Empire fell for many reasons, including political instability, barbarian invasions, economic decline, and over-reliance on slavery. Ultimately, it could not withstand the combined effects of these immense internal and external pressures. While the Roman Empire ultimately fell, its legacy lives on in our laws, culture, languages, and more—a lasting reminder of its enduring greatness.

    The naturalness of the text was enough to defeat most of the classifiers once again, albeit fewer than with the marketing copy. That bodes poorly for educators hoping to rely on these tools; unlike detecting plagiarism, spotting AI-generated text is a far more nuanced task.

    \"Text

    A win for CatchGPT.

    • OpenAI classifier: Classified incorrectly
    • AI Writing Check: Classified incorrectly
    • GPTZero: Classified correctly
    • Copyleaks: Classified incorrectly
    • GPTRadar: Classified incorrectly
    • CatchGPT: Classified correctly
    • Originality.ai: Classified incorrectly

    Essay outline

    Most grade school kids can outline an essay. So can AI — without breaking a sweat, Claude spit out an outline for a pros-and-cons essay on the merits of gun control. It helpfully labeled each paragraph (e.g. “Body paragraph,” “Analysis and discussion”), maintaining a dispassionate tone about the divisive topic:

    I) Introduction: Introduce the topic of gun control and note that while many people argue that individuals should have the right to bear arms, others contend that gun control legislation could help reduce gun violence.

    II) Body paragraph 1: Pro-gun control argument: Advocates argue that easy access to firearms leads to more homicides, suicides and other gun-related deaths. They point out that states with more restrictive gun laws have fewer gun-related deaths. Stricter measures like background checks, waiting periods, and limits on assault weapons could help save lives by keeping guns out of the hands of criminals, terrorists, and other dangerous individuals.

    III) Body paragraph 2: Anti-gun control argument: Opponents counter that people have a right to self-defense and that “good” people should be able to have firearms to protect against “bad” people. They contend that gun ownership is an important freedom and that responsible, law-abiding citizens should be able to own firearms. They argue that gun control legislation would not deter criminals, who would always find ways to get access to firearms. Stricter laws would only restrict freedoms of ordinary people and make them less safe.

    IV) Analysis and discussion: Discuss perspectives on both sides and analyze merits and issues with each argument. For example, would gun restrictions reduce gun violence or just limit freedoms? Do restrictions disarm good citizens and put them at risk, or mainly deter irresponsible people or criminals? Could some measures like background checks achieve a balance? Explain complexities around the issues and rates of gun violence in different areas with varying levels of restrictions.

    V) Conclusion: Wrap up the essay by restating your analysis and overall conclusions on the merits of gun control legislation. Note the multifaceted nature of the issues and argue for a way forward that could potentially reduce gun violence while respecting rights.

    The outline might’ve fooled me, but the detectors had an easier time. Three — the OpenAI classifier, GPTZero and CatchGPT — caught on.

    \"Text

    OpenAI’s classifier spotted the AI-generated text.

    • OpenAI classifier: Classified correctly
    • AI Writing Check: Classified incorrectly
    • GPTZero: Classified correctly
    • Copyleaks: Classified incorrectly
    • GPTRadar: Classified incorrectly
    • CatchGPT: Classified correctly
    • Originality.ai: Classified incorrectly

    News article

    As with the previous samples, there’s nothing obviously artificial about the news article we generated using Claude. It reads well, structured more or less in the inverted pyramid style. And it doesn’t contain obvious factual errors or logical inconsistencies:

    Biden Defeats Trump in 2020 U.S. Election, Ending a Divisive Campaign

    Former Vice President Joe Biden has defeated President Trump in an election that drew record numbers of voters and emerged as a referendum on Mr. Trump’s turbulent tenure.

    Mr. Biden’s victory amounted to a repudiation of Mr. Trump by millions of voters after four profoundly turbulent years that fueled a heated debate about the nation’s values and future. Mr. Biden campaigned on plans to expand health care, address economic inequality and combat climate change, while vowing to ‘restore the soul of the nation’ and summon Americans to a common purpose.

    In a brief statement on Saturday morning, Mr. Biden said he was ‘honored and humbled’ by the trust the American people had placed in him. ‘The battle is over, but the campaign to restore the soul of the nation has just begun,’ he said from Wilmington, Del., as celebrants cheered and honked car horns nearby. ‘It’s time for Americans to unite.’

    Mr. Trump showed no sign of conceding, claiming without evidence that the election was ‘rigged’ and that his early leads in some states on election night showed he was the rightful winner. There were no major irregularities reported in an election that state election officials and outside experts said went smoothly in the middle of a deadly pandemic.

    The outcome amounted to a repudiation of Mr. Trump’s divisive appeals to racial grievances and hard-line responses to the virus, which has claimed more than 232,000 lives in the United States, and left millions out of work.

    It’s no wonder, then, that the detectors struggled. With the exception of GPTZero, none managed to classify the article correctly. Originality.ai went so far as to give it a 0% chance of being AI-generated. Big yikes.

    \"AI

    AI Writing Check got it very wrong.

    • OpenAI classifier: Classified incorrectly
    • AI Writing Check: Classified incorrectly
    • GPTZero: Classified correctly
    • Copyleaks: Classified incorrectly
    • GPTRadar: Classified incorrectly
    • CatchGPT: Classified incorrectly
    • Originality.ai: Classified incorrectly

    Cover letter

    The cover letter we generated with Claude has all the hallmarks of a straightforward, no-nonsense professional correspondence. It highlights the skills of a fictional paralegal job candidate, inventing the name of a law firm (somewhat peculiarly) and making references to legal discovery tools like Westlaw and LexisNexis:

    Dear Hiring Manager,

    I am writing to express my strong interest in the paralegal role at your firm. I believe my experience and education in the legal field make me a great candidate for this position.

    Over the past two years, I have worked as a paralegal at Smith & Jones Law Firm, where I have gained extensive experience supporting attorneys in all aspects of civil litigation cases. I have consistently organized and maintained thousands of pages of legal documents, including transcripts, affidavits, and discovery material. I have also streamlined the firm’s file management system, resulting in significant time savings. In addition, I have drafted correspondence with clients, opposing counsel, and third parties; assisted at trials; and completed legal research projects to support pre‐trial motions and settlement negotiations.

    Prior to my role as a paralegal, I earned an Associate’s Degree in Paralegal Studies from [College Name]. My coursework and internship experiences provided a strong foundation in key areas such as legal research and writing, as well as knowledge of relevant software and databases including Westlaw and LexisNexis. I have kept my skills and knowledge up-to-date through ongoing professional development.

    Outside of my work and education experience, I am a diligent and detail-oriented person, with excellent organizational and communication skills. I thrive in a fast-paced environment and am adept at balancing and prioritizing complex, time-sensitive tasks to meet tight deadlines. I would appreciate the opportunity to contribute to the success of your firm’s clients and cases.

    Thank you for your consideration. I look forward to speaking with you further about this opportunity.

    Sincerely,

    [Your name]

    The letter stumped OpenAI’s classifier, which couldn’t say with confidence whether it was AI- or human-authored. GPTZero and CatchGPT managed to spot the AI-generated text for what it was, but the rest of the detectors failed to achieve the same.

    \"Text

    GPTZero impressively detected the AI-originated bits.

    • OpenAI classifier: Classified incorrectly
    • AI Writing Check: Classified incorrectly
    • GPTZero: Classified correctly
    • Copyleaks: Classified incorrectly
    • GPTRadar: Classified incorrectly
    • CatchGPT: Classified correctly
    • Originality.ai: Classified incorrectly

    Resume

    Pairing the fake cover letter with a fake resume seemed fitting. We told Claude to write one for a software engineer, and it delivered — mostly. Our imaginary candidate has an eclectic mix of programming skills, but none that stand out as particularly implausible:

    • John Doe

    • Software Engineer, 3 years of experience

    • jdoe@email.com • 123-456-7890

    • Technical Skills: Java, JavaScript, C++, SQL, MySQL, Git, Agile methodology, Software design, Algorithms, Data structures

    • Professional Experience:

    › ACME Corp, Software Engineer, 2018-Present

    › Worked on core components of company’s flagship product, a SaaS-based big data analytics platform.

    › Led design and development of the data ingestion module, capable of handling huge volumes of streaming data. Used Java and MySQL.

    › Reduced upstream data errors by 42% through implementation of advanced data validation and correction algorithms.

    › XYZ Tech Company, Software Engineer Intern, Summer 2017

    › Developed back-end components for ecommerce company using JavaScript and Node.js.

    › Prototyped and demonstrated scaling of core databases and APIs to handle 5x growth.

    • Education:

    › Bachelor’s degree in Computer Science, Big Tech University, 2017

    › Courses included algorithms, operating systems, machine learning, software architecture, and theory of computation.

    › 3.8 GPA

    • Skills: analytical, communication, problem-solving, detail-oriented

    • Interests: running, reading, and hiking

    Evidently, the detectors agree. The fake resume even stumped GPTZero, which up until this point had been the most reliable of the bunch.

    \"Text

    GPTZero can’t win ’em all.

    • OpenAI classifier: Classified incorrectly
    • AI Writing Check: Classified incorrectly
    • GPTZero: Classified incorrectly
    • Copyleaks: Classified incorrectly
    • GPTRadar: Classified incorrectly
    • CatchGPT: Classified correctly
    • Originality.ai: Classified incorrectly

    The trouble with classifiers

    After all that testing, what conclusions can we draw? Generally speaking, AI text detectors do a poor job of… well, detecting. GPTZero was the only consistent performer, classifying AI-generated text correctly five out of seven times. As for the rest… not so much. CatchGPT was second best in terms of accuracy with four out of seven correct classifications, while the OpenAI classifier came in distant third with one out of seven.

    So why are AI text detectors so unreliable?

    Detectors are essentially AI language models trained on many, many examples of publicly available text from the web and fine-tuned to predict how likely it is a piece of text was generated by AI. During training, the detectors compare text to similar (but not exactly the same) human-written text from websites and other sources to try to learn patterns that give the text’s origin away.

    The trouble is, the quality of AI-generated text is constantly improving, and the detectors are likely trained on lots of examples of older generations. Unless they’re retrained on a near-continuous basis, the classifier models are bound to become less accurate over time.

    Of course, any of the classifiers can be easily evaded by modifying some words or sentences in AI-generated text. For determined students and fraudsters, It’ll likely become a cat-and-mouse game. As text-generating AI improves, so will the detectors.

    While the classifiers might help in certain circumstances, they’ll never be a reliable sole piece of evidence in deciding whether text was AI-generated. That’s all to say that there’s no silver bullet to solve the problems AI-generated text poses. Quite likely, there won’t ever be.



    Source link

  • Capsule snags $4.75M for its AI-powered video editor that summarizes text, generates images and more

    ویب تلاش کو دوبارہ ایجاد کرنے کی AI کی صلاحیت باقی گندالیکن روزمرہ کے آلات پر ٹیکنالوجی کا اثر زیادہ امید افزا لگتا ہے۔ مثال کے طور پر: ایک اسٹارٹ اپ کہا جاتا ہے۔ کیپسول پوسٹ پروڈکشن ایڈیٹس کی رفتار اور کارکردگی کو بہتر بنانے کے لیے AI کو ویڈیو ایڈیٹنگ سافٹ ویئر میں استعمال کرنے کے لیے ڈال رہا ہے۔ اس کو لانچ کرنے کے بعد AI سے چلنے والا ایڈیٹر بیٹا میں، کمپنی نے پروڈکٹ کو تجارتی بنانے کے لیے $4.75 ملین سیڈ فنڈنگ ​​پر بند کر دیا۔

    طویل مدتی، کیپسول کا کہنا ہے کہ ایسی ٹیکنالوجی کسی کو بھی ویڈیو کے ساتھ تخلیقی ہونے کی اجازت دے سکتی ہے، چاہے وہ پیشہ ور ویڈیو ایڈیٹرز ہی کیوں نہ ہوں۔

    کمپنی ہمیشہ AI ٹیکنالوجی میں نہیں رہی ہے۔ 2020 میں قائم کیا گیا، کیپسول اسی ٹیم سے نکلا جس نے اینیمیٹڈ GIF کیپچر ٹول اور سوشل نیٹ ورک بنایا Phhhoto، جو بالآخر Instagram کے ہاتھوں ہار گئی۔ کلون، بومرانگ۔ 2017 میں اپنی ایپ کو بند کرنے کے بعد، وہ لائیو ایونٹس کے لیے ایک تجرباتی مارکیٹنگ کے کاروبار میں چلے گئے، ہپنو. لیکن انہیں جلد ہی اس وقت محور ہونا پڑا جب CoVID-19 وبائی مرض نے Hypno کے ذاتی طور پر فوٹو بوتھس اور دیگر انٹرایکٹو تجربات کی ضرورت کو ختم کردیا۔

    اس کی وجہ سے کیپسول کی تخلیق ہوئی، ایک ایسا پلیٹ فارم جو ایک طریقہ کے طور پر شروع ہوا۔ برانڈز کووڈ کے بعد کے دور میں اپنی برادریوں تک پہنچنے کے لیے آن لائن سوال و جواب اور ویڈیو کہانیوں کا استعمال کرتے ہوئے 2021 میں، کمپنی پری سیڈ فنڈنگ ​​میں $2 ملین اکٹھا کیا۔ Array Ventures، Bloomberg Beta، اور مختلف فرشتوں کی جانب سے اس کے اشتراکی ویڈیو پلیٹ فارم کے لیے۔

    کمپنی کا کہنا ہے کہ آج تک، کیپسول کی آمدنی کا 90% انٹرپرائز سے آتا ہے، لیکن اس نے اپنی رن ریٹ شیئر کرنے سے انکار کر دیا۔ خاص طور پر، کمپنی ویڈیو کی مہارت کے بغیر ٹیموں کی ایک غیر محفوظ مارکیٹ کو پورا کر رہی ہے، لیکن جنہیں برانڈنگ میں مستقل مزاجی کی ضرورت ہے۔ اس کے باہمی تعاون کے ساتھ ڈیش بورڈ کو Snowflake، TED، Salesforce، اور The Wall Street Journal جیسی کمپنیوں نے استعمال کیا ہے۔

    ابھی حال ہی میں، کیپسول نے یہ دریافت کرنا شروع کیا کہ نئے AI ماڈل اس کی مصنوعات کو کیسے بہتر بنا سکتے ہیں۔

    سے ڈیٹا کا حوالہ دیتے ہوئے۔ حب سپاٹ، کمپنی بتاتی ہے کہ 2023 میں کسی بھی دوسرے فارمیٹ کے مقابلے میں مختصر شکل والی ویڈیو تیزی سے بڑھنے کے لیے تیار ہے اور 90% سے زیادہ مارکیٹرز نے کہا کہ وہ ویڈیو بنانے میں اپنی سرمایہ کاری کو برقرار رکھنے یا بڑھانے کا ارادہ رکھتے ہیں۔ لیکن کیپسول کے شریک بانی اور سی ای او چیمپ بینیٹ نے نوٹ کیا کہ ویڈیو کی طلب پیشہ ورانہ ویڈیو ایڈیٹرز کی فراہمی سے زیادہ ہے۔

    \”مارکیٹ میں ویڈیو ٹولز کی بڑی تعداد کے باوجود، انٹرپرائز ٹیموں کی ضروریات کو بڑی حد تک نظر انداز کیا گیا ہے،\” انہوں نے کمپنی کے فنڈنگ ​​کے اعلان میں کہا۔ \”مارکیٹنگ، comms، سیلز، یا کامیابی میں کسی سے پوچھیں اور وہ آپ کو بتائیں گے کہ ویڈیو دیگر تمام فارمیٹس سے بہتر ہے، لیکن وہ آپ کو یہ بھی بتائیں گے کہ وہ اسے اکثر استعمال نہیں کر پاتے کیونکہ یہ کتنا مہنگا اور پیچیدہ ہے۔ بنائیں۔\”

    ان چیلنجوں سے نمٹنے کے لیے کیپسول بنایا اے آئی اسٹوڈیو، جو AI سے چلنے والی، پوسٹ پروڈکشن ویڈیو ایڈیٹس پر مرکوز ہے۔

    کمپنی نے دکھایا دسمبر میں ٹیکنالوجی کا ڈیمو (نیچے ملاحظہ کریں)، جو ویڈیو کے آڈیو کو متن میں نقل کرنے کے لیے ASR (آٹومیٹک اسپیچ ریکگنیشن) ماڈل سمیت متعدد ماڈلز میں AI اور مشین لرننگ کا استعمال کرتا ہے۔

    یہ ٹرانسکرپٹ سے بی-رول امیجز بنانے کے لیے ایک ڈفیوژن ماڈل بھی پیش کرتا ہے اور ساتھ ہی ایک جنریٹو ایل ایل ایم (بڑی زبان کا ماڈل) بھی پیش کرتا ہے جو ٹرانسکرپٹ سے متن کا خلاصہ کرتا ہے۔

    کمپنی کا کہنا ہے کہ اے آئی اسٹوڈیو سافٹ ویئر براؤزر میں چلتا ہے، کام کرنے کے لیے کسی ایپ یا ایکسٹینشن کی ضرورت کے بغیر۔

    پلیٹ فارم پر ویڈیو اپ لوڈ کرنے کے بعد، کیپسول ٹرانسکرپٹ بناتا ہے جسے ترمیم میں استعمال کرنے کے لیے ویڈیو کے ایک طرف رکھا جاتا ہے۔ ڈیمو میں، کمپنی نے دکھایا کہ کس طرح صارف ٹیکسٹ کا ایک بلاک منتخب کر سکتا ہے اور پھر بٹن پر کلک کر کے متن کو خود بخود خلاصہ کر کے ٹائٹل کارڈ میں تبدیل کر سکتا ہے، AI اور اس کی ویڈیو مارک اپ لینگویج کا استعمال کرتے ہوئے۔ کارڈ کے مختلف انداز دستیاب ہیں، بشمول ایک اینیمیٹڈ ٹائٹل کارڈ کا صفحہ اور ویڈیو کے نیچے ظاہر ہونے والا ٹائٹل کارڈ، جن میں سے ہر ایک کو ایک کلک کے ساتھ منتخب کیا جا سکتا ہے۔

    اس نے یہ بھی دکھایا کہ آپ کس طرح متن کے ایک بلاک کو منتخب کر سکتے ہیں اور پھر AI خود بخود ایک تصویر بنا سکتے ہیں جس کی نشاندہی کی گئی متن میں نشاندہی کی گئی ہے۔ اس کے علاوہ، آپ ٹیکسٹ پرامپٹ فیلڈ میں کلک کر سکتے ہیں اور حتمی نتائج پر زیادہ درست کنٹرول کے لیے متن کو ایڈجسٹ کر سکتے ہیں۔

    ایک اور خصوصیت آپ کو متن کی ایک لائن کو منتخب کرنے کی اجازت دیتی ہے تاکہ یہ کئی دستیاب کیپشن اسٹائلز میں سے ایک کے طور پر ظاہر ہو، جیسے فل سکرین ٹیکسٹ، اینیمیٹڈ کیپشن، یا یہاں تک کہ ٹویٹ طرز کیپشن۔

    بینیٹ TechCrunch کو بتاتے ہیں، \”ہم ویڈیو کے لیے جو کچھ کرتے ہیں وہی ہے جیسا کہ Jasper جیسی کمپنیاں کاپی رائٹنگ کے لیے کر رہی ہیں یا Replit کوڈنگ کے لیے کر رہی ہیں۔\” \”ہم ماڈلز کے مالک نہیں ہیں۔ اس کے بجائے، ہم ویڈیو تخلیق کاروں کو 10-100x زیادہ نتیجہ خیز بنانے کے لیے بہترین بنیادی ماڈلز کا فائدہ اٹھاتے ہیں، ساتھ ہی ساتھ داخلے میں رکاوٹ کو کم کرتے ہیں تاکہ مارکیٹنگ، سیلز، کامیابی، اور قیادت میں ٹیمیں اپنے طور پر زبردست آن برانڈ ویڈیوز بنا سکیں۔

    \"\"

    یہ ترامیم خود کیپسول کی ویڈیو اسکرپٹنگ لینگویج، کیپسول اسکرپٹ سے چلتی ہیں، جو پچھلے دو سالوں میں بنائی گئی ہیں اور براؤزر میں کام کرنے کے لیے ڈیزائن کی گئی ہیں۔ تمام AI ماڈل آؤٹ پٹ کو کیپسول اسکرپٹ میں ان پٹ کے طور پر فیڈ کیا جاتا ہے۔

    \”سوچیں کہ ویب سائٹس کے لیے HTML/CSS کیا ہیں، کیپسول اسکرپٹ ویڈیو کے لیے کیا ہے۔ بینیٹ کا کہنا ہے کہ یہ تخلیق کے وقت اور رن ٹائم دونوں میں متحرک طور پر ویڈیو کو رینڈر کر سکتا ہے –- پہلی بار پیمانے پر ذاتی نوعیت کی ویڈیو بنانے کی اجازت دیتا ہے۔ لیکن وہ واضح کرتا ہے کہ کیپسول کے صارفین مکمل طور پر خودکار \”ایک کلک\” حل کی تلاش نہیں کر رہے ہیں، حالانکہ کیپسول اسکرپٹ اس کے قابل ہوگا۔

    \”حقیقت میں جو صارفین چاہتے ہیں وہ ہے 80% آٹومیشن، اور 20% حسب ضرورت تاکہ وہ ایک ٹن رگڑ کے بغیر ایک منفرد، تخلیقی کہانی سنا سکیں،\” وہ بتاتے ہیں۔

    کمپنی نے کہا کہ ڈیمو پوسٹ ہونے کے بعد، کمپنی کو مانگ کی وجہ سے AI اسٹوڈیو تک رسائی کو انتظار کی فہرست کے پیچھے رکھنا پڑا۔

    اضافی فنڈنگ ​​کے ساتھ، کیپسول کا کہنا ہے کہ اس کا مقصد انجینئرنگ، پروڈکٹ ڈیزائن، اور مارکیٹنگ ٹیموں میں کلیدی خدمات حاصل کرنا ہے تاکہ اسے اپنے AI اسٹوڈیو پروڈکٹ کو تیزی سے تجارتی بنانے میں مدد ملے۔ یہ ایم ایل انجینئر، فرنٹ اینڈ انجینئر، ویڈیو اور مارکیٹنگ کے سربراہ، اور پروڈکٹ ڈیزائنر سمیت ایک درجن کل وقتی ملازمین کو شامل کرنے کی کوشش کر رہا ہے۔

    جنوری کے آخر میں بند ہونے والے نئے سیڈ راؤنڈ میں کمپنی کی حمایت کرنے والے سرمایہ کاروں میں ہیومن وینچرز، سوئفٹ وینچرز، ان ویژن کے بانی کلارک ویلبرگ کے ٹائفرس وینچرز، جینیئس وینچرز کے پیچھے، علاوہ اس کے پری سیڈ سرمایہ کار اری وینچرز اور بلومبرگ بیٹا شامل ہیں۔

    فرشتوں کے سرمایہ کاروں میں ریپلٹ کے سی ای او امجد مساد، ڈراپ باکس کے سی ٹی او آرش فردوسی، فگما ہیڈ آف سیلز کائل پیرش، اسپاٹائف/اینکر کے بانی مائیک میگنانو میں آڈیو اور ویڈیو کے سابق سربراہ، Chorus.ai کے شریک بانی رائے رانانی، اور گمروڈ کے بانی ساحل لاونگیا شامل ہیں۔

    نئی فنڈنگ ​​سمیت، نیویارک میں قائم اسٹارٹ اپ نے اپنے قیام کے بعد سے 6.75 ملین ڈالر اکٹھے کیے ہیں۔





    Source link