Anthropic發(fā)布Claude 2.1,支持200K上下文
11月21日,AIAnthropic發(fā)布了大型語言模型(LLM)Claude 2.1,提供200K前后文窗口,這一功能超過了OpenAI最近宣布的GPT-4 Turbo的128K前后文。用戶可以向Claude發(fā)送約150K單詞或超過500頁的信息,這意味著用戶可以上傳整個(gè)代碼庫、財(cái)務(wù)報(bào)告或長篇文學(xué)作品,供Claude總結(jié)、執(zhí)行問答、預(yù)測趨勢、比較和比較多個(gè)文檔。此外,Claude2.1包括一個(gè)新的工具使用功能,允許模型與客戶當(dāng)前的流程、產(chǎn)品和API集成。
版權(quán)聲明:本站所有文章皆是來自互聯(lián)網(wǎng),如內(nèi)容侵權(quán)可以聯(lián)系我們刪除!