据腾科AI5月18日消息,70 B的模型,1000个token,相当于4000个字符!
在Llama3上做了一些改进,并且引进了一种加速算法,所以它的运算速度比原版要快上十三倍!这个结果,是由最近很流行的人工智能程序工具 Cursor的团队 anysphere提供的。
要知道,就算是 Groq这个以速度见长的程序,70 Blama3的计算速度,也只有300个左右。Cursor的这种速度,几乎可以说是完成了几乎瞬间完成的全部代码文件的编辑。有人惊呼一声,如果将 Cursor的LAMa3放在 Groq上,那岂不是一秒就能达到一万多个 token?这一次,使用了一个叫做“Fast Apply”的算法,可以在短时间内完成对代码的修改和应用。首先要注意的是,虽然最后的结果是对代码进行了部分的修改,但在实际的工作中,并不是只有一些改变,而是整个系统都被改写了。之所以这么做,是因为研究小组在进行了预测试之后,发现除了Claude-3-Opus之外,大部分的模型在真实的本地修正任务中都表现得很差。首先,在进行简单的改写时,会产生更多的 token,从而产生更多的正向传输,以决定正确的答案。其次,该模型所用的数据大多为完备的代码,对于局部的改动比较陌生。另外,大型模式差的数学操作不能确保当有不同的输出时可以正确地处理行数。在确认了全局覆盖策略之后, Cursor小组利用与任务有关的数据来调整Llama3。本研究使用的资料包括真实编辑资料和人工资料,以1:4的比例调配。这里的综合数据是指使用GPT-4产生的编码编辑提案,随后“应用”到原来的代码中。在此基础上,本文还对小文件,重复文件,不变样本等数据进行了降采样。为了评价模型的性能,研究人员将其分成450次(每种最多400行),并使用Claude3-Opus评分。最后,作者改进了70B Llama3,其性能接近Claude3-Opus-diff,并比GPT-4-Turbo、GPT-4o更好。
来源:腾科AI
编辑:Luke
(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)