近日,来自斯坦福、UC Berkeley 的一篇 arXiv 预印本论文给出了对这一问题的定量实验结果并公布了相关评估和响应数据。
在论文公布不久,这篇研究就引起了大家广泛的关注与讨论,很多网友都认同论文阐述的结果。
当然,任何事物都有两面性。也有网友并不认同论文结论,发布了一篇质疑文章认为这篇论文的结果过于简单化了,「虽然研究结果很有趣,但有些方法值得怀疑。」
具体而言,通过四个任务研究过 GPT-3.5 和 GPT-4 的 2023 年三月版和六月版的生成结果后,研究者发现这两个 LLM 确实在一些指标上变得更差了,尤其是 GPT-4 求解数学问题的能力,可以说是雪崩式下降 —— 三月版 97.6% 的准确度到六月只剩 2.4%。研究者还推测了这些变化的原因。
GPT-3.5 和 GPT-4 等大型语言模型(LLM)正被广泛使用。随着时间推移,GPT-4 这样的 LLM 可以根据用户的数据和反馈以及设计的变化而更新。但是,我们目前仍不清楚 GPT-3.5 和 GPT-4 的更新方式,也不了解其更新方式会对这些 LLM 的行为产生怎样的影响。
ChatGPT技术自面世以来一直是大家热议的话题,那么你认为ChatGPT对你的生活产生了怎样的影响呢?《研究实锤GPT-4真变笨了:3个月内数学能力雪崩式下降》这篇文章,作者分享了他的经验,如果你对新技术感兴趣,一定不用错过这篇内容。
学习的动力其实是一个很简单的东西,说成目标可能会更好理解一点,你想学成之后能达到什么程度,这样你也能在学习的过程中不被困难所难倒,也会有源源不断的动力促使你前进。
同时,小编附送一篇精选热门文章给你,《2季度平均月薪出炉!IT业最高竟然只排第四…》,希望能在测试行业给你一些参考!