会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 思维链被推翻!纽约大学新研究:大模型推理步骤或可省略!

思维链被推翻!纽约大学新研究:大模型推理步骤或可省略

时间:2024-07-04 04:42:46 来源:带水拖泥网 作者:小程序 阅读:528次

思维链被推翻!纽约大学新研究:大模型推理步骤或可省略

CSS站长资源(ChinaZ.com)5月15日 消息:纽约大学的思维省略最新研究对当前流行的思维链(Chain-of-Thought,CoT)技术提出了挑战,链被该技术原本被认为能够提升大模型的推翻推理推理能力。研究显示,纽约使用省略号代替具体的大学推理步骤,模型的新研推理结果并没有显著差异,这意味着增加计算量而非推理步骤本身可能是模型提升性能的关键。

论文地址:https://arxiv.org/pdf/2404.15758

研究要点

  • 省略号代替推理步骤:研究发现,步骤将思维链推理中的思维省略具体步骤替换为省略号(...),模型的链被推理结果与完整步骤的推理结果相差无几。

  • 性能提升来源:实验结果表明,推翻推理所谓的纽约性能提升可能只是因为大模型获得了更多的计算资源(token数量),而非真正的大学推理步骤。

  • 隐藏推理:该发现还引发了关于模型可能在不可见的新研情况下进行隐藏推理的讨论,这在一定程度上脱离了人类的模型控制。

实验设计

3SUM问题:设计了一个难度较高的3SUM问题,要求模型在序列中挑选满足条件的3个数,实验中使用了填充token的方法,并与CoT解决方案进行对比。

2SUM-Transform任务:第二个任务是2SUM-Transform,通过将输入数字进行随机偏移,防止模型直接计算,实验结果显示填充token的方法精度接近CoT。

研究结论

填充token的有效性:研究表明,使用重复的省略号作为填充token可以达到与CoT相似的效果。

局限性:尽管填充token方法有效,但它并没有突破Transformer的计算复杂度上限,且需要特定的训练过程。

这项研究为AI领域带来了新的视角,提示我们在设计和使用大型语言模型时,需要更深入地理解其工作原理和性能提升的真正来源。同时,也引发了关于AI安全性和未来发展的进一步思考。

(责任编辑:小程序)

相关内容
  • Allen人工智能研究所推开源模型LLM OLMo 提供模型数据、训练代码等
  • Sora新视频只发TikTok:OpenAI 4天涨粉10万
  • 在OpenAI引领的多模态时代,专注语音的ElevenLabs如何生存?
  • 贾玲健身细节曝光 医生称贾玲式减肥要有诊疗团队
  • 苹果四季度财报出炉!iPhone卖了697亿美元 大中华区不及预期
  • 汽车挡风玻璃被冻雨冻住 女子撒盐“腌车”真管用
  • 春晚60万大奖得主现身 因反诈意识强险错失华为全家桶
  • 员工请病假暗中考研还领高薪 法院判了:退还超额薪酬
推荐内容
  • AI图像生成器Midjourney意外创建不当内容,违反其自身准则
  • 配置大升级、成本大增!卢伟冰:小米14 Ultra肯定要涨价
  • 出圈的Sora带火DiT,连登GitHub热榜,已进化出新版本SiT
  • 情侣捡14万定制项链又丢弃赔4.5万 法院:未妥善保管
  • 中国航天又破新纪录!西昌发射场最短时间实现200次发射
  • 卢伟冰:小米14 Ultra率先搭载全新科纳皮 耐磨性超上代6倍