会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本!

微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本

时间:2024-07-02 03:26:45 来源:带水拖泥网 作者:业界 阅读:399次

微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本

划重点:

🔍 微软研究发布了 LLMLingua-2,微软一种用于任务不可知压缩提示的新工模型,可以将原始长度减少高达20%,具L节省从而降低成本和延迟。提示

📊 LLMLingua-2通过智能压缩长提示,压缩去除不必要的高达词语或标记,同时保留关键信息,时间使得提示长度可减少至原长度的和成20%。

🚀 LLMLingua-2在多个数据集上进行了评估,微软显示出与强基线相比的新工显著性能改进,并在不同 LLM 之间展现了稳健的具L节省泛化能力。

CSS站长资源(ChinaZ.com)3月25日 消息:微软研究发布了名为 LLMLingua-2的提示模型,用于任务不可知的压缩提示压缩。该模型通过智能地去除长提示中的高达不必要词语或标记,同时保留关键信息,时间使得提示长度可减少至原长度的20%,从而降低成本和延迟。研究团队写道:“自然语言存在冗余,信息量不尽相同。”

LLMLingua-2比其前身 LLMLingua 和类似方法快3到6倍。LLMLingua-2使用了 MeetingBank 中的示例进行训练,该数据集包含会议记录及其摘要。要对文本进行压缩,首先将原始文本输入训练好的模型。模型对每个词语进行评分,根据周围语境为其分配保留或移除的点数。然后选择具有最高保留值的词语,以创建缩短的提示。

微软研究团队在多个数据集上对 LLMLingua-2进行了评估,包括 MeetingBank、LongBench、ZeroScrolls、GSM8K 和 BBH。尽管模型规模较小,但在各种语言任务(如问答、摘要和逻辑推理)中,它始终优于原始的 LLMLingua 和选择性上下文策略。同样,相同的压缩策略对不同 LLM(从 GPT-3.5到 Mistral-7B)和语言(从英语到中文)都有效。

LLMLingua-2只需两行代码就可以实现。该模型还已集成到广泛使用的 RAG 框架 LangChain 和 LlamaIndex 中。微软提供了演示、实际应用示例以及说明提示压缩的好处和成本节省的脚本。该公司认为这是一个有前途的方法,可以通过压缩提示实现更好的泛化能力和效率。

论文地址:https://arxiv.org/abs/2403.12968

项目入口:https://top.aibase.com/tool/llmlingua-2

(责任编辑:自媒体)

相关内容
  • 比开车快2小时!安徽男子开小飞机带女儿回家过年
  • 首发天玑9400!vivo X系列新机曝光:正在测试单点超声波指纹
  • 首发天玑9400!vivo X系列新机曝光:正在测试单点超声波指纹
  • iPhone 16 Pro电池部件泄露:容量增大到3597mAh
  • 专访椰树 | 一年播放10亿,我是如何打造爆款直播间
  • 多地公布高考查分时间:河南6月25日公布高考成绩 志愿填报6月26日开始
  • 预载开放 《魔兽世界》国服6月11日开服测试
  • 华为:将把小艺打造成助手 融合5.5G、AI能力
推荐内容
  • 支付宝酒水直播迎集体爆发:3个白酒直播间五福节销售6千万
  • Llama3-8B700亿巨兽?北大博士生等全新「BoT」框架推理暴涨70倍,24点图形推理一步成神
  • 苹果手机市场份额暴跌25%
  • 今年范围高温!山东要热成灿东:明起连续6天37℃以上高温
  • 我妈就是董明珠引热议!董明珠怼职场拍马屁:很烦吹捧我的员工
  • vivo V40 Pro在泰国现身 网友:天玑9200 加持