会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 AI21发布世界Mamba的生产级模型Jamba 支持256K上下文长度!

AI21发布世界Mamba的生产级模型Jamba 支持256K上下文长度

时间:2024-07-04 04:36:10 来源:带水拖泥网 作者:热点 阅读:891次

AI21发布世界Mamba的生产级模型Jamba 支持256K上下文长度

CSS站长资源(ChinaZ.com) 3月29日 消息:AI21发布了世界首个Mamba的发布生产级模型:Jamba。这个模型采用了开创性的世界生产K上SSM-Transformer架构,具有52B参数,型J下文其中12B在生成时处于活动状态。支持Jamba结合了Joint Attention和Mamba技术,长度支持256K上下文长度。发布单个A10080GB最多可容纳140K上下文。世界生产K上与Mixtral8x7B相比,型J下文长上下文的支持吞吐量提高了3倍。

官网:https://top.aibase.com/tool/jamba

模型地址:https://huggingface.co/ai21labs/Jamba-v0.1

Jamba代表了在模型设计上的长度一大创新。它结合了Mamba结构化状态空间(SSM)技术和传统的发布Transformer架构的元素,弥补了纯SSM模型固有的世界生产K上局限。Mamba是型J下文一种结构化状态空间模型(Structured State Space Model, SSM),支持这是长度一种用于捕捉和处理数据随时间变化的模型,特别适合处理序列数据,如文本或时间序列数据。SSM模型的一个关键优势是其能够高效地处理长序列数据,但它在处理复杂模式和依赖时可能不如其他模型强大。

而Transformer架构是近年来人工智能领域最为成功的模型之一,特别是在自然语言处理(NLP)任务中。它能够非常有效地处理和理解语言数据,捕捉长距离的依赖关系,但处理长序列数据时会遇到计算效率和内存消耗的问题。

Jamba模型将Mamba的SSM技术和Transformer架构的元素结合起来,旨在发挥两者的优势,同时克服它们各自的局限。通过这种结合,Jamba不仅能够高效处理长序列数据(这是Mamba的强项),还能保持对复杂语言模式和依赖关系的高度理解(这是Transformer的优势)。这意味着Jamba模型在处理需要理解大量文本和复杂依赖关系的任务时,既能保持高效率,又不会牺牲性能或精度。

(责任编辑:热点)

相关内容
  • AI视野:文心一言支持生成数字分身;Bard推出图片生成功能;亚马逊开发AI购物助手Rufus;苹果将推生成式AI功能
  • 申通快递对12省份快件提价 以应对恶劣天气
  • 大熊猫性感抖臀致直播间被封十分钟 工作人员:非正常表现
  • LLaVA-1.6来了!赶超Gemini Pro 提升推理性能
  • AI图像生成器Midjourney意外创建不当内容,违反其自身准则
  • 苹果发布Vision Pro耳机安全补丁 修复潜在黑客利用漏洞
  • 女子发愁春节红包:我1个娃对方3个 专家:发红包应与收入匹配
  • 花130万当网红未果起诉要回80万引热议 网友:现在火上热搜了
推荐内容
  • 比利时设陷阱诱捕300万只大闸蟹 避免过度繁殖问题
  • 「.ai」域名每月能为安圭拉带来约300万美元的收入
  • 今年冰冻预警发布!今冬寒潮来袭:冻伤记得挂烧伤科
  • 智能海报生成平台嗨AI海报 30秒批量生成带货海报
  • 超小米荣耀!华为HarmonyOS 4无障碍适配获五星评分
  • 贾扬清的500行代码,掀翻了Perplexity5.2亿的桌子?