元象多语言通用大模型 XVERSE-13B 自 8 月 7 日开源以来广受关注,为促进大模型在垂直领域和特定任务的应用,方便开发者快速高效地定制化调优,元象宣布推出 XVERSE-13B-Chat 版,继续开源,并可免费商用。
【资料图】
开源信息
Github:/xverse-ai/XVERSE-13BHugging Face:/xverse/XVERSE-13B-Chat
联系邮箱:opensource@
XVERSE-13B 是同尺寸中效果最好的多语言大模型系列,性能超越 Llama-2-13B、Baichuan-13B-Chat 等国内外开源代表(图一),凭借高性能、全开源、可商用等优势,是国产替代和中文应用的更佳选择。
此次 Chat 版通过底座指令精调(Supervised Fine-tuning,简称 SFT ),使大模型在语言理解和生成上更加精准流畅,基础性能显著提升,比如 MMLU英文(+9%)、 AGIEval 中英(+17%)、GAOKAO-En 英文(+21%)等数据集效果优异。它还补齐了多个指令场景能力,用途更广,包括角色扮演、知识问答、文本生成、编程、数学解答和安全性等。
多场景示例
角色扮演
知识问答
文本生成
语言理解
安全性
环境安装
1. 下载本仓库:
git clone /xverse-ai/XVERSE-13B cd XVERSE-13B
2. 使用 pip 安装依赖:
pip install -r
Transformers 加载方式
可通过以下代码加载 Chat 版对话:
>>>import torch
通过以下代码启动一个web server,在浏览器输入访问地址后,可使用 Chat 版对话:
python chat_demo.py --port='port' --model_path='/path/to/model/' --tokenizer_path='/path/to/tokenizer/'
模型量化
支持 INT8 和 INT4 类型量化,可以大幅降低模型加载所需显存。
INT8 量化:
model = _pretrained("xverse/XVERSE-13B-Chat", torch_dtype=, trust_remote_code=True) model = (8).cuda()
INT4 量化:
model = _pretrained("xverse/XVERSE-13B-Chat", torch_dtype=, trust_remote_code=True)model = (4).cuda()
Chat 版在不同量化等级下,模型显存占用及 MMLU 准确率:
加入元象大模型团队
简历发送至:join@商业合作请微信添加:muyixuanlin媒体沟通请联系:万琳 linwan@
关于我们元象 XVERSE 于 2021 年初在深圳成立,是国内领先的 AI 与 3D 技术服务公司,致力于打造 AI 驱动的 3D 内容生产与消费一站式平台,愿景为“定义你的世界”。元象累计融资金额超过 亿美元,投资机构包括腾讯、高榕资本、五源资本、高瓴创投、红杉中国、淡马锡和CPE源峰等。元象创始人姚星是前腾讯副总裁和腾讯 AI Lab 创始人、国家科技部新一代人工智能战略咨询委员会成员。在 3D 与 AI 技术领域,元象拥有深厚积累与完整布局(见下图),已自主研发出行业引领性的“端云协同” 3D 互动技术,开创零门槛(轻)、一站式(快)、高品质(美)全新 3D 体验;还开源百亿参数多语言通用大模型,为同尺寸效果最佳,并可免费商用,旨在推动大模型国产可替代与行业应用发展。文本语音图片3D场3D人3D物大模型空间音频文生图大世界视频动捕物体生成歌声合成图生图路网AI编舞NeRF手势生成。元象已为多家龙头企业提供一站式技术服务,包括:澳门大三巴、南京大报恩寺、腾讯音乐、央视、一汽大众、阿迪达斯、邮储银行等。
官网:官微:元象 XVERSE
标签: