讯飞星火开源大模型是科大讯飞对外开源的大模型。讯飞星火开源-13B(iFlytekSpark-13B)拥有130亿参数,在经过累计超过3万亿以上tokens海量高质量数据集上进行预训练,然后在精调的多元化对齐数据上进行微调得到。iFlytekSpark-13B在多个标准评估中展现出了卓越的性能,其表现优于同参数量级的开源模型,与一些闭源模型相比不相上下。
讯飞星火开源大模型核心解析
讯飞星火开源大模型(iFlytekSpark-13B)是科大讯飞推出的130亿参数开源大语言模型,基于全国产化算力平台“飞星一号”训练,提供基础模型(iFlytekSpark-13B-base)和精调对话模型(iFlytekSpark-13B-chat),支持文本生成、代码编写、数学推理等通用任务,深度优化中文场景及行业应用。
访问官网:星火开源社区
核心能力与评测表现
- 多场景任务覆盖
- 通用任务:聊天问答、文本摘要、数据分类
- 生产力功能:Python/Java代码生成、金融数据分析、学术论文润色
- 专项优化:数学推理和语言理解能力超越同规模模型,接近GPT-4 Turbo水平
- 权威评测领先
测试集 iFlytekSpark-13B-base iFlytekSpark-13B-chat
C-EVAL 70.88 82.54
MMLU 58.76 63.02
CMMLU 70.01 75.69
FinanceIQ 60.21 65.48
注:chat模型在语言理解、金融领域表现突出,较base模型平均提升7% 应用场景- 教育科研:自动化批改作业、生成教学案例
- 企业服务:合同审查、金融报告分析、客服对话生成
- 开发者工具:集成LoRA微调工具,快速适配垂直场景(如医疗术语库)
- 资源获取
- 硬件要求
- GPU版需≥40GB显存(如A100),优化后支持双3090显卡部署
- 快速启动
bash git clone https://gitee.com/iflytekopensource/iFlytekSpark-13B torchrun --nproc_per_node=4 run_iFlytekSpark_text_generation.py \ --use-cpu-initialization # 显存优化关键参数
- 中文能力突出:本土文化概念(如“武侠意境”)还原度达92%,超越LLaMA-2等同规模模型
- 国产算力适配:深度优化昇腾芯片,训练效率达A100的90%,突破算力封锁
- 零成本学术授权:非商业用途免费,开放完整权重及微调工具
- 部署门槛高:默认配置需70GB+显存,中小机构需代码优化才能运行
- 仅支持静态权重:缺乏实时在线API,商业应用需自建服务
- 多模态支持弱:纯文本模型,未集成图像/语音处理
--use-cpu-initialization
参数降低显存需求。商业应用应提前联系科大讯飞获取授权,避免合规风险。