让每个企业都拥有自己的专属大模型 讯飞华为联手打造国产通用智能新底座

“国产大模型只有基于中国自主创新的算力底座才有大未来。”在7月6日召开的昇腾人工智能产业高峰论坛上,科大讯飞高级副总裁、认知智能全国重点实验室主任胡国平表示,科大讯飞星火将与华为昇腾AI联合打造国产通用智能新底座。

8月15日,在讯飞星火认知大模型V2.0升级发布会上,星火一体机如约而至,此后,企业可在这个国产自主创新的平台上部署自己的私有化大模型,获得更多自主空间的同时,数据隐私安全也将得到保障。

“要在看得见摸得着的场景上,能够产生实实在在的应用价值,能够用统计数据来证明应用成效。”科大讯飞董事长刘庆峰介绍,目前,讯飞星火已完成在金融、政务、汽车等领域的9个专属大模型的数据显示,在场景任务优化和私域知识增强等方面平均效果能够提升20%。


(资料图片仅供参考)

星火一体机主打安全可控

作为国产软硬件一体化的私有专属大模型解决方案,星火一体机开箱即可使用,提供底层算力、AI框架、训练算法、推理能力、应用成效等全栈AI能力。据了解,该设备可提供对话开发、任务编排、插件执行、知识接入、提示工程等5种定制优化模式,以及办公、代码、客服、运维、营销、采购等10种以上即开即用的丰富场景包,支持3种模型尺寸。

在训练和推理一体化部署方面,星火一体机可用于问答系统、对话生成、知识图谱构建、智能推荐等多个领域的应用,具备大模型预训练、多模态理解与生成、多任务学习和迁移等能力。

今年5月,《中国人工智能大模型地图研究报告》发布,据不完全统计,中国10亿参数规模以上的大模型已发布79个。随着赛道日渐拥挤,在大模型风口的背后,数据安全、数据孤岛、资源浪费、专业知识建设等迅速成为大模型治理的关节点。科技部副部长吴朝晖此前表示,要加强大模型安全可靠、安全可信、隐私保护等技术研发。就在讯飞星火V2.0升级发布会的同一天,国家网信办等七部委联合发布的《生成式人工智能服务管理暂行办法》正式施行,“发展和安全并重”再次成为强调重点。

大模型运营方如何回应宏观环境和行业企业对数据安全的要求?刘庆峰在发布会上表示,认知大模型的深度赋能时代已经到来,安全可控、场景驱动和专属定制是大模型在企业深度应用的三个关键要素。其中,安全可控包含内容和算力两个维度,是企业大模型的底线。

在内容安全方面,星火一体机基于讯飞星火认知大模型,针对污语料和幻觉问题,形成立体化的“内容安全机制”。无监督的互联网语料,经过语句、质量、隐私、安全判别器等关卡,得到清洗后的高质量文本;为了解决“幻觉问题”,讯飞针对各类型任务构建专业知识库,以类搜索插件技术实现知识获取,基于大模型的理解和概括摘要能力给出答案。

而在算力安全上,星火一体机基于昇腾AI硬件、昇思AI开源框架,提供业界领先的大模型训练、推理能力,为大模型全流程创新提供坚实的自主创新算力底座。

此次科大讯飞与华为的合作是如何在算力底座的整体性上实现“1+1>2”的效果?刘庆峰介绍,“华为跟科大讯飞共同在昇腾AI的软硬件平台和软件的支撑工具上,把高算力AI芯片、高性能的算子库、多卡高速互联以及分布式存储结合起来,尤其是我们联合针对人工智能所需要的最重要的算子库进行甄别和打磨。然后在此基础上,架构科大讯飞的训练和数据闭环全流程设计,以及训练和推理一体化设计的自研大模型训练平台,中间是支持大规模的异构算力兼容,也支持混合云架构易拓展,使得我们今天所看到的讯飞星火V2.0的演示以及所有产品,架构在安全可控的平台上。”

坚实算力底座单卡算力对标英伟达A100

作为当前国产自主算力的代表作之一,华为昇腾平台的AI性能与能效处于行业顶尖水平。今年7月,在昇腾人工智能产业高峰论坛上,华为宣布昇腾AI集群全面升级,集群规模从4000卡集群扩展至16000卡,成为业界首个万卡AI集群,拥有更快的训练速度和30天以上的稳定训练周期。在算力基础设施方面,华为帮助科大讯飞、中国移动等有自建人工智能算力中心诉求的大型企业,构建独立的算力中心。

据悉,讯飞与华为联合推出的星火一体机,正是基于华为鲲鹏CPU和昇腾GPU,并联合华为存储和网络提供整机柜方案,可输出2.5 petaFLOPS的FP16算力。

《2022—2023中国人工智能计算力发展评估报告》显示,中国人工智能计算力保持快速增长,2022年智能算力规模为268 EFLOPS,预计到2026年将达到1271.4 EFLOPS。大模型需要算力、算法与数据积累的综合能力加持,现阶段,大模型对算力需求呈现爆发式增长。据了解,ChatGPT拥有的模型参数多达1750亿个,在训练阶段GPT-3.5总算力消耗约3640PF-days,需要7-8个投资规模30亿、算力500P的数据中心才能支撑运行。

AI基础软件创业公司九章云极董事长方磊曾对媒体表示,大模型收入来自算力分成,算力是企业必须花的钱,而帮客户在算力上省钱是模型厂商提供的价值之一。尽管如此,算力的获取并非易事,价格高、消耗大,且对高端AI芯片、集群及生态的依赖性强,这也解释了算力何以成为制约AI发展的“卡脖子”难题。

“大模型的研发过程,需要可以支撑千亿参数规模的大模型并行训练的算力和框架,还需要几千张卡同时连续运行。基于此,系统架构以及并行训练的集群能力成为国内大模型研发的关键。”刘庆峰表示,讯飞正和华为一道攻关算力“卡脖子”的问题。

据悉,科大讯飞拥有自研大模型训练平台,具备训练和数据闭环全流程设计、大模型训练和推理一体化设计、大规模异构算力兼容、支持混合云架构易拓展等优势。刘庆峰介绍,讯飞星火2.0从代码生成、代码补齐、代码纠错、代码解释、单元测试生成等5个维度,对代码能力进行升级。

根据OpenAI构建的代码能力公开测试集HumanEval,星火认知大模型V1.5 Python语言的效果只有41分,V2.0已经到了61分,接近ChatGPT。根据认知智能全国重点实验室构建的代码的真实的场景使用的测试集,讯飞星火2.0在代码生成和补齐维度已经超过了ChatGPT。根据计划,讯飞星火代码各维度的能力将在今年10月24日超越ChatGPT,明年上半年对标GPT-4。

华为则基于昇腾AI基础软硬件的高算力AI芯片、高性能算子库、多卡高速互联、分布式存储等优势,“平台的单卡算力已经可以对标英伟达A100,我们正在跟华为一道打造面向超大规模大模型的训练国产算力的集群,形成集群化的优势”。

近日,两家公司已启动AI存力底座的联合创新项目,共同开发面向AI大模型场景的最佳数据存储解决方案,为企业建立大型高效的私有化知识库提供智慧支撑。

垂直化、私有化——大模型的未来趋势

行业大模型是在通用大模型的基础上,结合自身所积累的行业 Know-how 进行微调,并结合行业化、场景化的数据与知识进一步训练,以提升场景化表现和可控性,已成为大模型赋能千行百业的基本模式。

据了解,目前国内大模型在金融、传媒、文旅、政务等领域的应用相对成熟。北京社科院研究员王鹏撰文称,“当前,我国产业正面临智能化转型,对于企业、机构而言,与人工智能深度融合,加入行业特色数据与知识、精准匹配真实应用场景的行业大模型能够极大地提升业务流程效率和水平,成为驱动产业转型升级的重要力量。”伦敦证券交易所全球战略客户技术总监诸赞松也表示,“垂直领域大模型未来将是一片蓝海。”

2022 年12月, 科大讯飞启动“1+N 认知智能大模型技术及应用”专项攻关,其中“1”指的是通用认知智能大模型平台,“N”指的是将认知智能大模型技术应用在教育、医疗、汽车、办公、工业、智能硬件等多个行业领域,并形成独具优势的行业专用模型。

以医疗领域为例,今年6月,基于星火认知大模型,讯飞医疗诊后康复管理平台全面升级,实现出院前后更人性化、更个性化的医疗全流程管理。据介绍,该平台落地的医院服务出院患者超60%,医生管理效率提升10倍,患者依从性提升2.4倍,出院患者随访率和咨询实时响应率达100%。而在金融领域,6月30日,科大讯飞和人保科技签订协议,推进大模型技术在金融垂直领域的应用。

提及大模型在金融等领域的应用,数据隐私安全是绕不过去的议题。传统通用大模型的训练语料来自公开数据,而在企业落地时,离不开企业私有数据的流动管理。诸赞松对媒体表示,金融领域大模型的构建方式比较特别,由于对数据安全的要求很高,现在普遍要求模型私有部署,即在加密环境中使用私有数据训练模型。另据了解,由于国内的央国企、大公司等在安全、合规、可控方面要求更高,在软件采购中常采用私有化部署模式。

记者了解到,私有化部署AI大模型需要考虑硬件和软件环境、模型部署、API集成、测试验证等多个方面,为了保证数据计算的安全可控,算力底座需要完全自主可控的知识产权,甚至需要100%的自研技术。除了安全保障,私有化大模型还可为企业提供高效的自定义服务,突破现有通用知识库的限制。

基于科大讯飞与华为技术的“双保险”,在星火一体机加持下,讯飞方面表示,公司将进一步面向包括央国企在内的行业客户提供业界领先、自主可控的私有化代码能力平台,助力行业客户数字化、智能化转型。

(文章来源:羊城晚报·羊城派)

关键词: