存安全风险、准确判别能力弱……金融大模型研发挑战重重


(相关资料图)

“金融行业作为人工智能应用要求高、场景丰富,是大模型技术和算法突破的沃土。今天发布金融大模型,体现了你们在这方面的技术积累,我也十分期待你们在未来推动大模型应用在金融领域的探索和实践,从而带动和加速金融数字化和智能化的发展。”中国工程院院士倪光南在8月28日召开的金融大模型发展论坛上,与谭建荣、孙茂松和杨新民院士及100多家金融机构共同探讨金融大模型的未来。

“今年年初的ChatGPT,我们感觉到无所不能,但是坦诚讲,在工业领域、金融领域,大模型还有四个关键的难题。”马上消费首席信息官蒋宁表示,大模型目前还面临关键性任务和动态适应性、个性化要求和隐私保护、群体智能与安全可信和基础设施的能力四大难题。

蒋宁举例表示,生成式大模型面临的一大困难是即使自身满腹经纶,但回答错了可以不承担风险,它不能做解释,而金融大模型最主要的模型叫做判别性,它需要做决策。金融大模型和传统大模型最大的区别是绝对不能出错,1%的错都会造成生命、财产的损失。

关于安全的风险,中国工程院院士、浙江大学求是特聘教授谭建荣举了个例子,北京老太太接到远在美国的孙子打来的视频电话,图像、声音都是孙子的,结果却被诈骗了,因此他说“人工智能时代,眼看的不一定是事实,大家要提高警惕”。

而应对AI风险方面,全国政协委员、国际系统与控制科学院院士、重庆国家应用数学中心主任杨新民院士表示,随着大模型的开放开源,深度合成技术的非法使用存在加速积聚的风险。

欧洲科学院外籍院士、清华大学人工智能研究院常务副院长孙茂松认为,“大模型的基本定位还是智力劳动者的助手,它不会把一个行业整体取代。生成式人工智能的特点,它一定会出错。因为通用大模型对文本语言比较重视,对数字其实不敏感,所以ChatGPT有时候经常乱说,而金融数据很多都是结构化知识图谱,所以大模型在金融领域有很多挑战。”

针对提升大模型应用的可信实践,中国信息通信研究院副总工程师王爱华表示,“可信人工智能实践的路径逐步清晰。人工智能发挥作用越大,它对于安全可信的要求也是越高的。当从业者自身把安全和一些问题作为发展第一要务的时候,说明这个技术在整个领域会进行应用。”

论坛上,全国首个零售金融大模型“天镜”发布,聚焦汇集智慧、唤醒知识、众创价值、数字分身四大应用场景,推动金融机构高质量发展。基于此,中国信通院、重庆国家应用数学中心和马上消费牵头发起,阿里云、百行征信、北京火山引擎科技有限公司、中关村科金、毕马威、复旦大学金融科技研究院、朴道征信、腾讯云、中国科学院自动化研究所等联合倡议发起的“金融大模型可信安全验证与联合创新行动计划”。

"

(文章来源:国际金融报)

关键词: