近日,阿里巴巴集团联合发布了《大模型技术发展及治理实践报告》,揭示了AI技术快速发展背后所面临的治理与安全挑战。该报告发布之际,正值全球AI大模型领域竞争日益激烈,ChatGPT引发的热潮使得AI技术成为全球关注的焦点。
据统计,截至2023年6月底,全球AI企业数量已达到3.6万家,其中美国以1.3万家企业占据33.6%的市场份额,而中国则以5734家企业位列第二,占全球总数的16%。更令人瞩目的是,中国已完成备案并对外服务的AI大模型数量超过270个,总注册账户数突破了13亿大关。
在国内,北京作为AI大模型产业的领头羊,其表现尤为突出。北京市互联网信息办公室副主任潘锋介绍,今年以来,北京已推进第八批、第九批生成式人工智能大模型备案并上线,备案大模型数量达到105个。这些头部大模型企业不仅占据了全国一半以上的市场份额,还赋能了超过1.4万家企业,展现出强大的辐射带动作用。
然而,随着AI大模型技术能力的不断突破和模型性能的提升,其安全风险及安全治理问题也日益凸显。如何对大模型进行有效治理,确保其始终处于人类控制之下,降低安全风险,更好地服务人类发展,已成为全球共识。潘锋指出,当前AI行业“百模大战”竞争激烈,但真正有竞争力的模型并不多,不少企业尚未找到可持续的商业模式,面临生存压力。同时,在自动驾驶、办公、教育、医疗等垂直领域,AI大模型的潜能尚未完全释放,面临内生安全不足、原生程度不足、重生能力不足等多重挑战。
针对这些问题,阿里巴巴集团作为国内领先的AI和云服务商,不仅提供了通义大模型,还持续建立安全架构,投入大量资源建设AI算力基础设施。据阿里巴巴集团副总裁、阿里安全总裁钱磊透露,过去一年,阿里坚持云和AI协同发展,“通义千问”API调用价格大幅下降97%,已有30多万家企业接入通义大模型。在开源层面,阿里自研的“通义”开源模型在Hugging Face社区上衍生模型数量已突破8万个,阿里AI模型社区“魔搭”则提供了超过15000个优质AI模型,汇聚了600万AI开发者,累计下载量超过1亿次。
报告中特别提到,大模型的安全问题一直是学术界和工业界关注的焦点。为了提升大模型的安全性,常见的技术手段包括内生安全技术和外层护栏技术。然而,这两类技术都存在各自的缺陷。内生安全技术如安全微调(SFT)和基于人类反馈的安全对齐(RLHF)等,主要依赖数据驱动的方法,往往导致过拟合,且可能牺牲模型的通用能力。而外层护栏技术则可能因无差异化拦截策略而影响用户体验。因此,报告提出了一个新的概念:宪法人工智能(Constitutional AI)。该技术通过人为设定宪法准则,对模型进行微调和强化学习,使模型与宪法准则对齐,从而减少人工监督的工作量。
中国电子技术标准化研究院副院长范科峰表示,在AI时代,发展与安全是相辅相成的。AI安全标准化工作既是AI安全治理的重要支撑,也是推动技术健康发展的基本保证。未来,AI技术的发展与治理需要更加广泛、紧密的协作与配合,以应对日益复杂的挑战。