大模型“慢考虑形式”成大势所趋 360发布CoE架构提早卡位
2024-12-10 01:33:09 安博全站app

  中证网讯(记者傅苏颖)日前,OpenAI发布的o1-preview引发业界广泛重视。据悉,o1-preview的作业原理本质上是CoT(Chain-of-Thought,思想链)的自动化,把一个杂乱问题拆解成若干简略过程,然后有利于大模型处理杂乱的逻辑问题。o1选用的这种“慢考虑形式”,将使杂乱人工环节的自动化成为大势所趋。

  据悉,这种办法并非OpenAI创始,早在7月底的ISC.AI 2024大会上,360集团创始人周鸿祎就宣告,“用根据智能体的结构打造慢考虑体系,然后增强壮模型的慢考虑才能”,并屡次表达相似观念。一起,360发布的CoE(Collaboration-of-Experts,专家协同)技能架构及混合大模型,便是该办法的产品,该技能架构也已使用于多个产品中,比方360 AI查找、360 AI浏览器。

  值得一提的是,CoE架构并非只接入了一家公司的模型,而是由360牵头,百度、腾讯、阿里巴巴、智谱AI、Minimax、月之暗面等16家国内干流大模型厂商协作打造,现在已接入了这一些企业的54款大模型产品,未来预计会全量接入100多款大模型产品。

  一起,CoE技能架构不只接入了“大模型”,还接入了许多十亿乃至更小参数的专家模型,这使得总体系愈加智能。CoE架构在完成“让最强的模型答复最难的问题”的一起,还能在答复简略问题时调用更精准的“小模型”,在取得高质量答复的一起,节省推理资源、提高响应速度。

  业界人士表明,具有了底层技能创新的情况下,国内在做使用和产品层面的优势更大。一方面,360经过CoE技能架构,构建了国内首个大模型竞技渠道——模型竞技场(,现在现已入驻360 AI浏览器,成为国内大模型范畴的基础设施。在多模型协作形式下,用户可从16家国内干流大模型厂商的54款大模型中随意挑选3款大模型,进行多模型协作,以此达到比单个大模型答复问题好得多的作用。另一方面,CoE还成为了支撑360 AI查找的底层技能架构。