大模型应用落地:兴奋,问题和最终解

Estimated read time 1 min read

就在一年前的 11 月 30 日,ChatGPT 发布的夜里,一位软件创业者不禁感慨:「过去 20 年白干了,我感觉全部都可以丢掉。」

但技术的变化从来挡不住有人顺势而为地向前走。一年之后,已经有尝到大模型「甜头」的软件开发者「凡尔赛」起来:「做好了产品,客户不知道从哪就突然冒出来。」

上半年所有人的注意力都在关注大模型本身,下半年开始,第一批试水大模型应用的创业者,已经在各自的场景中迭代出了一些有效的路径。

从「不做大模型,我们是不是就被淘汰了」的 FOMO 情绪,到今天更多创业者转向更加纵深的行业 knowhow,大模型落实到应用已经开始越来越具体地呈现出一些方法,也呈现出一些清晰的问题。

最近,百度智能云联合极客公园 Founder Park 社区,集结了十数位在工具层、应用层进行了大模型应用落地的创业者,聚焦「AI 应用」进行了 5 个小时的深入交流。

与参会者合影

这可能是国内产业里第一次高度聚焦在大模型应用落地的产业聚会。可以明确的感受到,如果上半年大家的关注点在探讨下一个 10 年时代变革,那么现在已经开始聚焦到未来 18 个月的产业变化,甚至是未来 6 个月的产品和商业计划了。

面向未来的思考开始从远景拉起近景,这是国内大模型领域创新者们一个明显的变化。它体现了大模型技术的率先实践者们,从在岸上畅想或焦虑,已经下水「摸到了石头」,真正开始「过河」了。

01「有点意思」的进展

就像 ChatGPT 问世时,所有人诧异的反应,创业者到感受的冲击更甚。Cocos 引擎联合创始人&CEO 林顺袒露,「最初探索下来,有些担心『AGI 技术』可能会完全替代传统的游戏开发方式」。游戏开发,正是 Cocos 产品——游戏引擎聚焦的核心场景。「今年 3 月份,工程师已经可以直接用 ChatGPT,花 5、6 个小时写出一个 3D 版本贪吃蛇的游戏,不需要写任何一行代码。」

这样的场景看上去,「软件吞噬世界」正在让位于「AI 吞噬软件」。无论是 SaaS 厂商,还是 AI 厂商,都感受到了巨大的冲击。

但当创业者把大模型放在各自的产品里实践后,也达成了令人兴奋的共识:今天的大模型技术,远非面向所有人直接可用的程度,AGI 技术通向最终的应用场景,需要他们这样一群「线物流」来把大模型技术带到千行百业、千家万户

以 Cocos 所在的游戏开发行业来说,林顺发现,大模型让做出一个东西变得很简单,但游戏是工业和艺术结合的产品,只是做出来远远不够,更需要精细化,当前的大模型仅仅只可用作半自动化来辅助游戏开发。但用好这半自动化,做好大模型技术的工具链来服务客户做游戏开发,市场却有强烈的需求。在一些客户公司,他甚至听到:「如果不愿意用 Copilot 来编写代码,那么明天可以不用来上班了」。

门槛低了,客群也就广了

林顺表示,游戏领域用 AI 算法来做像自动关卡、自动内容、情感分析等功能,这些都不是新故事,但因为大模型的加入,让这些功能门槛降低了,更多人可以以更简单地方式参与进来

无独有偶,在数据分析领域的 Kyligence,也经历了类似的过程。Kyligence 联合创始人&CEO 韩卿称,「原先 Kyligence 产品主要专注在金融等领域的大客户,但把 AI 产品化后,现在能够接触到一些中小型客户,『意外地』拓展了客户群」。

过去,像数据仓库这样的底层产品,即便做得再好,也会有客户抱怨不好用,因为数据仓库离「业务」太远了,中间隔了 IT 团队。即便有了数据仓库,客户仍需要组建技术团队和数据团队把它往上做,变成一个平台、应用,业务人员才可以真正使用数据仓库。现在,依托自然语言理解的大模型技术让更多业务人员可以使用数据仓库的能力,尤其当把外挂知识库也放进去。

大模型让软件厂商拓宽客群、面向更广泛的群体。百度集团执行副总裁、百度智能云事业群总裁沈抖打比方称,大模型相比之前的 AI 技术,使得应用的底座更厚,假如过去技术到应用有 1 万米的距离,原来的 AI 技术可以助推到 1000 米,剩下的 9000 米靠定制化来完成。现在,足够通用的大模型直接助推到 7000 米的高度,剩下 3000 米靠行业力量。

也就是说,大模型让 AI 能力从 1000 米泛化到了 7000 米的高度,技术到应用的门槛大幅降低,这意味着不懂 AI 的各行各业的行业专家都能用这项技术解决问题,AI 应用未来极有可能变得更分散而不是更集中。

过去大半年,竹间智能帮不少客户落地大模型应用,其创始人&CEO 简仁贤在实践中获得了相通的思考。在他看来,模型微调是相对确定的市场需求,但难点在于:「技术人员要对客户业务的理解得很深刻,未来,商业分析师和数据分析师的人力需求将会增加,而不仅仅是编程或算法工程师。」

并且,简仁贤认为先落地大模型的玩家可能不是大客户,而是可以直接应用、使用的中小客户。大客户可能需要先搞清楚大模型技术、做私有化部署、开放源码等再落业务,而更轻巧灵活的中小客户,正在利用对业务理解的深度,率先转身。

不是没得做了,而是能做更多

也有人担心,从通用技术到最终目标距离的缩短,会压缩中间 SaaS 厂商的生存空间。即上游的平台跳过 SaaS 直接赋能最终客户,或者客户跳过 SaaS 自己开发大模型应用。

但经过半年的摸索,这种担忧逐渐减弱。对行业和场景的深刻理解,成为 SaaS 厂商在大模型时代的优势。今天落地大模型并不是只剩最后一公里的距离,而在倒数十公里,甚至更远的地方,SaaS 厂商很可能是基础大模型的「API 高铁」周边,重要的「AI 支线物流」体系,嵌入大模型的 SaaS 厂商不仅能帮助客户在过去数字化路线上降本增效,还延展了边界,向客户交付智能化价值。

一个很有意思的小场景是帮助客户选择合适的模型。今天市面上的大模型榜单,其实对帮助客户选择模型没什么意义,落到具体场景里评测才有意义。韩卿表示,Kyligence 的 AI 产品,不仅可以支持不同的大模型,还要会给模型做评测,从而能给出客户建议,在当前特定的客户场景下,客户用哪个大模型最合适。这核心体现 Kyligence 对其所在的数据指标平台领域,有足够的纵深理解,知道用什么样的数据集做何种评测框架。

「因为客户对模型的选择面太广了,没有一个好的工具、评测框架,试错成本挺高的」,他认为,重点是帮助业务用户进一步的降低使用 AI 的门槛,这是企业服务厂商的机会。

事实上,大模型的技术能力确实有解决具体现实世界商业问题的潜力,但想把潜力转化成真正能解决问题的工具,一个通用的 Chatbot 或者生成工具并不足够,这让垂直领域的 AI 应用和解决方案创业者看到了机会。

今年 AI+营销大火,特赞是这个领域的佼佼者,创始人&CEO 范凌分享,营销与 AI 的交集在内容,而内容是今天连接商品和消费者之间的重要媒介。

随着移动互联网的崛起,内容成为消费企业重要的营销资产,现在不少企业开始搭建「内容中台」,管理图、文、视频、3D 等不同的内容资产,但将这些资产转化为真正的生产力而不只是躺在数据库里的历史记录,是一个很大的难题。

而大模型出来以后,特赞意识到这是品牌内容资产价值进一步提升的机会。利用大模型可以对内容有更好的理解和分析,如:给内容打标签,给视频打脚本;也可以用大模型生成更多的内容。特赞的产品让消费企业可以更好的找到、匹配、使用和生成这些资产。更进一步,这背后意味着内容从一个个文件变成更细颗粒度的 token,品牌可以用来训自己的专有模型、构建自己的数据集,从而建立更强的内容增长能力。

技术迭代带来更多新机会

过去一年大模型技术快速迭代,AI 应用的可能性也在不断拓宽,其中特别值得关注的是多模态和智能体的技术进步。

OpenAI 发布 GPTs 以后,Agent(智能体)成为一个热点,而 Agent 的出现,有可能进一步缩短技术与最终用户之间的距离。清华系 AI 大模型创业公司面壁智能,近期正致力于开发其先进的 Agent 技术。联合创始人兼首席执行官李大海深谙今日人工智能尚未达到「外卖到家,直接送达顾客口中」的便捷程度。然而,他坚信 Agent 技术将大幅缩减这一「最后一公里」,有望将其精简至仅剩最后一百米。

李大海进一步阐述,AI Agent 发展潜力巨大,未来提升空间非常广阔。一方面是单体智能的优化,即如何让单一智能体更为高效地在各种场景中发挥效力。这不仅是对 Agent 功能层面的挑战,也深刻考验着底层模型的实力,归根结底,这是一个综合性进化过程。另一方面,则是群体智能的探索,面壁智能不久前推出的 ChatDev 项目,便是一个典型的群体协同实例。在这个项目中,不同智能体拥有各自职责、专业知识与认知视角。当它们协同工作时,往往能够比单一智能体产出更高效、更具创造性的结果。这种多智能体的协作,预示着智能体未来发展的重要方向。

另一个机会就是多模态,文字本质上是对知识的压缩,但要进一步影响真实世界,不论是上文提到的生成游戏资产、营销资产,还是识别机场、工厂等现实世界的空间,多模态都是关键的技术能力。

今年 3 月成立的 HiDream.ai 是一家专注于为设计师和相关行业的专业创作者提供工具和服务的创业公司,尤其在图片生成和视频生成领域,他们有自己的多模态大模型。创始人兼 CEO 梅涛院士分享了今天多模态领域的进展,他认为如果像自动驾驶一样将 AIGC 也分成 L1 到 L5,从人工参与比较多,到最后不需要人工参与,目前我们处于从 L2 到 L3 的阶段,换言之,我们正在从创意产生到工具替代的阶段。

这引申出一个很有意思的话题:多模态会不会被大语言模型颠覆?梅涛经常被问,他也问过很多公司,包括 DALL·E-3、Midjouney、还有很多其他的模型,基本目前视觉生产还是以 Diffusion Model 为主,未来趋势可能是会利用大语言模型对 Diffusion Model 增强,但最终生成图片和视频还是 Diffusion Model 更好,所以他并不担心会被替代。

02「有点头疼」的真问题

虽然在短短半年里取得了一些突破,但今天大模型技术还在快速演进之中,在这种涨潮的时候如何「赶海」,对创业者也提出了一系列的问题和挑战。

有意思的是,第一批大模型落地的实践者们倒没有太担心被模型能力升级覆盖的问题。他们最担心的反而是在技术的早期发展阶段:我们以为拿到了一个通用性很强的能力,但最后落地场景的时候都变成了定制;我们希望用智能创造价值,但最后发现人工却越来越重。

上一轮 AI 浪潮里,当阿尔法狗击败围棋世界冠军李世石、柯洁,人工智能所展现出的能力已经强大到令人惊讶。但企业真正将技术用到业务场景,去解决问题并尝试商业化时,却发现能够解决的场景太过碎片化,很多时候都是业务流程里的某一个环节,这就导致其很难标准化、规模化,最终变成 case by case 的去做定制,AI 视觉四小龙们无一例外都陷入到了这个泥潭。

没有人愿意重蹈覆辙变成「高级外包公司」,这个时候如何一上来就坚定地抱着把技术收敛成产品的目标,哪怕不是一上来就把市场规模放前面去思考,而是先看技术到底能收敛的解决什么问题,就成了一个大模型早期阶段实践的新原则。

微调的需求将持续扩大

活动当天,与会者们 60 次提到「微调(Tuning)」。同道猎聘集团董事会主席兼 CEO 戴科彬断言,今天开发应用「肯定要(对基础大模型)微调」。猎聘作为招聘平台,在线的产品都是标准化的,但即使这样也需要大量的「微调」。

比如,同样招产品经理,互联网公司招产品经理跟医药招产品经理是两回事,这里面要做的微调非常多。基本每个岗位会有两条垂直纵线,一个是岗位纵线、一个是行业纵线,行业里面的公司还有纵线。

此外真正落地到一些细分行业,只完成「大学通识教育」的大模型,依然存在能力不足的问题。比如在民航业,航旅纵横创始人 & CEO 薄满辉表示,大模型能力的加持可以用比目前 APP 交互更加自然、高效的模式解决用户获取民航出行信息的一些问题。但民航还有一些专有的信息是公域当中没有的,比如有些业内语言业外人士听起来跟天书差不多,但是在行业内有非常明确的含义,通用的大模型目前解决不了这个问题。

微调的需求似乎也成为了一个比较明确的趋势,即便在百度内部,文心一言持续迭代的前提下,百度文库也向百度智能云平台提出内部需求——需要能自己做持续调优(SFT)的工具,不断提升模型在百度文库这一特定场景的表现。这也说明未来 AI native 的应用,不是用一个静态的模型就能支撑的,需要支持它在模型侧有不断进化的能力。

算力优化需要更极致

当模型持续优化的需求,再加上更多创业者参与到多模态模型,算力优化成为相对迫切的显性需求。与会者阐述道,GPU 训练跟 CPU 不一样,CPU 宕机一台机器、两台机器,换新机器就可以奏效。但大模型对算力基础设施的要求一直是齐步走的状态,怎么保证算力能用起来,至关重要。

以无问芯穹为例,这是一家解决大模型的中间层软硬件协同优化问题的技术公司,CEO 夏立雪分享,很多场景验证下来,用了大模型的效果就是比不用好,比如在搜索、交互的时候,大模型技术让用户体验显著上升了,但问题是——账算不过来。

相比此前几轮浪潮,本轮 AI 技术呈现出鲜明的「大一统」趋势,各类模型结构趋向统一,这意味着算力优化有很大空间做深。「从模型直接打通到硬件,包括对模型本身计算结构,比如量化稀疏的改造,都能够适配足够大的应用场景」。依托整个中间层软件栈,无问芯穹有机会把大模型场景的所有硬件算力性能优化到极致,让单个 token 的计算成本降到最低,同时让更多中小企业可以触达大模型工作负载下的算力服务。

九章云极副总裁于建岗博士也看到了这一市场痛点,今年,大模型让客户使用算力的方式发生变化,九章云集 DataCanvas 从过去的 AI 基础软件,扩展到了算力层等更多的维度,包括 GPU Cloud 算力中心,和大模型落地的基础软件,像 tool Chain 或者说 app tooling 和 Finetune、Agent,以及 LLMOps 等工具。于建岗认为,帮助客户落地时,要给客户「开箱即用」的轻便体验,「通过 interactive Natural UI(NUI) based orchestration 来快速便捷实现业务流程」,重要的是让客户的数据飞轮转起来。

工具链条需要更茁壮

如前所述,把大模型落到不同场景、行业,要解决各种各样的具体业务问题,意味着要做大量的微调、定制、优化。「有时候我们团队感叹人工智能,人工是真的够重,现在这个阶段,其实耗费的人工特别的多。」一位做行业 SaaS 的嘉宾这样感叹道。

要减低技术和现实业务需求之间不小的 Gap,要提升解决这种 Gap 的效率,工具链条的完善也会非常重要。当下大模型赛道已经涌现出了一批做工具的企业,但另一个现实问题是:现阶段大家的需求太多元、技术迭代变化速度太快,工具没有办法收敛。做工具没人能赚到钱,以商业正循环的方式不断完善进步,大模型落地的效率也会受到影响。

Jina AI 联合创始人&CTO 王楠分享,他们在年初思考这个时代自己的定位时,就意识到目前还处在大模型时代非常早期的一个阶段,所有人都没有找到真正的 killer app,这个时候关键是怎么样赋能开发者快速的做产品迭代,这就意味着有很强的的工具需求。

做工具的起点是一个团队首先完成了一个项目,发现这个项目里面有一些经验是可以抽象出来。但在抽象的过程中很重要的是把经验抽象到哪一层——如果太通用,这个工具别人要拿去使用的时候还要做很多的定制化,就会导致「既然我都做了这么多定制化了,为什么还要用这个工具」;但也不能太具体,太具体的话就会挤在很小的群体里面。

大模型的技术迭代和需求变化非常快,这个度就很难把握。王楠举了一个例子,比如今年大火的 LangChain 刚出来时,当时还没有基于 Agent 的工具框架,只有专门针对 QA 做 chatbot(聊天机器人)的框架。Jina 早年和他们都是做模型推理的编排工作,但 Jina 团队判断 LangChain 做得太具体,这个市场(chatbot)没有那么大。而在 11 月 30 号(ChatGPT 发布)之后,chatbot 崛起,LangChain 快速起量,起步更早的 Jina 也就很快被超越。

相反,Jina 团队开发的另一个工具,辅助提示词生成的 PromptPerfect,他们观察到了大模型火了以后用户需要优化提示词,但却没想到这个需求能够坚持这么久,现在每天用户量还是很大的,给他们带来了稳定的收入。

要想避免应用工具的价值因为上下游的变化而消失,王楠分享了 Jina 的四个经验:

避免和模型过度绑定:底层模型升级换代非常快

避免过度优化:硬件主导的时代,底层技术栈的优化对于上层软件的优化是降维打击

聚焦不变的核心价值:节省开发者的时间

与上下游大范围的深度集成:把自己嵌入在开发者工具链生态之中

别找客户,而是找到最该去解决的问题

将 AI 技术落地到真实的商业世界还有一个必须面对的问题,大模型时代应用开发者普遍遇到的一大商业化困境,就是价格与价值的错位。极客公园创始人张鹏在现场听了不止一个创业者吐槽这个错位问题后,总结了一个被参会者集体认同的苦恼:「客户抱着让你解决登月问题的目标,但心理价位却是同城快递的预算。」

比如 Kyligence 有一个金融客户曾经做了第一次测试,写了几条结论,最后一条结论差点让韩卿「吐血」:与人类相比差距很大。可见现在客户对使用 AI 的认知差距还很大。

在众多大模型应用企业的反馈中可以看到,距离 AI 认知越远的客户,对 AI 的预期就越不容易切实际。这个时候客户主动上门充满热情的期待,很容易变成迅速的失望,创业这们也会因此浪费大量的成本和时间。

创业者们当然可以选择客户,甚至经过早期「进门都是客」的阶段,创业者们也学会了先识别潜在客户的 AI 认知水平,再「投入感情」的新流程。但期待客户都自己成为对 AI 懂行的专家肯定是不现实的,所以这反过来就会非常考验帮助大模型落地到场景中的企业,能否把 AI 的能力匹配到场景里的有效需求,还需要有能力在解决足够有价值的问题上获得商业的正循环。

有效、合理、匹配都是非常重要的,这时候客户是不是大公司和一把手是不是体现的很积极,可能都不是最重要的影响因素了。

沈抖也提到了一个现象:今天很多 API 调用都还是一些小学生的问题,用一个高中生来回答都已经绰绰有余,却在用大学生回答,成本就很高。最后算不过来帐,热情总会消失。开发者需要做的,是找到那些真正有价值的当下还无解的问题。

这样的问题是什么?沈抖举了一个真实的案例。一个蛋糕店的老板,每天需要计算自己做多少个蛋糕,如果卖不出去就只能扔掉。他要预测明天要生产出多少份蛋糕出来,既不错失商机又不浪费材料,但对他来说这是一个无解的问题。他没法自己写或者雇人写一个 linear regression(线性回归)的东西,把各种天气、效率、人流、温度等参数考虑进去然后建模来更科学地预测销量,但他的需求真实存在,他会愿意为此支付 100 块甚至更多。

开发者如果能在有限的调用次数内——也就是用不超过 100 块的成本给到他有效的结果,商业模式就是成立的。当然如果超过 100 块还解决不了这个问题,那这个问题就是商业层面的「无解」。

需求的复杂性,加上价值和价格的错配关系,决定了这个产业很难让一个企业端到端解决所有问题,即使强如 OpenAI 也不例外。而这背后引申出了一个非常有意思的话题:大模型产业急需一个集体协作,有效分工,并且可以一起赚钱的生态。

03 生态是「唯一」解 

九章云极副总裁于建岗博士认为,GPTs 出来之后,OpenAI 本质上就是做一个 iOS 的生态,而未来一定会有一个安卓生态。

像百度这样的大公司,手里拿着大模型的核心技术能力,当然有机会去构建生态。但在这次讨论里,也有不少创业者坦诚地说出自己的担心:生态能不能繁荣,平台边界在哪里也是个重要的问题。不然大家都会不知道自己位置,也没有足够的信心来一起协作解决问题。

一位创业者就在现场「Q」了一下百度。「之前我们融资的时候,大家经常会被问如果谷歌做这件事情你们怎么办?现在变成了百度、OpenAI 做这件事情你们怎么办,如果硬拼的话肯定是打不过的,你只能找到自己的一个点。」在他看来,今天大模型本身就是一个寒武纪的时代,这个生态里有各个位置,重要的是在里面找到自己的位置。

沈抖倒是回答地非常坦诚,他觉得当年互联网时代确实更接近零和博弈、赢者通吃;但到移动互联网时代,本身行业已经开始形成生态共赢的模式;到了今天的大模型时代,明确平台的边界和构建生态已经不是一个公司的选择问题,而是面对一个客观的产业逻辑时没有选择的必然。

「AI 能解决的问题更多,门槛却更低,即便平台想端到端地把事都做了,一个大公司能不能做到、公司基因符不符合千行百业都是必须考虑的问题。即使退一万步说能做,平台就算想把一个个行业,一个个价值层都做一遍,也要付出巨大的系统代价,这是不是一个科技公司真正想要的?」

沈抖觉得把所有应用都做一遍显然也高估了平台的力量。iOS 刚出来的时候苹果自己就做了一个日历、天气这种应用,但即使是 iOS 这么封闭的环境,这些也不是一统天下的 SuperApp,只是个系统必备功能而已。实际上想做成所有应用的可能性微乎其微。特别是一旦有上下游连接的应用,往往不是苹果轻松就能做的。

他觉得百度智能云其实更关注的是如何做好基础设施,在模型、算力、微调、以及工具链条的进步上,把这些关键问题的效率提升作为自己的核心关注点,做最大的投入和努力。

在当天的讨论里,所有人的共识都认为不论是创业公司,还是各个大平台,各家的力量都有不足,生态互补是必然的选择。但相比已经成熟的移动互联网生态体系,很显然大模型生态还处于一个早期甚至畅想中的阶段,大家都不知道彼此的边界。连接点就是脆弱的,就不能有效形成合力去落地AI能力。

出门问问创始人&CEO 李志飞在会上分享了一段非常有意思的故事:今年出门问问在开发自己的 AI 应用时,也涉及到要用很多不同模型的问题。虽然出门问问有自己的大模型,但他总是刻意一遍遍地质问开发团队:我们为什么一定要构建自己的大模型,而不是调用百度的或其他第三方的?

这其实也是在直抵一个根本问题:创业者需要推动团队不断思考,你真正的壁垒在哪里,即你为什么一定要拥有自己的模型?你要做有什么差异化的大模型?

这个问题的答案无外乎有几种:一是对于模型本身,用自己的速度更快、成本更低、且模型里有别人提供不了的 API;二是对于应用,自己的大模型可以更好地赋能自身应用,产品效果更好;三是模型与应用能形成数据飞轮。只有回答了这个问题,才能做出与其他基础大模型真正有差异化的东西。

李志飞说,有自己的模型能力固然好,但如果每个星期能够反反复复地拷问自己和团队这个问题,直到某一天问到了更明确的答案——在很多情况下都可以调用第三方的模型,只有真正不可或缺的一小部分需要用到自己的模型,最后反而会形成真正的产品和模型壁垒,而且从经营的角度更划算。

他的观点也引发了很多人的共鸣,对于今天很多客户动不动就是帮我训练一个本地部署的大模型这样的早期想法,显然不是一个可持续的商业模式。长期来看,这个领域的参与者,需要彼此知道自己的壁垒和边界,有合理的分工、协作,才能找到更多场景里商业效率和技术能力的甜蜜点。

零和思维下,不论是投资者还是一部分的创业者,永远担心自己被同行,被更大的平台吃掉。但今天大模型的环境已经证明:大模型技术落地产生真正的价值,还远远不是最后一公里的问题,而是 10 公里的问题。平台靠 API 打不了通关,创业者能做到从模型到应用「端到端」全能力的也凤毛麟角,即便做到了能不能算过账也是巨大考验。

这个领域已经逐渐可以看到明确的趋势,不会有人能够一家通吃,也很难有人独善其身,只有有效分工协作的生态才是打开 AI-native 未来的唯一正解。

「不像原来有一个独门绝技我不跟任何人分享。」沈抖最后总结道,「正是因为大模型从只能一千米现在送到了七八千米的高度,国内面向开发应用的群体,极有可能变得更分散而不是更集中。竞争起来难度太大,任何一个平台公司不可能只靠自己把后面的两三千米做完。」

在文章发出的前一天,恰好百度智能云在「智算大会」上做了新一轮产品升级,发布了百度百舸·AI 异构计算平台 3.0、百度智能云智算网络平台、百度智能云千帆 AppBuilder 和千帆平台的一系列升级,为构建 AI 原生应用进一步降低了基础设施门槛。从底层基础设施—大模型开发与应用—AI 原生应用开发等维度,百度智能云赋能更多伙伴参与到大模型的应用落地中,发挥生态伙伴各自的优势推动 AI 原生应用的生长。

推荐内容

+ There are no comments

Add yours