本文作者:博学多才

深度丨漩涡中的OpenAI和背后的商业化难题

博学多才 2023-12-12 126470

21世纪经济报道见习记者肖潇 记者冯恋阁 实习生赵灿畅 北京、广州报道

多轮反转,OpenAI的高层“宫斗”依然没有迎来最终结局。

外界对于这场纷争的讨论甚嚣尘上,有一种观点认为,核心分歧是OpenAI应加速商业化还是维持非营利状态。

红杉资本曾经为AI产业算了一笔账,根据当前AI企业的收入状况,结合过去在GPU、云服务等成本上的投入,AI产业每年至少还得挣1250亿美元才能回本。

商业化与否,对OpenAI来说也许是选择题,但对市场中的其他企业来说,似乎是一个必然选项。生成式AI狂飙一年,AI公司有哪些商业动作?效果又如何?

大模型应用大战打响

大模型的商业化在全面加速,从ChatGPT的步调就可看出。

今年2月,ChatGPT付费订阅版ChatGPT Plus正式上线,用户每月付20美元,可提前获得新功能和更快的响应速度,彼时离ChatGPT发布还不到三个月。据不完全统计,在之后的九个月里,山姆・奥特曼领导下的ChatGPT调整了3次API调用价格,上新了起码5个收费服务,可以说平均每个月都有商业动作,商业属性越来越强。

自ChatGPT打响第一枪,国外大公司在半年后,纷纷坐上商业牌桌。

21记者梳理海外12家AI公司的主要应用,发现大致有个人订阅、企业订阅、按量收费、积分收费四类商业化途径。

其中,主流的收费方案是个人订阅制,定价在每月9.9~30美元之间。C端用户花钱换来更好的使用体验,在互联网产品赛道上并不新鲜。对大模型应用来说,这意味着更多的上下文输入,更快的响应速度,和更新的知识库。

应用类型上,生成式AI通常作为辅助功能,嵌入原有业务,视为一项增值服务。举例来说,创意软件巨头Adobe就把Firely当作“P图神器”――得益于图像生成新图像,自动匹配透视、光影、风格的功能,Firely可以在Adobe Photoshop中改造原图。其收费模式也延续了Adobe全家桶的积分方案,使用AI作图时消耗点数,免费限额使用完后再付费购买额外点数。

小部分应用能拥有一个独立界面,典型例子有文生文的ChatGPT、文生图的Stable Diffusion。它们的商业化途径更多样,揽客人气来自高性能的头部大模型,能够做到“独此一家,别无分店”。

有意思的一点是个性化AI。个性化AI与ChatGPT 不同在更注重人格属性,更强调用户情感和参与度。比如,Meta AI提供了28个不同的AI聊天角色,每个角色都有一个基于真实偶像或明星的人设,月访问量居高不下的Character.AI、黑马公司Inflection AI都发力于情感价值。不过,三个应用目前都没有商业变现,Character.AI的创始人曾表示考虑推出付费订阅,并“不排除获得广告支持。”

天使投资人、人工智能领域专家郭涛向21记者分析,大模型应用还处于商业化早期阶段,很多盈利模式并不清晰,比如收费形式和定价区间。他认为,现在向C端开放应用,更多指向积累数据和用户群体,完善模型。而随着技术成熟度提高,商业化还会跟着提速。

难以复制的OpenAI之路

技术和资本升级并没有让商业化谜题的答案变清晰。

21记者整理数据发现,头部创业公司平均融资4轮左右,其中OpenAI的融资总额远超其他厂商――年初微软投掷10亿美元,随后A16Z、红杉资本等八家风投机构再投3亿美元。而单轮投资金额还在加码,今年6月,Inflection在最新一轮融资中筹集13亿美元。三个月后,亚马逊宣布向Anthropic投资12.5亿美元。

资本狂飙后,AI的商业效果可以用一地鸡毛形容。

在统计的7家创业公司中,只有OpenAI透露今年收入超过10亿美元,尚有盈利可能。风投公司Theory Ventures调查数据显示,在所有AIGC公司中,95%的公司年收入平均还不到500万美元,一些估值达到数亿美元的初创公司甚至还未有收入进账。

成本是大模型商业化的第一道坎。拿微软的Copilot来说,据媒体报道,内部人士透露,GitHub Copilot的每个用户每月会为微软带来超过20美元的亏损,甚至部分用户每月成本高达80美元。GitHub前任首席执行官之后否认了GitHub Copilot的亏损情况,但没有回应GitHub的成本问题。

硅基智能科技有限公司CEO司马华鹏认为,大模型应用的主要成本有四:一是大模型本身的训练成本,二是模型被调用推理的成本,三是训练数据收集、清洗的成本,第四则是投入应用的获客成本。

对于只调取预训练模型、消耗推理算力的AI应用厂商来说,成本是相对可控的。郭涛指出,调用大模型的成本现在被快速降低了,对普通用户和开发者,成本甚至可以接近于零。但问题在于,对于研发大模型的大厂玩家,用户每交互一次都会产生对应的一次运算成本,似乎很难带来规模效应――也就是说,尽管规模变大,成本却很难摊薄。

国盛证券今年2月的研究显示,按照ChatGPT当时的每日访客数量计算,需要3万多片英伟达的A100 GPU支撑运营,初始投入成本约为8亿美元,每日电费在5万美元左右。如此算下来,ChatGPT生成一条信息的成本约1.3美分,是传统搜索引擎的三到四倍。

那么,能借鉴OpenAI的创收方法吗?受访专家向21记者表示,OpenAI的商业路径难以复制。

OpenAI的发展大致可以分为三个阶段。首先,2015年到2019年,不考虑商业变现,专心技术探索;第二阶段,转向更有商业价值的大型语言模型(LLM),推出免费产品ChatGPT,短期内占领大量C端用户;今年开始,C端用户在交互中帮助训练大模型,OpenAI依此降低运算成本和寻找付费需求,稳固市场。

OpenAI的答卷没法照抄,一方面是因为,ChatGPT属于第一家跑出来的大模型,有很长时间可以培育用户和市场,但现在大模型本身的竞争已经非常激烈。此外,个人强需求的场景很少,用户愿意付费的场景也很少,尤其是国内C端没有很好的付费习惯。“竞争这么激烈,如果没有自己的核心优势,一旦收费,很多C端用户就会转用其他竞争对手的产品。”郭涛表示。

可以说,成本高昂、需求不足、行业竞争激烈,都是大模型商业落地的难题。

深度丨漩涡中的OpenAI和背后的商业化难题

创造价值或成胜负手 

生成式人工智能技术为AI扩大了商业化应用的想象空间,但当下,还不存在某一条路径可以成为通行的行业范本。

深耕B端还是发力C端,身在市场中的探索者并不容易得到答案。

在我国,有观点认为大模型B端将孕育出更广阔的应用市场。浦银国际证券认为,不同于传统C端消费互联网,B端产业互联网才是大模型的主战场。

“走向B端是当前产业生态下的必经之路。”郭涛指出,许多开发大模型的企业本身就积累了大量B端企业用户,在原有客户的基础上做相应的服务延伸,是比较高效的方式。而且,目前大模型应用按模块收费,营销、数据分析等服务没有太大的技术壁垒。企业在研发通用大模型后,在垂直细分领域做适度的数据训练即可。

然而,B端的美好图景并不适合所有人。与行业融合渐深的另一面,是大模型企业面对定制化服务无法规避的人力和资金成本升高问题。 

在司马华鹏看来,发力B端是谋生或过冬的手段。生成式AI时代的“新秀”,如ChatGPT 、Midjourney等都是通过C端入手。“生成式AI给人工智能技术应用开放了一个新的海域,全球都是市场,C端还是有很大空间的。”他指出。

国内,百模大战愈演愈烈;海外,OpenAI团队因价值取向不同,已经上演多轮分裂与融合的戏码,生成式人工智能的商业化之路逐渐走深。ChatGPT石破天惊地出场一年后,寻找用户需求和产品的价值点,已经代替技术研发成为当下最重要的问题。

郭涛认为,抓住强需求的场景是第一要义,商业化要依托企业的生态体系。具体到领域上,他指出,短期来看,医疗、金融、教育等传统领域可以乘上东风。这些行业提升空间大,动力强,需要AI应用帮忙提升效率和改变传统的交易习惯;在使用成本方面,行业本身盈利较好,有资本改造升级。

司马华鹏也表示,寻找和利用相应技术的价值点是未来工作的核心,需要发掘产品投入市场实践后,能够为用户带来怎样的价值。另外,还应注意在打造产品的过程中尽可能保证模式的可持续和可复制,实现技术的“自动化”。

“最终还是要考虑开发产品的ROI(投资回报率)如何。”司马华鹏坦言。

英伟达CEO黄仁勋在现身微软Ignite全球技术大会时,表示生成式AI的出现是计算机界“过去40年从未发生的大事”。而对于这件从未发生的大事,他如此表达自己的期待:“生成式AI是计算历史上最重要的平台转型,也将成为最大的一次总目标市场扩张。”

阅读