网络服务

字节“扣子”加入AI战场,2024大模型能搞到钱吗?

来源:搜狐    作者:      2024年02月04日 14:34

导语:2月1日,此前在大模型领域一直保持“静默”状态的字节跳动终于有了新动作,其上线了“Coze扣子”AI Bot开发平台。

岁末年终,大模型厂商们又秀了一波“肌肉”。

2月1日,此前在大模型领域一直保持“静默”状态的字节跳动终于有了新动作,其上线了“Coze扣子”AI Bot开发平台;与过往聊天机器人的形式不同,“扣子”更像是2023年11月Open AI发布的GPTs,可以让用户通过聊天、调用插件等方式,创建个人定制版Bot,实现“0代码”开发。

除了字节下场外,猎豹移动CEO傅盛创立的猎户星空也在1月21日发布了自己的大模型Orion-14B;傅盛强调,在企业应用场景中,猎户星空大模型在结合企业私有数据和应用时,即可实现千亿参数级别的模型效果。

而诸如科大讯飞、三六零等在2023年就第一时间抢滩大模型的厂商,如今则正迅速迭代;前者在近日发布了星火大模型V3.5,后者则上线了大模型搜索App“360 AI搜索”。

就在不久之前,手机厂商也纷纷涌入了大模型赛道。1月10日,荣耀发布了自研的70亿参数端侧AI大模型“魔法大模型”,自此,华为、小米、OPPO、vivo、荣耀五家国产主流手机厂商在大模型领域齐聚。同时,大洋彼岸的苹果据传也正在测试在iOS 18中引入生成式AI功能。

“百模大战”似乎并没有随着时间的流逝而偃旗息鼓,反而是愈演愈烈。厂商们如今都打着怎样的算盘?2024年的大模型赛道会迎来新的重大变革吗?


01 大厂涌入,赛道拥挤

ChatGPT的出现并非毫无征兆。

创造它的OpenAI早在2015年便已成立,并在2018年就推出了初代生成式预训练模型GPT-1,这也是ChatGPT最初的原型。

在此之前,业内的NLP模型(自然语言处理)主要是基于针对特定任务的大量标注数据进行训练,能力有限。

GPT在自然语言推理、问答任务和常识推理等方面取得了突破,为此它也获得了微软10亿美元投资。随后,从GPT-1到GPT-2,到GPT-3,短短2年时间里GPT的能力不断提高。

2022年11月27日,随着由GPT-3.5修改而来的人工智能对话聊天机器人ChatGPT的推出,这个一直在小圈子走红的研究成果,才第一次为大众所认识。能聊天、画画、写文案、编代码,强大的功能,使得ChatGPT一经发布迅速走红,5天时间注册用户数超过百万,两个月时间月活突破1亿,成为史上增长最快的消费者应用。

消息传至国内,一石激起千层浪。人工智能竟然已经发展到如此地步了?震惊之下,淘宝上售卖ChatGPT账号甚至都成了一门生意。与此同时,看到巨大商机的各界大佬们,也纷纷下场,表态要尽快推出自己的大模型。

从2023年的3月到9月,各个互联网大厂在该赛道争先卡位。从百度的大语言模型“文心一言”、360的智脑大模型,到阿里巴巴的“通义千问”大模型、科大讯飞的星火大模型,再到腾讯的混元大模型,国内传统的三大互联网巨头“BAT”悉数下场。

此外,华为、京东、商汤科技、网易有道、昆仑万维(300418.SZ)等等都陆续推出了大模型产品,甚至连移动、联通、电信三大运营商,长虹等家电生产企业,清华、复旦、中科院等科研院所和高校,都发布了各自的大模型。

2023年5月的中关村论坛上,专家口中中国“10亿级参数规模以上”大模型的发布数量尚为79个;而据GitHub的统计数据,到2023年底国内已经发布的大语言模型接近300个。“百模大战”早已不是虚言。

不过相比当初外卖界的“百团大战”,“百模大战”对资金的需求更为苛刻。

根据NVIDIA官方信息,在训练底层模型阶段,训练一次1750亿参数的GPT-3需要34天、使用1024张A100 GPU芯片,而为了维持日常推理,OpenAI至少需要3.24万张A100;以此推算,ChatGPT仅硬件成本就超过了8亿美元。

昆仑万维集团CEO方汉更是公开表示,“没有2000张A100的卡,实验都做不了”。为此,海天瑞声、因赛集团等“AI概念股”甚至接连发布定增预案,募集资金用于训练大模型。

此时,如何在缩小与ChatGPT差距的同时,尽快找到应用落地的方向,并实现自我造血,成为了“百模大战”中,每一位参与者都要面对的问题。


02 大模型,有何应用场景?

从商业角度分析,大模型带来的机遇,可以概括为成本减少效率提升、原有市场需求再扩大、创造新的市场需求三大类。

大模型超强的人机对话、图文及音视频生成能力,不但让其在传统客服场景中获得了广泛应用,对于游戏、影视制作等也产生了深远影响。

阿里、美团的在线智能客服算法,以及中国移动的“九天大模型”、中国电信的TeleChat大模型等,都属于此类产品,将应用场景直接锁定在了智能客服、智慧政务等方面。在2023年的亚运会上,科大讯飞与中国移动联合推出了基于星火大模型的5G新通话,接完电话之后,申请服务,会即刻转成文字、生成纪要、生成待办事项。

游戏、影视制作方面,导演陆川曾在采访时表示,“用AI画电影海报,15秒出来的效果比专业海报公司做一个月的还要好。”

原有市场需求再扩大,则体现在对于传统业务的升级上,这也是大模型应用最广泛的领域。

以传统的搜索引擎为例,接入文心一言后,在百度搜索框里输入问题,给出的可以不再是链接,而是一个更确定的答案。以此为基础,百度地图、网盘、文库等应用都能通过接入大模型进行重构。

旗下业务众多的腾讯,对腾讯云、腾讯广告、腾讯游戏、腾讯会议等多个业务和产品,也已完成了接入腾讯混元大模型的测试,并取得了初步效果。

此外,在传统的教育、医疗、汽车等领域,大模型也获得了广泛的应用。

接入讯飞星火大模型后,科大讯飞的学习机实现了AI一对一辅助教学、中英文作文批改、口语陪练等功能;百度推出了产业级的医疗行业大模型“灵医”;华为云盘古大模型的赋能,则让问界新M7在智能驾驶领域“遥遥领先”,两个月大定突破10万台。

在创造新的市场需求方面,AI超级助理、AI机器人等需求也被不断创造出来。前者,包括文心一言、讯飞星火、通义千问等在内的各家通用大模型都有相应产品,它们大都能理解用户的语言语义,并具备图像理解能力,可以通过调用软件API,使用各种各样的工具来帮助用户完成任务;而后者则已有包括优必选、追觅、宇树在内的不少于 10 家机器人企业,展出过相关产品。

不过,在一片欣欣向荣背后,也存在隐忧。比照各家大模型的应用不难发现,不管是提高效率还是扩大需求,市场上绝大多数的应用,实现的功能都较为雷同。

以AI学习机为例,除了科大讯飞有相关产品外,接入子曰大模型的网易有道、接入MathGPT的好未来、接入银河大模型的作业帮,以及接入文心一言的百度、接入360智脑的360,都有类似的产品在售。功能方面,各自宣传的也都大同小异,AI一对一辅导、全科AI作业助手、虚拟人口语教练等,站在消费者的角度,几乎很难体会到其中的差别。

尽管各家都能拿出一堆的排名榜单来论证,自己的大模型得分更高、能力更强;但体现在实际应用中时,那百分之几甚至是千分之几的差别,还是让人不得不产生疑惑:我们真的需要这么多大模型吗?


03 2024会出现“杀手级应用”吗?

尽管市场中的大模型让人眼花缭乱,但行业对大模型发展的趋势还是形成了一定的共识。

百度创始人李彦宏就曾表示:“人类进入AI时代的标志,不是产生很多的大模型,而是产生很多的AI原生应用。”360创始人周鸿祎也在今年年初谈及大模型发展趋势时称,2024年将成为大模型应用场景之年,会出现“杀手级应用”。

这也意味着,大模型与C端用户的距离会越来越近。

字节的“扣子”平台就是一个例子。据“趣解商业”了解,其有着无限拓展的能力集,用户可以通过添加插件的方式,来不断强化自定义Bot的能力;此外,用户还能将本地文件上传到Bot的知识库中,供其学习;创建出来的机器人,还能部署在不同的社交平台和应用程序上。

这等于是给用户提供了自己开发聊天机器人的机会,让更多人能参与到AI生态的建设中。

与此同时,大模型也正在经历软件、硬件一体化协同的过程。

在这方面,智能手机厂商无疑是业界的代表。据“趣解商业”不完全统计,在国产智能手机中,目前华为Mate60 Pro、小米14 Pro、vivo X100系列、OPPO Find X7系列、荣耀Magic6系列等手机都已搭载大模型。

这些大模型除了能让AI助手变得更为智能外,还有一个重点的应用领域是手机相册。原来想消除照片中的其他游客,只能用PS,且考验手法和技术;现在直接应用AI抹除功能,就能一步到位且几乎没有破绽。

类似的还有美图公司(1357.HK)自研的AI视觉大模型“奇想智能”。其已与三星达成合作,用户可以在Galaxy S24系列手机上体验AI图像编辑功能;不仅可以“智能p图”,还能通过用户给出的图片进一步生成“AI画风”。

与手机对标的场景是PC(电脑)。1月,联想已经发布了AIPC产品,其在内嵌大模型后,有更强的算力支撑能力、人机交互更为智能、应用生态也更加开放。

而金山办公(688111.SH)推出的WPS AI就是可以在PC平台上应用的软件产品。其将重点放在了智能文档上,可以帮用户轻松创作办公所需的文本、PPT,还能自主消化PDF等文件资料,并解答有关这些资料的问题。

此外,教育也是一个重要的应用场景。科大讯飞、好未来、作业帮、网易有道等厂商都将大模型融入AI学习机中,教育类学习平板电脑的销量更是在2023年直线上升。而且基于产品的迭代,学习平板的价格还在不断走高。

深度科技研究院院长张孝荣认为,大模型未来可能会朝专业化与个性化、低门槛化的方向发展。模型的功能会更加细分,针对特定领域或特定需求进行优化;同时通过提供更友好的界面和更便捷的接口,降低使用难度,让更多的人参与到基于大模型的开发和研究中。

而且由于算力所限,大模型可能更多地部署在云端和边缘端;这样可以降低计算资源和存储资源的消耗,提高模型的响应速度和可用性。

但无论是哪种趋势,都要与实际成本相结合;否则只是一味投入,显然难以为继。

三六零(601360.SH)在2023年上半年,尽管新兴业务“360智脑”创造了近2000万元营收,但在9.1亿元的总收入中,占比不过2.1%。

科大讯飞(002230.SZ)2023年预计扣非净利润同比下降71%-81%,主要原因就与公司在自主可控平台上加大认知大模型研发投入有关。

除此之外,如何让用户更好地理解大模型的决策过程和结果,提高其信任度,也是一个关键的问题。


04 中外大模型差距在哪?

国内大模型产业如火如荼,美国则更甚。根据《中国人工智能大模型地图研究报告》,全球累计发布的大模型中,中美两国大模型数量占近80%。早在2023年5月,美国10亿级参数规模以上的基础大模型就已突破100个。

除了广为人知的ChatGPT外,美国具有代表性的通用大模型公司还包括Anthropic、Cohere以及Google等。

其中,Anthropic被称为“OpenAI劲敌”。其研发的聊天机器人Claude能一次性总结约7.5万个单词,比ChatGPT更适合处理长对话和内容、对大量文档进行深入分析,而且具备更快的平均响应时间。

Cohere的特点则是其差异化的定位。不同于OpenAI,其坚定选择了toB路线,提供灵活性存储和资料隐私保护路径,强调安全性、隐私及定制化服务。

至于Google,最新的情况是推出了AI模型Gemini,特点是多模态处理和对复杂逻辑的理解能力。在行业标准MMLU(多任务语言理解)基准测试中,Gemini是唯一一个成绩超越人类专家测试结果的AI模型。

北京市社会科学院研究员王鹏认为,中美大模型的差别主要体现在融资水平、基础大模型发展水平和应用层发展水平三个方面。

据不完全统计,2023年上半年,美国AIGC一级市场中,硅谷在人工智能领域融资总金额约140亿美元,占世界总融资金额的55%,平均轮次融资金额为3.3亿美元。同期国内人工智能领域则要谨慎得多,投资事件数量同比下降49%,涉及总金额61.74亿元,同比下降62%。

而在基础大模型发展水平方面,国内大模型还存在数据总量缺乏、算力资源缺乏、场景渗透率有限等问题。毕竟从公开数据量上看,英文数据本身占主导优势,美国还在采取多种方式限制中国获取算力的核心资源。

至于应用层方面,中国同样处于跟随状态;其中在办公、金融及医疗领域落后美国较为明显。

针对众多国内厂商都有宣称自家大模型已经超越GPT-4的情况,张孝荣认为:“从理论上说,某些厂商有可能在局部领先于GPT4,但考虑到双方在算法、算力和数据资源等方面的投入,国内模型全面超越GPT4的可能性比较小。”

在他看来,需要正视国内外大模型的差距,这涉及到技术、人才、资金等各方面的因素。

好消息是,中国有着超大的市场规模以及丰富的应用场景,为大模型的落地应用提供了广阔的空间和条件。而且越多的数据、场景,越能让大模型更实用。这让中国在底层研发技术上略逊于美国的情况下,依然具备赶超美国的机会。

但无论中国还是美国,在大模型这条赛道上都还有很多难题待解。最典型的就是输出结果可信性不足、稳定性不强、以及安全性等问题。

对于人和AI来说,这都将是一个长期的学习过程。


(文章为作者独立观点,不代表艾瑞网立场)
  • 合作伙伴

  • 官方微信
    官方微信

    新浪微博
    邮件订阅
    第一时间获取最新行业数据、研究成果、产业报告、活动峰会等信息。
     关于艾瑞| 业务体系| 加入艾瑞| 服务声明| 信息反馈| 联系我们| 合作伙伴| 友情链接

Copyright© 沪公网安备 31010402000581号沪ICP备15021772号-10

扫一扫,或长按识别二维码

关注艾瑞网官方微信公众号