李彦宏探讨大规模模型:媒体今日惊艳发布,明日史诗级升级,何处应用?(说一说李彦宏)

三言科技消息 7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议(以下简称为WAIC)在上海举行。在当天下午的产业发展主论坛上,百度创始人兼CEO李彦宏发表演讲。

李彦宏认为,大多数的应用场景,开源模型并不适用,当处在一个激烈竞争的市场环境中,需要让自己的业务效率比同行更高,成本更低,这个时候商业化的闭源模型是最能打的。

李彦宏还发表了主要观点:如果缺乏实际应用,即使拥有强大的基础模型,无论是开源还是闭源,都将毫无意义。

他还提及了国内媒体对大模型描述的“震惊体标题”:

“我看到我们的媒体仍然是把主要的关注点放在了基础模型身上,一天到晚就是跑分,刷榜,谁谁谁又超越GPT4了,openAI又出来sora了,又出来GPT4o了等等。今天这个震撼发布,明天那个史诗级更新,但是我要问,应用在哪里?谁从中获益了?”

以下为演讲实录:

李彦宏:各位下午好,非常高兴再次来到上海参加世界人工智能大会,我是这个会议的常客了。去年因为出国没有来。所以我上一次来参加WAIC是2022年,我记得那年大会的主题是元宇宙,主办方也跟我讲,希望我讲一讲元宇宙,我说我还是讲AI吧,我讲不了元宇宙,所以我当时讲的主题是AIGC,就是AI Generated Content (Artificial Intelligence Generated Content)。我认为AI的技术发展路线,发生了方向性的改变,就是从过去的辨别式人工智能,转向了未来的生成式人工智能。

在2022年的夏天,说这番话之后,经过了5个月,大家都知道,ChatGPT发布了。随后发生的事情更加清晰,两年过去了,仿佛经历了一场变革,整个世界都焕然一新,人工智能可以说颠覆了绝大多数人的认知。

2023年国内出现了百模大战,各大科技公司纷纷推出了自己的大型语言模型进行市场竞争。这场竞争导致了社会资源的巨大浪费,尤其是在计算能力方面的浪费,因为为了训练和优化这些模型,投入了大量的计算资源和能源消耗。然而,这场激烈的竞争也推动了技术的进步,使得我们在追赶世界上最先进的基础模型方面积累了宝贵的经验和技术能力,为未来的技术发展奠定了基础。

去年十月,我宣布文心4.0发布的时候说,文心4.0的能力与GPT-4相比毫不逊色,许多同行仍持怀疑态度。如今大家可以看到,国内已有多款闭源模型声称它们已追平甚至超越了GPT-4的水平。

注意,我们说的是闭源大模型,不是开源大模型,这也是今年以来争议比较多的一个话题。有些外行甚至混淆了模型开源和代码开源这两个概念。

所谓模型开源,是拿到的只是一大堆参数,你还是要去做SFT,还是要去做安全对齐,你不知道这些参数是怎么来的,你是无法做到众人拾柴火焰高的。即使你拿到对应的源代码,你也不知道他用了多少数据,用了什么比例的数据去训练这些参数。所以拿到这些东西,并不能够让你站在巨人的肩膀上去迭代和开发。

因此,在相同的参数规模下,闭源模型的性能比开源模型更优。如果开源模型希望达到闭源模型的水平,就需要更大的参数规模,这意味着推理成本会更高,反应速度会更慢。

很多人拿开源模型来改款,以为这样可以更好的服务自己的个性化应用,殊不知,这样你就创造了一个孤本模型,既无法从基础模型持续升级当中获益,也没办法跟别人去共享算力。

当然,我也承认开源模型在某些场景下是有自身价值的。比如说一些学术研究,或者在教学领域,大家想要研究大模型的工作机制,形成理论,这个时候可能是有价值的,因为大家也经常听到,我们觉得大模型能力很强,但是不知道为什么能力强,因为背后没有理论来支持它,所以研究这个东西,用开源的我觉得没问题。

但是,大多数的应用场景,开源模型并不适合,当你处在一个激烈竞争的市场环境中,你需要让自己的业务效率比同行更高,成本更低,这个时候商业化的闭源模型是最能胜任的。

当然,这些都不是最重要的,没有应用,光有基础模型,不管是开源还是闭源都一文不值。

所以,我从去年下半年开始讲,大家不要卷模型了,要去卷应用。但是我看到我们的媒体仍然把主要的关注点放在基础模型上,一天到晚就是跑分,刷榜,谁谁谁又超越GPT4了,openAI又出来sora了,又出来GPT4o了等等。今天这个震撼发布,明天那个史诗级更新,但是我要问,应用在哪里?谁从中获益了?

应用其实离我们并不遥远,基于基础模型的应用在各行各业、各个领域都已经开始了逐步的渗透,两个多月前,我们宣布文心大模型的日调用量超过了2亿,最近,文心的日均调用量超过了5亿!

仅仅两个多月的时间,调用量发生了这么大的变化,足见它背后代表了真实的需求,是有人在使用,是有人真的从大模型当中获益了,得到了价值。

比如在快递领域,让大模型帮助处理订单,实现了“一张图、一句话寄快递”,无需其他复杂的流程,时间从3分钟缩短到19秒。而且90%以上的售后问题也由大模型解决,效率提升非常显著。

再比如在小说创作领域,一开始也使用了开源模型制作了一些成果,随后转向了文心轻量级模型,经过10轮上万组数据的SFT和post pretrain,结果有了显著的提升,最近又升级到文心4.0版本,仅使用了数百条数据,4.0在情节和逻辑方面展现出了非凡的优势,生成的内容无论是可用性还是质量都大大超过了轻量级模型,网络文学作者们如虎添翼!

其实更广泛的领域,比如说代码生成、文心快码等软件,在各个领域都在逐步渗透。在百度内部,我们大约有30%的代码是通过AI生成的,代码的采用率已超过了44%。

不过,我们要避免掉入“超级应用陷阱”,觉得一定要出现一个每日活跃用户达到10亿的应用才算成功,这是移动时代的思维逻辑。其实不一定,人工智能时代,“超级功能强大”的应用比仅仅追求每日活跃用户的“超级应用”恐怕更为重要,只要能为产业、应用场景带来巨大增益,其整体价值可能比移动互联网要大得多。

随着基础模型的不断增强,开发应用变得更加简单了。其中最简单的应用就是智能体,这也是我们对AI应用发展最为看好的方向。制作一个优秀的智能体通常无需编码,只需用人类语言描述其工作流程,并配以专业的知识库,便能轻松创建一个极具价值的智能体。这一过程比互联网时代创建一个网页还要简单。

未来在医疗、金融、教育、制造、交通、农业等各个领域,根据各自的场景、独特的经验、规则和数据等,将会产生各种不同类型的智能体。预计将有数百万个智能体出现,形成庞大的智能体生态。

而搜索是智能体分发的最大的入口。刚刚过去的高考季,很多大模型公司热衷于去写高考作文,我用AI写一个作文能得多少分,其实这个使用价值是不大的,人家不会让你带一个大模型去参加高考,但是真正的需求是大量的考生在考完之后要报志愿,要选择学校,选择专业,他们对一所大学,一个专业,会有各种各样的问题,而每一个考生的情况又是不一样的。这时候就是需要有一个智能体来回答每一个考生专有的问题。

在高峰时期,百度的高考智能体每天要回答超过2000万个考生的问题,我们总共只有1000万的考生,在一天当中有这么大比例的人在利用这个智能体。

AI正在以前所未有的速度向各行各业渗透,推动了技术进步和业务模式的变革。随着AI技术的广泛应用,许多人开始担心,如果我们把日常的工作任务都交给AI来完成,那么人类的工作机会是否会减少。这种担忧并非没有道理。然而,过去一段时间内,我听到的主要是关于这种技术带来的担心和抱怨,而很少听到有关如何利用生成式AI创造新工作机会的建设性意见。因此,我们需要更多地关注AI带来的新机遇,并积极探索其在各领域中的应用潜力。

我在这算是抛砖引玉吧,我觉得一方面这次浪潮,AI更多是在扮演copilot的角色,是副驾驶,还要人来把关,AI只是辅助人工作,而不是替代人工作,它让人的工作效率更高,质量更好;另一方面,我们也看到有一些全新的工作机会开始冒出来了,比如数据标注师,过去几年我们帮助全国20多个城市落地了数据标注中心,提供了大量新的就业岗位,再比如提示词工程师,以后不用编程了,但是做好一个智能体还需要把工作流说清楚,这里要有很强的逻辑性,要用提示词对模型进行调教,随着智能体的大量涌现,这个工种需求量也会飙升。这些工作机会,通常门槛并不高,你做的一般也能够养家糊口,做得好的话,那上限可以年薪百万。

自人类文明诞生以来,创新的火焰一直在我们血液中燃烧。从石器时代的手斧,到移动时代的智能手机,再到AI时代的先进大模型,人类不断创造各种工具以改善生活,提升生产力。然而,这些工具永远只是工具,只有在人类使用它们时才能展现其价值。我们坚定地认为,人工智能不是人类的竞争对手。我们开发和应用人工智能技术的目的是满足人类的需求,增强人类的能力,使人类生活更加美好。

原文已被扩写,保留了原始HTML结构。

谢谢大家!

0
分享到:
没有账号? 忘记密码?