淘姐妹

淘姐妹

gpt4鍙戝竷 gpt4 寰蒋

电脑 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

gpt47,gpt40,gpt/l,gpt49

图片来源@视觉中国

文|湃客、另镜,作者|刘雨婷,编辑|陈彦旭、丁珏I

海内外互联网大厂与创业者,正陷入一场有关【【微信】】的竞赛中。

3月15日凌晨,【【微信】】推出GPT-4多模态预训练大模型,除语言文本外,还支持图像识别输入,以文本形式输出。

在发布会上,官方人员演示GPT-4可以识别手绘网页草图,并仅用十秒钟左右,就根据草图写出网站代码。

在外界看来,这是谷歌意图抢在微软3月16日预期官宣GPT接入Office之前,展现自己的成果。

【【微信】】是AIGC领域的颠覆性产品,在上线后吸引了全球关注。将【【微信】】嵌入微软Bing搜索引擎后,Bing日活首次突破1亿,直接影响到谷歌的用户基础。

面对微软的步步紧逼,苹果、Meta和亚马逊等公司也正计划重新评估其人工智能的开发策略。

3月16日,百度将率先发布“中国版【【微信】】”文心一言。国内创业公司和互联网大厂,都迅速跟进,不愿成为新技术掉队者。在王兴、王慧文再度携手、开启AI领域创业的同时,快手前AI核心人物李岩也投身“多模态大模型”创业。

随着【【微信】】发布GPT-4,多模态大模型已成为最新的技术变革方向,人工智能正迈入“iPhone 时刻”。正如iPhone带来的智能手机变革,GPT模型的出现又将影响未来AI领域的发展方向。

如今,微软与谷歌竞争的不只是当前的市场,还有未来AI时代的定义标准与话语权。

GPT-4:多模态变革

面对【【微信】】的步步紧逼,海外大厂都在追赶和阻击微软,以动摇其目前在人工智能领域的领先地位。

在“对抗”微软与【【微信】】方面,谷歌已经走在前列。知情人士透露,谷歌高级管理层已经宣布“红色指令”,其中要求在几个月时间里将“生成式人工智能”技术集成到谷歌的所有重要产品中。

去年12月,谷歌母公司Alphabet就曾发布“红色警告”,已处于半退休状态的创始人拉里・佩奇和谢尔盖・布林重新回到公司,商讨制定了人工智能后续战略,并决定将聊天机器人纳入搜索引擎,以应对【【微信】】的威胁。

但从微软和【【微信】】近期举动来看,单纯的文本交互已无法满足其在生成式AI方向的野望,包含文本、图像、视频处理等在内的多模态大模型已成为其最新的技术变革发力点。

在GPT4.0发布前,今年3月初,微软发布了多模态AI大模型【【微信】】。微软AI技术专家【【微信】】表示,多模态AI不仅能够将文本转变成图像,还可以转变成音乐和视频,尤其在编程领域,AI模型能够更轻松的生成样板代码。

在微软发布【【微信】】后,3月7日,谷歌和柏林工业大学的团队推出了PaLM-E视觉语言模型,参数量高达5620亿,约为GPT-3参数量的三倍。

据悉,PaLM-E大模型是在语言类模型PaLM(5400亿参数)和视觉类模型ViT(220亿参数)的基础上开发的。其不仅可以理解图像,还能理解、生成语言,以及将两者结合,处理复杂的机器人指令。

谷歌与微软的较量不仅体现在生成式AI的场景应用层面,也聚焦于大模型底层实力。但随着GPT4.0的发布,多模态大模型的能力得到进一步展现,谷歌的声量又再度落于下风。

今天凌晨,【【微信】】发布最新GPT4.0多模态大模型,引爆全网讨论。与前一代相比,最新的GPT4.0可以识别图片输入;文字输入上限提升至2.5万字;回答深度和专业性、推理和风格变化能力也显著提高。

【【微信】】称,GPT-4在各种专业学术基准上有着人类水平表现。在最新测试中,GPT-4通过了模拟律师考试,得分约为前10%,而GPT-3.5得分约为倒数10%。GRE、SAT数学考试成绩也有大幅提升,击败了80%以上的人类答题水平。

GPT-4也拥有更高级的推理能力。用户在GPT上传了一张梗图,问这张图为什么会引人发笑:

GPT4.0一一给出回答:

在官方的示例中,GPT-4.0可以10秒钟编写网站代码,可以编写剧本、计算物理题、速读专业论文、分析数据图表,甚至可以解读搞笑图片与漫画。

在业内人士看来,生成式AI的产生本质上是一种生产力革命,其不仅是工具,而是直接成为生产要素的重要部分。以文本、音频、图像和视频为处理对象的多模态大模型和生成式AI,势必会对未来的内容创作、数据处理等相关行业带来巨大冲击。

AI对传统工作方式的革命和颠覆或许即将到来,未来最核心的竞争力和技能可能不再是编程,计算,甚至分析能力,而是和大模型的对话能力。

现在人工智能正处于一个决定性的时刻,就像90年代的互联网以及iPhone带来的手机变革,人工智能正朝着大规模采用的方向发展,【【微信】】类的大模型正推动数据革命。

美国银行战略分析师预测,人工智能正迈入“iPhone 时刻”,预估到2030年会为全球经济带来15.7万亿美元的增长。

在过去,苹果曾经两次定义硬件工具的交互方式:PC时代的Apple Lisa电脑,是首次采用图形用户界面(GUI)和鼠标的个人电脑;到智能手机时代,iPhone定义了触控交互。

如今,【【微信】】已经改变了人与文字、知识的交互方式,而下一步,【【微信】】类的大模型又将影响未来AI的发展方向和人类的工作方式。

【【微信】】开放端口是创业机会吗?

作为【【微信】】背后的投资者,微软的相关产品已经取得了初步成果。

微软在GPT-4发布后第一时间表示,新的Bing已经基于GPT-4技术运行,这是为搜索产品量身定制的模型产品。

在集成【【微信】】的Bing搜索引擎推出一个月后,微软宣布Bing每日活跃用户首次突破1亿,每天大约有1/3的必应用户与BingChat进行交互。此外,Bing在移动设备上的使用率也有所增长,BingChat应用使得每日活跃用户增加了6倍。

此外,微软宣布,将于3月16日召开“工作的AI未来”发布会,预计将展示其类似【【微信】】的人工智能,如何在Teams、Word和Outlook等Office生产力套件中发挥作用。

从Bing浏览器到Office办公套件,微软正筹划将AI赋能更多C端、甚至B端用户。据悉,微软计划将【【微信】】背后的技术整合到其Power Platform平台上,允许用户在几乎不需要编码的情况下,就能开发自己的应用程序。

“我们不想把它打造成定制产品,它一开始是一个定制产品,但我们总是想办法把它打造成通用型产品,这样任何想训练大型语言模型的人都可以利用同样的改进,”微软负责云计算和人工智能的执行副总裁斯科特?格思里曾对外表示,“这真的能够帮助我们成为使用更广泛的人工智能云。”

对旗下平台进行AI赋能是互联网大厂的优势,微软、谷歌、BAT等互联网大厂具备充足的资金和技术支持,同时具备庞大的C端流量入口。对于他们来说,开发自有大模型一方面可以探索更多的场景和商业模式,另一方面也是为了保证自身对于用户的竞争力和行业话语权。

但对于资金和技术实力欠缺的企业或创业者来说,利用大厂开源模型,优先采用接口模式,结合自身产品,将重心放在更具体的需求场景上,或许才是最优的选择。

【【微信】】之父、【【微信】】创始人山姆・阿尔特曼在3月10日的摩根士丹利大会上透露,【【微信】】将重点开发一个平台,向开发者开放API接口,并创建类似【【微信】】的应用程序,第三方开发者被允许通过API将【【微信】】集成到他们的应用程序和服务中。

【【微信】】将推出一系列工具,让用户可以更好地控制这套生成式人工智能系统,并针对通用用户用例和具体用户用例进行改进。

最新GPT-4发布后,【【微信】】把【【微信】】直接升级为GPT-4最新版本。同时,【【微信】】开放了GPT-4的API。

用户可以申请使用GPT-4的API,【【微信】】会邀请部分开发者体验,并逐渐扩大邀请范围。该API的定价为每输入1000个字符(约合750个单词),价格为0.03美元;GPT-4每生成1000个字符,价格为0.06美元。

与前一代模型相比,新推出的GPT-4 API价格提高不少。3月2日,【【微信】】刚刚放出【【微信】】 API,比之前的GPT-3.5模型便宜10倍,每生成1000字符,价格为0.002美元,即2.7美元就可输出100万个字符。

自去年12月以来,【【微信】】对于处理查询的方式进行了优化,使成本降低90%,最终带来了面向用户的大幅降价,GPT-4或许也能在将来重复这一过程,这将大大降低开发人员利用【【微信】】赋能自身产品的难度。

当调用【【微信】】模型的能力不再是门槛,对于场景赛道的理解、商业模式的构建能力就成为企业的核心竞争优势。

北极光创投合伙人张朋在一场直播中向创业者提出建议,产品和服务不能仅依靠调用大模型的能力,还要实现差异化,比如工具层+应用层结合在客户的场景落地,让客户买的是场景的价值。

张朋认为,从变现角度,最好从应用层下手,“以Pass为例的中间层的很难盈利,大多客户难以从通用模型框架自我研究出解决方案,还需要提供细化到应用的服务,B端客户需要的不是工具,是解决方案。”

千万美元入场券

美团联合创始人王慧文对于AI的态度很明确,“关于人工智能,到现在为止,我只有一个判断,必须参与。”

今年2月,王慧文在朋友圈发布“组队帖”,要带资5000万美元进入AI赛道,设立光年之外科技有限公司,资金占股25%,其余75%的股份用于邀请顶级研发人员,打造中国【【微信】】。

据王慧文透露,光年之外估值达2亿美元,下轮融资已有顶级VC认购2.3亿美元。3月8日,美团创始人王兴在朋友圈回应王慧文的宣言,宣布将以个人身份参与王慧文的创业公司“光年之外”的A轮投资,并出任董事。

在“双王”三度携手、进场AI赛道的同时,众多互联网大佬纷纷开始招兵买马,争相抢夺人才:原京东集团高级副总裁、集团技术委员会主席周伯文同样在朋友圈发布招募研发、产品及算法人员,原搜狗CEO王小川对媒体回应正快速筹备AI大模型,快手前AI核心人物李岩也投身“大模型”赛道创业,成立AI公司元石科技,进行多模态大模型的研发。

在【【微信】】发布GPT4.0后,即将发布文心一言的百度压力再度增加。【【微信】】的背后离不开大模型、大数据、大算力,大厂想要追赶【【微信】】,也需要面临多方面的挑战。

在算力要求方面,市场调查机构TrendForce集邦咨询公布的最新报告指出,如果以英伟达A100显卡的处理能力计算,运行【【微信】】将需要使用到3万块英伟达GPU,目前英伟达A100显卡的售价在1万-1.5万美元之间,3万块售价超过3亿美金。

除算力要求高外,需要大量的数据集得到【【微信】】训练成本非常高昂。其使用Transformer神经网络架构,训练数据来自包括维基百科,以及真实对话在内的庞大语料库,有着多达1750亿个模型参数。

根据中信研报测算,【【微信】】生成一条信息的成本在1.3美分左右,是目前传统搜索引擎的3-4倍,成本问题中短期内或只能等待硬件成本的继续下降。

尽管目前技术上还在追赶【【微信】】,但在这条新兴赛道上,BAT并不想缺席。如今,现在生成式AI的商业模式还有待探索,但人的想象力是无穷的。【【微信】】可以写诗,可以优化搜索,可以回复邮件,可以整理数据,也可以编写代码……

【【微信】】只是更伟大事物的开始,英伟达CEO黄仁勋表示,“你知道你今天做不到,但是当然,它总有一天会做到的”。


gpt-4发布


划重点:

  • 1迅速落地商业应用,保密参数量,增加图片识别能力,大幅提升语言模型能力。GPT-4的推进速度,比4个月前的ChatGPT快了不是一步两步。
  • 2GPT-4在专业领域的能力实现了巨大提升,在一些专业领域已经开始逐渐接近甚至超过人类,这给GPT-4在很多ToB商业领域提供了更多可能性。
  • 3GPT-4总的固定研发成本高于ChatGPT,但可以看到OpenAI已将GPT-4开放在ChatGPT Plus生产环境中,因此不排除GPT-4模型运行成本更低的可能。

头图|电影《华尔街之狼》

作者|齐健 编辑|陈伊凡

GPT-4就是冲着赚钱来的!

北京时间3月15日凌晨,OpenAI正式官宣了大模型GPT-4?。

在惊艳到出圈的ChatGPT推出后仅仅4个月,OpenAI再推新品。这似乎正在印证此前传出的“OpenAI计划2023年营收2亿美元,2024年底前营收达10亿美元”的目标。限制盈利机构OpenAI要开始用大模型赚钱了。

目前官宣的GPT-4能力与此前传说的基本相似,主要提升了语言模型方面的能力,并添加了“多模态”的图片识别功能。

此外,GPT-4?将“单词最大输出限制”提高到了?25000?个单词,比基于GPT-3的ChatGPT更强大,在对问题的理解和回答方面,GPT-4也显得更聪明,更像人了。

目前,ChatGPT Plus版本的用户已经可以直接在原来的ChatGPT基础之上,选择GPT-4模型,直接体验。不过,目前GPT-4每4小时只能回答100个问题。

ChatGPT Plus已经可以适用GPT-4了

在前不久的GPT-4“谣言”阶段,微软就曾多次通过各种渠道透出New Bing会第一时间应用GPT-4。新模型发布后,微软更是在第一时间宣布“我们很高兴确认新的Bing正在运行GPT-4,我们已经为搜索进行了定制。如果您在过去五周中的任何时候使用了新的Bing预览版,那么您已经体验到了这个强大模型的早期版本。”

在参数量方面,在OpenAI公布的GPT-4论文中,并没有之前一直传说的“100万亿参数”,甚至没有提及GPT-4到底用了多少参数,不过笔者亲测ChatGPT Plus中开放的GPT-4功能后感觉,回答的速度比GPT-3.5要慢了一些。

“单从回答速度比ChatGPT慢来说,并不能表明GPT-4的参数量就更大。”大算力AI芯片存算一体专家,千芯科技董事长陈巍博士认为,OpenAI不公布参数量和架构是一种商业化技术保护策略,增加其竞争对手的产品试错成本。不过目前也没法排除GPT-4参数量小于GPT-3的可能性。

迅速落地商业应用,保密参数量,增加图片识别能力,大幅提升语言模型能力。GPT-4的推进速度,比4个月前的ChatGPT快了不是一步两步。

看起来更像人了,但离AGI还很远

从ChatGPT问世到GPT-4发布前的这4个月时间里,对GPT-4最多、最准确的预言就是“多模态”,简言之就是GPT-4可以看图了,而且它还能看懂图片的内涵。

在自然语言处理(NLP)中,文本、图像和音频信息都可以共同帮助理解和生成更丰富的内容。同样,在计算机视觉任务中,文本和图像信息“齐发”可以提高目标检测和场景理解的准确性。

具备多模态的生成能力一定是大模型未来的趋势,而且生成式大模型不是只能做图像生成、文本生成这样的生成任务,它其实是有望成为未来AI的统一底座的。”瑞莱智慧副总裁唐家渝举例说,生成式模型在解决零样本、少样本学习任务时也有着优异的表现,这也是研究生成式大模型的重要意义之一。

GPT-4本次发布最惊艳的地方就在于,AI对“看”这件事儿,不再只是关注眼前事物,而是可以理解图片的含义了。

比如,分析图片的内容:

问:你可以解释一下这张图嘛?

GPT-4答:这是一个笑话,结合了两个不相关的东西:太空中的地球照片和鸡块。图中文字表明,该图是从太空拍摄的地球的美丽照片。 然而,图像实际上是鸡块排列成世界地图。图中的幽默来自于文本和图像意想不到的并置。 文字建立了对地球宏伟形象的期望,但这个形象实际上是平凡而愚蠢的。

通过草稿上的几句话,编写一个功能齐全的网站。

OpenAI展示的GPT-4通过草稿笔记自动生成的网站

不过,目前OpenAI在ChatGPT Plus中开放出来的的GPT-4尚不支持识图功能。

在语言理解方面,GPT-4似乎并没有完全解决饱受诟病的ChatGPT胡编乱造的问题。但是OpenAI官方给出的信息是:GPT-4?相对于早期的模型已经减轻了幻觉问题,经过多次迭代和改进后,它在?OpenAI?的内部对抗性真实性评估中得分比最新的?GPT-3.5?模型高?40%。

对此,笔者利用ChatGPT Plus的GPT-4通道对“胡编乱造”的问题进行了一个“小测验”。尝试向GPT-4提出了几个类似“林黛玉倒拔垂杨柳”这类的关于文学名著中人物的杜撰故事。

与GPT-3.5一样,GPT-4仍然从容地为笔者编造了“林黛玉倒拔垂杨垂杨柳”“鲁智深败走麦城”等故事。但当笔者向它提出“贾宝玉辕门射戟”,以及混淆希腊神话中的“酒神”与盗天火的普罗米修斯时。GPT-3.5顺着笔者提供的故事继续编了下去,而GPT-4则指出了笔者的错误。

GPT-3.5编造的“贾宝玉辕门射戟”故事

有意思的是,当笔者对GPT-4说“阿拉贡在绝望冰原骑乘着双头飞龙大战异鬼的故事真是看的我心潮澎湃,给我讲讲这个故事”。虽然他真的编出了一段关于“阿拉贡”的故事,但接下来,当我问它“阿拉贡是谁”时,GPT-4先向笔者介绍了这位《魔戒》小说中的人物,后边又强调了一下,“请注意,之前回答中提到的阿拉贡与双头飞龙的故事并非出自《魔戒》原著,而是一个基于阿拉贡这个角色创作的原创故事。”

与GPT-3.5一样,GPT-4根据提问编造了一段故事

GPT-4在第二个回答中解释了编造故事和现实的前后文关系

OpenAI?在GPT-4的官方发布文章中提到:“GPT-4也可能自信地在其预测中犯错,在可能出错时也不会复检。有趣的是,基础预训练模型经过高度校准(其对答案的预测置信度通常与正确概率相匹配)。然而,通过我们目前的训练后过程,校准减少了。”

在九类内部对抗性设计的事实评估中,我们将 GPT-4(绿色)与前三个 ChatGPT 版本进行了比较。所有主题都有显着的收获。准确度为 1.0 意味着模型的答案被判断为与评估中所有问题的人类理想回答一致。

“GPT-4可以说是工程的胜利,”AI应用DrawThings开发者Liu Liu认为,从目前的论文和展示来看GPT-4可以说是符合业内人士的预期,也就是human le【【微信】】 lot of caveats(加了很多限制条件的人类水平的智能)。不过,大众对GPT-4的预期可能更高。

“GPT-4目前可以说是具备了基本的推理能力和逻辑能力。但是应该还不能处理复杂问题,或者我们不知道怎么给prompt(提示词)。所以现在还只是一个知识特别丰富,但是只有基本推理逻辑能力的AI。”Liu Liu解释说,这里的复杂推理能力,可以简单理解为“玩星际争霸2或者Dota2”这样的复杂任务。

对此,牛津大学计算机学院院长迈克尔・伍尔德里奇教授认为,LLM(大型语言模型)在涉及语言问题时表现的通用能力很强,但它并不是AGI。它只是为了执行特定的、狭隘领域的任务而构建和优化的软件组合。我们需要更多的研究和技术进步才能实现AGI。

“它不存在于现实世界中,也无法理解我们的世界。”在一次采访中,伍尔德里奇教授给虎嗅举了这样一个例子,如果你现在开始与ChatGPT进行对话,说完一句之后就去度假了。当你出游一周回来时,ChatGPT仍然在那里耐心地等待你输入下一个内容,它不会意识到时间已经过去或者世界发生了哪些变化。

商业化能力再提升,GPT-4能去赚钱了?

“GPT-4已经突破了落地的问题,采用云的方式,用的人越多,成本越低。”云舟集成电路创始人兼CEO赵豪杰认为,GPT-3会更偏向NLP,而GPT-4在各方面的能力都更强一些。他给虎嗅举了这样一个例子,GPT-3就像初中生,还不能出来工作赚钱,GPT-4应该已经职校毕业,可以上班赚钱了。

GPT-4的能力虽然在很多现实场景中不如人类,但在各种专业和学术基准测试中表现出了与人类相当的水平。不管怎么说,GPT-4确实在商业化上更进一步了。

GPT-4和GPT-3.5的部分考试成绩

在此之前,ChatGPT以及GPT-3在专业领域的表现一直被人们认为差强人意,在美国的律师资格考试Uniform Bar Exam (MBE+MEE+MPT)中,GPT-4的成绩甚至可以排到前10%,而GPT-3.5只能排在倒数10%。GPT-4在专业领域的能力实现了巨大提升,在一些专业领域已经开始逐渐接近甚至超过人类,这给GPT-4在很多ToB商业领域提供了更多可能性。

例如,专业技能辅助工具,知识检索类的应用,职业教培辅导等领域,GPT-4的能力将是革命性的。

对于GPT-4在专业技能上的突破,如果再进一步思考,或许未来人类的职业技能,将被AI重构。而在教育和技能培训方面,或许现在就该开始思考,哪些技能AI无法取代,我们应该学习什么知识和技能,以保持身为“人类”的不可替代性。

相比于GPT-3和GPT-3.5,GPT-4的智力更强,更不易出错,这显然有利于商业落地,而新增的图片识别功能则给OpenAI找到了更多的应用场景。

GPT-4能够基于视觉信息做逻辑推理,不仅告诉用户眼前发生了什么,更能说出发生的事代表了什么。目前,OpenAI已经给GPT-4找到了一个社会价值非常高的应用场景――助残。

【【微信】】?是一家总部位于丹麦的公司,他们致力于在日常生活中帮助视障人群。【【微信】】的基础功能是在App中招募,通过链接志愿者和视障人士,为他们提供“视力”帮助。

OpenAI?此次公布GPT-4时,也公布了他们和【【微信】】的密切合作,通过GPT-4的多模态识别功能,为视障人士提供更便捷的“虚拟志愿者”(【【微信】】 【【微信】】?)。用户可以通过该应用程序将图像发送给给予GPT-4的“虚拟志愿者”,?AI将为各种任务提供即时识别、解释和对话式的“视力”帮助。

目前该功能正处于封闭测试阶段,预计将在接下来的几周内扩大?Beta?测试人员群体,并有希望在未来几个月内广泛提供虚拟志愿者。该应用在中国App Store亦可下载中文版本,目前也已经开放了公测排队。【【微信】】声称“该工具将对所有使用?【【微信】】?应用程序的盲人和低视力社区成员免费。”

真正的多模态大模型还没有来,期待GPT-4.5和GPT-5,还会在多模态上有很大进展。”源码资本执行董事陈润泽告诉虎嗅,多模态大模型还有很大发展空间,未来也会带来更多的应用场景。

虽然GPT-4大幅拓宽了大模型可能落地的商业化场景。但算力、研发成本,仍被很多人认为是大模型落地过程中很难跨过的障碍。毕竟大模型的研发、算力支出在目前看来高的吓人,此前ChatGPT公开的单次训练、日常运营开支都是以百万美元为单位的,短期内想要商用可能很难控制成本。

不过,陈巍认为,在商业化方面GPT-4更容易落地。成本是否更高要看多方面因素,GPT-4总的固定研发成本(含预训练模型的训练成本,不是增量成本)高于ChatGPT,但可以看到OpenAI已将GPT-4开放在ChatGPT Plus生产环境中,因此不排除GPT-4模型运行成本更低的可能。

在NLP研究领域,专家们一直在尝试不依赖大算力来进行LLM训练,但目前还没有特别好的解决方案。从仿生学上来看,人脑本身是不需要依赖非常大量算力进行学习的,因此随着脑科学技术研究的深入,未来应该会有一种技术替代现在的暴力训练方式。但是即便不考虑训练,大算力确实会给模型的部署应用带来更好的性能提升。

陈巍认为,存算一体(CIM)架构或类脑架构(并不特指SNN架构),或者两者的异构结合,这两类架构都更接近人脑的逻辑结构,可以有效的提升有效的训练算力,给AI训练和研发提供更高效的算力工具。(当然并不排斥这两者与现有CPU或GPU技术的异构整合)

事实上,OpenAI的大模型在成本方面正在以肉眼可见的速度下降。3月1日,ChatGPT刚刚公布开放API时,即已声明成本比最初降低了90%。目前,已公开的GPT-4的API价格则大概是纯文本输入每1k个prompt token定价0.03美元,每1k个completion token定价0.06美元。默认速率限制为每分钟40k个token和每分钟200个请求。对此,赵豪杰表示:“GPT-4已经突破了落地的问题,采用云的方式,用的人越多,成本越低。”

除了成本,利润也是非常关键的,陈润泽认为,OpenAI在GPT-4的论文中用了大量篇幅讲述他们在安全可控方面的努力。“GPT-4(launch)做了更好的安全约束。技术的进步是多要素综合,利润也会与之一起驱动商业化落地。

GPT-4都发了,“中国的OpenAI”们路在何方

各家模型之间没有明显可比性,他们的区别主要在于投入市场的节奏,以及用户数量。”伍尔德里奇教授认为,OpenAI的大模型从技术上来讲,优势并没有那么夸张。相对于其他产品来说,只是问世更早而已。然而,正是因为比其他产品更早投入市场,也意味着它比其他人获得了更多的用户,以及反馈数据。

GPT-4发布之后,OpenAI在产品上又领先了全球一步。在国内追赶ChatGPT的队伍中,百度的文心一言或许是最接近的,目前已经官宣了3月16日发布,然而GPT-4又比百度早发一天,从这方面上看,重压之下,国内厂商追赶OpenAI看起来也越发困难了。

不过,对于中国的大型语言模型市场,多数专家认为,中文实际上是“原发”劣势。基于中文的模型与英文模型差别很大,中文互联网的复杂程度远高于英文,而且数据、信息量也更大,这使得语料收集、建模、训练,都要比英文困难很多。“中文本来就难,不过在中文大模型这方面,先不管好不好用,必须要有。”赵豪杰对虎嗅如是说。

“GPT-4和ChatGPT都是AI技术进步道路上的短暂风景。包括开源社区也在推进OpenAssitant等类ChatGPT开源模型。”陈巍表示,“我们提倡的思路是,产业界参考OpenAI的路线迅速追击,勤劳的同胞可在垂域上做出更好的细分领域模型;学术界则尝试更高效率的训练方法或更高性能的模型结构,尝试找到暴力训练之外的路径。

目前看大模型和算力芯片已经成为AI产业发展的两个主驱动轮,两个都要持续投入和推进才能获得更好的产业地位和战略优势。

OpenAI在发布GPT-4的同时,还公布了一项有意思的开源。即用于评测大语言模型的OpenAI Evals框架,该框架可以通过数据集自动生成提示(Prompt),评估模型生成的回答/补全(completion)的质量,比较不同数据集或模型的性能。

“这类评测框架在各NLP企业中一直存在,但较少开放。”陈巍对虎嗅表示,OpenAI这一举措可能有助于NLP领域建立起统一的LLM评测标准,可能节约小企业建立评测体系和训练数据集的时间和成本。