淘姐妹

淘姐妹

gpt4最新功能简介 gpt-4升级后付费吗

电脑 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

gpt4最新参数,gpt4最新插件,gpt4最新版本,gpt42

原创 铭滟 智东西

GPT-4 API现向所有付费【【微信】】用户开放。

编译 | 铭滟

编辑 | 徐珊

智东西7月7日消息,据OpenAI官方公告称,OpenAI将对所有API付费用户开放GPT-4使用权限。此次发布是继3月份推出ChatGPT API以及本月初ChatGPT更新之后的新进展。现在,所有已付费API开发者都可以访问具有8K上下文长度(约13页文本)的GPT-4 API。

对于新的开发者,OpenAI计划在本月底向新开发者开放访问权限,然后根据计算资源开始调高速率限制。除此之外,OpenAI也宣布弃用部分旧模型,并将帮助开发人员迁移相关数据。

01.

GPT-4 API全面开放,

从文本输入转为聊天对话

OpenAI正式发布GPT-4 API,所有API付费用户均可使用。

GPT-4是OpenAI现有最强的模型。自3月份以来,大量开发人员请求访问GPT-4 API。并且基于使用GPT-4而衍生的创新产品的范围每天都在增长。如今,所有已付费的API开发人员都可以访问具有8K 上下文的GPT-4 API。OpenAI计划在本月底之前向新开发人员开放访问权限,并根据计算可用性开始提高速率限制。

基于这些模型的稳定性和适合生产规模使用的准备,OpenAI还提供GPT-3.5 Turbo、DALL・E和Whisper API。OpenAI正在进行GPT-4和GPT-3.5 Turbo的安全性微调,该功能预计在今年晚些时候推出。

除此之外,OpenAI也表示,Chat 【【淘密令】】完成了从文本向聊天对话模式的转换。

今年3月,OpenAI推出了Chat 【【淘密令】】,OpenAI称现在Chat 【【淘密令】】占API GPT使用量的97%。

2020年6月,OpenAI初次推出【【淘密令】】的最初版本,提供自由格式的文本提示,以便与OpenAI的语言模型进行交互。从那时起,OpenAI逐步发现,通过更结构化的提示界面,大语言模型可以提供更好的结果。

基于聊天的模型很强大,可以处理绝大多数以前的使用案例和新的对话需求,同时灵活性和特异性更优。(此处的灵活性指对于同一个问题,ChatGPT每次都能给出不同的回答,不会千篇一律,与人类回答问题时随机发挥相似;特异性则指针对不同专业领域的研究问题,能够给出有帮助的答案。)

Chat 【【淘密令】】提供了结构化界面(例如系统消息、函数调用)和多轮对话功能。这能帮助开发人员构建对话体验以及多进程完成任务。它还可以降低即时注入攻击(prompt injection attacks)的风险,因为在结构上,用户提供的内容可以与指令分离。

▲Chat 【【淘密令】】文本总结示意,图源OpenAI官网。

▲Chat 【【淘密令】】代码完成示意,图源OpenAI官网。

▲Chat 【【淘密令】】短频学习示意,图源OpenAI官网。

OpenAI将继续在这个方向上投入大部分精力,且正努力尽快优化Chat 【【淘密令】】的最后几个空缺,例如完成指令的日志概率、减少响应的“闲聊”以提高响应效率。

02.

弃用旧模型,

开发人员或需手动进行升级

首先是弃用【【淘密令】】 。作为OpenAI对Chat 【【淘密令】】增投以及优化计算能力的一部分,OpenAI将于6个月内淘汰一批使用【【淘密令】】的旧模型。虽然此API仍可访问,但从今天开始,OpenAI将在开发人员文档中将其标记为“旧版”。OpenAI称,它们计划未来的模型和产品改进将重点放在 Chat 【【淘密令】】 上,并且未来不会使用【【淘密令】】公开发布新模型。

2024年1月4日开始,旧的型号将不可用,并替换为以下型号:

▲型号替换表,图源OpenAI官网

2024年1月4日,使用base GPT-3模型(ada、babbage、curie、davinci)的稳定模型名称的应用程序,将自动升级成前述新模型。在未来几周内,新模型也将提前提供通过在API调用中指定以下模型名称进行测试:ada-002、babbage-002、curie-002、da【【微信】】。

2023年1月4日之前,使用其他较旧模型(例如text-da【【微信】】)的开发人员应通过在API请求的“model”参数中指定gpt-3.5-turbo-instruct,完成手动升级其工具集成。gpt-3.5-turbo-instruct是一种InstructGPT风格的模型,其训练方式与text-da【【微信】】类似。这个新模型是【【淘密令】】中的直接替代品,在未来几周内将提供早期测试。

希望在2024年1月4日之后继续使用其微调模型的开发人员,将需要在新的base GPT-3模型(ada-002、babbage-002、curie-002、da【【微信】】)或更新版本之上微调替换模型型号(gpt-3.5-turbo、gpt-4)。该微调功能将于今年晚些时候推出。该功能推出后,OpenAI将优先为之前对旧型号进行微调的用户提供GPT-3.5 Turbo和GPT-4微调。OpenAI表示,将主动联系最近使用过前述旧模型的开发人员,并在新的completion模型准备好进行早期测试后提供更多信息,确保这一过渡尽可能顺利。

其次是弃用旧嵌入模型。2023年1月4日前,旧嵌入模型(例如text-search-da【【微信】】)的用户需要迁移到text-embedding-ada-002。OpenAI于2022年12月发布了text-embedding-ada-002。它比以前的型号更强大且更具成本效益。目前,text-embedding-ada-002占所有嵌入API使用量的99.9%。

这对于使用旧模型的开发人员来说是一个重大变化。结束这些模型的使用是OpenAI慎重考虑后的决定。他们将承担用户使用新模型重新嵌入内容的财务支出,并将与受影响的用户联系。

▲旧嵌入模型替换表,图源OpenAI官网

最后是弃用Edits API。2024年1月4日前,Edits API及其相关模型(例如text-da【【微信】】或code-da【【微信】】)的用户需要迁移到GPT-3.5 Turbo。Edits API Beta版是早期版本探索性API,其目的是方便开发人员能够根据说明返回提示的编辑版本。在开发gpt-3.5-turbo和Chat 【【淘密令】】时,OpenAI考虑了Edits API的反馈,现可以将其用于相同的目的,如图所示。

03.

结语:GPT-4的工具意义不止于AI领域,

更及于人类学习

GPT-4模型开放后,预计未来基于GPT模型生成的产品会有相应的性能提升。对于生成式AI而言,OpenAI此举一方面提升了GPT-4等模型的竞争力,吸引更多开发人员加入使用,共同优化迭代;另一方面,OpenAI作为行业巨头,对自有产品的更新也会刺激其他生成式AI企业更新迭代,衍生其他产品。

随着大语言模型的飞速发展,人类将逐渐从依靠记忆来提升技能,过渡到通过提问来掌握技能和知识。记忆同样重要,只是在知识学习上转变了方式。人的智慧将更多用于扩大视野,创新思考。或许未来某天,人类将接入智能设备,实现质的蜕变。

来源:

【【网址】】/blog/gpt-4-api-general-a【【微信】】

(本文系网易新闻?网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)

原标题:《GPT-4重磅更新!开放收费使用,弃用部分旧模型》

阅读原文


asml向中国出售低端光刻机的影响 asml向中国出售光刻机最新消息

asml卖给中国euv光刻机,asml公司不卖设备给中国,asml主要供应商,asml光刻机最新消息
?
AI时代下,为满足海量数据存储以及日益增长的繁重计算要求,半导体存储器领域也迎来新的变革,HBM技术从幕后走向台前。
HBM技术之下,DRAM芯片从2D转变为3D,可以在很小的物理空间里实现高容量、高带宽、低延时与低功耗,因而HBM被业界视为新一代内存解决方案。
HBM目前成为了韩国人的游戏
自2014年首款硅通孔HBM产品问世至今,HBM技术已经发展至第四代,分别是:
HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)。
HBM芯片容量从1GB升级至24GB,带宽从128GB/s提升至819GB/s,数据传输速率也从1Gbps提高至6.4Gbps。
目前,能够稳定量产HBM的厂家,只有韩国的三星和SK海力士。
伴随AI的快速繁荣,存储巨头们围绕HBM的竞争也迅速展开,但主角只有韩国企业。
2010年,三星就紧随SK海力士开始了HBM内存的研发。
并在2016年抢先SK海力士成功量产HBM2,将每个HBM堆栈容量提升至8GB。
此后又率先量产第三代HBM的青春版HBM3E。
2021年10月,一直紧咬三星的SK海力士又成功量产HBM3,重新夺回主动权。
2022年,全球50%的HBM出货来自SK海力士,40%来自三星,美光占10%。
至此,HBM彻底成为了韩国人的游戏。
虽然HBM目前的市场规模还不到整个存储芯片市场的1/10,也不乏其他技术竞争,但决定其能否普及的成本问题。
这恰恰却是三星和SK海力士最擅长解决的:依靠大规模生产能力快速降低成本,拉高其他公司参与竞争需要的投资门槛。
三星和SK海力士鏖战做大市场
总的来说,HBM的竞争还是在SK 海力士、三星以及美光之间展开。
从技术上先来看,SK海力士是目前唯一实现HBM3量产的厂商,并向英伟达大量供货,配置在英伟达高性能GPU H100之中,持续巩固其市场领先地位。
全球排名第一的服务器CPU公司英特尔在全新的第四代至强可扩展处理器当中也推出了配备SK海力士HBM的产品。
A100和H100的显存模块并没有采用常用的DDR/GDDR内存,而是HBM内存。

上一篇waic专题2021世界人工智能大会启幕 waic世界人工智能大会

下一篇简单的生活方式才是最幸福 极简生活的幸福感