ChatGPT到底是个什么 解剖chatgpt背后的核心技术
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
最近,以【【微信】】为代表的人工智能技术风靡全球,它不仅能流畅地与用户对话,还能写诗、写文章、编码。今年*上,【【微信】】同样引起了委员和代表们的关注与讨论。【【微信】】是人类的助手还是对手?如何注意科技伦理、趋利避害?
新京报记者邀请全国政协委员、中科院自动化所研究员赵晓光,清华大学计算机系教授、清华大学人工智能研究院视觉智能研究中心主任邓志东,国家新一代人工智能治理专业委员会委员、中科院自动化所研究员、人工智能伦理与治理研究中心主任曾毅,做客《两会三人谈》栏目进行解读。
人工智能进阶
【【微信】】意味人工智能发展到了什么程度?
【【微信】】近期引发了公众的广泛关注,有人觉得它具有颠覆性,也有人觉得它被“神话”了,这个语言大模型的出现意味着人工智能技术发展到哪一步了?
“这几天,全国政协科技界别很多委员特别关注【【微信】】的技术,尤其是这项技术在我国的发展和未来会给我们带来哪些启示。”赵晓光说,从技术角度来看,【【微信】】是一个自然语言处理模型,让计算机能跟人聊天。我国有很多研究机构也做了相关的技术,并一直在应用,比如大家熟悉的银行自动语音服务等。【【微信】】之所以受到广泛关注,是由于微软把【【微信】】的技术嵌入到搜索引擎“必应”中,受到用户人群欢迎并愿为其付费。【【微信】】带来了商业应用的巨大前景。
“这项技术给我们带来的启发就是未来人工智能技术如何跟场景更好地落地结合,如何培养更大的市场、挖掘更多的需求,通过满足用户的需求产生新应用,带来更多效益。”她认为,【【微信】】的出现和应用并不代表着通用人工智能时代的到来,“一些新闻报道称它会理解人类的语言,我认为理解应该打个引号。要模仿人类的理解恐怕还要走很多的路。”
邓志东认为,【【微信】】作为大型生成式语言模型,是NLP(自然语言处理)领域中某种意义上的通用人工智能,而且是颠覆性的。2012年以来,以深度学习为代表的人工智能在全球范围内得到迅猛发展,但都属于弱人工智能,对于人类而言是赋能的工具。【【微信】】则不同,它利用单一模型就能完成NLP领域中的多个任务,比如对话、翻译、生成、搜索、编程与调试等,这就有了文本语言领域中通用人工智能的主要特点。同时,它在完成多个任务时还接近人类的水平,与以前根据特征进行匹配或搜索的方法完全不同。
他说,随着【【微信】】的版本不断更新,全球上亿用户与其高频度交互,且其具有持续的学习能力,它的NLP多任务完成能力还将提升,可能会在较短时间内达到专家的水平,将非常具有颠覆性,给人类带来巨大进步。
在曾毅看来,【【微信】】是人工智能领域现有工程技术的组合创新,在用户体验上有显著提升,但并非科学的突破。它使用自然语言处理领域的几项关键技术,都是几年前学术界已验证有效、相对比较成熟的技术。但【【微信】】有数亿用户的反馈,其输出不是提供最优化的结果,而是最接近人类需求、合乎人类期望的结果,“它离1956年达特茅斯会议上提出的‘人工智能’实现智能的各个方面达到人类水平的畅想还有很大距离。”
人工智能应用
未来哪些职业可能会被人工智能取代?
一些网友在和【【微信】】聊天之后,担心自己的工作未来会被取代。那么,【【微信】】是人类的助手还是对手?未来哪些职业可能会被取代?
赵晓光称,人工智能确实取代了一些工作,是人类不愿意从事的艰苦、枯燥、繁重、有危险的工作。比如速记员的工作,现在很多可以通过自然语言识别将语言转变成文字,但计算机完成的工作依然需要人类校正,因为会存在一些错误。她以法律系统举例,【【微信】】可以审阅诉状,进行简单分类,做一些需要具备文化功底的简单的体力劳动,但不能替代法官做更多判断。所以目前来说,【【微信】】更多是提供了“方便”。
邓志东认为,【【微信】】不仅有文本理解能力,也有文本生成能力,“它的理解能力已经达到了相当高的水平,比如一些弯弯绕绕的表述,它都能理解,且给出合乎常识或价值观的回答。随着以【【微信】】为代表的生成式人工智能在短期之内大规模商业化落地,以及对各行各业全面渗透,在大幅度提高生产力和生产效率的同时,也将对就业市场带来影响,文案、新闻、翻译、会计、律师、教师、程序员、艺术创作等职业中的中低端岗位会受到冲击,尤其是不需要深入思考,仅完成简单重复性文字整理的岗位。”
曾毅称,科学技术的发明创造以及在社会上的应用,最初的目的就是部分替代人类劳动。信息技术与人工智能发明的初衷,不是让绝大多数人失业。但确实需要思考的是,人类在所从事的职业中发挥的不可替代作用是什么。
他以记者举例,记者要追求真相,但目前人工智能对于“真相”的了解还是存在很大困难的。相比人工智能写的稿件,媒体工作人员的作品中更能呈现人类对于世界的真正理解,也有背后的故事。
长期来看,必然会有一部分工作被暂时替代,此时需要人类重新思考工作的意义。比如做社会服务、养老助残等需要以情感出发去关怀他人的工作,很难被机器替代。如果你哭了,机器人也可以安慰你,但这是基于数据的情感分析,而不是对情感的真正理解。即使机器有能力去替代人类时,人类也未必相信机器,“这样的工作使得人类反思,人之所以为人,与其他没有情感的物体之间的差异,让人类回归本该回到的地方。对于人类反思的能力,机器人和人工智能暂时难以达到同样的高度。”
总体上,曾毅持乐观态度,认为真正需要和值得人投入精力的工作不会被替代,但他仍认为,人类应该为可能出现的部分领域的劳动替代做好准备。
人工智能伦理
如何注意科技伦理、趋利避害?
科技部部长王志刚日前在两会“部长通道”上表示,对人工智能的研究与运用,需要注意科技伦理、趋利避害。哪些科技伦理问题已经显现并值得我们关注?如何防范?
曾毅说,【【微信】】没有带来新的伦理挑战,但它在很多领域无限放大了大家认为可能还需很长时间才会到来的伦理挑战。比如统计生成模型需要发现大规模语料的统计显著性,但全球200多个国家和地区文化具有多样性,是不可以被统计的显著性吞噬的。这就是科技伦理中非常重要的一个维度。
另外,【【微信】】的责任和问责也值得关注,它对于所有的输出无法担责,权利和义务是相伴相生的,所以何谈版权问题。目前,人类构造看似智能的信息处理工具,人仍然是责任主体。同时,人工智能生成技术也需要关注用户知情同意的问题,研发方和服务方不能混淆它和人之间的边界,需要明确告诉用户是人工智能在服务,所带来的后果是人工智能没有办法承担的。
“我不同意让人工智能无处不在,它有适用领域,很多领域无需人工智能赋能。所以我们参与撰写的联合国教科文组织《全球人工智能伦理建议书》,其中明确指出人工智能的适度使用。”曾毅说。
邓志东认为,【【微信】】利用了全球约三分之二的海量文本数据,其中涉及数据安全、知识产权、隐私保护等问题。这些数据有可能还会存在种族和性别歧视、认知偏见、道德、伦理与价值导向等问题,甚至有违法数据,所以必须设立安全门。要通过全球合作的方式,提前采取有效的预防措施,制定相关国际伦理规范,而不是等问题发生了再去应对。目前,【【微信】】对人类还无法形成真正的威胁,在发展之初要以开放的心态看待新生事物,紧抓机遇,发展中国人工智能产业,赋能经济和社会的发展。
作为全国政协委员,赵晓光表示,自己是科技界的委员,也进行了机器人和人工智能的研究,未来将在这一领域提出意见和建议,希望人工智能在我国数字经济的发展和数据融通处理中发挥作用,为实体经济发展赋能,带来新的经济增长点和新的业态,“未来五年,我将着重关注人工智能技术的落地应用、新技术领域的创新,并在这些方面做更多调查研究工作。”
新京报记者 张璐
责任编辑:李桐
ChatGPT 医疗信息化 ChatGPT医疗应用
chatgpt,chatgpt是什么意思,chatgpt中文,chatgpt使用每个礼拜,波士顿贝斯以色列女执事医疗中心的普心科主任Eli Gelfand都得在自己不想写的信件上浪费大量时间。这些信是写给保险公司的,用于回应对方对他治疗方案提出的异议。问题可能来自某款治疗心力衰竭的新药,对胸痛患者CT扫描件的诊断意见,或者有望拯救心脏僵硬综合征患者的实验方剂。身为哈佛医学院副教授的Gelfand感叹道,“但不想写也不行,毕竟这些信件代表着拯救生命的希望。”
因此,当OpenAI的ChatGPT凭借顺畅连续的文字生成能力占据新闻头条时,Gelfand也看到了节约时间的好机会。他向机器人提交一些关于诊断和用药建议的基本信息(但略去患者姓名),并要求对方写一封附有参考文献的申诉信。
ChatGPT确实整理出了能用的信件,而且这类输出甚至可以量产。虽然其中某些引用可能存在错误,但Gelfand表示信件内容“基本不用大改”。更重要的是,现在他只要花上一分钟就能得到结果,速度比亲自编写不知道快到哪里去了。
Gelfand说他已经用ChatGPT写了约30封申诉信,其中大部分都得到了保险公司的批准。但他从未幻想过ChatGPT或其底层AI模型能够快速重塑整个美国医疗产业。“它的作用,基本就是让我的生活轻松了一点,能以更快的速度为患者提供他们需要的药物。这只是个变通性的方案,解决了一个本就不该存在的问题。”
这个“本不该存在的问题”是:美国在医疗保健管理方面花费的资金,超过世界任何其他国家。2019年,全美医疗保健总支出达3.8万亿美元,约有四分之一被用于处理行政问题,例如Gelfand抱怨的医保申诉。据估计,其中约有2650亿美元属于“纯浪费”――属于支撑美国医疗保健系统中过时技术的不必要支出。Gelfand虽然可以通过聊天机器人直接生成数字版申诉信,但却必须以传真方式将内容交付给保险公司。这也暴露出最最现实的挑战:当今最先进的AI后台工具,无法直接解决1960年代遗留系统所带来的问题。
怒斩“遗”丝
Doximity是来自旧金山的社交网络平台,公司联合创始人兼首席战略官Natee Gross表示,传真机短时间内仍然不会消失。美国有200万医生及其他医疗保健专业人员仍在使用这款“老古董”,因此Doximity才推出了新的流程工具。DocsGPT聊天机器人能够帮助医生撰写各种信件和证明,而且可以直接接入网络传真设备。
Gross解释道,“我们的设计理念,是让医生尽可能轻松地与新兴数字标准进行交互,同时也向下兼容医疗保健系统中实际使用的各类旧工具。”
Doximity被用户亲切称为“医生们的LinkedIn”,目前市值达63亿美元,其中大部分收入(2022财年为3.44亿美元)来自制药企业和卫生系统的产品宣传和招聘展示。同时,它也为医生提供一系列工具以实现“降本增效”,也就是缓解行政事务带来的负担。Gross表示,这款产品的基础版完全免费,但企业集成则需要购买付费项目。
医疗保健系统将继续使用传真机,而且颇为讽刺的是,与传真机共享数据的难度反倒比支持不兼容软件系统更低。
DocsGPT以ChatGPT为基础,但接受了医疗保健数据的训练,例如匿名的保险申诉信。医生可以使用这款工具起草信件,包括患者转诊、保险申诉、给同行的感谢信、术后说明甚至是死亡证明。它还根据其他医生的历史搜索记录整理出一套精选提示库,并会随时强调自己并不是医疗专家。在生成每条响应之前,DocsGPT都会显示一条免责声明,要求用户“请在发送前进行编辑,以确保内容准确”。
在本月初的财报电话会议上,公司联合创始人兼CEO Jeff Tangney被问及Doximity打算如何通过DocsGPT获利。“我就开个玩笑来做解释吧。到目前为止,我们最关注的是怎样对产品责任做区分,暂时还没到考虑利润的时候。”
机器人对机器人
DocsGPT确实能帮医生省下不少时间,但由于只能通过传真和电话跟保险公司接洽,所以接下来还是得耗费好几天才能证实患者的医保报销范围、或者拿到手术的授权批准。目前,医生办公室或医院仍需要安排专门的人手跟保险公司通话,保险公司那边也有专人随时盯着屏幕,手动查询每位患者的医保细则。
这样的制度不仅给保险公司和医生都带来巨大负担,还会浪费大量时间和人手。对话式AI初创公司Infinitus Systems联合创始人兼CEO Ankit Jain表示,“整个过程不仅速度缓慢,而且非常杂乱繁琐。我们接洽的一家保险公司就要求提供32张传真,由对方一一粘合起来。”
自2019年创立以来,Infinitus共筹集到超5000万美元。Jain希望开辟出新的未来,让医院和保险公司能够真正交流有价值信息,而不是无休止地沦陷在医保细则和核准工作当中。
在创办Infinitus之前,Jain曾在谷歌任职并联合创办了谷歌旗下AI基金Gradient 【【微信】】。在他看来,最大的问题是每位医生、每家保险公司和各卫生系统都在以不同的格式进行信息记录。与长期以来的医疗行业员工不同,AI能够快速理解这些格式。Infinitus建立起自己的模型,并不依赖于OpenAI技术。但Jain也承认,二者的基本前提是相同的:“大语言模型的作用,就是在吸纳并消化海量数据之后,掌握在短信和概念间提取正确连接的能力。”
到目前为止,这种对话仍在单方面进行:Infinitus使用大语言模型建立起E【【微信】】。这是一种机器人,已经代表医生向保险公司向保险公司打出超100万通电话,以验证医保细则与提前授权情况。展望未来,他希望EVA不用再跟电话那头的人类对话,而是真正实现机器人对机器人。
“当然,我想说的不是机器人之间还是用英语交流,也不是自动交换传真。未来双方都将使用API,这才是真正的数字高速公路。我们只需要提交信息,对方即可快速审查、快速批准,让院方立即得到响应。”
仍在“爬行”阶段
虽然Jain对端到端自动化改造颇为乐观,但在实际应用当中,聊天机器人和其他类型的AI驱动技术仍面临着巨大障碍:以ChatGPT为例,要想保持这种如真人般的回答能力,它们必须经常使用最新信息做重新训练。
斯坦福医疗保健首席数据科学家Nigam Shah提到,“当医生编造事实时,我们称之为「说谎」。而当AI模型编造事实时,我们却会用一个奇怪的字眼形容,「幻觉」。”
ChatGPT所使用的训练数据最晚只到2021年,之后没有进行过定期更新。医学领域则在不断变化,新的指南、药物和设备不断上市,因此过时数据必然带来问题。Shah表示,他还看不到在医疗保健领域广泛采用生成式AI的可能性,除非未来有适当的系统来定期利用新信息重新训练模型,同时准确检测出错误答案。“我们必须想办法对产出内容的真实性和正确性进行高效验证。”
另一个风险在于,无论是否出于善意,医生都会将受保护的健康信息纳入ChatGPT。Moses Singer律师事务所合伙人Linda Malek认为,虽然可以用匿名和加密这两种患者数据保护方法,但单凭这些仍然不够。“即使尝试对ChatGPT中存储的数据进行脱敏,AI也完全有可能成功还原出信息内容。ChatGPT也成为网络犯罪的特殊目标,可能被用于实施勒索软件等各类网络攻击。”
尽管潜在风险不少,但生成式AI的辉煌成就仍吸引到大量用户。研究人员在今年1月的调查中发现,ChatGPT已经能在不经任何特殊培训之下,以“一定的准确度”通过美国医疗许可考试。(除ChatGPT之外,谷歌的Flan-PaLM和中国的AI机器人小易也都通过了国家医疗许可考试。)
Bessemer 【【微信】】合伙人、布朗大学医学生Morgan Cheatham认为,这种无需在医疗保健数据集上做专门训练,即可执行标准化任务的能力已经让ChatGPT备受瞩目。在Cheatham看来,这样 的结果表明ChatGPT大语言模型“在医疗保健应用中具有一定价值”。但他也承认,任何进一步应用都需要“从爬到走,最后才能跑起来”。
就目前来看,生成式AI至少能做好一件事:帮助医生节约下时间和精力,全身心照料患者。贝斯以色列女执事医疗中心泌尿科医生,患者教育初创公司Wellprept联合创始人Da【【微信】】坦言,“我之所以会成为一名医生,就是热爱与患者直接互动的感觉。但现在,这种美好的感觉已经被成千上万将从鼠标点击和键盘敲击搞得支离破碎。”
Canes表示,他打算在“低风险沟通”中使用ChatGPT,也期待能更高效地处理那些没完没了的僵化规章、繁文缛节。
“如果能把所有时间都用在诊疗病患上,对我来说那将是完美的体验。现在的我跟当初一样热爱这种感觉。看着种种技术改进,希望我们正处于新旧时代交替的边界上,也期待技术能帮我们改善医疗领域最糟糕的一面。”