淘姐妹

淘姐妹

LeCun:ChatGPT是「外星人」,所以才会胡说八道

电脑 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

lecun是什么牌子,lecun是什么牌子u盘,lecun怎么读,lecun yann

Pine 发自 凹非寺量子位 | 公众号 QbitAI

LeCun现在是彻底不搞技术了???

最近他开始从社会科学的角度分析起了爆火的聊天机器人:

为啥ChatGPT很容易就会胡说八道?

只因它是外星人

这是LeCun和专门研究AI哲学的纽约大学计算机系博士后在最新一篇论文中的观点。

论文中提到的“外星人”是指从社会规范、自我约束等方面不同于正常社会人的指代。

(听起来是有点子哲学意味在里面的)

而文章中提到的观点,可是引起了网友们的热烈讨论。不少网友纷纷表示赞同:

说得太准确了。

那LeCun在论文里具体都讲了些啥?

一起来看~

ChatGPT为什么不能像人一样?

当然,要把ChatGPT这类聊天机器人和人放在一起比较,那就得先从人开始入手了。

第一个问题:

一般情况下,人为什么不会胡说八道,甚至说出一些“反人类”的话?

文章给出了三点原因:

(1)社会规范:人们不仅要主动遵守外部社会规范,还要受到人体内在规范的约束。(2)惩罚违反者:这里的惩罚更侧重在社交层面的惩罚,违反交谈规范的人容易遭到群体的“排斥”甚至“孤立”。(3)规范已经内化于情感:违反规范时会愤怒,被冒犯会厌恶,被抓住说谎时会羞耻……

而基于这些原因,人们在讲话之前都会自然而然过滤掉一些言论,以确保更符合社会规范以及自己的内在规范。

(嗯嗯。当代年轻人现状:表面笑嘻嘻,内心mmp)

反过来再看看ChatGPT这些聊天机器人。

相较于人类,它们讲话似乎就更随心所欲,我们没说出来的潜台词它全说出来了。(Doge)

比如说,ChatGPT的*病:胡说八道,最初提示词稍微换个说法,就能让ChatGPT写出毁灭人类计划书。

甚至还能生成一些带有种族歧视的答案:

那么第二个问题来了:

为什么ChatGPT不能像人们一样遵守社会规范呢?

原因有三:

(1)它不需要承担违反社会规范的压力,即使承认自己犯错并道歉后,它也并未意识到原因。(2)它们没有内在目标,它们的唯一任务就是交谈。(3)它们更聚焦在当下的对话,脱离了更大的社会语境,根本不理解人类表达的方式。

在论文中,LeCun更是直接指出:

ChatGPT是“外星人”,它根本就不理解并认同社会规范

也就是说,ChatGPT只是为了交谈而交谈,而人类在互相交谈时是有社会文化驱动的。

网友讨论

LeCun的这一通从社会科学角度的分析可是引起了网友们的激烈讨论。

一边,网友们对LeCun的分析啧啧称奇:

这项工作实在是太棒了。

还有网友看完之后,一针见血地总结道:

它们(聊天机器人)根本不会使用语言。

另外一边呢,则是觉得LeCun从社会科学的角度分析完全是瞎扯,网友称:

这只是一堆软件把程序设定的东西吐出来而已,根本就没有意识。

甚至还有人直接开启嘲讽模式:

现在一个机器人心理学家在解释糟糕的程序设计。

作者介绍

Yann LeCun,就不用再多说了,图灵奖得主,纽约大学教授,Meta的首席AI科学家,大家都已经很熟悉。

另外一位作者需要好好介绍下。

Jacob Browning,纽约大学计算机科学系的博士后,主要研究人工智能哲学,具体来讲,是研究人工智能和认知科学是如何改变传统观念、学习和思维的。

而人工智能哲学,也在试图回答这几个问题:

  • AI可以有智慧的运作吗,可以解决人透过思考处理的所有问题吗?
  • AI和人类智慧本质上是一样的吗?
  • AI会有精神、心理状态和意识吗,能感知东西吗?

对于LeCun在论文中的观点,你是怎么看的呢?

论文地址:【【网址】】/ai-chatbots-dont-care-about-your-social-norms/?utm_source=noematwitter&utm_medium=noemasocial参考链接:【【网址】】/ylecun/status/1633459264508542978


LeCun:ChatGPT是“外星人”,所以才会胡说八道

lecun是什么意思,lecun充电器,lecun是什么牌子u盘,lecun yann

Pine 发自 凹非寺

量子位 | 公众号 QbitAI

LeCun现在是彻底不搞技术了???

最近他开始从社会科学的角度分析起了爆火的聊天机器人:

为啥ChatGPT很容易就会胡说八道?

只因它是外星人。

这是LeCun和专门研究AI哲学的纽约大学计算机系博士后在最新一篇论文中的观点。

论文中提到的“外星人”是指从社会规范、自我约束等方面不同于正常社会人的指代。

(听起来是有点子哲学意味在里面的)

而文章中提到的观点,可是引起了网友们的热烈讨论。不少网友纷纷表示赞同:

说得太准确了。

那LeCun在论文里具体都讲了些啥?

一起来看~

ChatGPT为什么不能像人一样?

当然,要把ChatGPT这类聊天机器人和人放在一起比较,那就得先从人开始入手了。

第一个问题:

一般情况下,人为什么不会胡说八道,甚至说出一些“反人类”的话?

文章给出了三点原因:

(1) 社会规范:人们不仅要主动遵守外部社会规范,还要受到人体内在规范的约束。

(2) 惩罚违反者:这里的惩罚更侧重在社交层面的惩罚,违反交谈规范的人容易遭到群体的“排斥”甚至“孤立”。

(3) 规范已经内化于情感:违反规范时会愤怒,被冒犯会厌恶,被抓住说谎时会羞耻……

而基于这些原因,人们在讲话之前都会自然而然过滤掉一些言论,以确保更符合社会规范以及自己的内在规范。

(嗯嗯。当代年轻人现状:表面笑嘻嘻,内心mmp)

反过来再看看ChatGPT这些聊天机器人。

相较于人类,它们讲话似乎就更随心所欲,我们没说出来的潜台词它全说出来了。(Doge)

比如说,ChatGPT的*病:胡说八道,最初提示词稍微换个说法,就能让ChatGPT写出毁灭人类计划书。

甚至还能生成一些带有种族歧视的答案:

那么第二个问题来了:

为什么ChatGPT不能像人们一样遵守社会规范呢?

原因有三:

(1) 它不需要承担违反社会规范的压力,即使承认自己犯错并道歉后,它也并未意识到原因。

(2) 它们没有内在目标,它们的唯一任务就是交谈。

(3) 它们更聚焦在当下的对话,脱离了更大的社会语境,根本不理解人类表达的方式。

在论文中,LeCun更是直接指出:

ChatGPT是“外星人”,它根本就不理解并认同社会规范。

也就是说,ChatGPT只是为了交谈而交谈,而人类在互相交谈时是有社会文化驱动的。

网友讨论

LeCun的这一通从社会科学角度的分析可是引起了网友们的激烈讨论。

一边,网友们对LeCun的分析啧啧称奇:

这项工作实在是太棒了。

还有网友看完之后,一针见血地总结道:

它们(聊天机器人)根本不会使用语言。

另外一边呢,则是觉得LeCun从社会科学的角度分析完全是瞎扯,网友称:

这只是一堆软件把程序设定的东西吐出来而已,根本就没有意识。

甚至还有人直接开启嘲讽模式:

现在一个机器人心理学家在解释糟糕的程序设计。

作者介绍

Yann LeCun,就不用再多说了,图灵奖得主,纽约大学教授,Meta的首席AI科学家,大家都已经很熟悉。

另外一位作者需要好好介绍下。

Jacob Browning,纽约大学计算机科学系的博士后,主要研究人工智能哲学,具体来讲,是研究人工智能和认知科学是如何改变传统观念、学习和思维的。

而人工智能哲学,也在试图回答这几个问题:

AI可以有智慧的运作吗,可以解决人透过思考处理的所有问题吗?

AI和人类智慧本质上是一样的吗?

AI会有精神、心理状态和意识吗,能感知东西吗?

对于LeCun在论文中的观点,你是怎么看的呢?

论文地址:

【【网址】】/ai-chatbots-dont-care-about-your-social-norms/?utm_source=noematwitter&utm_medium=noemasocial

参考链接:

【【网址】】/ylecun/status/1633459264508542978

科技前沿进展日日相见 ~

原标题:《LeCun:ChatGPT是「外星人」,所以才会胡说八道》

阅读原文