June 5, 2023

Insights | 如何批判性思考AI的狂热

Dive into the latest perspectives, insights,
and updates from our global community.

Written by:

如果你还没有听说过ChatGPT,那么你就是把头原地埋入沙子的鸵鸟,耐心等待,直到一家由AI驱动的企业超越你。是的,目前我们正处于对ChatGTP狂热和炒作的巅峰期,然而就像其他爆款词一样,这种狂热可能会逐渐消退。

无论你从事哪项业务,很快就会有一家AI驱动的公司进入你的行业,所以你至少需要认真了解一下AI,哪些方面它可以使你的业务受益,哪些方面可能将你竞逐出局。

客户服务、软件编码、企业自动化以及营销等,这几个业务领域是可以得到加强的。这些领域已经被证实,AI可以提高效率和改进业务。我相信,我们目前所见的一切都是非常重要的,许多事情、体验和工作流程等都将得以改进。

然而我所质疑的是目前媒体炒作将“AI的进步”与“即将被超人类机器接管”这两者混为一谈。

为什么这场辩论在那么短的时间内就达到了如此令人眩晕的高度?

首先,我想明确一点:AI的进步的确令人印象深刻,并且似乎还在加速发展。当前公开可用的AI服务的最新版本有时在输出方面看起来“类人”,难怪无数的人已经忘乎所以了。

让我试着澄清一下正在发生的事情,并尝试对当前的事态做一些平衡。我认为重要的是两个方面:1.激励机制(Incentive) 2.拟人化(Anthropomorphism)

1. 激励机制: 谁在其中获得自身利益?

微软

在我看来,微软将100亿美元投入到另一家公司(OpenAI),至少有两个主要原因:1) 微软认为,他们可能最终在搜索领域相对谷歌占据上风; 2) AI可以将许多Office产品带入二十一世纪。因此,他们一直在极力地为这波公关宣传推波助澜。而另一方面,谷歌则显得有些手足无措,一直在奋力地重新找回立足点。在最近的谷歌I/O大会上,谷歌才显得比较从容镇定一些。


OpenAI

OpenAI自称是一家有史以来增长最快的消费者服务公司,这要归功于它最早提供的一些广泛可用的AI服务。OpenAI通过炒作可以获得一些直接利益,以迅速提高其特许经营权的价值。


AI研究社区

如果你的工作依赖于资助或大学经费,那么媒体的兴趣越大,你获得经费的机会就越大。因此,当媒体请你谈谈对AGI(人工通用智能)问世的看法时,由于这是人们普遍认为的一种超人类的智能水平,你几乎不可能拒绝这一提议,或说AGI是不现实的。


媒体

媒体本身将继续打造全能AI、机器人和机器的精彩故事,它们将变得如此先进,以至于我们无法阻止它们。根据媒体描述,我们人类只是一个不必要的、不可靠的、顽固的肉袋,应该被处理掉。


商业模式

最后,但也可能是激励因素和潜在危险的不协调之处,是AI服务如何盈利的问题。社交媒体的广告赞助模式一直是主要的罪魁祸首,它不断导致耸人听闻及令人不安的信息、图像、视频等。平台点击率越高,传播性越强,它就能赚取更多的钱。在寻求增长和盈利的过程中,核实信息的真实性或筛查恶意内容等措施似乎已经退居其次。AI驱动的服务可以采用许多不同的商业模式,但我们必须警惕商业模式可能导致的负面意外后果。

2. 拟人化:机器可以拥有人类特质吗?

辩论的第二个方面是 "拟人化"(Anthropomorphism),简而言之,是指将人类的特质赋予机器。围绕着AI讨论,有一个术语很重要,需要解析,请恕我多说几句。

第一个词是"智能"(INTELLIGENCE)。"机器学习"(ML)听起来比较机械,缺乏趣味,而"人工智能"(AI)则听起来像是进入了某种类似人类的下一个阶段。

智能是一个定义不明确的词,它具有多种意义,不仅适用于人类,还适用于被认为具有智慧的某些动物。如果你是狗或猫的主人,毫无疑问,你相信你心爱的宠物拥有某种程度的智能。然而,当我们从机器学习(ML)开始,然后进入人工智能(AI),最后到达人工通用智能(AGI),这是一个自然的进步,使我们离实现机器的通用智能非常接近。而事实上,从AI到AGI的飞跃可能更类似于你在刚刚发明汽车时就跳跃到星际旅行的程度!

就我所知,1)没有人知道AGI离我们有多远,2)就AGI的定义明确达成一致似乎也很困难。一如既往,这些不明确的重要细节并没有阻止评论家们热衷于预测AGI就在眼前。


神经网络--大脑的困惑

ChatGPT大型语言模型(LLM)的核心技术是基于所谓的 "神经"网络,它的命名灵感来自于对我们大脑进行计算的简化理解。这种技术是通过对大脑神经元的核心构建模块进行算法简化来实现的。

将无数(数百万、数十亿、数万亿)这些简化的算法神经元连接在一起,构建了LLM的基础。在这个过程中,我们错误地忽略了这样一个事实:大脑既是一个化学的也是一个电的 "活生物"机器。大脑在如何连接和计算方面似乎同时具有数字和模拟行为,一些科学家认为它在运作方式上还表现出量子效应。最后,所有哺乳动物的大脑都分为两半,至于其中的原因,我们正在逐渐开始了解。

诚然,我不是一个神经科学家,但我过去曾经编写过代码和模拟算法。其中一些非常复杂,应用于建立数字通信系统及预测无线电波如何在复杂环境中传播。我开发了模拟这些系统的数学方法。事实上,这些算法中的一部分是神经网络的前身。

当媒体解释被简化时,人们很容易从“神经网络”的概念跳跃到“它就像大脑一样”。仅仅因为我们有一个部分受到大脑工作方式启发的计算结构,并不意味着它是大脑的完全复制,更不用说模拟大脑了。我们离能够模拟人类的大脑还很遥远。如果我们能做到,我们会用它来制造一个有意识的机器吗?没有人知道答案。

当LLM犯错时,有一种说法是他们"产生了幻觉"。如果你希望将算法拟人化,你可以这么说,或者你也可以直接说,它犯了一个错误或这是一个故障。而后者听起来就不那么有趣了。

根据字典,幻觉这个词的意思是: 对实际不存在的东西体验到一种明显的感官知觉。算法拥有感官知觉吗?我不认为如此。所以它只是在预测下一个单词或句子时犯了一个错误。


意识会产生吗?

LLM或GenAI是否真的有知觉或意识,关于这个问题目前存在大量讨论。部分论点是建立在神经网路的思想上的。该论点涉及到了复杂性理论,即如果你让它们足够复杂,那么机器中就会出现一种存在感,或类似意识的东西。从我听过的播客和阅读的内容来看,人们正在对此进行认真讨论。

现在,如果有人解决了意识产生的谜题,那么他/她/将成为人类历史上最受赞誉的科学家。意识是否可能在没有预先规划的情况下偶然产生?为什么不可能?当科学不断进步时,我们往往会发现需要解释的新现象,然而,我很难理解,为什么意识会突然从我们当前的LLM算法中产生,仅仅因为你增加了连接。我并不怀疑过去几年AI取得的进步,但我没有看到任何解释,为什么意识应该出现,更何况还没有人能够解释它为什么会出现。


模仿游戏

在给Chat GPT4和LLM赋予智能时,人们经常引用“图灵测试”作为GPT4应被称为智能的原因。该测试由Alan Turing于1950年设计,是一种测试机器能否展现出与人类相当或难以区分的智能行为的方法。最初,Turing称其为 "模仿游戏"。在计算机科学领域,它经常被用作衡量智能的一个标准。现在,这里的关键词是 "表现出智能行为",它被等同于 "具有智能"。它们是两个不同的概念,但误解的产生又回到了拟人化的问题上。

核心是,LLMs被设计成基于统计学的方式来预测一个句子中的下一个单词,或图像中的下一个像素。最新版本的Midjourney和OpenAI的GPT做到了这一点,效果惊人。它们可能通过了图灵测试,然而,在我看来,这并不意味着它们具有智能。它们只是展现出智能行为的、令人惊叹的预测机器。


AI无处不在的时代

当我们不断迈向AI无处不在的新世界时,我希望我对激励机制和拟人化问题的阐述,能帮助你对所遇到的事物进行批判性思考。

AI可以为我们人类所做的许多事情带来突破,但我们始终需要仔细思考如何避免伤害,如何保护我们孩子的安全,如何保证我们的关键基础设施和维持生命的设备安全,以及如何为每个人创造新的、更好的工作机会。

Bo定期在Medium发表自己的观点 ,如有兴趣,敬请关注。