强人工智能的设计思路
人工智能的现状
目前的人工智能只能算作弱人工智能。一般认为,强人工智能与弱人工智能的本质区别在于它是否能够具备自我意识。
对于意识的定义没有统一的看法,对于意识的存在性同样没有统一的看法。我认为意识是存在的。我对意识的定义:对自我存在性的把握。换言之,对我和非我的区分。
人类具备自我意识的证明
实际上,并不具备任何方法检测任何一个人是否真的具有自我意识。
约翰·罗杰斯·希尔勒教授曾经提出“中文房间”思想实验。即,假设一个对中文一无所知的人被关在某个房间里,房间里有一本书,书上记载着一系列规则。外面的人可以将写有中文句子的纸条递到房间里。房间里的人根据书上的规则对这些递进来的句子进行一系列程序性操作,然后通过对中文字符的组合,得到另一个中文句子,递给房间外的人。
那么,完全可能出现这样一种情况,即外面的人送入一个中文句子,然后从房间里得到一个有意义的相关的中文句子,对这个人而言,这个房间是懂中文的,他会“感觉”这个房间是有自我意识的。然而这个房间并没有自我意识,唯一存在的只有计算。
假设我们断言所有人是有自我意识的,那么我们无论如何也无法排除存在人没有自我意识而仅仅只是一个人形的“中文房间”的情况。
但是,我们可以证明自己具有自我意识。这就是勒内·笛卡尔的哲学思想。笛卡尔认为一切都是可以被怀疑的,我看到的,我听到的,都可能是假的,都可能只是外界,神,或者什么东西施加在我的身上的虚幻体验。唯一能够确认的就是我存在,原因在于,“我在怀疑”这件事情本身是确定无误的。因此,作为怀疑的主体的我的主观意识必然是存在的。
这一个反例就够了。这说明,存在意识存在的可能性。这给了我们想象的空间——或许,制造出具有意识的机器是可能的。
唯物主义与唯心主义
(客观)唯心主义与唯物主义的区别,根本在于,认为是客观规律主宰物质的运动,还是说是物质自身通过运动来展现出其运动规律,从而反思性地把握其存在。
如果认为是规律主宰一切,即认为规律是高于一切,无理由、超越地存在,则是唯心的。
如果认为没有绝对的超越一切的规律,存在的只是被后天设计的规律,或者物质自身通过运动所创建的作为运动表象的规律,则是唯物的。
制造强人工智能的可行性
制造强人工智能是否可能
制造弱人工智能是简单的,因为弱人工智能回避了“意识”的问题。我们完全可以通过电子电路,从简单的逻辑门开始,搭建组合电路或是带有记忆的状态电路。进而可以搭建具有通用计算能力的计算机。人们目前的人工智能方法,都可以归结为简单的数学计算模型。无论用电子计算机还是找一张草稿纸计算,都能够可能完成计算任务。
而目前人类无法制造强人工智能,存在两方面的瓶颈。假定我们能够制造纯粹物质基础的强人工智能,则必须是基于这样的前提:物质中能够产生意识。然而,物质本身对于我们而言是客体,客体中如何才能产生意识?前面说到,计算机模型并非依赖于具体的电路而存在,电路可以完成加减乘除,我们用草稿纸也可以。那么假设电路的计算能够产生意识,而这种计算过程可以归纳为一个数学模型,那么我们换一种计算方式并不会改变其数学模型的本质。我们完全可以通过在草稿纸上进行同样的计算来达到相同的目标——产生意识。这是非常不可思议的,因为草稿纸是我们惯常认为的无机的东西,那么为何草稿纸上进行某种特定方式的计算,就能生发出意识呢?
现代生命科学已经能够检测神经信号在神经元之间的传导,可是依旧尚未解决意识产生的谜团。我们往往接受了这样的假设——当神经系统的规模足够复杂之后,这些信号之间就能够涌现出意识。但这样的假设是有问题的。神经系统的运作,依旧可以归结为一个具有在不同状态转移的能力的数学模型。那么无论是草稿纸上计算,还是计算机来计算,都应该可以完成等价的运算过程。所以既然草稿纸上计算无法产生意识,那么理应也不能在神经元之间的交流之中产生意识。那么人类理应没有意识。
所以下面两个假设,必须有一个是真的:
- 计算可以产生意识。无论是通过草稿纸计算,口算,还是生物神经元计算,或者计算机集成电路来计算。
- 计算无法产生意识。(但有可能意识本来就存在)
对于后者,在承认唯物主义(并且不认为当前宇宙是通过模拟得到的)的前提之下。我有一种假说。
意识的存在形式——意识物质假说
唯一可以确定的是,我自己是有意识的。假设这意识和神经元的计算是无关的,那么它必然和我们大脑的其它部分有关,或者和宇宙的某种尚未发现的物理规律有关。
比如,我们可以有一种比较“玄”的猜想。假设意识不能被制造,而是先天存在的。我将这种假说称为意识物质假说。假定意识是类似光或者粒子这样的客观存在。下面这个假说有两种分支。不过都存在问题,即目前无法用科学手段证明,但作为讨论的对象也未尝不可。
作为弥散于宇宙的意识
我的这个假说分支的观点是:意识不但像其它物质一样存在于宇宙,而且是普遍“漂浮”着的。我们可以类比空气。对于宇宙而言,意识就像是空气一样无处不在。而生命通过“捕捉”意识而具有了对于时空的体验。
作为人类,我们具有很多感受。比如冷、热、痛觉、触觉、时间流逝的感觉、身处于空间的感觉、情感、视觉、听觉、味觉、嗅觉。我们作为生物的存在感就在这些丰富的感觉里得到把握。那么,作为最基础形态的意识,能够有哪些感受呢?换言之,上述感受哪些是一定存在的,哪些是可以不存在的。
只要稍加思考就会发现,仅仅需要意识存在的话,上述感觉都可以不存在(当然,除了“情感”有待商榷)。在梦境中,我们可以失去冷热痛的感觉。有的梦境可以没有图像,没有空间。但只要意识存在,我们就能确认自己的存在,即“我存在”这一感受无法被剥夺。同时无法剥夺的是时间感。有的时候,我们一觉醒过来,发现已经七八点了,但是却感觉自己没睡多久,中间失去的时间,也恰好是意识体验的不在场期。
但读者可以提出质疑,你既然说意识是物质性的存在,那么为什么没有听说人类曾经用什么仪器检测到意识呢?
一种猜想是意识的确可以被检测。假设如此,那么必然存在一种物质,能够和意识发生作用。然而,不妨转换角度,是否存在一种意识,能够和物质发生作用呢?答案很简单,我们自己的意识就正在和这个世界发生作用。你的意识体会到了世界的万千色彩,这,也是一种作用。当然,你可以说这是狡辩,必须要看到某个机器检测到“意识粒子”,然后发出嘀嘀嘀的声音,你才承认意识是物质的。那么必须承认,现在的确没有任何证据表明这样的机器存在。
我们还可以假设,世间的一切都是具有意识的,而区别在于有的意识(比如人和狗)能够依托于生物的肢体和器官表达出来被你所看到,而石头里即便有意识也表达不出来,物理限制了它无法移动。
意识也有可能是量子效应的产物。彭罗斯和哈梅洛夫提出过名为 Orch OR 的模型。这种模型认为,Object Reduction 发生在神经细胞微管中,并由此产生意识。是一种量子意识模型。此模型假定意识是微管中量子引力所导致的波函数的坍塌的结果。波函数坍塌的结果是产生意识瞬间,或称为意识量子。连续的意识量子就形成了大脑连续的意识体验。意识可能是比神经系统更为古老的信息处理机制,哈梅洛夫说:“一些单细胞的生物诸如草履虫,它们在池塘里游来游去以寻找食物,遇到危险时迅速转变游泳方向,甚至还能根据过去的经验进行认知学习,但它们并没有发达的神经元,也没有突触,之所以能做到这些全靠它们的微管。”
这种思路打破了传统的二元对立的意识-物质观点。这种思路也说明,我们之所以一直弄不清楚意识到底怎么从物质中产生,很可能是因为我们潜意识地假设了物质中无法产生意识,我们严格地将二者对立了。而事实很可能是,意识并没有那么神秘,它在物质活动中可能是普遍存在的。
如果意识是量子效应的产物的话,单凭计算过程建模很可能是无法得到意识的。
如果意识是神经活动的普遍的现象,那么从计算中“带出”意识便是可能的。
另一种猜想是意识无法被检测。我们能够确认,时间是存在的。但是时间同样无法被检测。人们可以利用手表来计时,但计时恰恰是基于时间存在的前提。因此不能说人们能计时从而导致了时间存在,而是时间存在从而使得人们能够计时。同样的,我们能够确认意识是存在的,因为我们在思考。但是意识无法被检测。我们可以用意识来体验世界,但我们不能说人们能体验世界从而导致了意识存在。
在这里我们发现了时间和意识具有某种意义上的同构性。假设时间本身就是意识的话,自然是无法观测到意识的,就如无法观测到时间。
作为来自此宇宙之外的介入的意识
另一个假说分支是意识本身并非此世界的产物。而是宇宙之外的意识的接入。这实际上是把问题留给了“外面的智能体”。有一款游戏叫做 Minecraft,在这个游戏中人们可以砍树、挖矿、种田、吃饭。假设某一个版本更新之后,我们可以把这个游戏直接连接在大脑上,那么在这个模拟的游戏宇宙中,我们会认为游戏中的那个“我”是具有意识的——我能砍树种田,能看得到天上的云,摸得到水中的草,为什么不能说我有意识呢?然后游戏里的物理学家说:“因为经过我们科学家的长期研究,我们发现,这个世界本质上就是方块。即便那些红石电路能够进行计算,但是我们无法从这些方块中检测到意识的存在,也没有能力从红石电路中计算出意识。所以意识是不可能存在的,我们的意识是假的!”结果这个物理学家掉线了,回到了游戏之外的“真实”世界,他发现刚才竟然是一个游戏!怎么可能从游戏中找到意识啊,我们身体又不在游戏里面!
那么,我们这个世界为什么不是另一个游戏呢?在这种情况下,如果我们在这个世界检测不到意识,并不代表意识就不可能存在。它完全有可能是宇宙外的玩家带来的。
时间与意识在这其中的超越性
假设我们编写了一个游戏,那么这个游戏要有时间流逝对不对?我们可以用一个变量 GameTime
表示这个游戏的时间(当然,你要是乐意,也可以给空间按照其分布设定不同的时间,空间上的每个位置拥有不同的时间流速,形成一种爱因斯坦的时空)。那么我们要模拟这个游戏的时间正向流逝,就需要定时 GameTime++
。注意 定时 这两个字,定的是哪里的时?是我们所在世界的时。所以我们把我们所处宇宙的时间流逝,映射到了我们开发的游戏的时间流逝中。换言之,时间在这里体现出一种超越性。同时,假设我们的意识接入这个游戏的世界,那么我们的意识可以说既是存在于此世界,也存在于游戏所在的子世界。这里又体现出时间与意识的一种同构性。
换个角度,如果我们的时间能够映射到我们创建的虚拟宇宙,那么我们所在的宇宙又何尝不能是外部宇宙的时间的映射。
但这种思路存在问题。它不过是把一个难题抛给了所谓的外世界,而问题本身并未真正得到解决,因为对于外世界的智能体而言,同样要面临同一个问题。即最初的“时间”、“意识”是如何可能的。
制造强人工智能的一种思路
模拟方法的回顾
这里引用的是赵泠的观点。
在 2015 年比利时科学家进行的实验中,24 只成年蚂蚁里有 23 只在能从镜子里看到自己额板上的蓝色斑点的情况下用附肢去抓斑点。这说明蚂蚁能够通过镜子实验,很可能是具有自我意识的。2020年5月初,英国萨塞克斯大学研究人员发现,蚂蚁的脑也有偏侧化(类似人的左脑右脑各有优势),而蚂蚁的脑仅仅拥有二十五万个神经元。OpenAI 开发的 GPT-3 包含两千亿个神经元,也就是说按理人类已经能够模拟蚂蚁这种级别的“大脑”了。
但是目前依然没有发现模拟神经网络具有自我认知能力,这很可能不是结构的原因,而是信息的原因。蚂蚁通过卵生繁殖,其神经网络的初始化信息随出生而存在,并且在发育中神经网络得到塑造。而人工神经网络的初始权重等参数,并不是自然选择或者代际相传的结果,而是人工输入或者随机产生的。
这一方面是意识的捕捉问题。难点在于如何捕捉到蚂蚁神经网络的瞬间数据,以便作为参数输入到人工模拟的网络。并且这种“观测”还要避免对被观测对象造成影响。
另一方面是意识的表达。即便一个神经网络具备了意识能力,它要被人们认为有意识,还必须表现出来,比如镜子实验等。这要求意识拥有可以控制的躯体,有视觉等,还必须将这种控制的相关程序编入其神经网络。
利用不确定性原理制造“意识”
这种方法对应的是量子意识假说。量子力学认为观测可以造成波函数的坍塌,而冯诺依曼-魏格纳诠释则进一步认为波函数的坍塌是意识观测的结果。
多世界理论认为观察是观察者和被观察系统之间的相互作用,可以被量子理论描述。并且否认人的观察的特殊性,因为从物理上,观察者和一台观测仪器的观察行为并没有任何区别,他们的观察行为和信息的接收也是由量子理论来描述的。
在这种情况下,观察者和被观察者的每隔一个可能状态构成的状态对都是存在的,只不过进入了不同的分支,对于这个分支的人而言看到的是他所对应的观测结果。以薛定谔的猫实验为例。设 $猫死 = 0$,$猫活 = 1$,在尚未观察的情况下处于叠加态。当观察的时候,进入两个分支,对于分支 0 的观察者而言猫死。对于分支 1 的观察者而言猫活。
在这种情况下,要创造强人工智能,传统的基于电子电路的计算机,或者手算,或者确定的数学模型,都是无法制造意识的。必须引入量子机制。这里有两种思路,一种是用计算机模拟量子的不确定性,一种是使用量子计算机。后者技术上难度还比较大。我们讨论前一种。
传统的计算机无法产生真随机数。后来人们发明了硬件随机数生成器,可以通过统计自然环境的噪声信号和其它量子现象实现真随机。如果将这种真随机性引入人造的神经网络,或许可以制造具有叠加态的神经网络,从而制造出强人工智能。
使用进化策略制造“意识”
目前,已经有 Bert-Large、OpenAI 的 GPT-3 等看上去非常逼真的 “AI”,但它依旧无法有自己的思想,一旦深入交流就会“露馅儿”。原因有可能在于,现实中具备意识的人类是生命在自然界经过很多万年的进化的结果。人的视觉能力、听觉能力、感觉能力归根结底是信息的收集能力,即降低生命体对于生存环境的认知的不确定性。这种负熵的进程有利于生命的生存。
我们可以考虑制造能够自我复制的神经网络,并且给予他们感知外界世界的能力。此处的外界世界未必是我们的真实自然界,也可以是计算机模拟出来的虚拟世界。在虚拟世界中,输入参数的方式尽量避免直接传输真实数值,而是通过模拟的传感器输入到生命的神经网络中。并且输入的数据完全可以加入很多噪声。然后我们要设定自然选择的规则,让那些生存能力的弱的生命体淘汰掉,让生存能力强的生命体的参数一定程度上流传到下一代。
还是以蚂蚁为例,蚂蚁只有 25 万个神经元,完全可以用电脑进行模拟。问题在于蚂蚁的感受器是非常丰富的。我们可以在计算机中制造一个蚂蚁的生存世界,并且赋予其各种感受器和神经网络,然后利用环境的自然选择压力使其进化。最后有望筛选出能够通过镜子实验的蚂蚁个体,它们的神经网络参数有可能就是能够激发意识的参数。
标签: 无标签
仅有一条评论
2022年05月07日 • 回复
任何对现实造成影响的东西都应该被纳入“智能”而不是“意识”。对于意识 心灵哲学上有泛灵论和涌现论的说法(见到过有人专门讨论过这个……)我觉得人工智能可以把自我认知做出来,不需要那么大的算力代价,是一个设计问题