意识可以被创造吗?
展开全部
大家可能注意到,传统科学家但凡回答意识相关问题,总是模棱两可,让人感觉这样的回答要么等于没回答,要么我早知你会如此作答,很无趣。
作者也厌烦了这种状况,因此本文将以非常确定的方式回答以下几个问题:(1)现在的电脑是否有意识或基于目前计算机框架下的人工智能能否产生意识?(2)未来的机器人能否产生意识?(3)如何制造意识机器人?(4)制造意识机器人会有哪些可能的危害?
回答问题(1):不可能,现在电脑不可能有主观意识,未来基于现在计算机框架下的人工智能也不可能产生意识,或者想纯粹通过编写程序在现有电脑上产生意识是天方夜谭。
理由如下(若看不懂,请仔细读后面给出的参考文献):简单说来,根据Chalmers[1]对困难问题的论述,要产生意识体验关键是要直接利用物质(或硬件)的内在属性,纯粹捣腾结构化的东西(程序实现的都是结构化的)是永远不可能产生非结构化的意识体验的。
当然后来的泛灵论的重新流行和Tononi的整合信息论IIT[2]提出,让Chalmers自己都有点相信现在的电脑或许已经具有意识,泛灵论认为任何物质都有意识体验,只是普通物质的意识体验太过碎片化,等效于没有意识体验。而他们认为只要这些物质的物理属性(结构化的)整体上具有高度的整合性(在IIT中相当PHI值很大),那么这些物质的内在属性(碎片化的体验)就会自动组合成类似像人类这样的意识体验。但很多人认为物理属性的整合不代表内在属性也会自动整合,这其实就是所谓的组合问题,Chalmers自己也认为存在组合问题[3] 。事实上,19世纪James[4]甚至认为内在属性不能组合,我个人同意James的观点。
即便James观点不对,我认为电脑硬件的内在属性能编程可自动组合的概率几乎为0。 因此,现在电脑不可能有主观意识。
回答问题(2):能,未来电脑或机器人能够产生意识,但需要改造现有的计算机硬件组成。原因,因为我们人类就是一个例证。只要学会直接去捣腾物质内在属性,那么就有可能让机器人具有意识。具体如何做,见下个问题的回答。
回答问题(3):如何制造意识机器人的具体答案见我即将发表的一篇论文[5],但草稿可以参考JF Li 2016。James认为物质的内在属性不可组合,因此唯一的解决方案是:产生我们意识的物质不可分,比如为某种基本粒子,但必须足够复杂,因此其内在自由度巨大无比,另外由全同粒子原理,会使得世界上所有同种粒子产生的意识体验都是同一体验,比如如果A和B两人的意识都由电子产生的话,即便用的不是同一电子,但他们本质上是同一个意识。
基于这些,制造意识机器人关键是构造一个物理系统捕获和稳定这样一个内在自由度巨大的基本粒子,并使它的种类尽量不与现有的意识所利用的基本粒子的种类雷同,然后利用它的内在属性来产生体验。更具体的方案属于商业机密。我已经透露得够多的了。
回答问题(4):虽然最近 Jim Davies在《自然》杂志发表文章称我们不必担心未来人工智能有意识,有意识并不意味着灾难。这话有点对。但他忽略了其他严重的问题。
首先伦理道德问题是个巨大的问题,因为一旦机器具有意识体验,人类可不能再像以前一样对待他们了,因为他们本身就是活生生的一个意识主体了。
或许一开始你还会认为它不过是台机器,但是人类很快就会利用这种技术来将自己的爷爷等长辈的意识转移到某台机器上,这样的话这台爷爷机器人本质上和人自己造出来的机器人是没有任何差别的,在这种情况下就会存在比较严重的伦理道德问题。比如,我们还有权利决定机器人的什么死去吗?另一个更严重的问题是,这种技术是不是意味着人可以长生不老呢?长生不老会引发什么问题?自然繁衍逐渐消失?人类的真正灭亡?再过一千年,地球上所有的人,本质上都是活了七百年的不死机器人?只是这些机器人出生时是真正的人类。
一旦有意识,再加上无比强大的智能,机器人的威胁也还是有点。当然,你可以说人类也可以装上无比强大的智能,但强强对话不代表就不是灾难啊。
总之,我是很担忧。
作者也厌烦了这种状况,因此本文将以非常确定的方式回答以下几个问题:(1)现在的电脑是否有意识或基于目前计算机框架下的人工智能能否产生意识?(2)未来的机器人能否产生意识?(3)如何制造意识机器人?(4)制造意识机器人会有哪些可能的危害?
回答问题(1):不可能,现在电脑不可能有主观意识,未来基于现在计算机框架下的人工智能也不可能产生意识,或者想纯粹通过编写程序在现有电脑上产生意识是天方夜谭。
理由如下(若看不懂,请仔细读后面给出的参考文献):简单说来,根据Chalmers[1]对困难问题的论述,要产生意识体验关键是要直接利用物质(或硬件)的内在属性,纯粹捣腾结构化的东西(程序实现的都是结构化的)是永远不可能产生非结构化的意识体验的。
当然后来的泛灵论的重新流行和Tononi的整合信息论IIT[2]提出,让Chalmers自己都有点相信现在的电脑或许已经具有意识,泛灵论认为任何物质都有意识体验,只是普通物质的意识体验太过碎片化,等效于没有意识体验。而他们认为只要这些物质的物理属性(结构化的)整体上具有高度的整合性(在IIT中相当PHI值很大),那么这些物质的内在属性(碎片化的体验)就会自动组合成类似像人类这样的意识体验。但很多人认为物理属性的整合不代表内在属性也会自动整合,这其实就是所谓的组合问题,Chalmers自己也认为存在组合问题[3] 。事实上,19世纪James[4]甚至认为内在属性不能组合,我个人同意James的观点。
即便James观点不对,我认为电脑硬件的内在属性能编程可自动组合的概率几乎为0。 因此,现在电脑不可能有主观意识。
回答问题(2):能,未来电脑或机器人能够产生意识,但需要改造现有的计算机硬件组成。原因,因为我们人类就是一个例证。只要学会直接去捣腾物质内在属性,那么就有可能让机器人具有意识。具体如何做,见下个问题的回答。
回答问题(3):如何制造意识机器人的具体答案见我即将发表的一篇论文[5],但草稿可以参考JF Li 2016。James认为物质的内在属性不可组合,因此唯一的解决方案是:产生我们意识的物质不可分,比如为某种基本粒子,但必须足够复杂,因此其内在自由度巨大无比,另外由全同粒子原理,会使得世界上所有同种粒子产生的意识体验都是同一体验,比如如果A和B两人的意识都由电子产生的话,即便用的不是同一电子,但他们本质上是同一个意识。
基于这些,制造意识机器人关键是构造一个物理系统捕获和稳定这样一个内在自由度巨大的基本粒子,并使它的种类尽量不与现有的意识所利用的基本粒子的种类雷同,然后利用它的内在属性来产生体验。更具体的方案属于商业机密。我已经透露得够多的了。
回答问题(4):虽然最近 Jim Davies在《自然》杂志发表文章称我们不必担心未来人工智能有意识,有意识并不意味着灾难。这话有点对。但他忽略了其他严重的问题。
首先伦理道德问题是个巨大的问题,因为一旦机器具有意识体验,人类可不能再像以前一样对待他们了,因为他们本身就是活生生的一个意识主体了。
或许一开始你还会认为它不过是台机器,但是人类很快就会利用这种技术来将自己的爷爷等长辈的意识转移到某台机器上,这样的话这台爷爷机器人本质上和人自己造出来的机器人是没有任何差别的,在这种情况下就会存在比较严重的伦理道德问题。比如,我们还有权利决定机器人的什么死去吗?另一个更严重的问题是,这种技术是不是意味着人可以长生不老呢?长生不老会引发什么问题?自然繁衍逐渐消失?人类的真正灭亡?再过一千年,地球上所有的人,本质上都是活了七百年的不死机器人?只是这些机器人出生时是真正的人类。
一旦有意识,再加上无比强大的智能,机器人的威胁也还是有点。当然,你可以说人类也可以装上无比强大的智能,但强强对话不代表就不是灾难啊。
总之,我是很担忧。
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询