未来社会即便人类的智慧创造出很多自动化机器人或高智能化机器人来作为人的
1个回答
关注
展开全部
咨询记录 · 回答于2021-10-31
未来社会即便人类的智慧创造出很多自动化机器人或高智能化机器人来作为人的
你好,答案首先是不会的。随着人工智能的不断发展,一些科学家担心:在不久的未来,人工智能技术会超越人类的智慧,甚至会反过来控制或毁灭人类。对这一灾难性的预测来自一群世界上公认“最聪明的人”,包括微软创始人比尔·盖茨、英国科学家史蒂芬·霍金以及美国的“科技狂人”伊隆·马斯克。甚至有学者认为,人工智能超过人类的时间点——“奇点”已经逼近,很可能就在十几年后。人工智能不是像核武器一样消灭人类,而是会逐步取代人类,真正可怕的是智力。它们将比人类更聪明、更擅长社交、更有工作能力。比尔·盖茨说:“如果我们能够很好地驾驭机器人,机器能够为人类造福,但如果若干年后机器发展得超过人类的智能,那么它们就将成为人类的心头大患。”不久前,著名科学家史蒂芬·霍金发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。霍金曾与特斯拉CEO伊隆·马斯克共同发表公开信,他们认为,人工智能的发展应该受到控制。信中称,如果智能机器无法保障安全,人类可能陷入黑暗的未来。一方面人工智能让人类越来越缺乏思考,另一方面其自身则有可能越来越聪明,从而威胁到人类的生存。马斯克也提出警告,最少只需5年,智能机器可能就会带来极端危险。他说:“应该保持高度警惕。如果让我猜测人类生存的最大威胁,那可能就是人工智能。”牛津大学哲学教授尼克·博斯特伦与詹姆斯·巴拉特认为,“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标”。不论如何,科学家认为未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克·阿西莫夫在他的机器人相关小说中为机器人设定了行为准则:法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;法则二,机器人必须服从人类的命令,除非违背第一法则;法则三,在不违背第一、二法则的前提下,机器人必须保护自己。对于马斯克、霍金等人的言论,谷歌董事长施密特率先发起反驳。施密特的身份很特殊,作为谷歌的董事长,他曾亲身参与许多世界上最复杂的人工智能系统的研发,从自动驾驶汽车到谷歌的预测性搜索引擎等。施密特认为,所有对机器将抢走人类工作、占领世界的
已赞过
评论
收起
你对这个回答的评价是?