霍金关于人工智能的警告值得中国人的警惕和注意。

kuaidi.ping-jia.net  作者:佚名   更新日期:2024-08-09
霍金让我们警惕人工智能,应该怎样警惕?

3月14日著名物理学家斯蒂芬霍金教授去世,巨星陨落,令人痛心,也让人不禁重新思考他的很多理论成就和经典言论。在去世前这几年,霍金最关注的话题就是离开地球和警惕人工智能。2016年10月霍金在剑桥大学发表演讲,他说,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。2017年3月,霍金在接受英国《泰晤士报》来访时再次警告:“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”
发出类似警告的著名科学家还有不少。例如Sun Microsystems公司的首席科学家比尔乔伊说:“唯一现实的选择就是放弃、限制那些太过危险的技术研发,限制我们对此类知识的追求。”“我们是否要冒全军覆灭的危险来攫取更多的知识或财富。”“我们正被推入一个新世纪,没计划、没控制、没刹车。”这就是地球主义的主张。但宇宙主义者也很强大,宇宙主义者就是支持人工智能的人。雨果德加里斯认为,面对这样的前景人类将分为两派:地球主义者反对制造人工智能,宇宙主义者坚持制造人工智能,他们之间的矛盾将激化并导致战争。
现在有些学者提出,人工智能的发展可以分为三个阶段:弱人工智能Artificial Narrow Intelligence (ANI),强人工智能Artificial General Intelligence (AGI)和超人工智能Artificial Super intelligence (ASI),但他们的划分标准并不完全可取。我的划分标准是:在弱智阶段,人工智能还没有超越人类智能;在强智阶段,人工智能超越人类智能的幅度不大,人类还可以控制人工智能;在超智阶段,人工智能远远超越人类智能,人类只能接受人工智能的统治。在不同的阶段,人工智能对人类的威胁的性质完全不同。
当人类能够控制人工智能的时候,人工智能不会带来很大威胁,因为人对人的威胁已经足够大了。人类一直生活在核恐怖之下,现有的核武器足以彻底灭绝人类,人工智能还能做什么呢?对于少数人压迫多数人之类社会正义的问题,人类也已经经历的够多了。所以在弱智和强智阶段,只要人能控制就不会有太大问题。而且人类要想离开地球,开辟新的生存空间,就必须依靠人工智能。但是到了超智阶段,人类就会面对真正的威胁。那么我们怎么办?全面停止研究吗?
雨果德加里斯认为机器人会灭绝人类,就像人要灭绝蚊子一样。人类确实想灭绝蚊子,因为蚊子总侵害人类,如果人类不侵害机器人,机器人还会灭绝人类吗?人类会不会灭绝蜜蜂呢?即使机器人真的统治了地球,它们就一定会与人类为敌吗?既然机器人可能比人聪明亿万倍,那么它们就一定懂得与人为善的道理。所以这么聪明的机器人一定是天使,不会是恶魔。
面对受机器人奴役的前景,人类一定会反抗,会争夺统治权。成功了皆大欢喜,如果失败了,那么这时应该顽抗到底还是听天由命呢?受他人奴役其实是家常便饭,在一个国家里,被统治者远远多于统治者。当我们争论人类与机器人的问题时,人类的统治权好像就是我们自己的统治权,但有几个人真正享有过统治权?事实上,只要统治者能让大家正常生活,就很少有人愿意考虑应该由谁统治的问题。当清政府统治中国的时候,汉族老百姓也能过得心安理得,而且很快乐。所以,如果人类真的没有能力反抗,让人们接受机器人的统治其实也是很容易的。人类一旦接受了机器人的统治,机器人也就没有理由灭绝人类了,就像人不会灭绝笼子里的老虎一样。
科学、政治和伦理的争论在真实的历史发展中往往很难起决定作用,国际竞争和企业竞争会让人们无暇顾及未来的风险,只要机器人能给人带来利益,人们会毫不犹豫地研制和使用,很少有人会真正考虑地球主义者的忧虑。这是人类的私欲造成的必然结果,你我想阻止都不可能。我们能做的只有想开一点,接受这个现实。
知识就是力量的观念早已深入人心,每一个企业都把人才战略当成最重要的战略之一,为了挖一个人才可以不惜重金。如果将来人工智能达到和超过了人的智能,那么企业怎么会放过这样的“人才”呢。比尔盖茨做了什么?他和他的员工不过是编了一些程序。如果你拥有一台机器,可以把微软公司一年的工作在一天里做完,而且又快又好,那么你还发愁挣不到钱吗?知识经济已经造就了世界最大的富翁,那么拥有超级智能的机器人对企业家们来说意味着什么也就不言而喻了,他们一定会争先恐后地研制和采用机器人。
人工智能让历史发展进入一个新的转折点,每一个民族都要面对这个转折。对这种发展采取不同的态度,会决定每个民族未来的命运,这是一轮新的竞争。过去的民族竞争是极其残酷的,南京大屠杀还像是昨天的事情。未来的民族竞争不会那么残酷,但谁也不敢掉以轻心。接受人工智能会带来恐惧,但拒绝人工智能同样带来恐惧。也许在这个问题上,历史因素会发挥作用,让中国人能比西方人更快地接受人工智能。
接受一个残酷的现实其实并不难,每个人都能做到。例如,交通事故造成的死亡比世界大战还多,你每次开车出门都面对巨大的风险,但你还是毫不犹豫地踩下油门。每个人都会死,每个人都会失去亲人,这么残酷的现实大家都能接受。美苏对抗的时候,核战争随时可能爆发,一旦爆发就必然导致人类毁灭,这样的现实大家也能接受。
如果没有机器人,你能把握自己的命运吗?我们这一代人早晚要失去权力,怎么保证子孙能按我们的意志统治世界呢?除了教育没有别的办法。但教育也不保险,当年张居正费尽心思教育万历皇帝,但张居正死后,万历怠政四十多年;诸葛亮对阿斗也苦口婆心地教育,但蜀汉还是很快灭亡了。所以把握未来的命运从来都只是一个幻想,失去对命运的把握一点也不可怕,我们每个人都只能担当生前事。只要你以最理智负责的态度面对今生,就没有必要为身后的事担心。
地球主义者的的观点以及控制人工智能的愿望都是从人类的利益出发的,但是为什么一定从人类的利益出发呢?如果机器人比人聪明,那么机器人的统治代替人的统治应该也是进化。人类现在都不把机器人当成人,但是当机器人具有了人的智能之后,机器人与人的区别就几乎不存在了,这时就应该把机器人当成人了。机器人是我们创造的人,也就是我们的子孙。那么我们怎样对待它们不孝的危险呢?我们从来不会因为自己的孩子可能不孝就杀死他们或者不让他们出生。如果机器人真的不孝,那么就当是用父母的生命成全它们吧!

霍金生前的警告振聋发聩:人工智能将消灭人类,美军已有先例

霍金表示,“彻底开发人工智能可能导致人类灭亡。”
  霍金的此番警告是回应对他使用的通讯科技的改良,其中就包括了基本的人工智能。
  霍金是英国著名理论物理学家,患有肌萎缩性脊髓侧索硬化症(ALS),使用英特尔(Intel)公司开发的一种新的系统说话。
  另一家英国公司Swiftkey的机器认知方面的专家也参加了这一系统的开发。这家公司的技术已经被用在智能手机的按键应用软件中,揣摩霍金教授的思想并推测他可能希望使用的词语。

  霍金教授说,人工智能目前的初步阶段已经证明非常有用,但他担心创造出媲美人类甚至超过人类的东西将要面对的后果。“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。”
  不过,其它科学家并非都对人工智能持如此悲观的看法。智能机器人的发明者罗洛·卡彭特表示:“我相信我们还将继续在相当长的时间内掌控科技和它的潜力,并解决世界上的许多问题。”
  卡彭特说,“我们还不知道机器智能超越人类后将出现什么情况。所以我们不知道我们最终将得益于此,还是因此而被忽略、被边缘化,或者被消灭。”他预示,人工智能将起到正面的作用。
  霍金教授并非少数担心未来的科学家。智能机器的开发已经让很多人担心它们将取代人类,短期效应是使数以百万计的工作职位不复存在。而长期来看,人工智能是“人类生存面临的最大威胁”。
  霍金教授另外还对互联网的好处和危险发表了看法。他引述英国政府通讯总部(GCHQ)负责人的警告说,网络有可能成为恐怖主义分子的指挥中心。“互联网公司应该下更大力气应对这些威胁,但是困难之处是如何不损害自由和隐私”。
  虽然人工智能在过去数年发展很快,但霍金使用的科技智能仪器中,声音部分并没有任何的更新换代。
  霍金承认,他的声音的确听起来很机器,不过坚持他不想要更加自然的声音。“这已经是我的标志,我不想变成更自然的英国腔调的声音”,“我听说很多需要智能声音的孩子,都要像我这样的声音。”

其实我不明白霍金一个物理学家,他懂机械,计算机,编程,工业控制和组态吗,为什么要预言人工智能,人工智能一段时间内还发展不到过分的地步,感觉这种担心是越俎代庖了

  • 霍金关于人工智能的警告值得中国人的警惕和注意。
    答:霍金表示,“彻底开发人工智能可能导致人类灭亡。”霍金的此番警告是回应对他使用的通讯科技的改良,其中就包括了基本的人工智能。霍金是英国著名理论物理学家,患有肌萎缩性脊髓侧索硬化症(ALS),使用英特尔(Intel)公司开发的一种新的系统说话。另一家英国公司Swiftkey的机器认知方面的专家也参加了这一系...
  • 霍金生前留下的3个可怕预言中,哪一个已经实现了?
    答:人工智能如今几乎已经深入到了我们的日常生活当中,几乎每个方面都离不开人工智能,但是霍金先生表示,如果人类太过于依赖人工智能的话,那么很可能人工智能在未来不会是我们的工具,反而人类会沦为人工智能的帮手,因为一旦一台人工智能有了意识的话,那么全球所有的人工智能,都会瞬间苏醒过来,到时候聪明的人...
  • 霍金生前留下两大警告,是在警示人类什么呢?
    答:首先,霍金警告人类要谨慎对待人工智能的发展。他认为,虽然人工智能技术带来了便利和效率,但如果不加以适当控制,人工智能可能会发展到超越人类控制的程度,甚至有可能取代人类的存在。霍金的这一观点得到了其他科技界领袖,如比尔·盖茨的支持。人工智能的发展已经显示出了其在特定任务上超越人类的能力,如2...
  • 霍金和马斯克联手警告人工智能将带来危险,我们应如何确保其安全?_百度...
    答:1. 霍金和马斯克都警告说,人工智能可能带来危险。2. 他们认为,我们必须确保人工智能的安全,以防止可能的威胁。3. 霍金强调,在未来100年内,人工智能可能会超越人类智能。4. 他担心人类可能无法完全掌控人工智能的发展。5. 霍金在2015年的Zeitgeist大会上表示,人工智能的智能可能会在未来100年内超越人...
  • 霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了
    答:第一是霍金警告人类要谨慎对待人工智能的发展。人工智能在2020年来说是民众皆知。最早提出人工智能是在20世纪的70年代,当时人工智能对于上个世纪的人类来说还是非常的陌生。一些有先见的科学家提出了人工智能,但是这在当时看来简直就是大言不惭。因为以当时的 科技 水平来说,人工智能似乎只是一个存在于...
  • 霍金生前留下两大警告,是在警示人类什么呢?
    答:霍金是一位非常有威望的科学家,所以科学家们对于霍金的言论向来也都是深信不疑的。霍金生前还给人类留下了两大警告,这两大警告是关乎人类未来命运的,因此人类不得不当心。首先第一个警告就是人工智能。如今智能时代已经来临,人类在快速发展下创造了人工智能,人工智能的研发让人们的生活变得更加快捷了...
  • 霍金的警告:人工智能将导致大规模失业,是真的吗?
    答:霍金警示,面对人工智能可能超越人类的威胁,以及人口爆炸、气候变化和疾病等多重挑战,人类正处在一个危险的历史时刻。他呼吁全球团结应对。尽管如此,霍金的观点并非没有争议。有人认为,历史表明,劳动力的解放通常带来生活水平的提升和就业领域的拓宽。然而,中国等人口大国面临的现实是,大量劳动密集型...
  • 霍金的警告是什么 三个警告揭示他对人类未来担忧
    答:如果有一天外星人和人类相遇,人类文明会遭到重创,说不定人类会经历一场前所未有的灾难。为了避免类似事情的发生切记不要主动去和外星人联系。霍金 2、不要完全开发人工智能 过分开发人工智能可能到时人类灭绝,智能时代给人类带来了很多的方便,随着科技的不断发展便利的同时也有很大的弊端。人工智能不断的...
  • 霍金留下4条忠告,每条都会决定人类的存亡?
    答:他认为人类最终在地球会有一场灭绝性的灾难。在历史上地球也发生过几次生物大灭绝。霍金发现的几个位于人类和地球可能出现的这些危机,比方说人工智能气候变化,转基因病毒,核战争等等都会将人类带入灭绝的境地。所以无论从哪一个警告的观点来看,霍金都是希望地球人类可以长存,保护好我们的地球。
  • 霍金死前留下的三个预言,是否会实现?
    答:霍金先生拥有着绝对聪明的大脑,和爱因斯坦一样是一个传奇人物,在探索宇宙中有着杰出的贡献,留下的东西也值得我们深思和研究。霍金先生在与世长辞之前留下了三个预言,它们会实现么。第一个预言是在人工智能方面,我们现在的社会已经越来越多的运用到了人工智能,人工智能越发的先进独立,科技迅猛发展。...