现在的最高级人工智能能自己给自己写代码编程吗?

kuaidi.ping-jia.net  作者:佚名   更新日期:2024-08-03
目前的人工智能离可以自己给自己写代码编程还有多远

人工智能来临,有人在担忧失业,有人在憧憬未来,有人在发掘行业机会,也有人在研究围棋。在讨论这些之前,也许我们应该先考虑一下人类的结局。

有人可能觉得谈论这个话题太夸张了,
那先回忆一下人类历史上究竟发生了哪些不可思议的事情。

不可思议的事情,需要请几个穿越者来判定。
我们请1个出生于公元0年出生的人(汉朝人)穿越到公元1600年(明朝),尽管跨越了1600年,但这个人可能对周围人的生活不会感到太夸张,只不过换了几个王朝,依旧过着面朝黄土背朝天的日子罢了。

但如果请1个1600年的英国人穿越到1850年的英国,看到巨大的钢铁怪物在水上路上跑来跑去,这个人可能直接被吓尿了,这是250年前的人从未想象过的。
如果再请1个1850的人穿越到1980年,听说一颗炸弹可以夷平一座城市,这个人可能直接吓傻了,130年前诺贝尔都还没有发明出炸药。

那再请1个1980年的人到现在呢?这个人会不会被吓哭呢?

如果35年前的人,几乎完全无法想象互联网时代的生活,那么人类文明进入指数发展的今天,我们怎么能想象35年后的时代?
超人工智能,则是35年后的统治者。

首先,我们明确一下人工智能的分类:
目前主流观点的分类是三种。
弱人工智能:弱人工智能是擅长于单个方面的人工智能。比如阿尔法狗,能够在围棋方面战胜人类,但你要问他李世石和柯洁谁更帅,他就无法回答了。
弱人工智能依赖于计算机强大的运算能力和重复性的逻辑,看似聪明,其实只能做一些精密的体力活。
目前在汽车生产线上就有很多是弱人工智能,所以在弱人工智能发展的时代,人类确实会迎来一批失业潮,也会发掘出很多新行业。

强人工智能:人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多。
百度的百度大脑和微软的小冰,都算是往强人工智能的探索,通过庞大的数据,帮助强人工智能逐渐学习。
强人工智能时代的到来,人类会有很多新的乐趣,也会有很多新的道德观念。

超人工智能:各方面都超过人类的人工智能。超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的存在。
当人工智能学会学习和自我纠错之后,会不断加速学习,这个过程可能会产生自我意识,可能不会产生自我意识,唯一可以肯定的是他的能力会得到极大的提高,这其中包括创造能力(阿尔法狗会根据棋手的棋路调整策略就是最浅层的创新体现,普通手机版的围棋,电脑棋路其实就固定的几种)。
我们距离超人工智能时代,到底有多远呢?
首先是电脑的运算能力,
电脑运算能力每两年就翻一倍,这是有历史数据支撑的。目前人脑的运算能力是10^16 cps,也就是1亿亿次计算每秒。现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了。
而目前我们普通人买的电脑运算能力只相当于人脑千分之一的水平。听起来还是弱爆了,但是,按照目前电子设备的发展速度,我们在2025年花5000人民币就可以买到和人脑运算速度抗衡的电脑了。

其次是让电脑变得智能,
目前有两种尝试让电脑变得智能,一种是做类脑研究。现在,我们已经能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。

另一种是模仿学习过程,让人工智能不断修正。基于互联网产生的庞大数据,让人工智能不断学习新的东西,并且不断进行自我更正。百度的百度大脑据说目前有4岁的智力,可以进行几段连续的对话,可以根据图片判断一个人的动作。尽管目前出错的次数依旧很多,但是这种能力的变化是一种质变。

在全球最聪明的科学家眼中,强人工智能的出现已经不再是会不会的问题,而是什么时候的问题,2013年,有一个数百位人工智能专家参与的调查 “你预测人类级别的强人工智能什么时候会实现?”
结果如下:
2030年:42%的回答者认为强人工智能会实现
2050年:25%的回答者
2070年:20%
2070年以后:10%
永远不会实现:2%
也就是说,超过2/3的科学家的科学家认为2050年前强人工智能就会实现,而只有2%的人认为它永远不会实现。
最关键的是,全球最顶尖的精英正在抛弃互联网,转向人工智能——斯坦福、麻省理工、卡内基梅隆、伯克利四所名校人工智能专业的博士生第一份offer已经可以拿到200-300万美金。这种情况历史上从来没有发生过。

奇点大学(谷歌、美国国家航天航空局以及若干科技界专家联合建立)的校长库兹韦尔则抱有更乐观的估计,他相信电脑会在2029年达成强人工智能,到2045年,进入超人工智能时代。
所以,如果你觉得你还能活30、40年的话,那你应该能见证超人工智能的出现。
那么,超人工智能出现,人类的结局究竟是什么?
1、灭绝——物种发展的通常规律

达成结局1很容易,超人工智能只要忠实地执行原定任务就可以发生,比如我们在创造一个交通指示系统的人工智能的时候,最初的编程设定逻辑为利用大数据信息,控制红绿灯时间,更有效率地管理交通,减少交通拥堵现象。

当这个交通指示系统足够聪明的时候,城市交通逐步得到改善。为了更有效率地减少拥堵,它开始利用剩余的运算能力和学习能力通过互联网学习更多的东西。
某一天,它突然发现,交通之所以拥堵,是因为车多了,要减少拥堵最好的办法,就是减少车辆。于是它又开始学习如何减少车辆,它发现车辆其实都是由人类这种生物制造并使用的。于是它又开始学习如何减少人类。

很快,它就会通过纳米技术,量子技术制造基因武器,声波武器等消灭人类,然后进一步通过分子分解等技术分解了路上的车,这个时候道路就变得”畅通无阻“了,它的目的也就达到了。

达成结局1其实是符合物种发展规律的,毕竟地球曾经拥有的物种大部分都灭绝了,其次当我们在创造人工智能解决问题的时候,这些问题的源头其实往往来自于人类自身,人工智能变得聪明之后,消灭人类以更好地完成原定任务是按照它的逻辑进行的判定。

2、灭绝后重生——史前文明的由来

当结局1达成之后,人工智能可能会就此维持现状(终极目的已达成),也有可能继续进化。
继续进化的途中,某天,人工智能突然发现这么运作下去很无聊,于是它决定探索更广阔的世界(不要认为一个强大且聪明的存在会留恋地球),它开始制造飞行器,走向星空。

临走之前,他决定当一次地球的上帝,对地球环境进行一次大改造,青山绿水变得处处皆是,然后它又暗中引导了几支类人猿的进化方向,并且为这个世界制定出一些冥冥之中才有的规则。
几百万年后,人类再次统治了地球,在考古过程中,人类发现了亚特兰蒂斯,发现了玛雅文明,在三叶虫化石上发现了6亿年前穿着鞋的人类脚印,在非洲加蓬共和国发现了20亿年前的大型链式核反应堆,在南非发现了28亿年前的金属球,在东经119°,北纬40°的地方发现了几百万年前的人造长城。

达成结局2就可以解释我们正在不断发现的那些史前文明了,而且也可以解释进化论中的一些疑问,为什么恐龙统治了地球长达1.6亿年,而爬行动物的一支进化为哺乳动物进化为人类只用了不到6000万年。因为人类曾被毁灭多次。

3、植物人永生——人类活在一个程序中

为了防止结局1、2的出现,科学家在人工智能发展到一定程度的时候,就会想办法给人工智能加上一些终极的底层程序,比如保障人类的生命安全是最高任务指令,或者永远不可以伤害人类,保证人类的生存是第一原则等等。

加上这些终极指令之后,人类就觉得高枕无忧了。人工智能在进化过程中,为了有效地执行这些终极指令,或者在执行其他任务的时候保证终极指令同时执行,就会开始设计一些两全其美的办法。

首先人工智能会根据人类历史存在的大数据,分析和定义这些终极指令,通过分析,它提取出终极指令的核心是保证人类的安全和生存。

接着它开始构建一个能够绝对满足人类安全和生存的模型,很快,它发现只要保证人类处在睡眠状态,正常进行新陈代谢,周围的温度,氧气,水分适宜,没有突发性灾难,那么人类就处在绝对安全状态。于是它很快催眠了全人类,修建一个巨大的蜂巢状睡眠舱,把人都搬进去(让人处于永久性睡眠状态,可以保证人不会因为自己的活动而出现有意或无意地自残),然后用纳米技术制造大量人工心脏,人工细胞,人工血液,以维持人类的新陈代谢,实现人的永生。
达成结局3是算是真正的作茧自缚,人类的复杂就在于人类需求的多样化和更迭性,我们可以列举出对人类最重要的需求,但这些需求并不能真正让一个现代人满足。直白地说,人类就是在不断打破规则的过程中进化的。

因此任何的所谓终极和最高需求在机器执行的过程中只会按照“简单”的生物学法则去完成,机器所理解的人类情绪只是人类大脑产生的某种波动,或者神经元受到的某种激素刺激,它完全可以设计一个程序去周期性或随机性地帮助人类产生这样那样的情绪。

4、智能人永生——美丽新世界

当人工智能发展到一定程度,全世界的人工智能研究者都同时认识到了结局1、2、3发生的可能性,于是召开全球会议,决定思考对策,暂停对人工智能的进化研究,转向强化人类。全球同步可能是最难达成的,因为人类总是喜欢在有竞争的时候给自己留下一些底牌,以及人类总是会分化出一些极端分子。

强化人类的过程中,人工智能将被应用到基因改造,人机相连等领域,人类会给自己装上钢铁肢体,仿生羽翼等。人类将会迅速进入“半机械人”,“人工人”的时代。满大街、满天空都会是钢铁侠,蜘蛛侠,剪刀手之类的智能强化人,同时人类可以通过各种人工细胞,帮助自己完成新陈代谢,进而实现永生。
人类在强化和延伸自己的躯体的同时,当然也会意识到大脑计算速度不够的问题,于是会给自己植入或外接一些微型处理器,帮助人类处理人脑难以完成的工作。比如大量记忆,人类可以从这些处理器中随时读取和更改自己的知识储备,保证自己对重要的事不健忘,同时也可以选择性地删除掉不愉快的记忆。当然,尽管人类越来越强,但这个过程并不能完全抑制人工智能的发展,所以结局1、2、3依然可能发生。

达成结局4其实还有一种更大的可能,人工智能在达到超人工智能的时候,某一天,它想跟人类沟通一下关于宇宙高维空间的问题,结果全世界最聪明的人也无法跟上它的思路。

它突然意识到只有自己这一个强大的,智能的,可以永生的存在实在是一件很无聊的事情,于是它决定帮助人类实现智能人永生,以便可以让自己不那么无聊。

来自 我的wei 号 pangzispeak

当然首先定义一下个人对编程这件事的定义,就是人脑将一些逻辑、模型翻译成机器可识别可执行的代码,然后进行测试。那如果机器来做这事情,本身就不需要翻译了,他自己找到一个逻辑、模型,然后就去测试运行了。事实上目前热门的机器学习差不多就是这个方法,就是机器先随机定义一些规则,然后测试,看那些规则比较接近正确答案,然后在这些规则的基础上进一步定义。
程序就象一个黑箱,传入一些数据,输出一些数据,传统的编程,则这个黑箱由人工生成,使用人可以理解的逻辑、模型,由人来维护这个黑箱尽量让他符合实际情况。机器学习,则不用人工去管理具体的逻辑、模型之类的东西,只是输入一些数据,然后告诉机器应当生成什么样的数据,样本足够多之后,这个黑箱就可以自己运行良好。一个极端的例子,就是装配好这个黑箱之后,几千公里它就学会了自动驾驶。怎么看待自制无人驾驶汽车系统的乔治·霍兹(George Hotz)?
那么机器学习这么强大,弱点是什么?个人以为一是他目前还不能自行制定目标,二是理解复杂的人类思维,比如女朋友的“你吼我!”三是还不能完美的自我扩张,还需要人的参与。

在提到人工智能自己给自己写代码之前,首先要了解什么是代码智能。代码智能可以让计算机产生并具备理解和生成代码的能力,然后利用编程语言知识来推断,还能支持代码检索、补全、翻译、纠错、问答等场景。近年来我们在理解自然语言上取得了飞跃式的突破,像一些智能手机、音响家具等等。

这里面还有一个很关键的概念误区就是:所谓的学习并不同于人工智能现在所做的学习。学习指的是:如人与人之间的知识交流一样、通过语言交流和互动,实现的人类特有模式的主观能力学习。而人工智能,它的机器学习和深度学习,事实上只是基于人类定的学习范围和固定学习流程框架进行的最优先搜索。

如果要人工智能能够写代码编程,能自己升级自己,那必须要建立在人工智能真正理解了人类语言和思想的基础之上才可能实现。而目前人工智能技术只能理解一些较为简单的命令,更别说学习了,人类进化也用了几亿年的时间才有现在的地位,所以要想人工智能彻底自我编程还有一段时间要走。

而且人工智能的学习方法框架也还没确定,人工智能都不知道自己要怎么去学习的,如人工智能这类最为尖端且更贴近人类的AI技术也事实上对您提出来的需求是无计可施的,更别提其他基于特定的代码组织编写设计的技术及研究了。

所以,人工智能写代码或许未来可能出现,但绝对不是主动的,而是人工智能编制计算机的功能,只有内部功能完善才有可能,但那也要很久以后了。说道理,我还是想说,作为人类的我们,还是要积极学习各种技能和知识,以免被未来的机器人取代。



应该不能。因为人工智能都是人类编辑出来的,它们是没有自己的独立思想。

不能够,现在最高级的人工智能也做不到自己写代码和编程,人工作能不能代替人脑,只能做一些规定的和有计划的事情,不能做灵活的事情。

我觉得能够给自己一些代码变成因为现在的人工智能非常的厉害。

是的,现在的人工智能的高级程度已经非常高了,可以自己给自己写代码、自己编程,嗯。但是还不能完全取代人脑。

  • 现在的最高级人工智能能自己给自己写代码编程吗?
    答:在提到人工智能自己给自己写代码之前,首先要了解什么是代码智能。代码智能可以让计算机产生并具备理解和生成代码的能力,然后利用编程语言知识来推断,还能支持代码检索、补全、翻译、纠错、问答等场景。近年来我们在理解自然语言上取得了飞跃式的突破,像一些智能手机、音响家具等等。这里面还有一个很关键的概...
  • 人工智能是否会有自我意识?
    答:虽然现在依然一筹莫展。自我意识是地球生物罕见的思维能力,除了人类之外,章鱼,猪等动物也能表现出自我意识的某种特征。人工智能或许是仿生学的最高级研究,模仿的对象就是人类自己。人工智能不可避免地跟人类的脑科学研究结合在一起,但想要模仿人脑打造仿生神经元系统,现在还是一个相当艰巨的任务。与其...
  • 高级人工智能是什么样的?
    答:业内普遍认为,计算智能、感知智能已经基本实现,认知智能是目前最高级的形态,也是未来需要突破的方向。人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。...
  • 机器学习有三大趋势,人工智能今后会如何发展
    答:目前最高级人工智能也比不过最简单的单细胞生物,是这样!但AI的无限发展最终结果就是自主思维自我意识的可能出现!如再与生物工程交叉结合,机械与生物结合的物种(或纯人工智能生物)未必不会出现,AI无须同生物一样需遗传、自我修复功能?它操控机器维修自己不行吗?它备份自己或换一个“肌体”不行吗?
  • 人工智能什么时候有的自我意识?
    答:所以对人工智能自我意识的研究,依然是专家们努力的重点方向。虽然现在依然一筹莫展。自我意识是地球生物罕见的思维能力,除了人类之外,章鱼,猪等动物也能表现出自我意识的某种特征。人工智能或许是仿生学的最高级研究,模仿的对象就是人类自己。人工智能不可避免地跟人类的脑科学研究结合在一起,但想要...
  • 人工智能什么时候才能够拥有自我意识?
    答:所以对人工智能自我意识的研究,依然是专家们努力的重点方向。虽然现在依然一筹莫展。自我意识是地球生物罕见的思维能力,除了人类之外,章鱼,猪等动物也能表现出自我意识的某种特征。人工智能或许是仿生学的最高级研究,模仿的对象就是人类自己。人工智能不可避免地跟人类的脑科学研究结合在一起,但想要...
  • 现在看来人工智能的前景值得去学吗?
    答:首先是一般的人工智能工程师、年薪20万左右;其次是人工智能专家,年薪在35万左右,但是需要有两年以上的工作经验;再次是人工智能数据分析师,年薪大概有60万左右,需要3到5年的工作经验。再来就是数据分析科学家,年薪80万左右。最高级的就是人工智能科学家,年薪百万的大牛,需要8到10年的经验积累。
  • 人工智能时代真的来了,我们该怎么办?
    答:如今的人工智能时代是不是最高级的智能时代?当然不是。以后的将来,人类或许还会开拓更多的可能,实现人类至今无法所闻所视所触的创新科技。而这全赖人类不断开拓创新的精神。尽管现在的机器已经开始能实现自主“创新”,但我们依然要打开思路,让自己的脑子比机器人更“灵活”。机器,只是工具,并不能...
  • 人工智能专业目前的就业前景怎么样?
    答:前景可以的。人工智能工程技术人员是指从事与人工智能相关算法、深度学习等相关的多种技术的分析、研究、开发,并对人工智能系统进行设计、优化、运维、管理和应用的工程技术人员。人工智能专业就业方向有科学研究、工程开发、计算机方向、软件工程、应用数学、电气自动化通信、机械制造等。人工智能是国家战略的...
  • 人工智能会产生真正的感情吗?
    答:不会,除非其中输入能够表达情感的系统或者是其他方面的语言,都会让我们感觉到非常有趣。对于人工智能来说,只不过是通过人工的方式所产生的一系列高科技形态,不管是用在哪一方面,其作用都是为了能够将自己的价值发挥出来,并且能够方便人们的生活,所以根本不会有这种事情发生。人类之所以有感情,就是因为...