黄桓

黄桓

人工智能讲师

 讲师首页 课程 文章 联系方式

网站首页>名师博客 > 风险管理

什么办法可以解决人工智能可能带来的风险

讲师:黄桓   已加入:1537天   关注:2332   


  人工智能存在和发展的目的就是要提高人类社会的劳动生产率,因此在一部分工作岗位上人工智能发挥特长超过人类是一种必然的趋势,替代人类去工作从而一部分人类社会的工作岗位消失也非常的正常。一部分工作岗位的消失不等于全球真的就会有15%的劳动力因为人工智能而失业,因为人类社会的工作岗位总是随着技术的发展和不断迭代变化的。就像十九世纪末汽车发明和普及的过程中,围绕马车的一系列工作(比如马车制造、马车夫、城市街头捡拾马粪的清洁工)消失了,但是围绕新的汽车和道路交通也诞生了很多新的行业和工种。那么在人工智能逐步普及的过程中,我们也需要一系列的产业和工作来为这个过程提供支持和服务,至少在20年内人工智能还仅仅处于弱人工智能向强人工智能转化的过程,人工智能的应用需要大量人员支持、配合和分析、管理的工作岗位,因此只要对现有的职业人员进行必要的岗位培训,适应人工智能的发展出来的工种要求,就业率应该有足够的保证。人类从整体上可以在人工智能的协助下,从繁重的重复的劳动中解放出来,过上更高品质的生活、可以有自由支配的业余时间,这是人类社会发展的*愿景,人工智能可以发挥重要的推动作用。

  但是美好的愿景,依然伴随的*的担忧,那就是:人工智能会不会产生自我意识、会不会走向人类的对立面、会不会最终成为人类的天敌?有句搞笑的话,人类通过几十万年的进化,发展出了超过所有已知生物的大脑,从而使得人类变得异常强大、变得没有天敌。但是人类并不满足,所以人类发挥了所有的聪明才智、想尽了一切办法,终于给自己造出了一个天敌,那就是人工智能!是的,人类亲手造出的人工智能,最终将把人类社会引向何方?这是让现代人类社会普遍感到困扰、担忧甚至恐惧的问题。

  在达米老师我看来,人工智能的发展过程中有三大靠不住:第一个靠不住,就是希望阿西莫夫的机器人三定律能够被所有人类开发者和所有的人工智能广泛持久的坚守;第二个靠不住,就是依靠现有人类开发者的智能和对未来风险评估后,在开发过程中设置人工智能威胁人类的防火墙;第三个靠不住,就是相信机器智能在现有技术标准的框架下,通过学习人类的道德情感,形成与人类的共情能力,从而自我规避危害人类的行为。简单的说,就是原则靠不住、人类开发者的智商靠不住、机器智能的自我道德约束靠不住。

  人工智能研究领域有一个着名的假说:就是关于爱因斯坦和脑残人的假说,在整个生物智能演化的历程中,人类*智慧的代表爱因斯坦和一个人类智慧最末流的脑残人,其实在智力上相差无几,而比起脑残人再稍有落后的,就是我们的猿猴近亲。现在人工智能的发展从整体上到了猿猴智商的阶段,再发展一步就会接近脑残人的智商。也许就算到了一台机器具有了脑残人的智商,在你我看来,它还是傻傻的满可爱;但是请不要忘记,它还在自我学习,它还在快速成长,而这种成长速度即将进入快速的爆发期,一旦当它突破爱因斯坦的智商水平这在进化过程中,可以说时间短到可以忽略不计,也许只是几年、几个月甚至几天这时你我这样人类已经看不懂它在想什么了,而且要不了多久,它看过我们,就像我们现在看蚂蚁的感觉一个样。如果在这一天到来之前,我们没有准备好,没有形成一套系统的体系机制,那么不要说是让机器服务人类了,很可能人类就此就把自己玩死了。那么,人类应该怎么办?我认为,人类有三个办法,综合运用,就有机会对抗人工智能在未来可能对人类造成的威胁和伤害,从而使得人工智能能够持久的服务人类社会、与人类长期和谐共存,共同开创美好的时代。  第一个办法:摒弃人类智能优越论,主动学习蚂蚁的族群智慧

  既然机器以后看我们人类,一定觉得就像蚂蚁一样。那么人类不仿从现在开始就放低心态,甘当“蚂蚁”,要知道单个蚂蚁智商极低,甚至不能独立生存,但是整个蚂蚁群体集合在一起,却是拥有很高智商的,在寻找收集食物、繁衍后代和抵抗外敌方面都不输给任何一个生物种群。从现在开始,就去研究和学习蚂蚁种群的运作规律,找到人类未来与人工智能博弈中,将要运用的种群智慧,这是哲学层面的思考,也是人类社会发展演化的*思考。

  第二个办法:可以发展通用人工智能,但*不能试图构见一个凌驾于全球之上的中心智能

  我们社会发展的演进正在去中心化,在发展人工智能的过程中也要引入去中心化的思维。发展通用人工智能是很有必要的,因为它比专项人工智能更全面,更能够从全局视角来理解人类和服务人类社会,但是构建一个中心智能却非常危险。比较可行的办法,就是把通用智能分散开来,以区块链的技术来把全体人类和各个分散的通用智能集合成一个彼此依赖共存的整体。区块链里面有个51%攻击的理论,当一个区块链面临51%饱和攻击的时候,原来的系统规则就将瘫痪并且被改写,我们不希望也不认为在金融区块链或供应链区块链或物联网区块链发生这样的攻击行为,因为绝大多数人不会参与。那么,我们在与人工智能仪器构建的这个H-AI区块链中,正好反其道而用,当51%的人类参与者认为人工智能威胁到人类时,攻击区块链,改写规则,让人工智能瓦解。这就是一种威慑,就像三体中人类对三体人构建的威慑系统一样。只要这种威慑存在,人工智能只能与人类共存,不能威胁人类。

  第三个办法:建立虚拟世界的警卫队,采用冷智能设备与人类卫队成员一同巡逻

  人工智能服务人类时,它的外在表现一定会经过一番修饰和加工,从而满足人类的愿望和需求,但是由于人工智能在自我智力不断革新迭代的过程中会形成很多的人类无法彻底理解暗知识,如果仅仅依靠真实物理世界的表象来分析,很难看出人工智能的底层逻辑。所以需要建立一支有人类和冷智能设备共同配合的虚拟世界警卫队,甚至还可以让蚂蚁雄兵携带冷智能设备进入人工智能所在的虚拟世界进行巡逻,从而确保长久的安全共荣。所谓的冷智能设备,就是独立于任何现有网络系统之外的智能设备,它们可以在需要是进入虚拟世界的热系统中,来感知是否有威胁存在。

  通过以上三个办法,我认为可以长期保持人类社会与人工智能的核心共处,让人工智能全面服务人类社会,并且共同推进地球文明的新篇章。

上一篇: 新媒体爆款文章和爆款视频的标题构思技巧十大技巧
下一篇: 支付高薪岂能加速员工成长?老板们醒醒吧


其他相关热门文章:

其他相关课程:


联系电话:4000504030
24小时热线(微信):
13262638878(华东)
18311088860(华北)
13380305545(华南)
15821558037(华西)
服务投诉:13357915191

 
线上课程关注公众号