汉山

标题: 霍金最后的警告!要小心这件武器,它可能会毁灭人类 [打印本页]

作者: 大千世界    时间: 2018-3-19 14:16
标题: 霍金最后的警告!要小心这件武器,它可能会毁灭人类
  2018-03-16 · 军事新观察

  

  图为史蒂芬霍金

  2018年3月14日,轮椅上的科学巨匠史蒂芬.霍金离开了世界,享年76岁。在最后一次演讲时,记者曾问及霍金有什么话要说,已经进入了生命倒计时的霍金向记者表示:“我最担心的就是人类在人工智能上的发展,彻底开发人工智能将最终导致人类毁灭”。而值得一提的是,这已经不是霍金第一次警告人工智能的发展,在2013年时,霍金就曾预言过人工智能,尤其是人工智能武器所带来的影响,并将其列为人类发展最大的潜在威胁。那么,这个威胁究竟是危言耸听还是真实存在呢?

  在2013年的人工智能武器展会上,出现了一种尺寸和小型四轴无人机相似,却可以通过面部识别杀人的人工“蜜蜂”。值得一提的是,制造该无人蜂的公司的宣传视频并不是一群蜜蜂涌入军事基地和政府机构大肆屠杀,而是以学校为模拟目标,有计划的对老师、学生等目标进行识别猎杀,这迅速引起了人工智能界的轰动并造成了强烈反响,而其中,就包括了史蒂芬霍金。

  

  图为俄罗斯的战斗机器人

  次日,霍金就发表了一系列质疑人工智能发展的演讲。其中,最多的就是对人工智能武器的发展抨击。霍金表示:现阶段人工智能武器是可控的,因为它们还处于人类的控制之下并,由人类修改程序。而在未来,在面对可以自行处理问题,可以随时自行编码的人工智能武器时,人类又应该怎么去把控人工武器的发展呢?

  目前,已不乏有像Travis机器人这样的可以模仿人类表情,学习人类动作的高智能机器人。美国的机械骡子也拥有很强的地形适应学习能力,以及自行规避战火寻找能力。这些机器人都拥有一个很明显的共性,就是拥有无人干预时将表现出很强的自我学习能力以及环境适应能力。

  

  图为IBM蓝色基因计算机

  这意味着,人工智能的“头脑”超级计算机在处理速度达到一个峰值时,人工智能将突破自我意识,并与制造者发生意志冲突。而假如制造者没有第一时间发现人工智能的“异变”,人工智能很有可能趁人不注意的时候。改编其他人工智能的工作程序,并与此同时入侵各国数据库“学习”资料。

  届时,具有独立意识的人工智能武器可能如病毒般蔓延,并向人类主动发动攻击,甚至是入侵总统的核手提箱向世界发生核弹,所以霍金才如此担心人工智能的发展并在最后的一次演讲中告诫世人一定要控制人工智能的发展,以避免被进化速度更快的机器人超越。







欢迎光临 汉山 (http://www.hanshan.info/) Powered by Discuz! X3.2