设为首页收藏本站

汉山

 找回密码
 立即注册

QQ登录

只需一步,快速开始

扫一扫,访问微社区

搜索
热搜: 活动 交友 discuz
查看: 1120|回复: 0
打印 上一主题 下一主题

霍金最后的警告!要小心这件武器,它可能会毁灭人类

[复制链接]

8244

主题

9798

帖子

8万

积分

版主

Rank: 7Rank: 7Rank: 7

积分
85256
跳转到指定楼层
楼主
发表于 2018-3-19 14:16:41 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
  2018-03-16 · 军事新观察

  

  图为史蒂芬霍金

  2018年3月14日,轮椅上的科学巨匠史蒂芬.霍金离开了世界,享年76岁。在最后一次演讲时,记者曾问及霍金有什么话要说,已经进入了生命倒计时的霍金向记者表示:“我最担心的就是人类在人工智能上的发展,彻底开发人工智能将最终导致人类毁灭”。而值得一提的是,这已经不是霍金第一次警告人工智能的发展,在2013年时,霍金就曾预言过人工智能,尤其是人工智能武器所带来的影响,并将其列为人类发展最大的潜在威胁。那么,这个威胁究竟是危言耸听还是真实存在呢?

  在2013年的人工智能武器展会上,出现了一种尺寸和小型四轴无人机相似,却可以通过面部识别杀人的人工“蜜蜂”。值得一提的是,制造该无人蜂的公司的宣传视频并不是一群蜜蜂涌入军事基地和政府机构大肆屠杀,而是以学校为模拟目标,有计划的对老师、学生等目标进行识别猎杀,这迅速引起了人工智能界的轰动并造成了强烈反响,而其中,就包括了史蒂芬霍金。

  

  图为俄罗斯的战斗机器人

  次日,霍金就发表了一系列质疑人工智能发展的演讲。其中,最多的就是对人工智能武器的发展抨击。霍金表示:现阶段人工智能武器是可控的,因为它们还处于人类的控制之下并,由人类修改程序。而在未来,在面对可以自行处理问题,可以随时自行编码的人工智能武器时,人类又应该怎么去把控人工武器的发展呢?

  目前,已不乏有像Travis机器人这样的可以模仿人类表情,学习人类动作的高智能机器人。美国的机械骡子也拥有很强的地形适应学习能力,以及自行规避战火寻找能力。这些机器人都拥有一个很明显的共性,就是拥有无人干预时将表现出很强的自我学习能力以及环境适应能力。

  

  图为IBM蓝色基因计算机

  这意味着,人工智能的“头脑”超级计算机在处理速度达到一个峰值时,人工智能将突破自我意识,并与制造者发生意志冲突。而假如制造者没有第一时间发现人工智能的“异变”,人工智能很有可能趁人不注意的时候。改编其他人工智能的工作程序,并与此同时入侵各国数据库“学习”资料。

  届时,具有独立意识的人工智能武器可能如病毒般蔓延,并向人类主动发动攻击,甚至是入侵总统的核手提箱向世界发生核弹,所以霍金才如此担心人工智能的发展并在最后的一次演讲中告诫世人一定要控制人工智能的发展,以避免被进化速度更快的机器人超越。


分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友 微信微信
收藏收藏 分享分享
一直被朋友称为小博士。其实就是书读得多一些而已。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|汉山网    

GMT-5, 2025-10-22 06:09 , Processed in 0.109467 second(s), 23 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表