推广 热搜: 中国  台湾  吉布提  CEO  韩国  核试验  高考  朝鲜  国足  火星 

专家警告:人工智能的毁灭性超核弹十倍

   2016-10-10 IT之家1590
核心提示:据英国《每日快报》报道,最有希望的美国总统候选人Zoltan Istvan警告称,人工智能(AI)的研发将对人类产生最大的影响。全球的

据英国《每日快报》报道,最有希望的美国总统候选人Zoltan Istvan警告称,人工智能(AI)的研发将对人类产生最大的影响。全球的科学家们都在疯狂的研发着人工智能技术,这项技术意味着机器或者软件能够表现出与人类相当的智慧。

专家警告:人工智能的毁灭性超核弹十倍

许多专家都对于研发人工智能提出了警告,因为它事实上能够让人类遭到淘汰,因为它们能够取代我们的工作,而且最终把我们视作一种障碍。作为超人类主义者,Istvan先生希望能够通过科技将人体与机器融合,彻底改变人类和人类的体验。他声称人工智能将被用于军事领域,而且比核弹的研发更值得注意。

Istvan先生对《每日快报》记者称:“如果我明天成为了总统,我会投入大量的资源进行人工智能的研发,因为我发现无论谁最早控制人工智能或者控制最聪明的人工智能,或许都将很快在全球军事领域占据领先地位。”

他声称:“如果你的机器能够编写病毒或者黑入其它任何机器,那么你就比其它任何政府都拥有明显的优势。无论谁首先获得人工智能,都将最终成为世界领袖。当美国在日本投下原子弹的时候就改变了军事格局。而第一个批人工智能将是日本核弹爆炸的五到十倍威力。”

他认为全世界政府应当成立一个联盟来研发人工智能,因为这项技术需要小心翼翼的进行监控。Istvan先生称:“对我来说,一个民主国家首先研发人工智能是非常重要的,因为我们需要让它成为一种民主力量,而非一种军事力量。”

当问及人工智能是否有可能反叛人类时,Istvan先生回应称:“这就是为何我认为成立一个国际联盟来研发人工智能才是最佳选择的原因。我并不清楚未来会发生什么,人工智能能够一晚上自我升级十次,那样就会比我们人类还要聪明。它会给军方甚至是全人类都带来巨大的问题。”

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  浙ICP备16001776号-1  |  水电费第三方