乐百家lo555乐百家_home_乐百家——在线娱乐权威品牌 >  生活 >  人工智能的承诺和关注 > 

人工智能的承诺和关注

乐百家lo555乐百家 2017-06-11 09:03:03 生活
<p>人工智能可以反对其创作者吗</p><p>焦虑并不新鲜,但人工智能的进步需要道德和立法方面的考虑</p><p>由爱德华Pflimlin发布时间2016年6月28日在10:34 - 最后更新日期2016年6月28日在11:31阅读时间2分钟</p><p>文章提供给用户的是反抗他们的创造者机器的想法并不新鲜,认为科学怪人(1818),玛丽·雪莱的,说经济学家</p><p>但人工智能(AI)的最新进展引发了新的担忧</p><p>尼克·博斯特罗姆,在牛津大学哲学家,成为最知名的AI的危险举报人或者,因为他更喜欢称呼它,超级智能,他的畅销书的标题</p><p>他对人工智能的兴趣源于对人类存在的威胁的分析</p><p>博斯特罗姆先生的书提示伊隆·马斯克(特斯拉创始人尤其是)宣布,该AI是“可能比核武器更危险</p><p>”关注的还有斯蒂芬·霍金,著名天体物理学家和里斯勋爵,英国皇家学会在英格兰的前董事表示</p><p>他们签署了一封公开信,要求进行研究以确保人工智能系统不会变坏</p><p>怎么办</p><p>马斯克先生认为开放获取是关键</p><p>但博斯特罗姆先生并不确定将技术尽可能地提供是一件好事</p><p>它的扩散可能使技术更难以控制</p><p>但是,并不是所有人都对人工智能感到担忧</p><p>仅仅是不现实的弗朗西斯·罗西,在AI在IBM伦理的研究人员说,这机器“有一天醒来,并改变他们对他们会做些什么头脑”的想法</p><p>此外,像无人机这样的机器在执行任务期间聚集的数据会返回到它们的基础并可用于改进它们</p><p>但是,存在忽视道德和监管问题的风险</p><p>因此,基于深度学习(“深度学习”)的面部识别系统可以使状态监测系统更加强大</p><p>已经是中国当局分析公民的“社会化媒体”档案,可检测持不同政见者...自主汽车带来其他的伦理问题,特别是关于他们应该如何表现在紧急情况下</p><p>例如,一辆自动驾驶汽车是否应该让乘客受伤以避免触碰突然出现在她面前的孩子</p><p>很多人也关心军事用途AI的,尤其是在自主武器决定生死的决定,无需人工干预</p><p>蒙特利尔大学的Yoshua Bengio想要“彻底禁止”</p><p>生死抉择的机械都必须由人采取,因为机器不能对自己的决定负责</p><p>因此,

作者:查磔

日期分类