西藏千途旅游

天文生命动物历史地理谜团

搜索

霍金等科学家发公开信 呼吁提防人工智能副作用

科技博览|2015-1-12 15:43

来源:中新网|1360人参与|0评论

字体: 繁体 打印

霍金等科学家发公开信呼吁提防人工智能副作用

 

资料图:霍金等各界知名人士呼吁提防人工智能副作用。

 

  据英国《金融时报》12日报道,近日,包括霍金及企业家埃伦•马斯克(Elon Musk)等在内的数位科学家、企业家及与人工智能领域有关的投资者联名发出了一封公开信,警告人们必须更多地注意人工智能(AI)的安全性及其社会效益。

 

  这封发自生命未来研究所(Future of Life Institute,简称FLI)的公开信还附带了一篇论文,其中建议应优先研究“强大而有益”的人工智能。目前,人们日益担心机器的智力和能力可能会超过创造它们的人类,从而影响到人类的就业,甚至影响到人类的长期生存

 

  这封公开信表示:“由于人工智能的巨大潜力,开展如何在规避其潜在陷阱的同时获取其好处的研究十分重要。我们的人工智能系统,必须按照我们的意愿工作。”

 

  据悉,FLI于2014年由包括Skype联合创始人让•塔林(Jaan Tallinn)在内的志愿者创立。成立该研究所的目的一方面是为了促进对“未来乐观图景”的研究,一方面则是为了“降低人类面临的现存风险”。其中,在开发与人类相当的人工智能技术过程中出现的那些风险,将是该所关注的重点。

 

  SpaceX和特斯拉(Tesla)的共同创始人马斯克、著名演员摩根•弗里曼(Morgan Freeman)以及宇宙学家史蒂芬•霍金都是FLI科学顾问委员会的委员。马斯克表示,他相信不受控制的人工智能“可能比核武器更危险”。

 

  这封FLI公开信上的其他署名者还包括机器智能研究所(Machine Intelligence Research Institute)的执行主任吕克•米尔豪泽(Luke Muehlhauser),麻省理工学院(MIT)物理学教授、诺贝尔奖得主弗兰克•维尔切克(Frank Wilczek),人工智能企业DeepMind和Vicarious的幕后主管,以及几名谷歌(Google)、IBM和微软(Microsoft)的员工。

 

  这封信并不以一封兜售恐惧心理为目的。与此相反,它十分谨慎地同时强调了人工智能的积极面和消极面。

 

  信中写道:“如今存在的一个广泛共识是,人工智能研究正在稳步进展之中,它对社会的影响也很可能会逐渐增大。人类文明所能提供的一切都是人类智慧的结晶。这种智慧被人工智能可能提供的工具放大后,我们能做到什么是我们无法想象的,不过那样的话根除疾病和贫困将不再是遥不可及的。从这个意义上说,人工智能有巨大的潜在好处。”

 

  目前,人工智能研究的部分好处已经成为现实,其中包括语音识别和图像识别,以及自动驾驶的汽车。在硅谷,部分人估计如今从事人工智能业务的初创企业超过了150家。

 

  鉴于人工智能正吸引越来越多的投资,许多创业家和谷歌等企业都在盼望着能通过建立会自主思考的电脑,获得巨额回报。对于这种局面,FLI警告说,人们或许应“及时”将更多注意力集中在人工智能的社会后果上,不仅要从计算机科学的角度开展研究,还要从经济、法律及信息安全的角度开展研究。

微信扫一扫

赞助行者物语 赞助我们
您知道行者物语这些年来一直都是非营利网站吗?我们秉持“思想自由”与“价值共享”的信念,致力于打造一个不受商业操控、专注在读者身上的平台。如果您也认同我们正在努力呈现的观点,请通过左侧二维码赞助我们~

  • 霍金 人工智能 人类
  • 行者物语 责任编辑:语燃
  • 分享到:
    西藏千途旅游
    探索资讯
    探索画报
    公益视角
    动物世界
    户外课堂

  • 行者物语热搜标签
  • 行者物语官方微信
    行者公众号

    北风的微信
    北风的微信

    行者物语投稿 投稿邮箱:317379335@qq.com在线投稿
    © 2011-2024 行者物语(xz.tqiantu.com) All Rights Reserved.
    合作电话/微信:13518992858 违法信息举报QQ:317379335