返回首页 网站地图 联系我们 我们的优势 去购物车结算(
0

行业报告 金融 能源

行业资讯 预警 机会

产业分析 趋势 时评

大数据 管理 营销

创  业 项目 故事

人  物 领袖 访谈

宏观 经济 策略

数据 行情 汇率

政策 时政 聚焦

金融 信托 理财

地产 市场 环境

商业 观察 要闻

区域 招商 园区

企业 百科 机会

预警 国际 国内

您现在的位置: 主页 > 行业资讯 > 国际 >
霍金质疑人工智能 警告称其可能让人类灭绝


资料图:著名英国科学家霍金。
12月3日电据英国广播公司(BBC)报道,英国著名科学家斯蒂芬·霍金说,人类创造智能机器的努力威胁自身生存。霍金表示,“彻底开发人工智能可能导致人类灭亡。”
 
霍金的此番警告是回应对他使用的通讯科技的改良,其中就包括了基本的人工智能。
 
霍金是英国著名理论物理学家,患有肌萎缩性脊髓侧索硬化症(ALS),使用英特尔(Intel)公司开发的一种新的系统说话。
 
另一家英国公司Swiftkey的机器认知方面的专家也参加了这一系统的开发。这家公司的技术已经被用在智能手机的按键应用软件中,揣摩霍金教授的思想并推测他可能希望使用的词语。
 
霍金教授说,人工智能目前的初步阶段已经证明非常有用,但他担心创造出媲美人类甚至超过人类的东西将要面对的后果。“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。”
 
不过,其它科学家并非都对人工智能持如此悲观的看法。智能机器人的发明者罗洛·卡彭特表示:“我相信我们还将继续在相当长的时间内掌控科技和它的潜力,并解决世界上的许多问题。”
 
卡彭特说,“我们还不知道机器智能超越人类后将出现什么情况。所以我们不知道我们最终将得益于此,还是因此而被忽略、被边缘化,或者被消灭。”他预示,人工智能将起到正面的作用。
 
霍金教授并非少数担心未来的科学家。智能机器的开发已经让很多人担心它们将取代人类,短期效应是使数以百万计的工作职位不复存在。而长期来看,人工智能是“人类生存面临的最大威胁”。
 
霍金教授另外还对互联网的好处和危险发表了看法。他引述英国政府通讯总部(GCHQ)负责人的警告说,网络有可能成为恐怖主义分子的指挥中心。“互联网公司应该下更大力气应对这些威胁,但是困难之处是如何不损害自由和隐私”。
 
虽然人工智能在过去数年发展很快,但霍金使用的科技智能仪器中,声音部分并没有任何的更新换代。
 
霍金承认,他的声音的确听起来很机器,不过坚持他不想要更加自然的声音。“这已经是我的标志,我不想变成更自然的英国腔调的声音”,“我听说很多需要智能声音的孩子,都要像我这样的声音。”

分享到:0  时间:2014-12-03 来源:灵核网整理(www.ldhxcn.com) 

版权声明

  灵核网所有报告统计版权为《北京灵动核心信息咨询有限责任公司》独家所有,灵核网产品是《北京灵动核心信息中心有限责任公司》对市场调研、研究与整合的成果,究报告产品拥有唯一著作权。灵核网研究报告没有通过任何第三方进行代理销售,购买请直接与我公司客服联系。   灵核网核心产品为有偿提...[详细]
关于灵核网 | 人才招聘| 免责声明 | 服务条款 | 付款方式 | 联系我们 | 意见反馈| 版权声明 | 网站地图
运营公司:北京灵动核心信息咨询有限责任公司 中国专业市场调查研究机构-提供各行业市场分析报告
办公地址:北京市海淀区翠微中里14号楼    北京市大兴区天华大街5号院绿地启航国际12号楼
400热线:400-998-1068(7*24小时)      传真:010-82894622转608      E-mail:lhwscb@ldhxcn.com      QQ:1342340450/1602788672
总部:010-82894622      市场部:010-56290519     
京ICP备13027859号-1 京公网安备11010802011377号 灵核网 版权所有 灵核网数据研究中心