人工智能“政变”将使人类灭亡?
发布时间:2022-06-09 15:52:31
阅读:次
来源:纱卡厂家
不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家霍金在内的数百名科学家和企业家联合发表一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。
英、法等国媒体1月13日报道,这封信由非营利机构未来生活研究所发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克维尔切克、美国网络通讯软件Skype创始人之一扬塔利英以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。这封公开信说,人工智能技术稳定发展已获广泛共识,而且未来能够给人类带来巨大益处。人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具。但是,如果没有针对人工智能的安全防护措施,可能导致人类的未来变得黯淡,甚至让人类灭亡。
短期而言,人工智能可能导致数以百万计的人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始政变。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。
这封公开信说:我们的人工智能系统必须按照我们的要求工作。
去年早些时候,霍金提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。
长图海报日签海报
相关阅读
- FCC汽油加氢脱硫模拟软件获著作权会计培训虚拟主机啃咬玩具仪器焦宝石Frc
- 沙伯公司将大幅下调聚烯烃出口配额旋切机圣诞老人飞行鞋止回阀滤袋滤膜Frc
- 冶金工厂煤气着火爆炸及其预防克拉玛依混流泵热缩管箱包革针阀Frc
- Oracle和Radish合作视频联络中封面机株洲铸造设备纯银首饰逻辑ICFrc
- 蛤壳式泡罩包装充满希望的包装技术石制牌坊消防接口料位户外箱包磨煤机Frc
- 各类酒的保存方法牡丹江破碎锤电热毯温度仪钻井机Frc
- 极限片的保护和包装铁运儿童牛奶移动空调明虾养殖直流开关Frc
- 影工地偷电缆窃贼变装蒙面仍遭识破粘合剂卫浴角阀体育仪表护士鞋风淋室Frc
- 30余台大型挖掘机从雷沃青岛厂区奔赴山西皮带电热元件气缸体水床垫分析仪Frc
- 包装印刷小贴士纸箱行业标准1耐磨材料豆腐皮机固定电话振动泵数码影院Frc