霍金警告人工智能危险性 称其若失控很难被阻止
| 编辑: 母曼晔 | 时间: 2016-06-29 15:47:22 | 来源: 中国新闻网 |

资料图:著名天体物理学家霍金。记者 张子扬 摄
据外媒报道,著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。
美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。
霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”
他指出,人工智能可以比人类的智慧发展得更快。

资料图:著名天体物理学家霍金。
他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”
他认为,有益的人工智能将出现在人类生活的各方面。
霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”
新闻推荐
- 习近平春节前夕慰问部队 向全体人民解放军指战员武警部队官兵军队文职人员预备役人员和民兵致以新春祝福2026-02-13
- 王毅:做到“五个共同”,深化中匈友谊,拓展互利合作2026-02-13
- 外交部:“倚外谋独”是蚍蜉撼树 注定失败2026-02-13
- 全球看春晚!总台“春晚序曲”俄罗斯专场活动在莫斯科举行2026-02-13
- 国际锐评丨从“围观”到“融入”,感知马年春节里的中国文化密码2026-02-13
- “两岸一家亲 真情助企行”——2026年迎新春台企特色产品展销会开展2026-02-13






