.:. 草榴社區 » 技術討論區 » 霍金:失控的人工智能很难被阻止住
本頁主題: 霍金:失控的人工智能很难被阻止住字體大小 寬屏顯示 只看樓主 最新點評 熱門評論 時間順序
花菜


級別:精靈王 ( 12 )
發帖:12233
威望:1895 點
金錢:278036 USD
貢獻:2466 點
註冊:2020-10-24

霍金:失控的人工智能很难被阻止住

脱离人类控制之下的机器很难被阻止住


著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。


在RT美国台(RT America)播出的节目中美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。


霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”


他指出,人工智能可以比人类的智慧发展得更快。


他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”


他认为,有益的人工智能将出现在人类生活的各方面。


霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”


霍金认为,脆弱的地球无法支撑人类再生活1000年,地球上的生命面临被灾难抹杀的危险与日俱增,比如核战、基因工程病毒或人工智能崛起等,人类必须尽快逃离。


我们必须继续进入太空


在一次演讲中,霍金花了一个小时讲述了有关人类对宇宙起源理解的进程,从原始的人类创造神话到依据“M理论”做出的最新预言。他说:“也许有一天,我们将能够利用引力波回望大爆炸的核心。”


霍金指出:“宇宙学一直在不断取得进展,但为了人类的未来,我们必须继续进入太空。”霍金曾表示,他打算乘坐维珍集团老板理查德·布兰森的太空飞船进入太空。他继续说:“因此,我希望鼓励公众对太空感兴趣,在这方面我很早就获得了培训。”


此前在《如何制造太空船》一书中,霍金曾在其后记中警告称,由于面临着战争和疾病威胁,地球正变成越来越危险的地方。霍金阐述了他的未来太空旅行观点。他说:“我认为地球上的生命面临被灾难抹杀的危险越来越高,这些危险包括突然爆发的核战、基因工程病毒以及其他因素。如果不进入太空,我认为人类将不再拥有未来。”


霍金向参加其演讲的学生们呼吁:“记住要仰望星空,而不要只关注你的脚下!试着了解你所看到的,并思考宇宙存在的意义。你们要保持好奇心,但是生活中似乎总有些事情是你们能做到并取得成功的,最重要的是永远不要放弃!”


在他以“宇宙起源”为主题的演讲中,他表示他目前正在努力去证明宇宙起源同样遵守物理学规律,同时符合现代物理学家称为M理论的内涵。


M理论包含了爱因斯坦的广义相对论,该理论将空间和时间相结合,凭借这些爱因斯坦预测黑洞的存在以及量子理论,它预言了亚原子粒子,设在日内瓦的欧洲核子研究中心的大型强子对撞机正对其进行测试。霍金称:“这是唯一具有我们认为终极理论应该具有的全部属性的统一理论。”

霍金是有名的“外星殖民”理论的支持者。霍金十分确信在地球之外的其他世界存在着智慧生命,但他警告人类应当想尽一切办法避免与这些外星生命接触。


霍金表示:“我们只需要看看自己,就能知道这些外星生命会如何变得让我们宁愿没碰见过他们。如果外星人来拜访人类,我想其结果会变得与哥伦布到达新大陆时非常相似,那对美洲土著可并不有利。”

赞(62)
DMCA / ABUSE REPORT | TOP Posted: 04-15 21:26 發表評論
.:. 草榴社區 » 技術討論區

電腦版 手機版 客戶端 DMCA
用時 0.01(s) x3, 11-22 03:32