欢迎访问网贷财经! 电话 4008937218

加入收藏 设为首页在线客服

网贷财经- 权威财经门户,价值、与您分享!

热门关键词:网贷 P2P网贷 网贷财经 安全平台 互联网金融 跑路平台
首页 港股动态 操盘必读 公司新闻 研究分析 专家股评 机构研报 香港市场 全球市场港股异动
港股异动
[重要新闻]霍金去世,享年76岁:世间再无霍金,时间永留简史
发布时间:2018-03-14 15:03 来源:格隆汇

  作者:吕梦 都保杰 马丽

  今日,英国著名物理学家斯蒂芬·霍金去世,享年76岁。霍金家人声明:他的勇气与坚持鼓舞了全世界。

  霍金生前曾患上肌肉萎缩性侧索硬化症,全身瘫痪,不能言语。霍金的孩子致《卫报》的声明中写道,他的勇气、坚持以及他的杰出及幽默鼓舞了世界各地的人。声明中写道,我们将永远怀念他。

  霍金是英国著名的天文物理学家和宇宙学家,21岁时就患上了卢伽雷式症。绝大多数中国人是在读了霍金写的科普著作《时间简史》后,才知道他的。

  世界级顶尖杂志《天文学》对他有这样的评价:当20世纪物理学的成就被客观地承认时,史蒂芬·霍金的成就将被大书特书地载入科学史册。

  霍金的成就就像他研究的黑洞一样强力,令人倾倒。但是他却几次与诺贝尔失之交臂。

  霍金的成就可以概括为:

  第一,奇性定理。爱因斯坦创立的广义相对论被科学界公认为最美丽的科学理论。但是霍金和彭罗斯一道证明了广义相对论是不完备的。

  他们指出,如果广义相对论是普遍有效的,而宇宙间的物质分布满足非常一般的条件,那么宇宙时空中一定存在一些奇点。在奇点处经典物理的定律失效。人们通常谈论的奇点是宇宙产生元初的大爆炸奇点和黑洞中的奇点。爱因斯坦早先否认过奇点的存在,他甚至还写过论文以论证黑洞的不可能性。霍金和彭罗斯的奇性定理表明了对引力的量子化是不可避免的。

  第二,黑洞理论。人们知道,在经典引力论的框架里,黑洞只能吞噬物质,而不能吐出物质。黑洞的表面犹如地狱的入口,是一个有去无返的单向膜。霍金曾经证明视界的面积是非减的。1974年霍金发表了《黑洞在bao'zha爆炸》一文。

  这是20世纪引力物理在爱因斯坦之后的最伟大论文。在论文中,他把量子理论效应引进了黑洞研究,证明了从黑洞视界附近会蒸发出各种粒子,这种粒子的谱犹如来自黑体的辐射。

  随之黑洞质量降低,温度就会升高,最终导致黑洞的爆炸。在这被称为霍金辐射的场景中,量子理论、引力理论和统计物理得到了完美的统一。黑洞理论是科学史上非常罕见的例子,它首先在数学形式上被详尽的研究,后来才在天文学的许多观测上证实了它的普遍存在。现在,人们的共识是,每个星系的中心都是一颗极其巨大的黑洞。

  第三,无边界宇宙理论。霍金在80年代初,创立了量子宇宙学的无边界学说。他认为,时空是有限而无界的,宇宙不但是自洽的,而且是自足的,它不需要上帝在宇宙初始时的第一推动。宇宙的演化甚至创生都单独地由物理定律所决定。

  这样就把上帝从宇宙的事物中完全摒除出去。上帝便成了无所事事的造物主,它再也无力去创造奇迹。亚里士多德、奥古斯丁、牛顿等人曾在宇宙中为上帝杜撰的那个关于第一推动的神话,完全是虚幻的。

  量子宇宙学的主要预言之一是关于宇宙结构的起源。若干年前,宇宙背景辐射探测者对太空背景温度起伏的观察证实了这个预言。

  对于奇性定理、黑洞面积定理、黑洞霍金辐射和无边界宇宙理论,一个人生前拥有其中的任何一项成就,就足以名垂不朽。而霍金却拥有了这些理论的全部。

  对于人工智能,霍金曾表示,AI的崛起可能是人类文明的终结,除非我们学会如何避免危险。

  我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作。

  我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。当下还无法判断人工智能的崛起对人类来说到时是好事还是坏事,但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。

  霍金表示,人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。

  人类未来是否会被人工智能代替?霍金表示,人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

  在2017年全球移动互联网大会上,他曾通过视频发表了《让人工智能造福人类及其赖以生存的家园》主题演讲。

  这已经不是霍金第一次提出人工智能威胁论。2017年3月,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技对人类带来的威胁进一步上升。

  霍金在会上表示,人工智能的威胁分短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。

  他还认为,生物大脑和计算机在本质上是没有区别的。这与英国物理学家罗杰·彭罗斯的观点恰恰相反,后者认为作为一种算法确定性的系统,当前的电子计算机无法产生智能。

  不过,霍金也表示,虽然他对人工智能有各种担忧,但他对人工智能技术本身还是抱有乐观的态度。他认为人工智能带来的收益是巨大的,人类或许借助这一强大的工具,可以减少工业化对自然的伤害。但我们不确定我们是会被智能无限地帮助,还是被无限地边缘化,甚至毁灭。他补充道。

  霍金在演讲的最后说道:这是一个美丽但充满不确定的世界,而你们是先行者。

  让我们共同缅怀这位人类历史上伟大的科学家!

靠谱众投 kp899.com:您放心的投资理财平台,即将起航!

温馨提示:以上内容仅为信息传播需要,不作为投资参考。网贷财经wdcj.cn提示:市场有风险,投资需谨慎!
【返回首页查看更多新闻】

下一篇:恒大(03333)董事局主席许家印当选新一届全国政协常委

上一篇:险资这些年

网贷财经-财经观察
网贷财经-大咖专栏
网贷财经-互联网金融观察