太阳系是什么,太阳系3d全景图

太阳系是什么,太阳系3d全景图

人类连太阳系都没有出去过,银河系全景照片是如何来的?

古人云:不识庐山真面目,只缘身在此山中。那么这里就有一个问题了,既然我们从来没有走出过银河系,那么身处银河系的我们是如何得到银河系的全景图片的呢?

1609年,意大利物理学家伽利略自行制造了一个望远镜,第二年,他利用这个望远镜发现了我们夜晚天空中出现的环带是由一颗颗恒星汇集而成的星河。人们终于真正发现,这漫天的星辰,每一颗都是太阳。

1785年,英国天文学家赫歇尔在经过了大量的观测计算后,利用恒星计数方法,第一次确认了银河系为

扁平状圆盘

的假说。这是人类第一次意识到自身所处星系的大概形状,但是很遗憾,由于观测设备的限制,赫歇尔在计算太阳位置时出了错误。赫歇尔根据他的错误计算结果,认为太阳系在银河系的盘面中心。

1918年,天文学家沙普利通过研究球状星团的空间分布,建立了银河系透镜形模型。由此,赫歇尔的错误才被纠正,我们这时才知道,原来太阳并不是银河系的中心,而是位于银河系的边缘偏僻地带。从此,沙普利模型奠定了现代银河系模型的基础。

随着天文观测设备的进一步发展,人类通过观测河外星系发现,大多数河外星系都属于漩涡状结构。当然,也有部分学者认为我们发现的这些所谓的河外星系其实也是银河系内的星系,并不一定具有代表性。

1990年,人类历史上最伟大的天文观测设备哈勃望远镜发射升空。通过哈勃望远镜,人类终于证实了,我们以往观察到的仙女座大星云并不属于银河系,这是一个独立于银河系的大星系。不仅如此,科学家们通过哈勃望远镜观测到的数据在经过进一步的计算后,如今,银河系是一个“盘状漩涡结构星系”的结论已经深入人心了。

随着科技的持续进步,射电望远镜出现了,射电望远镜可以测量天体的射电波,高精度的射电望远镜甚至可以计算出天体射电的强度,频谱已经偏振等物理量。靠着射电望远镜的出色性能,人类对宇宙的了解更加深刻了。

科学家们通过测定中性氢的21厘米电磁辐射,终于证实了我们的银河系是存在数个悬臂的。从此,科学家们终于确定,我们的银河系是一个有悬臂结构,呈盘状的螺旋结构星系。

再后来,红外相机进入到天文领域,科学家们利用高精度的红外相机拍摄到了银河系中心的红外成像图。科学家们通过分析这些红外成像图发现,银河系中心有着密集的恒星,而且呈现为一个上下凸起的盘状结构。

从1785年赫歇尔第一个提出银河系模型,到1950年,银河系的大概样貌才被大众和科学界普遍接受,人类的银河系模型探索经历了165年。虽然如此,可我们对银河系的了解还十分片面,目前银河系的大概面貌其实是靠着大量的观测数据和精密的数学模型利用超级电脑构造出来的。

我们身处银河系,我们没有足够的技术飞出银河系去拍摄真实的图片,这导致我们谁都无法知道真实的银河系长相。我们如今对银河系的认知都是基于间接观测和计算得到的,或许这连银河系的冰山一角都算不上!

太阳带着地球每秒狂奔220公里,为什么星空看起来还是老样子?

夜空中发光的天体大概可以分成两种,一种是行星,随着时间变化它们的位置很快就会发生变化,比如金星和水星,将它们的每天同时间的轨迹连起来,你甚至能发现它们绕太阳公转!

而另一种则是恒星,它们除了会因四季变化以外,其位置是不变的,所以才被称为恒星!但我们现在已经知道,太阳正带着地球在银河系中正以每秒超过200千米的速度在狂奔,按理应该物是人非了是吧,为什么一直以来星星位置都没有变化?

太阳系运行速度是怎么发现的?

最早试图画出银河系地图的是赫歇尔,他用了11年时间测定了十多万颗恒星位置,最终在1785年画出了一个破大饼状的银河系,你可以尽情的取消赫歇尔,但请注意,在他以后100年内,这幅银河系全景图是全球最详细的星图!

赫歇尔和妹妹观测星空

银河系的整体自转和整体样貌需要到20世纪初才被天文学家发现,1918年美国天文学家沙普利经过4年的观测认为太阳系应该位于银河系的边缘。1926年,瑞典天文学家贝蒂尔·林德布拉德分析出银河系也在自转,并且林德布拉德提出银河系中心在人马座方向!

2018年4月份,欧空局的盖亚卫星发布了第二份银河系详图,包含了13.8亿颗恒星的数据,由此建立了一个极其详细的银河系3D力图,有史以来第一次了解到我们所在银河系的细节!

现在我们知道太阳系距离银心约2.6万年光年,在银河系中公转的速度大约是220千米/秒,8天就能飞行一个天文单位,1400年就能跨越一光年,大约2.25-2.5亿年绕行银心一周!太阳系的黄道平面与银盘面有一个60度的交角,因此地球的北半球低纬度和南半球可以看到最明亮的银心区域。

星星的位置看起来为什么没有变化?

所以太阳系的速度达到了200多千米/秒,“窗外的景色”应该刷刷的过才对是吧,当然这没问题,但当参照物非常遥远时,就会发现月亮在跟着你走!但只要时间等得久一点,就能发现月亮其实根本就没跟着你,它自个就下山了!

恒星自行

银河系中的恒星都在环绕银心公转,但它们之间速度并不协调,也就是它们的速度只对银心负责,而与邻近的恒星之间都存在速度差,全天区目视自行速度最高的是巴纳德星,短短几年间的位移肉眼可见!

巴纳德星的位置变化:从1985年到2005年

它是位于蛇夫座一颗质量非常小的红矮星,距离地球约6光年,美国天文学家爱德华·爱默生·巴纳德在1916年测量出它的自行为每年10.3角秒,是已知相对太阳自行速度最大的恒星,并且它正以视向速度106.8千米/秒接近太阳系。预计在1.18万年后将替代比邻星成为距离太阳系最近的恒星,据研究它至少有一颗类地行星!

被弹飞的恒星

银河系中还有一种奇特的恒星,它们的自行速度极高,甚至超过了银河系的逃逸速度,未来它们将不会在银河系中停留,这种奇特的恒星原来是一种双星系统,后来被双星中的一颗被黑洞俘获,另伴星则被甩出了星系,成为一颗流浪恒星!

超高速星成因

星座变化

天空中所有的恒星都在自行,差别是速度快一些和慢一些,所以有些快的恒星跑了之后,慢慢星座就不成形了,因此在五万年前古人看到的星空和现在是不一样的,当然十万年后的未来人看到的星空和我们也不一样!

星座随时间的变化

可能变化最大的要数南十字座了,从一个十字架变成了两条平行线,这变化,要是有人穿越到了未来,拿出现代星图来对比的时候,估计就要晕了!

所以天上的星星是变化的,你感觉不到是因为时间还不够久一点,好在现代人已经有超级计算机了,将各颗恒星的位置与自行速度以及轨迹输入后,即可模拟出任何时刻的恒星位置!

为什么在地面上可以看见的星空,在太空中却看不到?

哪个去过太空的宇航员说过在太空看不到星空?恰恰相反,在宇航员的眼中,因为没有大气的阻挡和干扰,看到的星星要比地球上明亮的多,只不过在太空中看到的星星没有闪烁,同样,由于没有大气对光的散射作用,看到的天空不是蓝色的而是深邃的黑色。很多人对在太空或月球上看不到星星的误解可能来源于网络上的一些图片,比如阿波罗登月后拍摄的地球照片或是一些空间站上拍摄的照片,

在这些照片或图片中,漆黑的太空背景是看不到那些星星,但这个原因其实很简单,稍微了解一点摄影的人基本都会明白, 主要就是你对拍摄物体的曝光时间,以及光源的强弱关系 。在上面类似照片中,你看不到星星是因为要拍摄的主体是地球,光源是太阳照射在地球上反射回来的,因为没有大气以及云层的干扰,所以太空中的阳光很“直接”的照射和反射,并且地球云层大气反射的光线是非常强烈的,导致地球相对于背景中的星星显得十分“明亮”(比满月要亮的多,宇航员不带防护也是不能直视的,如果你坐过飞机看到阳光反射的云层就应该比较好理解),短时间曝光就可以把地球拍摄的很美,但是,过短时长的曝光不足以让星光在相机中留下痕迹,所以看不到星星也很正常。

但是,如果非要把地球和星星都拍摄到一张照片里,那么结果就是照片中的地球会过曝,星星是看到了,地球成了白晃晃的一团东西,

但是,如果是在地球背向太阳的那一面,经过适当的曝光时间,照片中就能清晰的看到星空以及美丽的星云,

人眼和相机等拍摄设备还是有区别的,宇航员眼中的星空只有他们自己能真切感受到,虽然绝大多数人无法飞上太空,但在宇航员的描述和他们带回的影像中多少也能感受到一点星空的美妙,他们眼中的星空应该是这样的吧,

说这个话的人肯定没到过太空,却不听或者不相信到太空看过星星的人的话,因此基本可以判定是一个喜欢睁着眼睛说瞎话的人。

现在人类到过太空的人不说有成千上万,至少也有5、6百了吧,中国上过天的宇航员也有11人了。我们说这话的时候,就至少还有6个人在天上看星星呢,他们就是国际空间站上工作的宇航员们。这些人有谁说过天上看不到星星吗?没有。

或许这些说瞎话者又会问:他们也没有说看到了星星呀,怎么就能够证明天上有星星呢?

但这是一个有基本认知的人都不会这么问的蠢话。因为自从1961年前苏联宇航员尤里·加加林成为第一位太空人,到太空转了一把开始,就不断的有人类上天了,而且还有12位宇航员到月球上撒了几泡尿,他们都看到了天上的星星是个啥模样,何必老挂在嘴上呢。

就像我们在晴朗的夜空郊外游玩回来,会老有人问天上有星星吗此类常识问题吗?在太空 探索 已经经历了几十年的今天,宇航员们有必要天天汇报看到了星星吗?

除了人类上天亲眼看过星星,人类还发射了不计其数的卫星、航天探测器到达远远近近的太空,拍回了海量的照片资料,其中当然不乏星空的照片。

现在飞得最远的旅行者1号探测器已经飞出了太阳系风顶层,到了距离我们217亿公里外的星际空间,最后的照片是在距我们64亿公里处拍摄的回望家园,地球在那张照片上只有一个像素大小模模糊糊的小亮点。

这些所有的航天探测,有一例说过天上没有星星的情况吗?如果真有这样的状况,还会等到今天此瞎话来神秘兮兮?早就是科学界一大研究课题了。

不过此类谣言多年前就常有流传,现在只是沉渣泛起。现在还有人捡这样老掉牙的故事,连阴谋论者们都早就抛弃了的垃圾来说事,足见其信息闭塞、素养底下之程度。虽然如此吧,破除谣言是我等科普作者本分,既有腐臭出现,就有消毒必要。

说了这么多,宇航员们在天上看星星的感觉到底如何呢?基本事实是:太空由于没有空气扰动,星星更清晰明亮,但不会有闪烁和光芒。

为什么很多太空拍摄的照片中天空黑黑的一片,没有星光呢?这是因为拍摄星光要长时间曝光,太空中执行任务的宇航员们拍摄的主要是工作照和环境照,如果曝光太久这些照片就会变得白茫茫无法看清。但如果专门拍摄星空就能拍出来。本文题头的照片由NASA发布,是2015年8月9日国际空间站第44考察组通过长曝光拍摄的一张惊艳星空和地球照,可以看到浓密璀璨的银河星光。

执行阿波罗任务的登月宇航员们拍摄的照片,太空几乎都是漆黑一片,这也是阴谋论者们常常拿来说事的“证据”,也是很多不明真相群众的疑惑之处。这是一个很大误解。

对这个问题NASA早就作过辟谣:带上月球的相机都经过了设置,以便能够拍摄到明亮阳光照耀下月球表面高质量照片。这些照片中有身着耀眼航天服的宇航员和闪闪发光的登月舱,如果曝光长了这些根本拍不到。

而在那个时代,相机并没有现在高级,宇航员们身着笨重的服装,要调校相机绝非易事,何况谁也没有去想后来的阴谋论者们会拿这个作文章。

月球由于没有空气,白天星空也是黑暗的。但在强烈的阳光掩映下,是看不到星星的。宇航员们报告说,站在登月舱的阴影里,就能够看到星星。“阿波罗”15号宇航员艾尔·沃登曾说过,在非白天的时间里,在月球远侧轨道能够看到天空“洒满了星星”。

其实月球上宇航员们拍的照片也偶尔拍到了星星,如执行“阿波罗”16号任务的小查尔斯·M·杜克为约翰·W·杨拍摄月球跳高比赛时,就“不小心”拍到了背景天空的猎户座,只不过很暗淡而已。拍摄时间是1972年4月21日,照片由NASA发布。(见上图)

发射到太空的哈勃望远镜等星空探测器,主要任务就是研究遥远的宇宙空间和天体,几十年来拍摄了无数的星空照片。

远的距离百亿光年,恒星、黑洞、类星体、中子星枚不胜举,还发现了几千颗太阳系外行星。在这样一个星际大 探索 时代,一些人把幼稚可笑的天方夜谭故事搬来质疑科学,那落后、愚昧之境地实在令人可怜和悲哀,还有几分可恶。

答:在太空中是可以看到星空的,而且看得更清楚,只不过需要在地球的阴影后面时,才能肉眼看到夜空。

天空中的每一颗星星,都是一颗恒星,无论白天还是夜晚,这些星星在天球中的位置,并不会发生变化。

只不过我们在地面上时,需要在夜间才能肉眼看到星空,这是因为白天太阳光太强烈,阳光在大气中发生散射,完全淹没了星星发出的光芒。

在很多太空照片中,我们可以清楚地看到地球或者月球,但是太空背景一片黑暗,似乎没有星星,主要原因是天体反射的光线太强,拍照的曝光时间太短,无法让星星在底片上显影。

由于星星的亮度太暗,需要较长的曝光时间,如果此时精确调整相机的拍摄参数,延长曝光时间,理论上也是可以把星空拍清楚的,只是这样的话,其他亮度高的景物(比如地球、月球)就会出现过曝的情况。

当拍摄者在地球阴影面时,就可以拍摄到夜空照片,由于太空没有空气,所以夜空将更加清晰,此时空间站上的宇航员也能清楚地看到明暗相间的银河。

在美国登月阴谋论中,就有一个质疑点称“月球上没有大气,但是所有阿波罗登月拍摄的照片,都是看不到星星的,说明登月场景是在摄影棚中拍摄”。

这个质疑点简直太低级了,稍微有点摄影常识的人都知道,在星星和月球表面大光比的情况下,单次曝光不可能把近物拍清楚时,还能把星星拍清楚,除非多次曝光进行合成。

在太空中依然可以看见满天星辰,而且由于没有大气层的干扰看见的星星会更明亮,并且不会“眨眼睛”。

图:美丽的银河

有一种阴谋论的说法一直存在,认为人类只能在地球上看见满天星辰,出了地球到太空之后就看不到了,认为我们看见的星星是高级文明给我们放的幕布,人类是被豢养在地球上的。

这种说法一点新意都没有,人类从上个世纪开始探测外太空,最远的足迹是38万公里之外的月球,最远的探测器是220亿公里之外的旅行者者一号。在外太空拍摄的星空图像也有很多,所以说根本不存在在太空中看不见星星的说法。

以下是国际空间站拍摄的地球美景,有着漂亮的气辉,远景处就是美丽的银河;

以下是去年八月份发射的帕克太阳探测器拍摄的第一张照片,美丽的银河: 以下是哈伯太空望远镜拍摄的银河系内的星团,距离我们大约8000光年:

之前有说法认为在月球上看不见星星

以下是我国的嫦娥四号探测器和玉兔二号月球车,远处看是黑黑的一片:

阿波罗载人登月时拍摄的照片,远处看也是黑漆漆的一片,看不见星星:

为什么在地面上可以看见的星空,在太空中却看不到?

如果说在太空中看不到星星的话,那么哈勃望远镜拍的那么多照片又是什么呢?还有当年测绘银河系的伊巴谷卫星,以及后来接替伊巴谷卫星的欧空局的盖娅卫星,还有钱德拉硬X射线望远镜,另外已经退役的开普勒望远镜还有上岗还不到亿年的广角系外行星巡天望远镜,更有2020年准备发射的詹姆斯-韦伯望远镜等等,难道它们上天都是去做戏的?

欧空局盖娅卫星测定了17亿颗恒星之后制作的最清晰的银河系照片,下方两个光斑是大小麦哲伦星系,当然盖娅测定了这些恒星的具体位置后,我们就能模拟出银河系的3D全景图!

上图中心高亮区域就是银河系的棒旋核球,主要有两个悬臂以及多个分叉组成!是否有人会觉得都是伪造的现场呢?当然持有这种观念的人并不在少数,因为他们有一个观点,认为太阳系有一个皮壳层,原因是有两个:

一、前往太阳系外的航天器在越接近外侧时速度越低!

二、据阿波罗登月宇航员报告,月球上看不到星星!

其实这种谣言能欺骗的也就是对中学时期物理、数学课上的知识还给老师有关,大家都知道,航天器要逃离天体引力时,它走的是一个长轴无限长的超级椭圆轨道(抛物线轨道),那么其越到达轨道顶端时其速度也越低!如果就此认定太阳系外部就一个皮壳层,那实在是太可爱了!因为这样考虑的话太阳系每一个天体都将有一个“皮壳层”!

上图就是坚信存在皮壳层的人士制作的皮壳层望远镜示意图,我们来简单讨论下是否存在这个可能性,从太阳系到最外层的银河系望远镜为止,总共距离约180亿千米,不是前文有人报告在月球上看不到星星么,假如真存在皮壳层望远镜,会这样吗?

地月之间平均距离:38.4万千米

皮壳层望远镜距离:180亿千米

那么从月球上与地球上的焦点差为:1/43478

这个误差比全世界能生产出的精度最佳的调校座最小分辨率还要高出很多,简单的说在如此距离上,即使焦点在地球,那么月球上也能看得很清楚,即使在前往太阳系外的过程中也可以通过焦点补偿技术观测星星,近视眼镜就是这个原理,到现在为止居然还有人相信皮壳层理论,这实在是可爱了!

哪位能立即分辨出这几颗恒星组成的 星座 ?还有谁能直达中间那个光斑是什么意思?为什么看起来像个月亮?其实这在月球上拍摄的地球照片,因为要曝光出星星,因此不叠加处理的话,地球就过曝了!

不过连相信地球是扁平的人都有一大把,被“太空里看不到星星的谣言”所欺骗就很正常了!各位看过算数吧!

太想当然了,去过太空的宇航员们可没这样说过。太空中的照片背景中确实很少见到星星,但那本身就不是为了专门拍摄星星的,近距离物体的反光遮蔽了遥远恒星的微弱光亮。

哈勃望远镜大家都知道,但是具体的原理知道的就少点了,哈勃是光学望远镜,需要有光才能拍到各种图像,太空图像不像地球上手机拍照,由于宇宙天体之间距离都很远,很强的光传到地球附近时就已经很微弱了,哈勃望远镜在拍摄宇宙图像的时候,也需要经历长时间的曝光,才能形成分辨率较高的图像。网上随便搜一个哈勃望远镜拍摄的图像,都能看到大量的星星,而一般地球轨道上飞行器和宇航员的照片背景中却少见星星,是因为本身就没想着拍摄星星。

地球上由于大气的存在,可以对遥远的星光产生折射散射,使得星星周围也可以有一点点光晕,气象条件好的地方还能看到较为清晰的银河。太空中由于没有大气的阻隔,原理上是对光的通透性更高,更利于看到遥远的天体,哈伯望远镜就是考虑到这个因素才发射到太空的,加上太空没有大气,没有对光的色散作用,太空的背景就比较黑,黑只是没有专门去拍摄而已,太空对光的高通透度,观测星空是很便利的。

美国的火星探测器曾经发回来火星上的夜空图像,也是可以看到点点星光的。其实这个问题笔记好理解,在强光环境中,逆光拍摄时光源比较清除,而周围的物体却会黑糊糊的一片,就是强光源遮住了物体微弱的反光。

如果说在太空中看不到星星的话,那么哈勃望远镜拍的那么多照片又是什么呢?还有当年测绘银河系的伊巴谷卫星,以及后来接替伊巴谷卫星的欧空局的盖娅卫星,

还有钱德拉硬X射线望远镜,另外已经退役的开普勒望远镜还有上岗还不到亿年的广角系外行星巡天望远镜,更有2020年准备发射的詹姆斯-韦伯望远镜等等,难道它们上天都是去做戏的?

地球上由于大气的存在,可以对遥远的星光产生折射散射,使得星星周围也可以有一点点光晕,气象条件好的地方还能看到较为清晰的银河。太空中由于没有大气的阻隔,原理上是对光的通透性更高,更利于看到遥远的天体,哈伯望远镜就是考虑到这个因素才发射到太空的,加上太空没有大气,没有对光的色散作用,太空的背景就比较黑,黑只是没有专门去拍摄而已,太空对光的高通透度,观测星空是很便利的。

夜空中的繁星的每一颗,都是和太阳一样,本身就会发光发亮的恒星。除了太阳系里面的八大行星,其他的根本不需要太阳的反射光。在太空中观看天空的繁星,要比地球表面上看到的星空更清楚、更明亮、更壮观。 之所以我们在电视网络上看到的漆黑一片,是因为摄像器材的曝光原理,无法呈现在屏幕当中。曝光度调整到拍清楚星空,就无法拍清楚人物、飞行器、星球地表等主体。而反过来拍摄主体天空就变成漆黑一片。

那是因为太阳余光的反射,藏在高空的云层里,让人借着光线能清楚的看到一排排的星星悬挂在空中,和月亮围在一起。

如果人到了太空中,尤其是内太空里面,一片漆黑,什么都看不到。因为太阳的光芒是向下反射,如灯罩,向上反射弧线微薄,很弱。

所以,人进入太空里面,没有太阳的光线,很难看清楚天空中的星星,月亮。

那是因为太阳余光的反射,藏在高空的云层里,让人借着光线能清楚的看到一排排的星星悬挂在空中,和月亮围在一起。

如果人到了太空中,尤其是内太空里面,一片漆黑,什么都看不到。因为太阳的光芒是向下反射,如灯罩,向上反射弧线微薄,很弱。

所以,人进入太空里面,没有太阳的光线,很难看清楚天空中的星星,月亮。

估计你是想说为什么在太空中能看到的星空在地面上却看不到,是吧?

今天是世界读书日,你应该多读些书才是!

说实话,地上在白天也看不到星星

什么是vr,vr全景

什么是VR

尽管VR技术和相关产品最近这几年才火爆起来,但实际上虚拟现实这个概念并不是个新鲜玩意。就跟本世纪初3D技术的兴起一样,尽管3D技术已经被提出了很多年,但也就是近10年的时间里,3D成像技术才实现了普及。最早的消费级VR产品的出现是在上世纪90年代。最新才突然火爆起来的VR技术之所以受到了这么多的关注和认可,是因为通过技术的创新和进步,虚拟现实这个目标终于被逐步实现了:通过先进的传感设备,VR产品能够让用户获得沉浸于另外一个世界的体验,并且能够在这个虚拟世界中与虚拟环境实现交互。

现如今,虚拟现实技术的发展已经使得虚构出来的电子世界真实感达到了超一流水平。比如飞行模拟器,假想中虚构出来的遥远行星等等,这些场景都是依靠计算机制造出来的。目前的市场中,VR技术的领头羊是Oculus Rift、Sony PlayStation VR、Samsung Gear VR和HTC Vive,这些产品现在主打的VR体验几乎全与游戏相关。

VR头盔中装载的传感器能够检测并持续跟踪用户的头部和视线的移动,通过对用户数据的跟踪可以实现用户在虚拟现实世界中的导航问题,并让用户能够与周围环境进行互动,借此为用户提供身临其境之感。人与环境的“交互”体验,是区分深度多媒体体验与VR体验的最重要区别。在VR环境中,用户能够充当环境的参与者,而不仅仅只是一个旁观者。

1. 360°全景视频

《纽约时报》与Google Cardboard合作推出的 NYT VR视频,观看效果非常酷炫,但我们必须认识到,它并不是真正的VR。在Flickr VR上查看照片的体验也相当不错,但是这也不是VR。同样的情况还出现在GoPro的Surf,Moto and Ski的VR视频中。

我们上面提到的这些相当不错的视频和照片查看体验,本质上就是360度视频和照片,它们能够通过摄像头捕捉到拍摄对象全方位的3D景象。这些全方位影视资料通过一个VR头盔播放,能够给用户带来非常强烈的沉浸式体验,不过这些影片和资料并不是虚拟合成的,而是真实的影像资料的拼接。用户在体验的过程中可以四处查看周围环境,甚至能够探索影像中其他地方的场景,但是却无法做到与其中的场景进行互动,不能做到像真实生活中的旅游那样,真正触摸或者是改变视频中的任何东西。之前摄像机拍摄下来的全部资料,就是用户所能探索的极限。360°全景影像资料是一种新型的拍摄方式和呈现技术。实际上我们并不需要一个VR头盔就能获得这样的体验,一个2D的屏幕就可以实现我们的需求。所以,360°全景影像并不等同于VR。

尽管二者并不等同,但是对我们大多数人来说,360°全景内容的体验却是我们体验沉浸式VR的第一次尝试。现在市场上已经有了许多这方面的内容和资料,每天在YouTube和Facebook中都还在涌现出大量新的360°全景影像信息。小编敢打赌,目前体验过移动式VR设备的人,大多数在谈论的都是这种360°全景影像,而不是游戏。我们相信,在接下来的时间里,全景影像的数量将会呈现指数级的爆炸式增长,资料增长的背后是大公司和小团队们为了推动自家产品体验,不断为市场注入新的体验内容。另外,这类内容的体验成本并不会特别高,移动类型的VR设备就已经足够,并不需要高端PC主机的帮助。

360°全景视频非常酷,这样的技术对于我们日常生活的改变将有可能是颠覆性的。这项技术有可能会被运用到信息直播中,比如我们可以利用VR头盔在线收看到全方位的总统辩论、职业篮球比赛、媒体发布会、甚至是拳击比赛等。

2. 增强现实

虚拟现实和360°全景视频虽然不能等同,但是它们二者之间有一个共通的特点:就像一部好的电影,它能够让用户感觉置身于另外一个世界,不管这个世界是由计算机处理器虚构出来的,还是世界上遥远的某个地方的影像资料。增强现实(AR),则不同。AR将用户当前所处的现实环境与虚拟场景和物品糅杂在了一起,混杂了现实和虚拟事物的场景完美地结合在了一起,然后传送到用户眼中。

现在AR产品中表现最好的当属微软的HoloLens 系统。这个头盔中包括一个摄像头,借由它用户可以查看到周围的室内情况,于此同时,借由头盔,用户还能够看到由计算机虚构出来的景象,比如墙壁上趴着的一只巨大的蜘蛛。当然,AR并不只是用来搞笑或者制造恐怖片场景的。CNET的高级编辑 Sean Hollister体验了一次由AR技术驱动的场景,他认为这样的体验将有可能颠覆未来的消费市场格局。在这次体验中,Sean直接在室内体验了一把买车、选车的全过程。当时他戴着AR头盔坐在家里的浴室,AR技术为他呈现了一台虚拟的沃尔沃S90,就这样,Sean在自家的浴室里就已经把一辆S90的所有细节摸了个遍。

微软并不是目前唯一在探索AR技术的公司。AR技术领域另一个有力的竞争者是之前在各大科技媒体上很火的Magic Leap。这家有Google在背后撑腰的公司,尽管目前还没有推出任何的硬件设备,但是他们发布的概念视频已经火爆全球,成为人们津津乐道的话题。在视频中,有几个场景据说已经是能够正常工作的demo,其中包括了由电脑虚拟出来的机器人,它凭空直接出现在办公室的桌子下,另外还有一个demo,展示了在屋子中央出现的太阳系虚拟模型。

不管是微软,Magic Leap还是其他目前尚未出名的研发团队,他们专研的AR技术将电脑创造出来的虚拟物品与真实场景进行了融合和交互,这正是AR与VR最大的区别。我们打个比方来解释这个区别:AR可以在你的餐桌上直接为你虚拟出一个Minecraft游戏世界,VR则是让你戴上头盔,仿佛完全置身于Minecraft的世界中,你完全看不到自家的餐桌了。

3. 远程呈像

目前我们已经谈了VR技术:让用户进入到一个完全由电脑虚构出来的世界中;AR技术:让用户在当前所处的环境背景中看到电脑创造出的虚拟场景。远程呈像技术有点类似于AR和VR糅杂在一个的结果,它能够将身处在远方的用户,以一种类似于机器人的形式在另一个地方在线与他人进行沟通交流。

远程呈像技术研发出来的机器人,如现在比较出名的Double,将一个iPad固定在滚轮行走机器人上,iPad中会显示用户现在的形象。用户即使身处在办公室,也能够出现在地球上任何其他地方,远程控制自己的行走和视线。用户通过操控配套的App来控制这个连网的机器人,机器人作为用户在另一个地方的“傀儡”,能够执行很多的操作,比如它作为用户的分身出现在一个会议上,可以执行行走、旋转等功能,当用户想转向会议中的其他人时,可以控制Double机器人转身,就像自己亲临一样,看到其他人的表现。

4. 智能眼镜

可能很多人至今还没有搞清楚Google Glass到底是个什么东西。有人或许记得Google 2013年召开的智能眼镜大会,认为“OK,Google Glass跟AR差不多”。事实上,情况并非如此。智能眼镜,实际上就是我们眼前的一个显示屏。换句话说,我们可以把它理解为飞行员/驾驶员专用眼镜的一个增强版,在这个显示屏上,能够投射出数据、地图信息等资料,供用户使用和查看。在当前的智能眼镜领域,目前显示屏仅覆盖了右眼。

很多人之所以把Google Glass与AR技术搞混是因为,Google之前发布的demo视频是以用户本人的第一视角拍摄的,这样的视角给人的感觉与AR非常相似——在真实世界中出现了虚拟信息和资料。实际上,Google Glass这类产品并没有在现实世界中投放和虚构出任何的AR类型景象,它仅仅是将信息投放在眼镜的显示屏上而已。换个比喻,Google Glass就像是眼镜版的Apple Watch,只不过后者是在手腕上工作,如此而已。

如果Google Glass并没有让人感觉到它能够让生活产生变化,那可能是因为这款产品至今依然没有商业化。尽管这款眼镜并没有进入普通消费市场,但是它在一些特殊工种中,依然可以为职业人群提供非常大的帮助。这也是Google希望Google Glass所能达到的目标——在用户腾不开手的时候,它可以帮助用户直接查看到一些重要资料。这样的功能在某些情况下显得尤为有利,比如外科手术、建筑施工、飞行器驾驶等。

Google Glass至今依然占据同类市场中的王者地位,但是值得指出的一点是,智能眼镜市场目前面临的最大问题主要有两个:首先,面对普通消费者市场,Google Glass等智能眼镜中并没有一个“杀手锏”App,无法真正俘获消费者芳心;其次,当前的智能眼镜产品从外观上来看,都很难激发消费者的购买欲。

5. 视频播放器

有些人可能了解过Avegant Glyph这个产品,它的外形看上去有点类似于VR头盔,但从功能上看,它仅仅是一种观看电影或者是视频的高新方式。这样的视频播放设备并不新潮,早在2012年的时候,市场上就已经出现了同类的产品,如Sony HMZ-T1私人3D播放器,Zeiss Cinemizer OLED播放器。

在使用Glyph的时候,用户首先要将头盔上的HDMI接口与计算机设备连接。随后头盔中将会播放3D视频内容,另外它确实也能够为用户提供3D全景360°视频、游戏,并且能够控制无人机等设备。不过,这样的设备发展到现在, 产品功能跟VR头盔相比,实在是非常有限。

安卓猎鹿人地图下载不了安卓猎鹿人

有什么好玩的,大富翁游戏,单机的,安卓版?

死亡扳机二,杀手二,侠盗飞车之罪恶都市,侠盗飞车之圣安地列斯,亡灵杀手2,坚守阵地,我的世界,疯狂喷气机,神庙逃亡之勇敢传说,滑雪大冒险,猎鹿人2014,挖出个未来

androidtombstone这是个什么目录?

这是一个隐藏的文件夹(android是linux的一种,在linux下以“.“开头的文件或文件夹都是隐藏的),这个文件夹应该是某个应用生成的,对于不明的隐藏文件夹,不建议删除,特别非空文件夹。

安卓手机SD卡文件夹详解

1、.android_secure是官方app2sd的产物,删了之后装到sd卡中的软件就无法使用了

2、.Bluetooth顾名思义,用蓝牙之后就会有这个。

3、.mobo顾名思义,Moboplayer的缓存文件。

4、.QQ顾名思义,QQ的缓存文件。

5、.quickoffice顾名思义,quickoffice的缓存文件。

6、.switchpro顾名思义,switchprowidget(多键开关)的缓存文件。

7、.ucdlres顾名思义,UC迅雷的缓存文件。

8、albumart音乐专辑封面的缓存文件夹。

9、albums相册缩略图的缓存文件夹。

10、Android比较重要的文件夹,面是一些程序数据,比如googlemap的地图缓存。

11、backups一些备份文件,比如联系人导出到SD卡时会导入到此文件夹。

12、顾名思义,掌上百度、百度输入法之类程序的缓存文件夹。

13、bugtogo系统出现问题的时候会形成一些报告文件,存放于此文件夹。"

14、cmp个人初步判断是音乐的缓存文件夹。

15、data同样是缓存数据的文件夹,与Android性质类似。

16、DCIM相机的缓存文件夹,里面是你照的照片。

17、documentsDocumentsToGo的相关文件夹。

18、etouch易行的缓存文件夹。

19、extractedandrozip等解压缩软件默认的解压目录。

20、gameloft顾名思义,gameloft游戏数据包存放的文件夹。

21、handcent顾名思义handcent(超级短信)数据文件夹。*

22、handyCurrency货币汇率相关的文件夹,装了handycalc(科学计算器)之后才会有。

23、ireader顾名思义,ireader的缓存文件夹。

24、KingReader顾名思义,开卷有益的缓存文件夹。

25、LazyListApplanet(黑市场)的缓存目录,也许和其他程序也有关,暂时不太清楚。

26、LOST.DIR卡上丢失或出错的文件会跑这里,此目录无用,删了会自动生成。

27、moji顾名思义,墨迹天气的缓存目录。

28、MusicFolderspoweramp产生的缓存文件夹。

29、openfeint顾名思义,openfeint的缓存文件夹。

30、Picstore图片浏览软件建立的一个目录。

31、Playlists播放列表的缓存文件夹。

32、renren顾名思义,人人网客户端的缓存文件夹。

33、screenshot貌似是截屏图片保存的目录,

34、ShootMe顾名思义,shootme截屏后图片文件保存的目录。

35、SmartpixGamesSmartpixGames出品游戏的缓存文件夹,比如Jewellust。

36、sogou顾名思义,搜狗拼音的缓存文件夹。

37、SpeedSoftwareRE文件管理器的缓存文件夹。

38、SystemAppBackupSystemAppremove(深度卸载)备份系统文件后,备份文件保存的目录。

39、TalkingFriendstalkingtom(会说话的tom猫)录制的视频文件所保存的目录。

40、Tencent顾名思义,腾讯软件的缓存目录,比如QQ。(与上面的.QQ文件夹并不相同)

41、TitaniumBackup顾名思义,钛备份备份程序锁保存的目录。'

42、TunnyBrowser感觉是海豚浏览器的缓存目录,但不知道为什么叫这个名字,金qiang鱼浏览器.....

43、UCDLFilesUC迅雷下载文件的保存目录。

44、UCDownloadsUC浏览器下载文件的保存目录。

45、VIEVignette(晕影相机)的缓存目录。

46、VPN顾名思义,VPN数据的缓存目录。

47、yd_historys有道词典搜索历史的缓存目录。

48、yd_speech有道词典单词发音的缓存目录。

49、youmicache删掉后还会自动生成,悠米广告的缓存目录,广告程序内嵌在其他程序中。

50、GluGlu系列游戏的资料包存放地。如3D猎鹿人等。

51、DunDef地牢守护者的数据包。

52、KuwoMusic顾名思义,酷我音乐的相关文件夹。

53、MxBrowser遨游的缓存目录。

54、Camera360顾名思义,camera360的缓存目录。

55、TTPod顾名思义,天天动听的缓存目录。

56、apadqq-imagesQQforpad的缓存目录。

57、Mydocuments自己手机启用各种程序任务记录文档定期清除时间长了会积累很多占用SD卡内存。6wJ2g2H9H5y,y

58、.nomedia手机中隐藏的音频图片文件夹可以自设在相关文件夹中。

59、media(媒体文档)使用电话通话录音软件或在线浏览视频等媒体产生的音频文件60、带有navi的是导航软体,一般是地图包

61、.BlueFTP_thumbnails蓝牙助手的缓存

62、.FileExpert是文件大师的缓存)

63、.quickoffice是quickoffice的缓存文件。

64、.zdclock正点闹钟的缓存与记忆

65、365riliDownload顾名思义就是365日历的缓存,下载的插件也在里面

66、appmonster2备份精灵的缓存

67、bcr名片全能王的缓存

68、Camera360这不用解释了,大家都知道

69、CamScanner扫描全能王的缓存

70、GOLauncherEX这大家应该也知道,就是GO桌面的缓存

71、GOSMSGO短信

72、GoweatherGO天气

73、MTXX美图秀秀,制作后的图片缓存

74、ndcommplatform,PandaSpace这两者都是91助手生成的缓存

75、notegallery文本全能王的缓存

76、Photaf3D全景拍照的缓存

77、photowonder魔图精灵生成的缓存

78、soundhound猎曲奇兵的缓存

79、WhatsApp这?中文是什么,呵呵,大家都知道吧WhatsApp的缓存

80、You有道词典是这文件夹名称,yd_historys,yd_speech共五个集成在一起ricwang36(

81、SystemAppBackupSystemAppremove(深度卸载)备份系统文件后,备份档桉保存的目录

82、SpeedSoftwareRE管理器产生的

83、rosie_scroll坦白说,我一直不知道这个是什么,删了没事,但是还会自动生成,应该是手机自带哪个软体的生成缓存

84、alarmsAlarms闹钟铃声

85、MusicMP3音乐,部分手机才会有

86、notifications讯息铃声,部分手机才会有

87、ringtones来电铃声,部分手机才会有

88、.bookmark_thumb1是手机浏览器可视化我的最爱图片的存放资料夹。

89、.footprints用于记录手机照片的真实地理位置

90、albumthumbs照片小图的缓存,为了加快小图的显示速度

vr是什么技术啊?

VR是什么技术

VR(Virtual Reality,即虚拟现实,简称VR),是由美国VPL公司创建人拉尼尔(Jaron Lanier)在20世纪80年代初提出的。其具体内涵是:综合利用计算机图形系统和各种现实及控制等接口设备,在计算机上生成的、可交互的三维环境中提供沉浸感觉的技术。其中,计算机生成的、可交互的三维环境成为虚拟环境(即Virtual Environment,简称VE)。虚拟现实技术实现的载体是虚拟现实仿真平台,即(Virtual Reality Platform,简称VRP)。

技术介绍

VR = Virtual Reality,虚拟现实,或称灵境技术,实际上是一种可创建和体验虚拟世界(Virtual World)的计算机系统。

友好度很重要

随着社会经济的发展,计算机已经成为社会生活中不可缺少的重要组成部分,友好的人机接口技术很早已成为人们关心的一个重要课题,因为一个比较差的人机交互接口很可能将使一个功能很强的产品变得不可接受。

总体来讲,人机接口技术主要研究方向有两个方面:(1)人如何命令系统(2)系统如何向用户提供信息。

众所周知,人在使用计算机方面的感受(即人机交互部分的友好度)直接影响到人对系统的接受程度,而这两个方面直接决定了人机交互部分的友好度。

虚拟现实

互联网时代的来临使得人类的交流采用了新的方式,进入了新的领域。具体发展过程如下:命令界面—图形用户界面—多媒体界面—虚拟现实。

那么,什么是虚拟现实技术?

虚拟现实(Virtual Reality,简称VR),是由美国VPL公司创建人拉尼尔(Jaron Lanier)在20世纪80年代初提出的。其具体内涵是:综合利用计算机图形系统和各种现实及控制等接口设备,在计算机上生成的、可交互的三维环境中提供沉浸感觉的技术。其中,计算机生成的、可交互的三维环境成为虚拟环境(即Virtual Environment,简称VE)。

震惊世界的Magic Leap与微软的Hololens有哪些异同

先说一下我关于Magic Leap的信息来源:

1、2014年11月10日,Magic Leap在2014年9月融了5个亿以后,来Stanford招人,开了一个Info Session,标题是“The World is Your New Desktop”(世界就是你的新桌面)多么霸气!当时是Magic Leap感知研究的高级副总裁(VP of Perception)Gary Bradski和计算视觉的技术负责人(Lead of Computer Vision)Jean-Yves Bouguet来作演讲。Gary是计算机视觉领域的领军人物,在柳树车库(Willow Garage)创造了OpenCV(计算视觉工具库),同时也是Stanford顾问教授。Jean-Yves原来在Google负责谷歌街景车(Street View Car)的制造,是计算视觉技术的大牛。他们加入Magic Leap是非常令人震惊的。我参加了这次Info Session,当时Gary来介绍Magic Leap在感知部分的技术和简单介绍传说中的数字光场Cinematic Reality的原理,并且在允许录影的部分都有拍照记录。本文大部分的干货来自这次演讲。

2、我今年年初上了Stanford计算摄影和数字光场显示的大牛教授Gordon Wetzstein的一门课:EE367 Computational Imaging and Display(计算影像和显示器):其中第四周的Computational illumination,Wearable displays和Displays Blocks(light field displays)这三节都讲到Magic Leap的原理。现在大家也可以去这个课程网站上看到这些资料,EE367 / CS448I: Computational Imaging and Display

顺便介绍一下Gordon所在的Stanford计算图形组,Marc Levoy(后来跑去造Google Glass的大牛教授)一直致力于光场的研究,从Marc Levoy提出光场相机,到他的学生Ren Ng开创Lytro公司制造光场相机,到现在Gordon教授制造光场显示器(裸眼光场3D显示器),这个组在光场方面的研究一直是世界的领头羊。而Magic Leap可能正在成为光场显示器的最大应用。(相关内容可参考:Computational Imaging Research Overview)

3、今年参加了光场影像技术的研讨会Workshop on Light Field Imaging ,现场有很多光场技术方面的展示,我和很多光场显示技术的大牛交流了对Magic Leap的看法。特别的是,现场体验了接近Magic Leap的光场技术Demo,来自Nvidia的Douglas Lanman的Near-Eye Light Field Displays 。(相关内容可参考:Near-Eye Light Field Displays)

4、今年年中去了微软研究院Redmond访问,研究院的首席研究员Richard Szeliski(计算机视觉大神,计算机视觉课本的作者,Computer Vision: Algorithms and Applications)让我们试用了Hololens。感受了Hololens牛逼无比的定位感知技术。有保密协议,本文不提供细节,但提供与Magic Leap原理性的比较。

下面是干货:

首先呢,科普一下Magic Leap和Hololens这类AR眼镜设备,都是为了让你看到现实中不存在的物体和现实世界融合在一起的图像并与其交互。从技术上讲,可以简单的看成两个部分:

对现实世界的感知(Perception);

一个头戴式显示器以呈现虚拟的影像 (Display) 。

我会分感知部分和显示部分来分别阐释Magic Leap的相关技术。

一、显示部分

Q1. Hololens和Magic Leap有什么区别?Magic Leap的本质原理是什么?

在感知部分,其实Hololens和Magic Leap从技术方向上没有太大的差异,都是空间感知定位技术。本文之后会着重介绍。Magic Leap与Hololens最大的不同应该来自显示部分,Magic Leap是用光纤向视网膜直接投射整个数字光场(Digital Lightfield)产生所谓的Cinematic Reality(电影级的现实)。Hololens采用一个半透玻璃,从侧面DLP投影显示,虚拟物体是总是实的,与市场上Espon的眼镜显示器或Google Glass方案类似,是个2维显示器,视角还不大,40度左右,沉浸感会打折扣。

本质的物理原理是:光线在自由空间中的传播,是可以由4维光场唯一表示的。成像平面的每个像素中包含到这个像素所有方向的光的信息,对于成像平面来讲,方向是二维的,所以光场是4维的。平时成像过程只是对四维光场进行了一个二维积分(每个像素上所有方向的光的信息都叠加到一个像素点上),传统显示器显示这个2维的图像,是有另2维方向信息损失的。而Magic Leap是向你的视网膜直接投射整个4维光场, 所以人们通过Magic Leap看到的物体和看真实的物体从数学上是没有什么区别的,是没有信息损失的。理论上,使用Magic Leap的设备,你是无法区分虚拟物体和现实的物体的。

使用Magic Leap的设备,最明显的区别于其他技术的效果是人眼可以直接选择聚焦(主动选择性聚焦)。比如我要看近的物体,近的物体就实,远的就虚。注意:这不需要任何的人眼跟踪技术,因为投射的光场还原了所有信息,所以使用者直接可以做到人眼看哪实哪,和真实物体一样。举个例子:在虚拟太阳系视频的27秒左右(如下面这个gif图),摄影机失焦了,然后又对上了,这个过程只发生在摄影机里,和Magic Leap的设备无关。换句话说,虚拟物体就在那,怎么看是观察者自己的事。这就是Magic Leap牛逼的地方,所以Magic Leap管自己的效果叫Cinematic Reality。

Q2. 主动选择性聚焦有什么好处?传统的虚拟显示技术中,为什么你会头晕?Magic Leap是怎么解决这个问题的?

众所周知,人类的眼睛感知深度主要是靠两只眼睛和被观察物体做三角定位(双目定位,triangulation cue)来感知被观察物体的与观察者的距离的。但三角定位并不是唯一的人类感知深度的线索,人脑还集成了另一个重要的深度感知线索:人眼对焦引起的物体锐度(虚实)变化(sharpness or focus cue) 。但传统的双目虚拟显示技术(如Oculus Rift或Hololens)中的物体是没有虚实的。举个例子,如下图,当你看到远处的城堡的时候,近处的虚拟的猫就应该虚了,但传统显示技术中,猫还是实的,所以你的大脑就会引起错乱,以为猫是很远的很大的一个物体。但是这和你的双目定位的结果又不一致,经过几百万年进化的大脑程序一会儿以为猫在近处,一会儿以为猫在远处,来来回回你大脑就要烧了,于是你要吐了。而Magic Leap投影了整个光场,所以你可以主动选择性聚焦,这个虚拟的猫就放在了近处,你看它的时候就是实的,你看城堡的时候,它就是虚的,和真实情况一样,所以你不会晕。演讲中Gary调侃对于Jean-Yves这种带10分钟Oculus就吐的家伙来说,现在他一天带16个小时Magic Leap都不会晕。

补充:有人问为什么网上说虚拟现实头晕是因为帧率不够原因?

帧率和延时虽然是目前的主要问题,但都不是太大的问题,也不是导致晕得决定性因素。这些问题用更快的显卡,好的IMU和好的屏幕,还有头部动作预测算法都能很好解决。我们要关心一些本质的晕眩问题。

这里要说到虚拟现实和增强现实的不同。

虚拟现实中,使用者是看不到现实世界的,头晕往往是因为人类感知重力和加速度的内耳半规管感受到的运动和视觉看到的运动不匹配导致的。所以虚拟现实的游戏,往往会有晕车想吐的感觉。这个问题的解决不是靠单一设备可以搞定的,如果使用者的确坐在原定不动,如果图像在高速移动,什么装置能骗过你的内耳半规管呢?一些市场上的方案,比如Omni VR,或者HTC Vive这样的带Tracking的VR系统让你实际行走才解决这个不匹配的问题,但这类系统是受场地限制的。不过THE VOID的应用就很好的利用了VR的局限,不一定要跑跳,可以用很小的空间做很大的场景,让你以为你在一个大场景里就好了。现在大部分虚拟现实的体验或全景电影都会以比较慢得速度移动视角,否则你就吐了。

但是Magic Leap是AR增强现实,因为本来就看的到现实世界,所以不存在这个内耳半规管感知不匹配的问题。对于AR来讲,主要挑战是在解决眼前投影的物体和现实物体的锐度变化的问题。所以Magic Leap给出的解决方案是很好地解决这个问题的。但都是理论上的,至于实际工程能力怎么样就靠时间来证明了。

Q3. 为什么要有头戴式显示器?为什么不能裸眼全息?Magic Leap是怎么实现的?

人类希望能凭空看到一个虚拟物体,已经想了几百年了。各种科幻电影里也出现了很多在空气中的全息影像。

但其实想想本质就知道,这事从物理上很难实现:纯空气中没有可以反射或折射光的介质。显示东西最重要的是介质。很多微信上的疯传,以为Magic Leap不需要眼镜,我估计是翻译错误导致的,视频中写了Shot directly through Magic Leap tech.,很多文章错误的翻译成“直接看到”或“裸眼全息",其实视频是相机透过Magic Leap的技术拍的。

目前全息基本还停留在全息胶片的时代(如下图,我在光场研讨会上看到的这个全息胶片的小佛像),或者初音未来演唱会那种用投影阵列向特殊玻璃(只显示某一特定角度的图像,而忽略其他角度的光线)做的伪全息。

Magic Leap想实现的是把整个世界变成你的桌面这样的愿景。所以与其在世界各个地方造初音未来那样的3D全息透明屏做介质或弄个全息胶片,还不如直接从人眼入手,直接在眼前投入整个光场更容易。其实Nvidia也在做这种光场眼镜。

Nvidia采用的方法是在一个二维显示器前加上一个微镜头阵列Microlens array来生成4维光场。相当于把2维的像素映射成4维,自然分辨率不会高,所以这类光场显示器或相机(Lytro)的分辨率都不会高。本人亲测,效果基本就是在看马赛克画风的图案。

而Magic Leap采用完全不同的一个方法实现光场显示,它采用光纤投影。不过,Magic Leap用的光纤投影的方式也不是什么新东西。在Magic Leap做光纤投影显示(Fiber optic projector)的人是Brian Schowengerdt,他的导师是来自华盛顿大学的教授Eric Seibel,致力于做超高分辨率光纤内窥镜8年了。简单原理就是光纤束在一个1mm直径管道内高速旋转,改变旋转的方向,然后就可以扫描一个较大的范围。Magic Leap的创始人比较聪明的地方,是找到这些做高分辨率光纤扫描仪的,由于光的可逆性,倒过来就能做一个高分辨率投影仪。如图,他们6年前的论文,1mm宽9mm长的光纤就能投射几寸大的高清蝴蝶图像。现在的技术估计早就超过那个时候了。

而这样的光纤高分辨率投影仪还不能还原光场,需要在光纤的另一端放上一个微镜头阵列microlens array,来生成4维光场。你会疑问这不就和Nvidia的方法一样了么?不,因为光纤束是扫描性的旋转,这个microlens array不用做得很密很大,只要显示扫描到的区域就好了。相当与把大量数据在时间轴上分布开了,和通讯中的分时一样,因为人眼很难分辨100帧上的变化,只要扫描帧率够高,人眼就分辨不出显示器是否旋转显示的。所以Magic Leap的设备可以很小,分辨率可以很高。

他本人也来Stanford给过一个Talk,Near-to-Eye Volumetric 3D Displays using Scanned Light。这个Talk讲的应该就是Magic Leap早期的原型。(相关内容可参考: Fiber Scanned Displays)

二、感知部分

Q4. 首先为什么增强现实要有感知部分?

是因为设备需要知道自己在现实世界的位置(定位),和现实世界的三维结构(地图构建),才能够在显示器中的正确位置摆放上虚拟物体。举个最近的Magic Leap Demo视频的例子,比如桌子上有一个虚拟的太阳系,设备佩戴者的头移动得时候,太阳系还呆在原地,这就需要设备实时的知道观看者视角的精确位置和方向,才能反算出应该在什么位置显示图像。同时,可以看到桌面上还有太阳的反光,这就要做到设备知道桌子的三维结构和表面信息,才能正确的投射一个叠加影像在桌子的影像层上。难点是如何做到整个感知部分的实时计算,才能让设备穿戴者感觉不到延时。如果定位有延时,佩戴者会产生晕眩,并且虚拟物体在屏幕上漂移会显得非常的虚假,所谓Magic Leap宣称的电影级的真实(Cinematic Reality)就没有意义了。

三维感知部分并不是什么新东西,计算机视觉或机器人学中的SLAM(Simultaneous Localization And Mapping,即时定位与地图构建)就是做这个的,已经有30年的历史了。设备通过各种传感器(激光雷达,光学摄像头,深度摄像头,惯性传感器)的融合将得出设备自己在三位空间中的精确位置,同时又能将周围的三位空间实时重建。

最近SLAM技术尤其火爆,去年到今年两年时间内巨头们和风投收购和布局了超级多做空间定位技术的公司。因为目前最牛逼的3大科技技术趋势:无人车,虚拟现实,无人机,他们都离不开空间定位。SLAM是完成这些伟大项目基础中的基础。我也研究SLAM技术,所以接触的比较多,为了方便大家了解这个领域,这里简单提几个SLAM界最近的大事件和人物:

1、(无人车)Stanford的机器人教授Sebastian Thrun是现代SLAM技术的开创者,自从赢了DARPA Grand Challenge的无人车大赛后,去了Google造无人车了。SLAM学术圈的大部分研究派系都是Sebastian徒子徒孙。

2、(无人车)Uber在今年拿下了卡耐基梅隆CMU的NREC(国家机器人工程研发中心),合作成立高等技术研发中心ATC。这些原来做火星车的定位技术的研究人员都去Uber ATC做无人车了。

3、(虚拟现实)最近Surreal Vision被Oculus Rift收购,其中创始人Richard Newcombe是大名鼎鼎的DTAM,KinectFusion(HoloLens的核心技术)的发明人。Oculus Rift还在去年收购了13th Labs(在手机上做SLAM的公司)。

4、(虚拟现实)Google Project Tango 今年发布世界上第一台到手就用的商业化SLAM功能的平板。Apple五月收购Metaio AR,Metaio AR 的 SLAM 很早就用在了AR的app上了。Intel 发布Real Sense,一个可以做SLAM的深度摄像头,在CES上Demo了无人机自动壁障功能和自动巡线功能。

5、(无人机)由原来做Google X Project Wing 无人机的创始人MIT机器人大牛Nicholas Roy 的学生Adam Bry创办的Skydio,得到A16z的两千万估值的投资,挖来了Georgia Tech的SLAM大牛教授Frank Dellaert 做他们的首席科学家。(相关内容:~dellaert/FrankDellaert/Frank_Dellaert/Frank_Dellaert.html)

SLAM作为一种基础技术,其实全世界做SLAM或传感器融合做得好的大牛可能不会多于100人,并且大都互相认识。这么多大公司抢这么点人,竞争激烈程度可想而知,所以Magic Leap作为一个创业公司一定要融个大资,才能和大公司抢人才资源。

Q5. Magic Leap的感知部分的技术是怎么样的?

这张照片是Gary教授在Magic Leap Stanford 招聘会中展示了Magic Leap在感知部分的技术架构和技术路线。可以看到以Calibration为中心,展开成了4支不同的计算机视觉技术栈。

1、从图上看,整个Magic Leap感知部分的核心步骤是Calibration(图像或传感器校准),因为像Magic Leap或Hololens这类主动定位的设备,在设备上有各种用于定位的摄像头和传感器, 摄像头的参数和摄像头之间关系参数的校准是开始一切工作的第一步。这步如果摄像头和传感器参数都不准,后面的定位都是无稽之谈。从事过计算机视觉技术的都知道,传统的校验部分相当花时间,需要用摄像头拍摄Chess Board,一遍一遍的收集校验用的数据。但Magic Leap的Gary,他们发明了一种新的Calibration方法,直接用一个形状奇特的结构体做校正器,摄像头看一遍就完成了校正,极为迅速。这个部分现场不让拍照。

2、有了Calibration部分后,开始最重要的三维感知与定位部分(左下角的技术栈),分为4步。

2.1 首先是Planar Surface Tracking(平面表面跟踪)。大家可以在虚拟太阳系的Demo中看到虚拟太阳在桌子上有反光,且这个反光会随着设备佩戴者的移动而改变位置,就像是太阳真的悬在空中发出光源,在桌子表面反射产生的。这就要求设备实时地知道桌子的表面在哪里,并且算出虚拟太阳与平面的关系,才能将太阳的反光的位置算出来,叠在设备佩戴者眼镜相应的位子上,并且深度信息也是正确的。难点在平面检测的实时性和给出平面位置的平滑性(否则反光会有跳变)从Demo中可以看出Magic Leap在这步上完成得很好。

2.2 然后是Sparse SLAM(稀疏SLAM);Gary在Info Session上展示了他们实时的三维重构与定位算法。为了算法的实时性,他们先实现了高速的稀疏或半稀疏的三维定位算法。从效果上看,和目前开源的LSD算法差不了太多。

2.3 接着是Sensors; Vision and IMU(视觉和惯性传感器融合)。

导弹一般是用纯惯性传感器做主动定位,但同样的方法不能用于民用级的低精度惯性传感器,二次积分后一定会漂移。而光靠视觉做主动定位,视觉部分的处理速度不高,且容易被遮档,定位鲁棒性不高。将视觉和惯性传感器融合是最近几年非常流行的做法。

举例:

Google Tango在这方面就是做IMU和深度摄像头的融合,做的很好;大疆的无人机Phantom 3或Inspire 1将光流单目相机和无人机内的惯性传感器融合,在无GPS的情况下,就能达到非常惊人的稳定悬停;Hololens可以说在SLAM方面是做得相当好,专门定制了一个芯片做SLAM,算法据说一脉相承了KinectFusion的核心,亲自测试感觉定位效果很赞(我可以面对白色无特征的墙壁站和跳,但回到场中心后定位还是很准确的,一点都不飘。)

2.4 最后是3D Mapping and Dense SLAM(3D地图重建)。下图展示了Magic Leap山景城办公室的3D地图重建:仅仅是带着设备走了一圈,就还原了整个办公室的3D地图,并且有很精致的贴图。书架上的书都能重建的不变形。

因为AR的交互是全新的领域,为了让人能够顺利地和虚拟世界交互,基于机器视觉的识别和跟踪算法成了重中之重。全新人机交互体验部分需要大量的技术储备做支持。

接下来的三个分支,Gary没有细讲,但是可以看出他们的布局。我就随便加点注解,帮助大家理解。

3.1 Crowdsourcing众包。用于收集数据,用于之后的机器学习工作,要构建一个合理的反馈学习机制,动态的增量式的收集数据。

3.2 Machine Learning & Deep Learning机器学习与深度学习。需要搭建机器学习算法架构,用于之后的识别算法的生产。

3.3 Scenic Object Recognition场景物体识别。识别场景中的物体,分辨物体的种类,和特征,用于做出更好的交互。比如你看到一个小狗的时候,会识别出来,然后系统可以把狗狗p成个狗型怪兽,你就可以直接打怪了。

3.4 Behavior Recognition行为识别 。识别场景中的人或物的行为,比如跑还是跳,走还是坐,可能用于更加动态的游戏交互。顺便提一下,国内有家Stanford校友办的叫格林深瞳的公司也在做这个方面的研究。

跟踪方面

4.1 Gesture Recognition手势识别。用于交互,其实每个AR/VR公司都在做这方面的技术储备。

4.2 Object Tracking物体追踪。这个技术非常重要,比如Magic Leap的手捧大象的Demo,至少你要知道你的手的三维位置信息,实时Tracking,才能把大象放到正确的位子。

4.3 3D Scanning三维扫描。能够将现实物体,虚拟化。比如你拿起一个艺术品,通过三维扫描,远处的用户就能够在虚拟世界分享把玩同样的物体。

4.4 Human Tracking人体追踪。比如:可以将现实中的每个人物,头上可以加个血条,能力点之类。

5.1 Eye Tracking眼动跟踪。Gary解释说,虽然Magic Leap的呈像不需要眼动跟踪,但因为要计算4维光场,Magic Leap的渲染计算量巨大。如果做了眼动跟踪后,就可以减少3D引擎的物体渲染和场景渲染的压力,是一个优化的绝佳策略。

5.2 Emotion Recognition情感识别。如果Magic Leap要做一个Her电影中描绘的人工智能操作系统,识别主人得情感,可以做出贴心的情感陪护效果。

5.3 Biometrics生物识别。比如要识别现实场景中的人,在每个人头上显示个名字啥的。人脸识别是其中一种,国内有家清华姚班师兄弟们开得公司Face++就是干这个干的最好的。

总结:简单来讲感知这个部分Magic Leap其实和很多其他的公司大同小异,虽然有了Gary的加盟,野心非常的宽广,但这部分竞争非常激烈。

Q6: 就算Magic Leap已经搞定了感知和显示,那么接下来的困难是什么?

1、计算设备与计算量

Magic Leap要计算4维光场,计算量惊人。不知道Magic Leap现在是怎么解决的。如果Nvidia不给造牛逼的移动显卡怎么办?难道自己造专用电路?背着4块泰坦X上路可不是闹着玩的。

下图是,今年我参加SIGGraph 2015里,其中一个VR演示,每个人背着个大电脑包玩VR。10年后的人类看今天的人类追求VR会不会觉得很好笑,哈哈。

2、电池!电池!电池!所有电子设备的痛

3、一个操作系统

说实话,如果说“世界就是你的新桌面”是他们的愿景,现在的确没有什么操作系统可以支持Magic Leap愿景下的交互。他们必须自己发明轮子。

4、为虚拟物体交互体验增加物理感受

为了能有触感,现在交互手套,交互手柄都是 VR 界大热的话题。从目前的专利上看,并没有看出Magic Leap会有更高的见地。说不定某个Kickstarter最后能够独领风骚,Magic Leap再把他收了。


上一篇: 清早的近义词,清早反义词是什么意思(清早的近义词是什么)
下一篇: 返回列表

为您推荐