据外媒报道,如果5G竞赛的胜利标准是率先在某个国家发布有限5G手机服务的话,那么卡塔尔的运营商Ooredoo今天就赢得了这场胜利。这家运营商表示,它刚刚推出了5G Supernet网络,这是“世界上第一个商业化5G网络”。该运营商还承诺,将在卡塔尔首都多哈提供符合各种标准的5G NR服务。 Ooredoo至少从2016年以来一直在积极向部署5G网络前进,此前该公司已经完成了本地5G试验,开发了早期5G基站,并在去年11月与卡塔尔航空公司合作推出了一项5G商业服务试点项目。 这并非该运营商首次声称在5G部署上取得世界第一的成绩。该运营商此前曾向少数VIP客户提供了符合之前标准的“5G速度体验”,今年3月份又跟中兴建立合作关系,将符合标准的5G硬件商业化。 该运营商今日宣布的内容还包括在多哈的3.5GHz频段上推出“第一阶段”的5G Supernet网络,覆盖了从Pearl Qatar南部到哈马德国际机场之间数英里的地区。这个移动5G服务覆盖了多哈的一些热门地点,比如泄湖(Lagoona)、卡塔尔文化村、西湾(West Bay)、滨海公路(the Corniche)和瓦其夫老市场(Souq Waqif)等。 Ooredoo在10个国家拥有1.64亿用户,它承诺在未来几个月内覆盖“卡塔尔的更多地区”。 该运营商首席执行官瓦利德-阿尔-萨义德(Waleed Al Sayed)称,Ooredoo和卡塔尔今日都创造了历史。萨义德说:“我们是世界上第一家提供5G技术和服务的公司,而卡塔尔的人民将率先享受到这项技术升级带来的巨大好处。这个网络将为推出一波新的创新奠定必要的基础,这些创新包括无人驾驶汽车、智能道路、虚拟现实、增强现实、全国性无人机服务等等。” 然而,就目前来说,Ooredoo的雄心似乎受到了缺乏5G设备的限制。该运营商称:“必须使用Ooredoo兼容5G的设备才能使用Ooredoo的5G Supernet网络。”然而,该运营商的官网目前并没有列出兼容5G的设备名单,而是专注于苹果、三星和其他公司的热门4G/LTE手机。Ooredoo曾在去年的速度体验中向VIP客户提供过特别定制的、符合之前标准的5G设备。 另一个问题是性能。在5G速度体验中,Ooredoo承诺网速最高可达1Gbps,并且吹嘘说实验室里得到的速度峰值远高于此,但它没有说明网络在实际运行中的网速是多少。相反,该公司只承诺5G Supernet的速度、容量和延迟都会比现有的蜂窝网络更快、更大和更好。 Ooredoo并非唯一一家号称“全球首家推出5G服务”的中东运营商。Etisalat今日表示,它将推出第一个商业5G网络,承诺为阿拉伯联合酋长国部分地区的客户提供1Gbps的固定5G网络服务。然而,该运营商实际上打算在9月份才推出兼容设备和服务,然后根据消费者的需求将该服务推广到阿联酋各地。美国运营商Verizon和AT&T已经承诺在今年晚些时候推出5G网络。 据《海湾时报》报道,Ooredoo承诺在一个月内提供所谓的“客户终端设备”(CPE),并在2019年6月之前推出智能手机。一般来说,客户终端设备指的是固定的5G硬件,比如用户家中的电脑的调制解调器,但该公司也有可能会提供无线5G热点。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
目前,距离地球最近的行星之一火星,因为和地球比较相似,是太阳系中被人造探测器造访最多的天体之一。从前苏联的“火星计划”到美国最新的“洞察”号,前往火星的探测器形式上只有三个类型:落地后不动的固定式探测器,可以移动的火星漫游车,以及环绕火星的轨道探测器。 两年后的 2020 年,NASA 预备往火星上发射的“火星 2020”探测计划,将包含一个全新类型的火星探测器,一台直升机。 NASA 是在最近的任务新闻发布会上宣布这件事的。 “火星 2020”(暂定名)计划是 2012 年宣布的火星长期探索计划的一部分,主要任务载荷是一个火星漫游车。这台漫游车设计与 2011 年发射的“好奇”号探测器类似,使用相同的车身结构,动力源同样采用不需要太阳光的同位素热能反应堆供电,“好奇”号火星车计划任务 2 年,因为同位素热能系统的理论续航长达十数年,“好奇”号的任务在 2012 年被无限期延长。 “火星 2020”中的漫游车将搭载和“好奇”号不同的科学载荷,研究的课题也不相同。“好奇”号携带的 X 射线光谱仪、化学成像相机等科学仪器的目的,是探索火星上水的作用,以及支持生命的可能性;“火星 2020”将主要搭载探地雷达、氧气实验室和紫外线光谱仪,主要科学任务将围绕火星的地质历史、过去的生活环境,以及未来在火星殖民的技术探索。 火星 2020 漫游车 在漫游车之外,最重要的部件就是被命名为“火星直升机侦查员”(MHS)的飞行探测器。 MHS 是一台同轴双旋翼的电动直升机,旋翼直径 1.1 米,机舱大小 14 厘米见方,总重量 1 千克,功率 220 瓦,依靠太阳能电池充电。计划中这台无人机将作为漫游车的眼睛进行侦察飞行,提供比轨道探测器高 10 倍的地面分辨率,指导漫游车前往更值得探索的区域。 MHS 最大的挑战来自火星大气。 虽然形式相似,但 MHS 面临的是和地球上截然不同的大气环境。火星大气主要由 96% 的二氧化碳组成,平均气压仅有 600 帕斯卡,约为地球大气气压的千分之 6,不考虑温度和成分,这环境也远低于可以支持人类生活阿姆斯特朗极限。 对于 MHS 探测器来说,在火星上起飞比在地球上起飞难得多,火星地表的气压相当于地球上几十公里高空的稀薄空气,地球上没有直升飞机可以在这个高度飞行。MHS 的旋翼必须提供更多的动力,转速比地球飞机快得多,大约为 3000 转每分钟,飞行时间也较短,单次飞行大约 2 分钟。 在未来的任务中,这台飞行探测器每天执行一次飞行任务,最远不超过 600 米,高度不超过 400 米,飞行时间不超过 3 分钟。飞行中相机将拍摄周边地面环境,将信号传回火星车,通过高增益天线发回地球,让科学家来决定火星车前进的方向。 有 MHS 的帮助,火星车的效率会更高。“火星 2020”火星车的设计时速不超过每小时 90 米,平均时速约为每小时 30 米,比人类步行还要慢得多,靠火星车移动侦查,会浪费大量的任务时间,飞在天上的 MHS 可以解决这个问题。 目前,MHS 获得了 2300 万美元的经费,2017 年初已经完成了样机的测试。但 NASA 同时表示,MHS 并不是“火星 2020”的主要任务计划,即使 MHS 在火星的恶劣气候中任务失败,也不会影响到整个计划太多。 另外,火星直升飞机不是终点。NASA 的兰利研究中心曾计划一个在火星上飞行的固定翼飞机,原计划 2013 年发射,但目前暂时搁置。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
摘要:这些举措将继续推动中国区块链技术和应用的快速发展。 5月11日,香港城市大学成都研究院艺创空间(A+i,A+i为英文Arts and innovation[艺术与创新]的缩写)在成都双流区凤翔湖湖畔举行开幕仪式。开幕仪式上,双流区与香港城市大学签署了“区块链产业技术研究院”合作协议,双方将主要开展区块链相关技术的应用研究,以及就教育培训、国际人才与技术交流等项目进行全面合作。 据悉,香港城市大学成都研究院是香港城市大学在中国西部设立的第一个产学研平台,旨在打造成为全国国际化创新与科技转化的示范基地,促进国际协同创新和推动区域经济发展。 此前,成都就已发布政策指导信息,开展对区块链产业链布局。 2017年8月8日,成都力促产业发展“财政金融19条”正式发布。 政策明确选址建设金融高科技产业园区,支持大数据、云计算、人工智能、区块链等新一代信息技术与金融领域深度融合。对新引进金融科技企业、金融科技重点实验室、技术服务创新平台以及孵化器给予最高1000万元奖励。 2017年7月2日,成都高新区已正式出台中西部首个促进新经济发展政策——《成都高新区关于发展新经济培育新动能的若干政策》。支持以新业态为特征的跨界经济、融合经济等发展。对开展区块链、移动支付、智能投顾等业务的金融科技企业,按照研发费用的10%给予最高500万元补贴。 2017年6月14日,在成都举行的2017“驱动创新·链接未来”第一届全球区块链高峰论坛上,天府软件园、链一科技、电子科技大学、中联信通、富坤创投宣布联合成立西南区块链创新发展联盟,力争在3到5年内将成都打造成为全国区块链研究和发展的中心。这是西南首个区块链产业联盟。 就全国范围看,中国目前有62家区块链研究院(中心、实验室),分布在全国15个城市。 北京拥有区块链研究院数量最多,达26家,占中国研究院数量的42%。高校及科研机构、企业、政府是中国创办研究院的三个主体,能够确认创办主体的60多家研究院中,高校及科研机构和企业各创办了28家,分别占总数的45.2%。即这两个主体创办了中国超过90%的区块链研究院。 与落地技术应用相比,区块链研究院的整体布局早了1-2年。这源于高校和科研机构对于前沿技术的密切关注,而企业浸入在行业内部,二者的嗅觉极为灵敏,提前捕捉到了技术应用的走势,从而提前布局。这些举措将继续推动中国区块链技术和应用的快速发展。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
时隔26年,「波士顿机器人」宣布将对外正式销售其旗下机器人 SpotMini。 创始人 Marc Raibert 今天在加州大学伯克利分校举行的 TechCrunch TC Sessions 上 表示,「波士顿机器人」的 SpotMini 四足机器人正在试产当中并将于 2019年投入商用。 SpotMini Raibert 在会议上表示,SpotMini 在办公室内有多种潜在的应用场景,公司的目标是把 SpotMini带到家庭场景中,成为普通消费者生活中不可或缺的一部分。 2018年, SpotMini 将试产100 台,目的是通过这批试产机器人将供应链持续优化以便更好迎接 2019年的量产。 当被问到对外销售的价格时,Raibert 表示,公司还没敲定最终的对外售价,但可以透露的是新一代 SpotMini 比初代的成本降低了10倍之多。 还记的吗?去年11月 SpotMini 初次亮相时它还在一片后院的草地上恣意奔跑。 2个月后,他已经学会了如何开门。 事实上,早在2016年,当 「波士顿机器人」第一次推出 SpotMini 的宣传视频时,它就已经可以做到洗盘子、捡垃圾、移动杯子,并且在踩到香蕉皮跌到后还能自行站起来。 在 「波士顿机器人」的官网上,SpotMini 的基本参数被标出:高0.84米,重30公斤,最高载荷14公斤,有17处机器关节,具备3D视觉系统,在充满电的情况下可运行约90分钟。 「波士顿机器人」成立于1992年,核心团队来自MIT,2013年曾被谷歌收购,去年下半年又被软银买下。除了 Spotmini 以外,Boston Dynamics 还有 Atlas、Handle、Spot、LS3、 WildCat、 BigDog、SandFlea 和 Rhex 共9款机器人。其中 Atlas 双足人形机器人在去年完成了足以PK专业运动员的后空翻,而其他机器人则大多应用在工业与军用等特殊场景。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
据《纽约时报》报道,Alexa、Siri等语音助手能够听到你听不出的隐蔽性指令。研究者们称,他们能够将发给语音助手的指令嵌入到音频和口头录音,从而让人类无法察觉。 许多人已经习惯了与他们的智能设备交谈,习惯了通过发出指令让它们朗读文本、播放歌曲或设置闹钟。但其他人可能也在偷偷地跟它们说话。 在过去的两年里,中国和美国的研究人员已经开始证明,他们可以给苹果的Siri、亚马逊的Alexa和谷歌的Google Assistant发出人耳无法察觉的隐蔽性命令。在大学实验室里,研究人员已经能够秘密地激活智能手机和智能音箱上的人工智能系统,让它们拨打电话号码或者打开网站。要是落在不法分子的手里,这项技术可能会被用来打开别人的门、转账或者网上购物——只需通过收音机播放音乐即可实现。 2016年,来自加州大学伯克利分校和乔治城大学的一个学生团队证明,他们可以通过隐藏于扬声器和YouTube视频传出的白噪音的指令,来让智能设备打开飞行模式或打开网站。 这个月,伯克利大学的一些研究人员发表了一篇更进一步的研究论文。他们称,他们可以将指令直接嵌入到音乐或口语文本的录音当中。因此,当人类听众听到有人在说话或在听乐队演奏的时候,亚马逊的Echo音箱可能会听到在你的购物清单上添加某种商品的指令。 “我们想看看我们是否能够让指令变得更加隐秘。”加州大学伯克利分校计算机安全专业的博士生、论文的其中一位作者尼古拉斯·卡林尼(Nicholas Carlini)说道。 卡林尼补充说,虽然没有证据表明这些技术已经走出了实验室,但人们开始利用这些技术可能只是时间问题。他指出,“我的假想是,作恶者已经雇佣了人来做我的这项工作。” 这些欺骗行为说明,人工智能——尽管它正在取得巨大进步——仍然可能被用于欺诈和操纵。通过改变数字图像中的几个像素,计算机会将飞机误以为小猫;研究人员也只需要在路标上粘贴小贴纸和混淆车辆的计算机视觉系统,就能让自动驾驶汽车转向或加速。 对于音频攻击,研究人员利用的是人类和机器语音识别能力的差距。语音识别系统通常将每个声音翻译成字母,最终将其编译成单词和短语。通过对音频文件进行细微的改动,研究人员能够消除语音识别系统本应该听到的声音,并将其替换为一种让机器编译成不同内容的声音,而人类的耳朵几乎无法察觉其中的区别。 厨房里的Echo智能音箱 声控设备的不断普及,放大了这种把戏的影响。根据市场研究公司Ovum的数据,到2021年,使用像亚马逊Alexa或苹果Siri这样的数字助手的智能手机和智能音箱的数量将比人口还要多。另一家研究机构Juniper Research的数据显示,到那时,超过一半的美国家庭将至少有一台智能音箱。 亚马逊表示,它没有披露具体的安全措施,但它已采取措施来确保其Echo智能音箱的安全性。谷歌说,安全性是一个持续的关注重点,它的Google Assistant具有规避无法察觉的音频命令的功能。这两家公司的智能助手均采用语音识别技术,来防止设备在没有识别出用户的声音的情况下执行某些指令。 苹果公司表示,其智能音箱HomePod的设计能够防止执行诸如打开门锁的指令。该公司还指出,iPhone和iPad必须先解锁,否则Siri不会执行访问敏感数据或者打开应用程序和网站的指令。 然而,许多人常常会让他们的智能手机处在开锁状态,至少在目前,语音识别系统是出了名的容易被愚弄。 现在已经有人利用智能设备的口头指令来谋求商业利益。 去年,汉堡王(Burger King)在网上发布了一则广告,引发轰动。该广告有意问道,“O.K., Google,华堡是什么呢?”支持语音搜索的Android设备会通过朗读华堡的维基百科页面来进行回应。在观众开始恶搞该产品的维基百科页面以后,该广告被撤掉。 几个月后,美国热播动画片《南方公园》(South Park)播出了一整集围绕语音指令的节目,让语音识别助手们模仿青少年说脏话。 没有美国法律禁止向人类传播潜意识信息,更不用说机器了。美国联邦通信委员会(FCC)不鼓励这种做法,认为其“违背公众利益”。 全美广播事业者联盟则禁止“传播正常意识范围以外的信息”。这两个机构都没有谈到围绕智能设备的潜意识刺激。 法院裁定潜意识信息可能构成对隐私的侵犯,但法律并未将隐私概念延伸至机器。 现在,该技术在法律面前更加超前了。去年,普林斯顿大学和中国浙江大学的研究人员证明,声音识别系统可以通过使用人耳听不到的频率来激活。这种攻击先是将手机调成静音模式,这样机主就不会听到系统的回应。 这项技术被中国的研究人员称作“海豚攻击”,能够指示智能设备访问恶意网站、打电话、拍照或者发送短信。虽然海豚攻击有它的局限性——发射机必须要靠近接收设备——但专家们警告说,打造出更强大的超声波系统是有可能的。 这一警告在今年4月得到印证,当时伊利诺伊大学厄巴纳-香槟分校的研究人员展示了在25英尺开外的超声波攻击。虽然指令不能穿透墙壁,但它们可以通过从建筑物外部打开的窗户来控制智能设备。 今年,来自中国科学院和其他机构的另一个中美研究团队证明,他们可以通过隐蔽性的指令来控制声控设备,那些指令嵌入在能够通过收音机播放或者在YouTube等服务上播放的歌曲当中。 最近,卡林尼和他在伯克利大学的同事们将指令编入了可为Mozilla的DeepSpeech语音-文本翻译软件识别的音频。DeepSpeech是一个开源平台。他们能够将“O.K. Google,浏览evil.com吧”指令隐藏在口语录音“没有数据集的话,该文章毫无用处”。人类无法辨别出该条指令。 伯克利大学的研究团队也将该指令嵌入到音频文件当中,其中包括来自威尔第的《安魂曲》的四秒片段。 设备制造商们的响应方式会各有不同,尤其是考虑到它们要权衡安全性与易用性问题。 “企业必须要确保其设备的用户友好性,因为这是他们的主要卖点。”乔治城大学的研究员塔维什·维迪雅(Tavish Vaidya)说道。他的其中一篇有关音频攻击的论文以“Cocaine Noodles”(可卡因面条)为标题,因为设备将“可卡因面条”解读为“O.K., Google”。 卡林尼说,他相信,他和他的同事们最终将能够对市面上的任何一款智能设备系统发动成功的对抗性攻击。 “我们想要证明这是有可能的,”他说,“然后希望其他人会说,‘好吧。这是可能的,现在让我们试着去修复它。’” 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
摘要:当「低速无人驾驶更容易落地」成为公开的秘密,这个圈子里还有哪些新鲜事? 2017 年 9 月初,酷哇机器人(COWAROBOT)上海办公室接到一通来自长沙的电话——对方表示对其低速无人驾驶方案很感兴趣。 电话来自于中联重科环境(以下简称中联环境)——国内最大的环卫、环保装备制造商,每年全国超过 70% 以上的环卫清扫装备由这里输往全国各地。 随后,中联环境针对酷哇机器人的团队和技术平台进行了长达的 4 个月考察和评测。12 月底,漫长的决策期结束,双方的合作意向最终敲定。 无人驾驶扫地车实拍 今年 4 月,由中联环境与酷哇机器人共同开发的无人驾驶清扫车正式亮相长沙橘子洲头公园,并现场展示了清扫车适应于多路况清扫任务、动态路径规划等功能的实测效果。这让酷哇机器人的团队颇为激动——率先成为将量产的低速无人驾驶产品带入市场的创业公司。 更为重要的是,这家成立于 2015 年 8 月的机器人技术团队在四年的商业化探索之后,终于在行业领域找到了更为明确和清晰的商业化方向。 早在日本东京工业大学攻读博士时期,创始人何弢就将论文方向锁定为「特征驱动全局定位系统」——一项在非理想弱 GPS 环境下无人驾驶的核心技术。在他看来,这些年沉淀下来的技术经验和行业理解力将是团队稳健发展的核心。 何弢喜欢强调「节奏」——要掌控在一个合理范围内,这远比喊出几年内要量产落地的口号更值得关注。 抢位 对于一家想要落地传统行业的创业公司而言,绑定龙头企业是十分必要的手段。 中联环境,隶属于工程机械领域 A+H 股上市公司的中联重科旗下,主要从事城市环卫及污染物治理等技术研究,以及装备研发、制造和营销的完整链条。 在环卫产业领域,中联环境有着天然的渠道资源优势,同时也是被政府认可和信赖的品牌。这艘大船顺势成为希望进入环卫场景的自动驾驶技术方案商的必争之地,这其中不乏国内最大的自动驾驶技术平台公司。 酷哇机器人(COWAROBOT)创始人兼CEO何弢 「老实说,市面上已有的方案他们(中联环境)都接触和评估过,包括部分友商还在不断寻求合作的可能。」喝着水的何弢不疾不徐地说道,似乎对于赢取到合作订单的结果成竹在胸。 这次项目采取非公开招标形式,但中联环境并没有因此而马虎,光是对于酷哇项目的沟通和决策周期就长达四个月。 「采取公开竞标的方式会更简单一些。但这种探索性的合作项目需要对于合作伙伴更深度的观察」。一位同样在传统产业开展无人驾驶项目的负责人说道。实际上,结合环卫产业的发展瓶颈和趋势来看,这更像由领头羊角色开启的一场主动变革。 在无人驾驶技术方案的考察过程中,测试实体的完整度是中联环境首先考察的指标,「他们要看到能够跑起来的真车」。此外,能够跑通园区场景的成熟方案也是必要条件。「测试过程中,他们始终跟着无人车,跑完了整个封闭的工业园区。」何弢回忆起当时的场景。 如果说前两项考察都是必考题,酷哇则是被幸运击中的考生,「我们的低速场景下的无人驾驶标准方案已经在实际应用中得到验证」,这背后是酷哇早期面向消费者市场的自动跟随行李箱、与某上市公司合作的快递物流机器人两大项目的落地和探索。 顺利通过基础能力的考核,接下来双方探讨的核心包括环卫产业的理解,以及方案商对于自动化作业的重要程度。「这个过程里没有要求展现过多实际的案例,主要是逻辑和方案思路的梳理。」 任何一项技术一旦落地到行业里,就只能让位其主角的身份,踏实地扮演好服务赋能的配角。被无线光环环绕的无人驾驶亦是如此。 「如果只是让环卫车变得无人驾驶并没有多大价值,更重要的事在于——通过无人驾驶的手段让环卫车成为更加高效和安全的智能清扫车。」何弢谈道。 无人驾驶状态下行驶 在城市环卫场景下,理想的智能化清扫方案应该是这样一幅画面:在固定的清扫车归位处,五六辆大小不一、形态各异的清扫车如同站岗的哨兵整装待发。 清扫车自动避障绕障 固定时钟敲响,清扫车车队先后轰轰作响地出发,通过抓取道路中的特定建筑作为参照物,比如,马路牙子,地标楼宇等,沿着预定的基本路线前行。 清扫车识别后主动追踪清扫 与此同时,通过识别树叶、冰雪等垃圾目标物,清扫车能够及时调整清清扫路径和清扫模式等行为,比如,针对垃圾量大的区域加大作业功率;为了在既定续航时间内清扫更多区域,其中还涉及到作业能效优化的决策。 清扫车自主学习清扫路径 最后,清扫车完成清扫任务回到既定的归位处,由人工进行垃圾的转运,为清扫车充电、检修等维护工作。 走完整个评估和沟通过程,就何弢的观察和感受而言,中联环境作为一家扎根于传统行业的巨头公司,在挑选技术方案商时,更侧重于其后期的配合力度和配合意愿。 此外,据酷哇方面透露,在低速自动驾驶场景中,技术需求方与供给方在技术层面容易出现分化的关键点在于——弱 GPS 环境下无人驾驶的运行能力。 考虑到城市道路的复杂情况,无人车穿梭于大街小巷间,其周围的环境一直处于高度动态中。同时,因为处于近地面状态,GPS 信号非常容易受到阻挡。 这背后需要两个关键技术进行支撑,其一是特征驱动的全局定位技术,所谓特征驱动,即看到环境中的特征物体,便能够清楚知道所处在环境中的哪个定点位置,这和人通过标记点记住路线的道理十分相似。 其二,即是动态的路径规划。低速无人驾驶场景的特殊之处在于——城市中的毛细血管道路是缺少道路股则的,不能像在标准公路中通过辨识车道线或者人行道来辅助判断。在这种特殊道路环境下,车辆基本上处于一个相对无序的状态。 这两项关键技术成为低速场景下无人驾驶场景的最大挑战,同时也是其技术门槛所在。 「我们一直做这种特殊场景下的低速场景,最开始从消费场景切入类似环境下的垂直场景里,这些场景里都充满着以人为主的活动,刚好是我们的强项。反而,面向乘用车和高速道路的方案商不能胜任。」何弢认为酷哇的技术差异化优势也在于此。 变革 过去几年里,环卫产业经历了从人力化向机械化的变革,发展速度基本呈现井喷式的势头,但瓶颈限制也一直伴随左右。 参考《2015 年中国城乡建设统计年鉴》,到 2020 年中国环卫服务总体市场规模将接近 1700 亿元,复合增长率达 6.8%,其中道路清扫保洁服务规模为 1266 亿元。 《2015 年中国城乡建设统计年鉴》统计数据 在这背后主要有两股推动力量。一方面是「美丽中国」的政策落地后,政府一直大力推动;一方面随着城镇化水平的不断提高,从一线城市到二三线城市,城镇地区的市容市貌水准要求也在不断提升,与之相对应的环卫保洁需求和力度随之加大。 但在拥抱巨大机遇的过程中,中联环境也不得不先解决一个巨大的社会层面难题——劳动力短缺。 「这行很难招到人,并且现有的劳动力结构也有问题,完全跟不上新增市场的速度」。从业人士感慨道。 在不断新增的订单中,中联环境意识到了供过于求的增长矛盾点——买来了大量设备却招不到足够的人员去运维,即将威胁到销售环节。 在这样的市场背景下,直接从机械化迈向机械自动化 3.0 时代的步伐开始加快。市场需要的不仅仅是机械化,而且是要自动化。 今年,中联环境的业务战略进行了重大转型,在出售设备之外,同时将开始切入服务行业。这个转型的重要意义之处在于,中联将由一家设备出售商转型到设备运营商。 「他们急需寻找到一个利益与效率的平衡点——在成本空间有限的情况下实现更高的效率,无人驾驶是最好的方案。」何弢谈起自己的理解,这样也就不难理解为什么合作推进的最大动力来自于中联环境。 参考公开数据,在环卫产业的生态链中,机械设备及耗材仅占到 32% 的市场份额,剩下超过一半市场由环卫服务构成。 在何弢看来,本质上,无人驾驶技术的落地是对人工服务进行一定比例的替代。在已经从纯人力过渡到机械化的前提下,参照工业 4.0 的标准,智能机械自动化的人员替代比例能够达到 50%,也就是说一个清扫队能够缩减一半的人力。 换句话就是说,「68% 的市场份额里,肯定可以占到 32% 以上的替换比例。」何弢肯定地说道。 此外,结合环卫服务行业每年正在以 10% 以上的速度增长,「未来这将是一块千亿级的市场」。 从无人驾驶到无人清扫还有几步? 「谁更懂环卫车?」「谁更懂智能清扫作业?」 答案不会是自动驾驶技术团队。区别于闭门造车的方案,何弢认为,必须和设备制造商站在一起,「我们的信心在于对清扫作业的自动化、清扫车无人驾驶整体把控。」 基于更早启动的物流机器人项目——低速场景下自动驾驶平台基础,酷哇和中联环境的合作主要围绕自动化作业层面展开,包括垃圾的追踪定位;清扫模式的选择;清扫路径的规划,是沿着马路牙子一直清扫,还是大幅度的左右来回清扫等最优能效的管理。通俗来说,就像是一个放大版的巨型扫地机器人。 在实际应用场景中,无人驾驶环卫车最终要落实到执行清扫作业,而基于无人驾驶的框架去构建出一套智能清扫作业系统,并将智能控制系统和车体本身打通,产品方案才算饱满。 有时,中联环境来到上海与酷哇团队进行沟通,但大部分时间双方的合作在长沙进行。「在长沙,我们部署了一只十余人的团队,在中联长沙总部的办公室里设有酷哇员工的工位。」 酷哇的自动驾驶研发团队主力来自于上海交大,也就是何弢的母校。这两年,酷哇从互联网巨头公司、CMU 等再吸引了一波新鲜力量。 从去年底正式立项距今,5 个月时间过去了,双方的合作成果已经正式出炉——可进行全路况识别和清扫、路径规模的无人驾驶环卫清扫车。不过,何弢直言,「这还是测试版」,接下来的半年时间里,双方将在上海、长沙、芜湖三地同时落地测试。 位于虹桥的北斗产业园里,已经上岗一辆无人驾驶清扫车。不过,测试重点还是落在长沙,在橘子洲头已经部署三辆车,同时,出于改造阶段的还有两辆车,其中一辆是卡车体积的重型清扫车——仍采用低速作业模式,功率和续航时间更长。 在长沙,测试将以一个车队的形式展开作业,在今年 6 月份正式完成。「主要是考虑不同作业车的协同性」。更进一步,何弢表示,后续还将推出带有机械臂的清扫车。 在无人机驾驶方案层面,清扫车采用激光雷达、毫米波雷达、摄像头、超声波雷达等多传感器融合的方式,同时配合增稳后的底盘运动执行策略来跨越或绕过障碍。 当下,激光雷达仍是制约无人驾驶方案成本的最大因素,酷哇方案中选用三颗激光雷达方案。解释原因时,何弢谈到,方案的选取是从需求倒退回来的,单纯无人驾驶方案两颗雷达能够完成任务,但还有智能作业的需求,包括对于特征物的识别跟垃圾的追踪。 目前,展馆、物业、机场、公园、厂区等五大片区将会是酷哇重点关注的低速无人驾驶落地场景,其场景共性包括以低速运行车辆、人类活动为主,运行车辆速度控制在 20km/小时以下。面向行业的业务中,聚焦在物流与环卫两大方向。 更重要的事 谈到未来无人清扫车的智能化方向,何弢透露,酷哇与中联环境正在共建有一个数据中心,这里搜集有清扫车在不同场景中积累的作业数据。 比如,针对不同季节、不同时间段、不同路段的垃圾分布情况进行精细化,以助于进一步提升和优化作业模式,比如,通过增减单位清扫力度,比如将原来需要两台设备要覆盖的清扫面积,经过优化到可能一台清扫设备就足够。 2016 年,酷哇机器人项目作为芜湖市政府招商引资的机器人项目入驻,政府同时资助了工地和厂房等资源。如今,酷哇的生产线集中在此,包括早先偏向智能硬件的智能跟随行李箱项目,以及涉及到低速自动驾驶的整套核心零部件也将是这里组装完成的。 「在芜湖完成组装和测试,然后再发到各个地去做前装或者是后装。」何弢认为这将是酷哇批量化的有力保障。 从最初的智能跟随行李箱,然后到物流无人车项目探索,以及无人清扫地车项目落地,酷哇走了一条「非典型化」的产品路线。 「我们内部是有个原则说是做『做三年减的产品,布局三年加的技术』,」何弢谈到其背后逻辑时说道,酷哇一直在追求的是,做能够实际落地的产品和看得到的时间技术布局。 「3 年减」的产品,即意味着三年以内,能够真正落地规模化的才会去做;「3 年加」的技术,就是说持续在三年能够体现出竞争力。 谈到谷歌 Waymo 等美国自动驾驶先驱者时,何弢表示,最值得借鉴之处在于,他们的节奏更为稳健,一直处于相对客观和理性的态度,而这背后是需要对于行业具备足够深刻的理解力; 另一面,酷哇针对消费者市场的智能硬件事业部还在有条不紊地运作,每月智能行李箱出货量能维持在 2000 只左右,一年下来能保证 6000 万左右的营收。 「单靠无人驾驶业务支撑整间公司的运营存在一定风险,两条腿走路更稳健些。」何弢说道。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
据国外科学网站Nautilus报道,安杰莉卡·莉姆(Angelica Lim)在烤蛋白杏仁饼干时,直木(Naoki)会在厨房里帮她。她的助手只擅长筛面粉之类的重复性工作,但他的存在让烘焙工作更有趣。直木很可爱,身高只有0.6米。他全身几乎都是白色,某些部位是蓝色,耳朵带有扬声器。他的嘴是个小圆圈,这能让他表现出惊讶的表情,实际上,他的嘴是个照相机,双眼是红外线接收器和发射器。 早在2013年莉姆曾说,“我只是很喜欢机器人。”当时她在日本京都大学智能科学与技术系念博士。她通过直木来探索机器人如何表达情绪并与人交流。直木由法国奥尔德巴伦机器人公司(Aldebaran Robotics)研制,他的日语名字大致意为“不仅是一台机器”。当莉姆吹长笛时,直木会在旁边用特雷门电子琴或沙蛋伴奏。 当然直木听不懂笑话,也无法享受音乐,看到饼干也不会馋得流口水。虽然我们称之为“他”,但他只是金属部件和电路板的集合。当我们对着Siri语音助手大叫或对着电脑咒骂时,它们并不会做出什么反应。机器无法理解我们的感受。 至少这是我们的想法。我们通常认为,拥有情感以及读懂他人情绪的能力是人类的特质。我们不期望机器了解我们的想法或对我们的情绪做出反应。我们自恃高它们一筹,因为我们会表达情感,而它们不会。不管它们运行速度有多快、多么合乎逻辑,敏感的人类都会赢过它们:《2001:太空漫游》中,大卫·鲍曼击败了工于心计的HAL 9000电脑;《终结者》中,绝望的莎拉·康纳打败了终极杀人机器。《星际迷航》中,麦考伊博士把情感寡淡的斯波克称为“绿色血液的不近人情的”生物。人们针对犯罪分子的道德推理往往会围绕着他们的情感缺失。这些都可以看出,我们把情绪视为人类这一身份的核心。 我们是特殊的、难以解读的,除此之外,各种奇想和幻想让我们具有人性。然而,这里可能存在一些误解。作为人性中难以捉摸的一种本质,情感或许只不过是对环境变化的自主反应,好比进化过程中作为一种生存反应而在人类的生物硬件中编写的软件。 纽约大学神经科学研究中心的科学家约瑟夫·雷道克斯(Joseph LeDoux)用所有生物中存在的“生存通路(survival circuits)”来描述情感。生物体(无论如变形虫一般简单,或像人类一样复杂)对环境刺激作出反应,能够提高自身生存和繁殖的可能性。刺激切换了生存通路上的开关,促使生物体产生能够提高生存率的行为。以特定模式激活的神经元可能会触发大脑发出释放肾上腺素的命令,从而令心跳加快,让动物战斗或逃离危险。雷道克斯指出,这种身体状态是一种情感。 罗切斯特大学的心理学助理教授梅利莎·斯特奇(Melissa Sturge)认为,情绪与我们的生存有关。她说,“它们是对环境线索的回应,并能够引导你的行动。如果害怕,你可能会逃跑。如果从吃东西中获得乐趣,你可能会吃得更多。你所做的事有利于你的生存。”人类“生存工具包”中的关键是沟通,而借助移情作用,情绪有助于促进沟通。 通过这种推理,每一个想要生存的生物都会以某种形式表达情绪,虽然表达方式与人类不太相同。宠物的主人会告诉你,狗能够感受情绪。雷道克斯认为,所谓的情感是我们对这些情绪状态的有意识的解释和描述。他把内疚、嫉妒或自豪等其他类型的情感称为“高阶或社交情绪”。 我们表达情感的生理结构与情感本身息息相关。埃里克·芬齐(Eric Finzi)在新书《情感面孔》中描述,微笑让人们更快乐,不过如果注射了肉毒杆菌,脸部会变得僵硬,无法恰当地表达情绪,显得欠缺同理心。这样看来,生理部位会影响情绪的表达。 但是,如果我们的情绪状态是机械性的,就可以被检测及测量,这就是情感计算领域的科学家们目前所致力的研究内容。他们希望通过捕捉来自人类声音、面部、甚至走路方式的线索让机器像我们一样解读人类情绪。计算机科学家和心理学家正在训练机器识别和回应人类的情绪。他们试图将情感分解为可量化的各种属性,这些属性还具有可描述的生理机制以及可测量分析的定量特征。他们正在研究算法,当患者试图隐藏自己的真实感受时,这类算法会提醒治疗师。他们也在研究能够感知并回应人类情绪的计算机。有些研究者把情感分解为各种数学形式,并把它们编入机器人中,因为他们认为,受恐惧、喜悦或欲望驱动的机器或许能做出更好的决策并更有效地完成目标。 罗切斯特大学的电子和计算机工程教授、斯特奇合作者之一文迪·海因泽尔曼(Wendi Heinzelman)正在开发一种基于说话人的声音特征来感应情绪的算法。海因泽尔曼向计算机输入了演员试图传达不同特定感受的语言样本,并告诉计算机哪些片段听起来很开心、伤心、愤怒等等。计算机会测量这些样本中的音高、紧张感和音量等参数的波动。波动更多对应着更积极的情绪状态,如快乐或恐惧。计算机还对共振峰展开跟踪,共振峰是一种受到声道形状影响的基频频带。如果喉咙因为生气而收紧,声音就会随之改变,计算机可以测量出来。有了这些数据,就可以进行统计分析,找出一种情绪与另一种情绪之间的区别。 剑桥大学计算机实验室的博士后研究员尼尔·拉希尔(Neal Lathia)正在研究EmotionSense,这是一个以类似人类方式倾听人类言语并抒发情感的Android手机应用。例如,它可能会判断,说话者开心的几率为90%,并报告,“单纯从统计角度来看,你听起来最像那个表达着快乐情绪的演员。” 莉姆目前是西蒙弗雷泽大学计算科学学院的助理教授。与拉希尔和海因泽尔曼一样,莉姆认为情感表达具有某些可识别的特质,当我们在动物的行为或歌曲的声音中识别这些特质时,我们会把相关的情感归属其中。莉姆指出,“我更感兴趣的是,如何检测其他事物或生物的情绪,如,音乐或跳来跳去的小狗。”为什么我们认为某段音乐是悲伤的?她使用了四个参数:速度、强度、规律性和广度——无论是大声还是小声,柔声还是响声。愤怒的语言可能语速快、响亮和粗暴,愤怒的音乐或许也是如此。若有人以适中的速度步行,而不是踏着重步走,他的心情可能是满足的。如果有人缓慢地踱着步子,步伐小而且不规律,他可能正伤心着。莉姆假设,母亲正是通过语言和面部表情的速度、强度、规律性和广度这些特性向婴儿传递情感,因此人们把它们视为情感的标记。不过莉姆的这一假设还未得到验证。 目前,为了让计算机更容易区分情绪,研究人员所致力的情绪类型仍是有限的,因为快乐与欢乐、愤怒与轻蔑之间的区别是微妙而复杂的。海因泽尔曼表示,“情感越多,计算机就越难区分,因为这些情感非常相似。”他目前专注于六种情绪:愤怒、悲伤、厌恶、快乐、恐惧和“不动声色”。她指出,为了让治疗师评估患者的总体心理状态,将情绪分为这些一般类别或许是必要的。 声音当然不是人们表达情感状态的唯一方式。伦敦帝国理工学院的智能行为与理解小组负责人、情感和行为计算教授马亚·潘蒂奇(Maja Pantic)使用计算机视觉技术捕捉面部表情,并分析它们如何传达人的感受。她的系统跟踪各种面部运动,如抬眉、落眉以及嘴部或眼睛周围肌肉的运动。该系统可根据展开微笑的速度和持续时间来区分真正的微笑和礼貌性的微笑。潘蒂奇已经确定了45种不同的面部表情,在大约80%的时间内,她的计算机可以识别出其中30种表情。受限于计算机的二维视觉等障碍,她的系统无法识别其余的表情——面部不同方向的运动、咬紧的下颚和磨牙等可能传递感觉的行为很难被识别。大多数情绪识别系统在实验室中运作得很好。但在条件不完善的现实世界中,它们的准确性仍然很低,但正在逐渐改善。潘蒂奇表示,“我相信几年后,或许五年后,我们将拥有能够在现实生活中展开分析、并以无监督方式学习新模式的情绪识别系统。” 把情绪进行明晰地区分后,再予以记录和分析,研究者就可以把它们输入到机器中。这类研究的价值在于,由此产生的机器人将与人类展开更丰富和有趣的互动。莉姆希望有一天,直木在活动或演奏特雷门琴时能够传达出自己的情绪状态。 研究者对情感式机器人感兴趣也存在更深层次的原因。如果情绪能够帮助生物存活下去,那么在未来情绪能否帮助机器人实现同样的目的?可以根据环境感受到情绪的智能代理,如,机器人或软件,能够快速做出决策,就像人类看到房子着火时放弃一切并逃离现场那样。荷兰乌得勒支大学计算机科学教授迈赫迪·达斯坦尼(Mehdi Dastani)指出,“情绪能够让你集中注意力,你的关注焦点从正在做的事转变为重要得多的目标,如,自救。” 达斯坦尼试图赋予了智能机器人他所称的“情感逻辑”,这是对22种不同情绪状态的具体描述,如怜悯、幸灾乐祸、愤恨、自豪、钦佩、感激等等。他解释,机器人可通过这些情绪评估它朝着目标迈进的进展。一个无情绪的机器人,被指示从A点移动到B点,可能会在途中遭遇障碍,但它只会不断撞击这个障碍。具备情感的智能机器人可能会因进展不顺而感到难过,最终放弃转而去做其他事情。如果这个机器人感到高兴,则意味着它离目标越来越近,它应该维持这个进程。但如果它感到沮丧,它或许会尝试另一种方法。机器人的情绪提供了一种计算机科学家称为探试程序(heuristic)的问题解决策略,即,像人类那样的自主发现和学习能力。达斯坦尼指出,“情感是进化过程中确立的一种启发式机制,它们能够介入理性的决策中,使决策更加高效。” 但是机器真的能拥有情绪吗?阿维德·卡帕斯(Arvid Kappas)是德国不来梅雅各布大学情绪、认知和社会背景专业的心理学教授。他认为这个问题需回归到对情感的定义。根据某些定义,即使是人类婴儿,他们主要依靠本能行事,并不具备理解或描述感受的认知能力,或许可以说婴儿没有情绪。根据其他定义,这种特征存在于各种动物中,大多数人都愿意相信与人类非常相似的生物也拥有情绪。卡帕说,“像鳄鱼一样情绪化。像鱼一样情绪化。像狗一样情绪化。”那么人们是否相信计算机也可能拥有情感? 卡帕斯表示,“可能是机器情绪,而不是人类情绪,因为它们的躯体是机器。”情绪与我们生物体的感受相关。机器人或许能够感受,但这些感受却属于非常不同的自我,因为它们没有心脏和胃,它们的体内是各种机械部件。一个处于省电模式的机器人可能在做梦,梦的是机械羊。这就会引发道德问题。当智能扫地机器人Roomba乞求着不要耗尽它的电池时,人类需担负怎样的责任?当新款机器人问世、你想把旧款送往回收厂时,你会对旧款机器人说什么? 田纳西大学计算机科学副教授布鲁斯·麦克伦南(Bruce MacLennan)表示,“如果人类要与机器人互动、思考机器人能否感受以及在什么条件下才能感受,这真的很重要。”今年夏天国际计算机与哲学协会举办的活动中,麦克伦南将针对他的论文发表一次演讲,论文论述的是如何善待未来的机器人。他认为这不仅仅是一个哲学问题,而是一个可以科学解决的问题。他试图将情绪分解成他所称的“原型现象(protophenomena)”——这是引发情绪的物理效应中的最小单位。他说:“原型现象非常微小,人们通常不会意识到这种现象是他们意识体验的一部分。应该存在一些可科学测量、以在机器中重现的基本物理量。” 麦克伦南指出,“我认为,若能让机器人做出我们想要的那些决定,它们将不可避免地产生意识。而且,雷道克斯认为,人类意识促进了我们对情感的体验,这样看来意识也可能催生能够体验情感的机器人。” 麦克伦南表示,“可能还要数十年的时间,我们才需面对机器人能否具有与人类相似的情绪的问题。我不认为这些问题是当下需要解答的,但它们确实说明了我们对自身的理解,所以这些问题还算好解决。”他认为,与情感机器人相处的深刻影响或许等同于一种文明与另一个文明的交汇或人类与外星智慧生物的接触。我们将不得不面对这样一个问题:人类的感受是否存在什么特别之处,如果不存在,人类本身是否有什么特别之处。他说,“这或许会让我们更关注:当面对某些方面与我们如此相似、其他方面却完全陌生的机器人,我们应如何做才能无愧于人类这一身份。” 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
摘要:酷炫!动起来的照片~ 《哈利·波特》中,霍格沃茨相框里的小人儿,来去自由,他们聊天、打招呼、串门儿。看上去,AI、AR的技术进步让我们离这样的照片越来越近了。 此前我们曾介绍过「黑咔相机」小程序,它通过改变背景画面,让照片变成GIF,但人物/主景物是不能变的。 36氪发现,美国洛杉矶的黑科技照片打印机制造商LifePrint,有一款更有趣、更真实的解决方案,他们研发了一款AR照片打印系统,用打印机硬件+云端系统,让照片动起来。 为了便于照片打印,LifePrint APP可以收集、存储包括相机胶卷、Apple Live Photos,以及Snapchat、Vine、Instagram、Facebook、GoPro和Twitter等APP在内的几乎所有关联账户的照片和视频。 视频嵌入在照片中,打印出来的照片背面有粘贴纸,方便贴在相册、衣柜、冰箱上。想要看到照片对应的视频,在手机上打开 LifePrintApp,把摄像头对准打印好的照片,就会对应的视频内容。 LifePrint外形是一个尺寸为 127x76x25.5mm 的方盒子,重 200g,可放进衣服口袋。它采用了热敏打印技术,通过蓝牙或者 WIFI 连接手机或相机设备(如 Gopro),无需使用墨水即可完成打印,每张照片的平均耗时约为 1 分钟,每次最多可打印 10 张照片,电池续航约为 1 小时。 LifePrint兼容iOS和Android系统的手机,GoPro拍摄的视频可以直接被它打印出来。 虽然技术实现和画面精致程度上很炫酷,但日常生活情境中,对它的实用性表示怀疑。 一则,动态效果还是通过手机呈现,而不是直接在照片上动起来;二则,通常照片打印出来了,人们再去专门看一遍背后的动态视频的几率其实是相当低的。 也许它放在在展览、纪念日布置、礼物包装等场景会更合适。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
(原标题:AI Created Complete 3D Models Of Cells So Doctors See How Diseases Change Them) 目前医学研究已取得了很大的进展,我们对于人体的功能也比以往有了更多的了解,然而观察人体内部仍然存在挑战。我们通过扫描、着色和显微镜等方式观察人体,但是这些方法只能够为我们提供有限的信息,而且也会给细胞带来损害或者改变,让研究人员和医生无法获得的原始信息。 在细胞对抗疾病时,确切观察个体细胞内部发生的状况是特别困难的,这也意味着难以了解什么方法才能让患者病情好转。为了更彻底的观察个体细胞内的变化,艾伦研究所的研究人员借助人工智能创造了首个复杂的人体细胞3D模型,它能准确的展示单个细胞内的不同部分和结构如何结合和工作。 这个3D模型显示了单颗典型的人类诱导多能干细胞(hiPSCs)是什么样子。为了对人工智能进行培训,研究人员对数千颗细胞进行了精细扫描。免费向公众开放的在线工具也为他们提供了3.2万个3D细胞模型。 借助那些信息,人工智能创建了一个3D模型,预测了每一个细胞器或者内部组件最可能存在的位置。只要这个模型得到一张显微图像,它就能够预测这些细胞器在任何新细胞中可能存在的位置。研究人员也借助人工智能系统创造了一种概率模型,如果提供细胞的大小和形状,以及它细胞核的位置,那么就能够推测出最可能找到那些相同细胞器的位置。 这些模型对于医生和科学家来说非常有用,因为它们能够让我们更深入的了解癌症和其它疾病给个体细胞带来的影响。将癌症细胞的数据和图像输入到人工智能系统,它们就能够获得更复杂的图像,显示细胞和它的独立部分受到怎样的影响。这也意味着医生们能够根据每一位病人的疾病为其量身定制治疗方法。 艾伦研究所的研究团队希望他们的工具能够帮助医学研究实现大众化,并且为医疗条件匮乏的区域提供医疗服务。因此研究人员正在对其进行改善,希望创造出更复杂的模型。他们希望未来几个月里能够获得更宽广的数据库,创建更多的细胞模型。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...
对很多科技迷来说,增强现实(Augmented Rality)的概念并不陌生,在游戏领域的风靡(比如《Pokémon GO》)也让很多人对它有了一些简单印象,但你真的了解 AR 吗?换句话说,AR 到底将对我们的生活带来哪些影响? 就在这两天的 Google I/O 上,一些借助声音、图像和空间交互的新的 AR 实验项目,让我们看到了不一样的 AR,它们的出现正在颠覆你过去对于 AR 的理解,经过和现实世界的深度融合,AR 带给我们的,或许是你未曾想象过的无限可能。 与现实深度 在今年的 Google I/O Keynote 环节,两小时的演讲中关于 AR 部分几乎没有太多介绍,我们只在 Google Maps、Google Lens 这样的应用中,见到了 AR 目前在实际应用中的新尝试,但这并不意味着 AR 已经失去热度。 有机会参与了题为「Exploring AR interaction」的演讲环节,这是本次 I/O 上关于 AR 主题的重要演讲,尽管需要提前注册名额有限,但仍聚集了一大批来自世界各地的开发者和媒体,而来自 Google AR 项目团队的三位负责人 Chris Kelley、Elly Nattinger、Luca Prasso 分享了 Google 目前在尝试的三种全新的 AR 打开方式,并试图告诉我们 AR 还有哪些尚待挖掘的宝藏: AR 在一般人理解中也许只是锦上添花的交互,但下面三种新的打开方式(目前尚在原型阶段),则展示了其更大可能: 第一种,被称为 Context-Driven Superpowers,中文理解是环境驱动的力量,听起来不知所云?我们不妨来看看这个简单的展示。 在你面前有一台咖啡机,对于喜欢喝咖啡的人来说这或许是惊喜的礼物,但复杂的操作可能会让第一次接触的人手足无措。如果这时候打开相机,查看不同部位展现出对应的操作,那么对于任何初学者来说都能很快速掌握操作技巧,AR 在一定程度上带来了对现实更好的理解。 怎么理解环境驱动的力量呢?因为你只有在要用咖啡机且不会操作时,才会需要有更好的工具帮助你,而恰到好处的在不同部位的增加 AR 说明正好满足了你的需要,于是在这一环境下,AR 驱动的是一件有用的事情。换句话说,因为 AR 的这一功能,即便这台机器被别人拿走使用,也会带来同样的效果。 更进一步的想法在于,如果你的手机和其他人的手机之间不仅可以打电话、发短信,还能通过现实空间进行交互,那么新的交互方式将改变你对交流的认知。以这个隔空「击瓶子」为例,三个人打开同一个游戏,通过空间位置的不同,可以完成类似现实世界的「击瓶子」游戏,非常神奇。 第二种,被称为 Shared Augmentations,即分享下的增强现实。分享是伴随互联网而产生的更进一步的行为,人与人之间需要分享。在 AR 的进化中,分享同样重要,不过这一次,不仅仅是人与人之间的分享,也包括空间的分享。 在儿童教学过程中,AR 的加入不但可以让孩子们更好了解一些知识,也能让在同一空间下大家有相同的体验,于是就有共同话题可以了解。更进一步的,比如这个大家协力推动 AR 世界小帆船,在用手机看到的基础上,大家可以协同起来,共同完成一些事情。 这种空间分享不再只是单纯被动的体验,而是主动参与,带来协作和变化的 AR 体验。很显然,这不仅是对于游戏,更会在教育、医疗等方面有非常大的帮助,设想医生在研究过程中通过这样的方式更进一步交流,共同讨论问题,效率也会进一步提高。 第三种被称为 Expressive Input,指的是表现形式上的多样化。很多人显然因为 AR 游戏的一些成功尝试而把它单纯理解为视觉交互变革,但实际上在现实生活中,声音也可以和图像一样具有增强现实的能力。 比如我们为虚拟空间设定不同位置的不同声音,当你走到特定位置上就会有特定的声音,你不再需要用眼镜去观察,而只需要「听声辩位」 就能做到这种和虚拟空间的新的交互。 Bose AR 眼镜,尝试用声音来和现实结合 这种新的交互方式其实不是第一次被提出,今年 3 月我们和大家介绍的由 Bose 研发的智能眼镜 Bose AR就采用了这种方式,它的实际应用场景也有很大想象空间,比如当你走到某地,会根据定位听到自己面前的餐馆好不好吃,或者在走到某个标志性建筑附近时,声音会自动打开,并为你讲解这一景点的相关内容。 上面这三种新的 AR 展示方式和传统观念中的 AR 相比,显得有些特别,但其实更进一步的,AR 的很多可能都在等待我们去发掘,实际上,从行业角度说,AR 早已展示出自己的巨大潜力。 可预见的未来 我们前面讲了很多还在试验阶段的尝试,你也许会觉得这些离我们都太遥远,太不现实,那么不妨梳理一下现实情况究竟如何。 苹果 2017 年 WWDC 大会上发布了自己的 AR Kit 开发平台,另一边,Google 也发布了自己的 AR Core 平台(2017 年 8 月),对于数十亿智能手机用户和众多开发者来说,这意味着 iOS 生态和 Android 生态的 AR 技术将拥有量变到质变的可能。在今年的 Google I/O 大会,官方更是进行了 AR Core 的大更新,更进一步推动 AR 领域的变化。 更新内容包括:允许更完整的环境功能,让开发人员将AR对象放置在家具,海报,书籍,海报等表面上。引入垂直平面检测功能,允许合作 AR 体验,并且可以让 Java 开发人员可以为 AR 构建逼真的 3D 应用程序,而无需学习复杂的API(如 OpenGL),这些都将极大促进开发者的热情。 相对 VR 需要额外的基础设备而言,AR 只需要一部智能手机就可以达成的条件为很多想象都带来了可能,一个值得关注的地方在于,到 2022 年全球 AR 设备(智能手机、智能眼镜)装机量预计将达到 35 亿台,这个推测包含未来几年手机平台的增长,因为它们将会搭载 AR Core 和 AR Kit,显然,这是非常惊人的数字。 具体到科技公司的动作,AR 行业的未来更令人浮想联翩。成立不到 6 年,目前还没有正式产品上市却已融资超过 60 亿美元的 Magic Leap 公司毫无疑问通过自己的理念已经展现出 AR 的无限可能,而从去年年底就陆陆续续有信息爆料,科技巨头苹果也在打造自己的 AR 设备,并且将会是「下一个改变世界的产品」。 图片来自Sanvada 从现实角度出发,AR 的相关应用,涵盖的不仅仅是游戏,在商品服务、医疗教育、广告等内容上都将具有巨大潜力。国内科技巨头也开始不断尝试,从腾讯到阿里巴巴再到百度,商业和娱乐上的相关尝试都在一步步走进我们的生活,我们没有理由不期待它们会带来更多令人惊喜。 1994 年,保罗·米尔格拉姆(Paul Milgram)和岸野文郎(Fumio Kishino)提出了现实-虚拟连续统,这一观点认为真实环境和虚拟环境是连续系统的两端,而处在它们中间的部分则是混合现实(Mixed Reality),其中靠近真实环境的部分是增强现实(Augemented Reality)。三年后,来自北卡大学的教授罗纳德·阿祖玛(Ronald Azuma)进一步描述了 AR 的状态,在其论文《A Survey of Augmented Reality》中,他谈到了 AR 应当具备的三个要素:虚实结合、即时互动和三位空间。 二十多年时间过去,如今 AR 技术伴随智能手机的普及开始走向每个人的生活,如果把 AR 比作一辆开往未来的列车,那么此时此刻,它已经装满各种可能,正在飞速向前。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! ...