兰德智库 。《网络威慑与网络战争》
作者 陈怀临 | 2014-09-30 17:20 | 类型 网络安全 | Comments Off
包云岗 。《数据中心与黑客帝国》(下)
作者 陈怀临 | 2014-09-27 19:55 | 类型 数据中心 | 5条用户评论 »
包云岗:中科院计算所副研究员,主要从事高效数据中心(ResourceDfficient Datacenter)体系结构与系统性能评测分析方面的工作。个人主页: http://asg.ict.ac.cn/baoyg/ ,新浪微博: @包云岗。 大概在2012年夏天,那时我还在普林斯顿大学,思考过如何从计算机底层的体系结构入手支持资源管理,消除计算机硬件层次上的“无管理的共享”。当时普林斯顿计算机系有好几位教授正在开展软件定义网络SDN方面的研究,也邀请很多大牛来做报告,比如SDN主要发起人之一、UC Berkeley的Scott Shenker教授等。平时和朋友也经常会聊起一些SDN的技术问题。网络早就面临着多业务共享与服务质量的问题,因此QoS技术(如区分服务)也相对比较成熟。而SDN则可以通过标识网络包、增加控制平面、增加可编程机制使网络管理变得更灵活方便。 当时就有一个想法——“其实计算机内部也是一个小型网络,那是不是可以将SDN技术借用到计算机内部呢?”于是写了一个5页的备忘录,题目叫《Software Defined Architecture:The Case for Hardware-EnabledVirtualization》,就搁起来了。2012年10月份回到计算所后组建了一个小团队。所里很开放,让我自己选择研究方向和内容,于是我把在普林斯顿的想法拾了起来。但那只是一个很粗略的想法,我们经过大半年的调研与摸索,不断调整目标与技术路线,在2013年中有了比较清晰的思路。我们将这个思路凝练为一种新的计算机体系结构,叫“资源按需管理可编程体系结构PARD(Programmable Architecture for Resourcing on-Demand)”。 仍然用城市交通作为例子,PARD体系结构的核心设计理念其实很直观且易于理解:(1)将车辆根据不同的用途进行涂装并安装鸣笛,救护车是白色加红十字涂装,消防车涂装等(对计算机内部流动的数据包贴上标签);(2)在一些关键路口设置红绿灯,在加油站、维修站等服务点设置管理装置(在计算机内部关键位置增加控制平面);(3)制定交通规则,红绿灯对救护车、消防车等关键车辆可以随时放行,而其他车辆则需要等待绿灯放行,而那些服务点也是优先服务那些关键车辆(根据不同标签来区分处理数据包);(4)交通规则可由管理部门根据需要进行调整,比如道路上新出现一批武警巡逻车,就为它们设立一些管理规则(管理员可以调整处理规则)。 事实上,我们日常的交通管理正是采用了这些理念。只要执行严格到位,这样的交通管理系统能在保障救护车等关键车辆顺利通行的前提下提高道路利用率。而PARD体系结构也正是希望通过相同的设计理念实现计算机内部高效灵活的资源共享与性能隔离,从而在多种应用混合的数据中心环境下,能在保障关键应用的服务质量前提下提高资源利用率。 假设PARD技术被验证是可行的(也很可能是不可行的,因为还有太多不确定的未知因素,所以还需要更深入的研究),那么将会有很多新的应用场景。比如对于云计算,可以做到做到更有效的分级服务管理,类似于航空公司的VIP服务,有的愿意多交钱,享受更稳定的服务质量,甚至是一下特殊服务,比如硬件提供的加密或压缩服务。 目前PARD第一阶段软件模拟器验证已经初步完成,还在进行第二阶段FPGA原型系统验证,有了进一步进展后希望能跟大家汇报交流。 最后,简单聊几句另一个Matrix,即《黑客帝国》。我想《黑客帝国》设想了一种场景从技术框架上是可行的,今天的云计算模式其实正是朝着这个方向发展。数据中心就像是“母体”。在《黑客帝国》中,所有人都会接入到母体中,在虚拟世界中工作生活。而如今,我们也是通过各种移动设备接入到数据中心,越来越多的时间是在数据中心上度过的。就如我们刚过去的一个多小时,就是在腾讯的数据中心上度过的。等到哪一天,我们的脑机接口有突破,人们不再需要手机这种“原始”的设备,而是可以直接通过大脑来接入数据中心,那么《黑客帝国》中的场景可能真的会成为现实。谢谢大家! | |
卡内基梅隆大学利用Azure,machine learning和Power BI节省开支
作者 AbelJiang | 2014-09-27 18:30 | 类型 行业动感 | Comments Off
原文:http://www.winbeta.org 翻译:Abel Jiang 微软有很多高冷的技术工具,个人消费者比较难用到,其中就包括植根于大数据和云中的Microsoft Azure,Azure Machine Learning以及Power BI。大公司用这些工具来处理海量数据,而个人消费者却很少使用和体会到这些技术工具对他们日常生活的产生的影响。 卡内基梅隆大学(CMU)通过利用微软的这些技术工具,让教学楼运行效率更高,因而节省了开支。CMU收集来自安置在暖通空调(HVAC)以及管道处的传感器产生的数据,结合天气数据来估测教学楼的环境温度。通过建立好的温度变化模型,CMU调节供暖供热系统,以期达到良好的环境温度。 这是一个很复杂的问题。解决方案不仅仅是收集更多的数据,因为你要做出如何调节系统控制温度的决策。这也是微软的工具派上用场的地方。首先,CMU收集所有和教学楼温度相关的数据,比如:外部温度,光照,内部温度,改变内部温度多用时间,建筑内热量流动情况等。接着,CMU用Microsoft Azure预测他们需要但是不能直接得到的数据。比如说,团队没有关于建筑所受光照的数据,他们就利用Azure Machine Learning来估测。 再然后,CMU团队建立模型,然后在一天工作开始之前确定温度情况。通过这样控制教学楼温度让CMU降低了20%的能耗。对于一个大型的研究机构,减少如此多能耗意味着节约了很大的开支。CMU的团队表示,这些易用的机器学习工具节省了很多精力,在预测光照这一项的建模上就从原来的几个星期甚至几个月的时间,缩短到了几天。这些工具客观上推进了这套系统的实用进度。 个人看法:之前也有Google Data Center的Jim Gao用机器学习算法控制数据中心的Cooling System从而降低能耗的报道,随着一些机器学习工具的出现,利用机器学习变得越来越容易,最近edX有开Caltech的Data Science课,完全同步Caltech校内课程及资料,有兴趣不妨听一下。 | |
包云岗 。《数据中心与黑客帝国》(上)
作者 陈怀临 | 2014-09-25 11:20 | 类型 行业动感 | 5条用户评论 »
包云岗:中科院计算所副研究员,工作于计算机体系结构国家重点实验室与先进计算机系统研究中心,目前主要从事高效数据中心(Resource Efficient Datacenter)体系结构方面的研究。个人主页: http://asg.ict.ac.cn/baoyg/ ,新浪微博: @包云岗。
【8月13日主题分享精彩回放】 今天交流的话题是“数据中心与黑客帝国”,其实本来题目应该叫“数据中心与Matrix”,这里的Matrix是8月8号刚获得百度最高奖100万美元的“百度通用资源管理项目”的代号,但大家可能很自然地就会想到《黑客帝国》这部电影。于是@杨静Lillian 老师便将交流话题升级了一下,变得科幻了很多。但说实话,对于《黑客帝国》这部电影,虽看过但却未深究过,所以科幻话题更多是还是希望大家能多参与讨论。 我们还是先聊聊这个获百度最高奖的Matrix,这个项目是由百度数据中心管理团队开发的,要解决的是一个世界级难题(具体稍后解释)。这其实是他们数据中心管理团队第二次获得最高奖,2012年他们开发的“服务器潜能激发技术”也获得了百度最高奖。可见,百度对数据中心管理技术非常重视,因为正是百度数据中心的几十万台服务器在支撑着每年数百亿的收入(2013年总营收为320亿,2014年上半年就已达215亿)。 那百度的Matrix要想解决的是什么样的世界级难题呢?宏观上来讲,就是成本与收益之间的平衡,如何用尽可能少的成本来实现尽可能大的受益。具体到数据中心这个场景下,就是数据中心自身的成本与其所能带来的收益之间的平衡。 数据中心其实已经成为我们生活的一部分。比如我们使用各种手机App上网,如下图,是一个典型的“前端移动计算+后端云计算”的场景。我们在手机上触按屏幕后,手机就会将触按这个动作转变为一个网络请求,发送到后端运行云应用的数据中心进行处理,然后再通过网络传回来,在手机屏幕上显示。这个过程大概需要2~4秒,其中一大半时间都是消耗在数据中心内。也就是说,正是数据中心在支持着全世界数十亿网民的各种请求。 那让我们看一下几大著名公司的数据中心规模。2013年时任微软CEO的斯蒂夫.巴尔默在全球合作伙伴大会的主题演讲中提到,“我们(微软)的数据中心已超过100万台服务器,谷歌比我们更大一些,亚马逊比我们稍小一点。Yahoo!和Facebook等其他企业大概10万台的量级。所以真正理解和管理如此大规模数据中心、并提供公有云服务的企业是屈指可数的。”其实国内的几家互联网巨头也都拥有超过20万台服务器的规模,并且朝着100万规模快速发展。 那么100万台服务器的成本是多少?这里我们参考一位被称为文艺复兴式的黑客——詹姆斯·汉密尔顿在博客中的一些数据。汉密尔顿是负责亚马逊 AWS数据中心的杰出工程师,之前在微软负责Bing的数据中心。2013年《连线》网站上曾经有一篇文章《亚马逊为何聘用一名修车工管理云帝国?》(http://xw.qq.com/c/tech/20130221000114 )专门介绍了这位开着游艇掌管亚马逊价值数十亿美元数据中心的极客。 在微软CEO巴尔默透露出微软拥有100万台服务器数字后,詹姆斯·汉密尔顿写了一篇博客《Counting Servers isHard》(http://perspectives.mvdirona.com/2013/07/17/CountingServersIsHard.aspx),估算来估算100万台服务器的成本:如果每台服务器很便宜,只需2000美元的话,那么购买服务器需要20亿美元(约125亿人民币);此外还需要配备至少300MW的供电系统,还需要建15~30个机房。这些加起来大概需要22.5亿美元。所以100万台服务器的总建设成本大概是42.5亿美元(约260亿人民币)。 这些只是建设成本,另外还需要维护和服务器更新成本,包括每年要消耗掉约26亿度电(约15亿人民币),服务器一般3~5年就会淘汰,需要购置新服务器。所以,就算5年更新一轮,那么仅电费就需75亿,服务器更新又需要125亿。这相当于5年的运行维护成本是200亿,每年40亿。当然,这个估算还是比较便宜的服务器,其实一般用于计算的服务器价格都会在2万以上,所以仅购买服务器成本就会超过200亿。 但这么大规模的数据中心的利用率怎么样呢?我们来看一些谷歌公布的数据。下面这个图是2006年谷歌的5000台服务器的平均CPU利用率分布,这些服务器运行的是像搜索、gmail等在线应用。从这个图中可以看到这些服务器的平均CPU利用率约为30%。 也许大家会觉得2006年的数据已经太旧了,那我们来看一下2013年的数据。下面这个图是2013年1-3月份谷歌的2万台运行在线应用的服务器平均CPU利用率分布图。可以看到,7年过去了,并没有很显著的提高,仍然只有30%左右。这意味着,假设100万台服务器中有50万台利用率只有30%,那么相当于5年100亿人民币的运维成本中有70亿是浪费了,只有30亿才是真正产生了效益! 事实上,谷歌的数据中心技术是全世界领先的,他们开发了很多数据中心管理技术才能将“在线应用”(加引号埋个伏笔在这)服务器CPU利用率提高到了30%。而更多的企业还达不到这个水平,比如麦肯锡估计整个业界服务器平均利用率大约是6%,而Gartner的估计稍乐观一些,认为大概是12%。这两个数字跟我了解到的也基本吻合,比如国内某银行的数据中心利用率大概就是5%左右,而印度塔塔公司曾公布过他们的服务器利用率大概是12%。 我们都知道云计算。云计算不正是可以通过虚拟化技术在一台服务器上跑多个虚拟机来提高CPU利用率吗?为什么不用呢?其实谷歌等企业早就采用了类似的容器技术,2013年的那2万台服务器上已经是多个应用混合在一起运行后得到的结果了。事实上,谷歌将数据中心分为了两类,一类就是上面的那些包含在线应用的数据中心,CPU利用率只有30%;而另一类是不包含在线应用,专门运行MapReduce等批处理数据中心,这些数据中心的CPU利用率其实达到平均75%,但在谷歌只占一小部分,运行在线应用的数据中心才是更典型。 我们会自然的问:为什么谷歌在线应用数据中心CPU利用率只有30%,但离线批处理数据中心却可以达到75%?有没有可能把这两类数据中心统一起来,使整体利用率提高到75%?那就能省下一半的服务器。对于100万规模的数据中心,那就是省下50万台,就可以省下100亿的运维成本了。 但是对于这个问题,答案很可能是“基于现有的技术还做不到!”因为数据中心运维不仅需要考虑成本,更需要考虑收益。 前面提到的当前流行的虚拟化技术可以通过让多个应用或虚拟机共享一台机器,从而提高服务器资源利用率。但是这种共享却会带来资源竞争,进而干扰应用程序的性能,影响在线应用的响应时间。而快速的服务响应时间正是衡量服务质量(Quality-of-Service,QoS)的关键指标,是让用户满意、留住用户的关键。 现任Yahoo!的CEO的Marissa Mayer曾经在谷歌做过一个实验,把页面上的搜索结果从10个增加到30个,以希望能让用户一次浏览到更多的信息。这样搜索结果的返回时间从0.4s增加到0.9s。但是他们发现,广告收入下降了20%!所以,Mayer对提升在线业务的用户体验的经验就总结为一条:速度为王(Speed Wins)!这也是大家可以看到为什么最近谷歌要投资3亿美元来建跨太平洋海底光缆,还有以前的千兆网入户等,因为这其实是可以提升用户体验,为他们带来更多的受益。 不仅仅是谷歌,微软、亚马逊其实也都做过类似的实验。2009年微软在Bing搜索引擎上也开展实验,发现当服务响应时间增加到2000ms时,每个用户带给企业的收益下降了4.3%。由于该实验对公司产生了负面影响,最终不得不被终止。而亚马逊也发现其主页加载时间每增加100ms就会导致销售额下降1%,这对于年营收达到700亿美元的亚马逊而言,就是7亿美元的损失。 所以,当前数据中心为了保障用户请求的服务质量,不得不采用过量提供资源的方式,哪怕是牺牲了资源利用率。具体表现为两种形式的资源浪费,一种是关键应用独占数据中心。国内的企业大多数还是采用一个专用的数据中心专门运行某个或某几个在线应用,其他作业运行在其他数据中心上,以减少对在线业务的干扰。另一种是扩大资源需求。谷歌其实早就采用了先进的数据中心管理技术,运行多个应用混合运行在一台服务器上,从而提高服务器利用率。但他们发现这样做对那些离线作业是有效的,因为用户提交后只要能出结果就行,哪怕慢一点也可以。但是对于那些在线应用开发的程序员,比如gmail开发人员,他们知道自己的程序可能会和其他人的应用一起运行,所以就会在一开始的时候就夸大资源需求,但实际使用的远少于申请的资源。这种现象是在共享环境下很常见的,不光谷歌,其他公司也是如此。比如下面这个图,就是Twitter在使用了Berkeley开发的Mesos的数据中心上运行了一个月的情况,红色部分是申请的,大概占到70%,绿色为实际使用的不到20%,导致大量计算资源浪费。 所以,小结一下,当前数据中心正面临资源利用率与应用服务质量之间的矛盾,一方面在数据中心服务器上同时运行多个应用能有效提高资源利用率,节省成本;但另一方面多个应用共享资源又会出现相互干扰,影响应用的服务质量,降低营收。而目前数据中心为了保障营收,而牺牲了资源利用率,造成大量成本浪费。粗俗估算一下,最近微软裁了1万多员工,以节省每年约10亿美元的人员开支。但如果他们的100万台服务器利用率能提高一些,也能省下个几亿美元。 不过,国内企业之前还没有这方面的技术,利用率很低,很多甚至是个位数的。而百度的Matrix项目,直接采用了与谷歌目前最先进的数据中心管理框架相似的设计理念,朝这个方向迈出了一大步,使在线数据中心利用率得到有效提升,接近谷歌的水平。据百度内部消息,随着Matrix在百度内部的部署,今年预计就能为百度省下超过5亿的成本,而随着百度数据中心规模不断扩大到上百万台服务器,Matrix对于百度的意义将更大。所以,Matrix获得100万美元的最高奖,当之无愧! 但既想要保障在线应用的服务质量,又想要提高数据中心资源利用率,这是一个世界级难题,即使数据中心技术最领先的谷歌也还只能做到30%的利用率。而学术界也在探索,比如前面提到的Berkeley开发Mesos就是一个例子。但这些技术都无法解决一个更根本的问题,那就是底层硬件上的相互干扰。虽然现在的服务器内部的CPU核心越来越多,理论上可以同时运行更多的应用,但是其他资源都比如CPU内部的高速缓存、内存带宽等,还是处于一种“无管理的共享”状态。 要理解“无管理的共享”状态,可以用城市交通管理作为例子。传统的数据中心服务器内部就如没有管理的城市道路交通,没有多个车道、没有红路灯、没有交通规则。可以想象,这必然会造成大量的冲突和混乱,也会导致一些关键车辆的通行(如救护车、消防车等)无法得到保障。因此当前数据中心保障在线应用服务质量的手段,其实是一种粗放的交通管制方式——因为管理部门不能区分车辆类别,所以只要得知某些道路上会出现关键车辆,那么就对其他车辆实施限行。这种方式显然极大地降低了道路的利用率。(待续) | |
深度学习大牛Bengio教授在reddit吐槽
作者 AbelJiang | 2014-09-19 02:27 | 类型 行业动感 | Comments Off
转载自:http://meroa.com Deep Learning学术界的三架马车,目前Geoffrey Hinton已被Google收编,Yann LeCun已被Facebook收编,还留在学术界的Yoshua Bengio最近心情好,在reddit上开帖定期回答问题。我抽取了一些有料的回答在下面,希望对大家了解这方面有帮助。
关于深度学习的革命性再怎么强调都不为过。除了在现有的图像/语音识别中不断刷新state-of-the-art之外。在Google使用深度学 习的AI给机器随机“看”了1000万个Youtube视频,猜猜它看到了什么?猫的脸!在地球另一边,百度使用深度学习的广告CTR预估模型用103数量级特征战胜了原来1011数量级特征的线性模型,后者刚好是十多年来公司里最懂商业和最懂技术的一群人合力完成的杰作。本文的最后,我只想对机器学习界的同仁说一句:再不上船可就晚了。 | |
央视大型纪录片《互联网时代》全集放送
作者 陈怀临 | 2014-09-08 13:45 | 类型 行业动感 | 3条用户评论 »
第一集《时代》 耕种,使人类停止流浪的脚步;蒸汽,升腾起地层深处的能量……时代的大幕常常被技术之手轻轻拉开。
第二集《浪潮》 互联网技术在短短二十年的商业化浪潮中,以前所未有的速度谱写着改变世界的产业传奇和创业人生。
第三集《能量》 互联网引爆的能量,如同核裂变。它在经济领域引发了几乎所有产业生产方式、生产关系、生产要素的重新组合、重新建构。
第四集《再构》 互联网去中心化、扁平化、自组织的特性,重构着传统社会结构,创造新的组织方式和组织形态。
第五集《崛起》 互联网赋予每一个人无限的可能,让个人力量增强、个人价值释放。
第六集《迁徙》 互联网催动了人类一场新的迁徙,由传统社会向网络化生存的“新大陆”的一次集体迁徙。
第七集《控制》 技术是中性的,但人性有善恶,互联网的能量同样放大了人性恶的一面的破坏力。如何共同在治理与发展的平衡中寻求新规则,新技术已经向整个人类发出了叩问。
第八集《忧虑》 隐私,是人类精神秩序、尊严和自由的基本保障。互联网时代,整个人类的隐私的失去,成为享受网络服务的代价,人类的隐私变得脆弱不堪。
第九集《世界》 人类过去、现在和长久的将来,都将依然是文化传承和价值观的多样化。互联网像一个探针,进入不同发展阶段、不同文化和社会特性的国家,呈现出不同的反应、样貌和景观。
第十集《眺望》 在时代开启的黎明,人类未知的远远大于已知。芯片技术、传感器、云计算的发展让万物相连和无处不在的智能化成为普遍,人机共同进化的可能未来日渐清晰,机器是否将超越人类智慧?所有人与机器、机器与机器的相连是否将涌现出笼罩一切的“全球脑”? | |
Persona机器学习应用–Follow Twitter的不同面
作者 AbelJiang | 2014-09-08 11:45 | 类型 机器学习, 行业动感 | Comments Off
新浪微博是一个非常棒的平台,但在产生有价值信息的同时,也夹杂了许多无用的信息。比如有些账号,本来是分享野史怪谈的,却冷不丁的夹杂了一些广告信息,或是纯个人吐槽发泄,这样就让你看微博的时候觉得非常乱杂。而Persona从狭义上就是用来解决这种问题的,也希望国内开发者,或微博官方也能推出类似应用,方便用户迅速提取有价值信息。下文引自techcrunch.com Our identities are prismatic. We’re not the same person to everyone. Yet when you follow someone on Twitter, your feed overflows with a combination of their personal, professional, and social tweets. But thanks to TechCrunch Disrupt Hackathon project Persona, you can choose which dimensions of someone’s identity you want to see. Persona uses machine learning to classify people’s tweets into separate themed timelines around different topics they tweet about, like their work, personal life, and interests. If you ever wished you could just get someone’s smart professional insights without knowing what they had for lunch, or love their taste in art but yawn when they nerd out on tech or current events, Persona could banish boring tweets from your feed. As someone who straddles a lot of scenes, I bet some of my Twitter followers would be relieved to follow just one side of my identity. By day I’m chronicling startups and analyzing the latest Facebook product changes, yet by the afternoon I’m sharing silly memes and soothing songs, and at night I’m posting photos from parties and hippie-dippie life affirmations. Entrepreneurs, culturenauts, and friends all follow me for different reasons, but I fear I overwhelm their streams with types of tweets they don’t want. Persona could solve this. It was built by the machine-learning guru and CEO behind Guesswork, a customer intent prediction and personalization tool we covered last month. Mani Doraisamy and his brother Prabhakar tell me that on Twitter “we’re blowing our own trumpets,” more concerned with broadcasting our opinions than with those who receive them. So while Persona began as a hackathon project, Mani plans to formally launch Persona soon here. Persona will automatically scan the words used in your tweets and assign them to three streams on your Persona page: personal, professional, or social. Alternatively, you can add custom labels to these dimensions of your identity and tag your tweets into them, which also teaches Persona’s algorithm. If you want to check out the different version of someone else’s Twitter stream, they don’t need to have signed up. Persona will run its machine learning algorithm on their profile and do the categorization for them. By working with the Twitter dev team at the Disrupt Hackathon, the Doraisamy brothers learned how to build Persona without running into API limit problems. And while they don’t plan to monetize the app directly, they’ll feed its learnings into Mani’s app Guesswork. Some believe we should all own up to the different sides of personality and live with a unified identity. But that’s easier said than done if you live or work with people who might not take kindly to your political views, humor, or after-hours adventures. You should never be ashamed of who you are, but with an app like Persona, you can still respect the time and attention of people who follow you, no matter who they want you to be. | |
绿盟科技(300369)停盘的原因分析
作者 陈怀临 | 2014-09-07 14:40 | 类型 行业动感 | 1条用户评论 »
2014年6月26日, 绿盟科技发布如下通告“绿盟科技正在筹划重大事项,因该事项可能对公司股票交易价格产生影响,且尚存在不确定性,为确保公平信息披露,维护广大投资者合法权益,避免公司股价异常波动。根据深圳证券交易所有关规定,经公司向深圳证券交易所申请,公司股票自2014年6月26日开市起停牌,公司将在相关事项确定后复牌并公告相关事项。” 9月3日,绿盟科技发布了最新的通告。股票将继续停盘,直到十月初。 下面是《弯曲评论》做的一个调查,网友分析绿盟科技的停盘原因。 | |
科技一周~天与海的落差
作者 硅谷寒 | 2014-09-07 13:21 | 类型 硅谷科技周报 | Comments Off
系列目录 科技一周
科技一周~天与海的落差 2014/09/07 “中秋,天涯风冷,沧海月明,潮起又潮息,花开复花灭,一万年的牵挂,却隔着天与海的落差。”这落差,若放在上古神话里,那是在说嫦娥与后羿的凄美;若放在科技圈里,则是指“天上”的Apple正藐视着一大群掉在“海里”的追随者。 明天,Apple将会发布重量级产品,几乎所有人都笃定了iPhone 6和iWatch。这着实令许多厂商“牵挂”万分,深恐iWatch一出,独霸头条,自己的产品难免落到汪峰之地步。于是,几大厂商赶集似地,一起抢在Apple之前推出了智能手表:
既然谈到了IoT,那么今天,我就来为大家简单介绍一下当前比较流行的IoT方案。总的来说,当前的主流IoT方案是由四家芯片厂商在推动,其中Intel推出了两套方案。这些方案分别是:Intel Edison,Intel Gateway,Qualcomm IoE(Internet of Everything),Broadcom WICED,Marvell Wifi-MCU。它们的特点见下表。当然,由于IoT还在快速的发展当中,这些平台的变动也非常大,每隔一年就会有许多新的特性被增加进来。
References
| ||||||||||||||||||||||||||||||
陈怀临 。《 孙钟秀 。操作系统教程》注释(稿):第二章:处理器管理
作者 陈怀临 | 2014-09-06 12:51 | 类型 操作系统, 科技普及 | 6条用户评论 »