兰德智库 。《网络威慑与网络战争》

Sina WeiboBaiduLinkedInQQGoogle+RedditEvernote分享

(没有打分)

包云岗 。《数据中心与黑客帝国》(下)

 

包云岗:中科院计算所副研究员,主要从事高效数据中心(ResourceDfficient Datacenter)体系结构与系统性能评测分析方面的工作。个人主页: http://asg.ict.ac.cn/baoyg/ ,新浪微博: @包云岗。

大概在2012年夏天,那时我还在普林斯顿大学,思考过如何从计算机底层的体系结构入手支持资源管理,消除计算机硬件层次上的“无管理的共享”。当时普林斯顿计算机系有好几位教授正在开展软件定义网络SDN方面的研究,也邀请很多大牛来做报告,比如SDN主要发起人之一、UC Berkeley的Scott Shenker教授等。平时和朋友也经常会聊起一些SDN的技术问题。网络早就面临着多业务共享与服务质量的问题,因此QoS技术(如区分服务)也相对比较成熟。而SDN则可以通过标识网络包、增加控制平面、增加可编程机制使网络管理变得更灵活方便。

当时就有一个想法——“其实计算机内部也是一个小型网络,那是不是可以将SDN技术借用到计算机内部呢?”于是写了一个5页的备忘录,题目叫《Software Defined Architecture:The Case for Hardware-EnabledVirtualization》,就搁起来了。2012年10月份回到计算所后组建了一个小团队。所里很开放,让我自己选择研究方向和内容,于是我把在普林斯顿的想法拾了起来。但那只是一个很粗略的想法,我们经过大半年的调研与摸索,不断调整目标与技术路线,在2013年中有了比较清晰的思路。我们将这个思路凝练为一种新的计算机体系结构,叫“资源按需管理可编程体系结构PARD(Programmable Architecture for Resourcing on-Demand)”。

仍然用城市交通作为例子,PARD体系结构的核心设计理念其实很直观且易于理解:(1)将车辆根据不同的用途进行涂装并安装鸣笛,救护车是白色加红十字涂装,消防车涂装等(对计算机内部流动的数据包贴上标签);(2)在一些关键路口设置红绿灯,在加油站、维修站等服务点设置管理装置(在计算机内部关键位置增加控制平面);(3)制定交通规则,红绿灯对救护车、消防车等关键车辆可以随时放行,而其他车辆则需要等待绿灯放行,而那些服务点也是优先服务那些关键车辆(根据不同标签来区分处理数据包);(4)交通规则可由管理部门根据需要进行调整,比如道路上新出现一批武警巡逻车,就为它们设立一些管理规则(管理员可以调整处理规则)。

事实上,我们日常的交通管理正是采用了这些理念。只要执行严格到位,这样的交通管理系统能在保障救护车等关键车辆顺利通行的前提下提高道路利用率。而PARD体系结构也正是希望通过相同的设计理念实现计算机内部高效灵活的资源共享与性能隔离,从而在多种应用混合的数据中心环境下,能在保障关键应用的服务质量前提下提高资源利用率。

假设PARD技术被验证是可行的(也很可能是不可行的,因为还有太多不确定的未知因素,所以还需要更深入的研究),那么将会有很多新的应用场景。比如对于云计算,可以做到做到更有效的分级服务管理,类似于航空公司的VIP服务,有的愿意多交钱,享受更稳定的服务质量,甚至是一下特殊服务,比如硬件提供的加密或压缩服务。

目前PARD第一阶段软件模拟器验证已经初步完成,还在进行第二阶段FPGA原型系统验证,有了进一步进展后希望能跟大家汇报交流。

最后,简单聊几句另一个Matrix,即《黑客帝国》。我想《黑客帝国》设想了一种场景从技术框架上是可行的,今天的云计算模式其实正是朝着这个方向发展。数据中心就像是“母体”。在《黑客帝国》中,所有人都会接入到母体中,在虚拟世界中工作生活。而如今,我们也是通过各种移动设备接入到数据中心,越来越多的时间是在数据中心上度过的。就如我们刚过去的一个多小时,就是在腾讯的数据中心上度过的。等到哪一天,我们的脑机接口有突破,人们不再需要手机这种“原始”的设备,而是可以直接通过大脑来接入数据中心,那么《黑客帝国》中的场景可能真的会成为现实。谢谢大家!

(1个打分, 平均:5.00 / 5)

卡内基梅隆大学利用Azure,machine learning和Power BI节省开支

原文:http://www.winbeta.org    翻译:Abel Jiang

微软有很多高冷的技术工具,个人消费者比较难用到,其中就包括植根于大数据和云中的Microsoft Azure,Azure Machine Learning以及Power BI。大公司用这些工具来处理海量数据,而个人消费者却很少使用和体会到这些技术工具对他们日常生活的产生的影响。

卡内基梅隆大学(CMU)通过利用微软的这些技术工具,让教学楼运行效率更高,因而节省了开支。CMU收集来自安置在暖通空调(HVAC)以及管道处的传感器产生的数据,结合天气数据来估测教学楼的环境温度。通过建立好的温度变化模型,CMU调节供暖供热系统,以期达到良好的环境温度。

这是一个很复杂的问题。解决方案不仅仅是收集更多的数据,因为你要做出如何调节系统控制温度的决策。这也是微软的工具派上用场的地方。首先,CMU收集所有和教学楼温度相关的数据,比如:外部温度,光照,内部温度,改变内部温度多用时间,建筑内热量流动情况等。接着,CMU用Microsoft Azure预测他们需要但是不能直接得到的数据。比如说,团队没有关于建筑所受光照的数据,他们就利用Azure Machine Learning来估测。

再然后,CMU团队建立模型,然后在一天工作开始之前确定温度情况。通过这样控制教学楼温度让CMU降低了20%的能耗。对于一个大型的研究机构,减少如此多能耗意味着节约了很大的开支。CMU的团队表示,这些易用的机器学习工具节省了很多精力,在预测光照这一项的建模上就从原来的几个星期甚至几个月的时间,缩短到了几天。这些工具客观上推进了这套系统的实用进度。

个人看法:之前也有Google Data Center的Jim Gao用机器学习算法控制数据中心的Cooling System从而降低能耗的报道,随着一些机器学习工具的出现,利用机器学习变得越来越容易,最近edX有开Caltech的Data Science课,完全同步Caltech校内课程及资料,有兴趣不妨听一下。

(1个打分, 平均:5.00 / 5)

包云岗 。《数据中心与黑客帝国》(上)

包云岗中科院计算所副研究员,工作于计算机体系结构国家重点实验室与先进计算机系统研究中心,目前主要从事高效数据中心(Resource Efficient Datacenter)体系结构方面的研究。个人主页: http://asg.ict.ac.cn/baoyg/ ,新浪微博: @包云岗。


【8月13日主题分享精彩回放】

今天交流的话题是“数据中心与黑客帝国”,其实本来题目应该叫“数据中心与Matrix”,这里的Matrix是8月8号刚获得百度最高奖100万美元的“百度通用资源管理项目”的代号,但大家可能很自然地就会想到《黑客帝国》这部电影。于是@杨静Lillian 老师便将交流话题升级了一下,变得科幻了很多。但说实话,对于《黑客帝国》这部电影,虽看过但却未深究过,所以科幻话题更多是还是希望大家能多参与讨论。

我们还是先聊聊这个获百度最高奖的Matrix,这个项目是由百度数据中心管理团队开发的,要解决的是一个世界级难题(具体稍后解释)。这其实是他们数据中心管理团队第二次获得最高奖,2012年他们开发的“服务器潜能激发技术”也获得了百度最高奖。可见,百度对数据中心管理技术非常重视,因为正是百度数据中心的几十万台服务器在支撑着每年数百亿的收入(2013年总营收为320亿,2014年上半年就已达215亿)。

那百度的Matrix要想解决的是什么样的世界级难题呢?宏观上来讲,就是成本与收益之间的平衡,如何用尽可能少的成本来实现尽可能大的受益。具体到数据中心这个场景下,就是数据中心自身的成本与其所能带来的收益之间的平衡。

数据中心其实已经成为我们生活的一部分。比如我们使用各种手机App上网,如下图,是一个典型的“前端移动计算+后端云计算”的场景。我们在手机上触按屏幕后,手机就会将触按这个动作转变为一个网络请求,发送到后端运行云应用的数据中心进行处理,然后再通过网络传回来,在手机屏幕上显示。这个过程大概需要2~4秒,其中一大半时间都是消耗在数据中心内。也就是说,正是数据中心在支持着全世界数十亿网民的各种请求。

那让我们看一下几大著名公司的数据中心规模。2013年时任微软CEO的斯蒂夫.巴尔默在全球合作伙伴大会的主题演讲中提到,“我们(微软)的数据中心已超过100万台服务器,谷歌比我们更大一些,亚马逊比我们稍小一点。Yahoo!和Facebook等其他企业大概10万台的量级。所以真正理解和管理如此大规模数据中心、并提供公有云服务的企业是屈指可数的。”其实国内的几家互联网巨头也都拥有超过20万台服务器的规模,并且朝着100万规模快速发展。

那么100万台服务器的成本是多少?这里我们参考一位被称为文艺复兴式的黑客——詹姆斯·汉密尔顿在博客中的一些数据。汉密尔顿是负责亚马逊 AWS数据中心的杰出工程师,之前在微软负责Bing的数据中心。2013年《连线》网站上曾经有一篇文章《亚马逊为何聘用一名修车工管理云帝国?》(http://xw.qq.com/c/tech/20130221000114 )专门介绍了这位开着游艇掌管亚马逊价值数十亿美元数据中心的极客。

在微软CEO巴尔默透露出微软拥有100万台服务器数字后,詹姆斯·汉密尔顿写了一篇博客《Counting Servers isHard》(http://perspectives.mvdirona.com/2013/07/17/CountingServersIsHard.aspx),估算来估算100万台服务器的成本:如果每台服务器很便宜,只需2000美元的话,那么购买服务器需要20亿美元(约125亿人民币);此外还需要配备至少300MW的供电系统,还需要建15~30个机房。这些加起来大概需要22.5亿美元。所以100万台服务器的总建设成本大概是42.5亿美元(约260亿人民币)。

这些只是建设成本,另外还需要维护和服务器更新成本,包括每年要消耗掉约26亿度电(约15亿人民币),服务器一般3~5年就会淘汰,需要购置新服务器。所以,就算5年更新一轮,那么仅电费就需75亿,服务器更新又需要125亿。这相当于5年的运行维护成本是200亿,每年40亿。当然,这个估算还是比较便宜的服务器,其实一般用于计算的服务器价格都会在2万以上,所以仅购买服务器成本就会超过200亿。

但这么大规模的数据中心的利用率怎么样呢?我们来看一些谷歌公布的数据。下面这个图是2006年谷歌的5000台服务器的平均CPU利用率分布,这些服务器运行的是像搜索、gmail等在线应用。从这个图中可以看到这些服务器的平均CPU利用率约为30%。

也许大家会觉得2006年的数据已经太旧了,那我们来看一下2013年的数据。下面这个图是2013年1-3月份谷歌的2万台运行在线应用的服务器平均CPU利用率分布图。可以看到,7年过去了,并没有很显著的提高,仍然只有30%左右。这意味着,假设100万台服务器中有50万台利用率只有30%,那么相当于5年100亿人民币的运维成本中有70亿是浪费了,只有30亿才是真正产生了效益!

事实上,谷歌的数据中心技术是全世界领先的,他们开发了很多数据中心管理技术才能将“在线应用”(加引号埋个伏笔在这)服务器CPU利用率提高到了30%。而更多的企业还达不到这个水平,比如麦肯锡估计整个业界服务器平均利用率大约是6%,而Gartner的估计稍乐观一些,认为大概是12%。这两个数字跟我了解到的也基本吻合,比如国内某银行的数据中心利用率大概就是5%左右,而印度塔塔公司曾公布过他们的服务器利用率大概是12%。

我们都知道云计算。云计算不正是可以通过虚拟化技术在一台服务器上跑多个虚拟机来提高CPU利用率吗?为什么不用呢?其实谷歌等企业早就采用了类似的容器技术,2013年的那2万台服务器上已经是多个应用混合在一起运行后得到的结果了。事实上,谷歌将数据中心分为了两类,一类就是上面的那些包含在线应用的数据中心,CPU利用率只有30%;而另一类是不包含在线应用,专门运行MapReduce等批处理数据中心,这些数据中心的CPU利用率其实达到平均75%,但在谷歌只占一小部分,运行在线应用的数据中心才是更典型。

我们会自然的问:为什么谷歌在线应用数据中心CPU利用率只有30%,但离线批处理数据中心却可以达到75%?有没有可能把这两类数据中心统一起来,使整体利用率提高到75%?那就能省下一半的服务器。对于100万规模的数据中心,那就是省下50万台,就可以省下100亿的运维成本了。

但是对于这个问题,答案很可能是“基于现有的技术还做不到!”因为数据中心运维不仅需要考虑成本,更需要考虑收益。

前面提到的当前流行的虚拟化技术可以通过让多个应用或虚拟机共享一台机器,从而提高服务器资源利用率。但是这种共享却会带来资源竞争,进而干扰应用程序的性能,影响在线应用的响应时间。而快速的服务响应时间正是衡量服务质量(Quality-of-Service,QoS)的关键指标,是让用户满意、留住用户的关键。

现任Yahoo!的CEO的Marissa Mayer曾经在谷歌做过一个实验,把页面上的搜索结果从10个增加到30个,以希望能让用户一次浏览到更多的信息。这样搜索结果的返回时间从0.4s增加到0.9s。但是他们发现,广告收入下降了20%!所以,Mayer对提升在线业务的用户体验的经验就总结为一条:速度为王(Speed Wins)!这也是大家可以看到为什么最近谷歌要投资3亿美元来建跨太平洋海底光缆,还有以前的千兆网入户等,因为这其实是可以提升用户体验,为他们带来更多的受益。

不仅仅是谷歌,微软、亚马逊其实也都做过类似的实验。2009年微软在Bing搜索引擎上也开展实验,发现当服务响应时间增加到2000ms时,每个用户带给企业的收益下降了4.3%。由于该实验对公司产生了负面影响,最终不得不被终止。而亚马逊也发现其主页加载时间每增加100ms就会导致销售额下降1%,这对于年营收达到700亿美元的亚马逊而言,就是7亿美元的损失。

所以,当前数据中心为了保障用户请求的服务质量,不得不采用过量提供资源的方式,哪怕是牺牲了资源利用率。具体表现为两种形式的资源浪费,一种是关键应用独占数据中心。国内的企业大多数还是采用一个专用的数据中心专门运行某个或某几个在线应用,其他作业运行在其他数据中心上,以减少对在线业务的干扰。另一种是扩大资源需求。谷歌其实早就采用了先进的数据中心管理技术,运行多个应用混合运行在一台服务器上,从而提高服务器利用率。但他们发现这样做对那些离线作业是有效的,因为用户提交后只要能出结果就行,哪怕慢一点也可以。但是对于那些在线应用开发的程序员,比如gmail开发人员,他们知道自己的程序可能会和其他人的应用一起运行,所以就会在一开始的时候就夸大资源需求,但实际使用的远少于申请的资源。这种现象是在共享环境下很常见的,不光谷歌,其他公司也是如此。比如下面这个图,就是Twitter在使用了Berkeley开发的Mesos的数据中心上运行了一个月的情况,红色部分是申请的,大概占到70%,绿色为实际使用的不到20%,导致大量计算资源浪费。

所以,小结一下,当前数据中心正面临资源利用率与应用服务质量之间的矛盾,一方面在数据中心服务器上同时运行多个应用能有效提高资源利用率,节省成本;但另一方面多个应用共享资源又会出现相互干扰,影响应用的服务质量,降低营收。而目前数据中心为了保障营收,而牺牲了资源利用率,造成大量成本浪费。粗俗估算一下,最近微软裁了1万多员工,以节省每年约10亿美元的人员开支。但如果他们的100万台服务器利用率能提高一些,也能省下个几亿美元。

不过,国内企业之前还没有这方面的技术,利用率很低,很多甚至是个位数的。而百度的Matrix项目,直接采用了与谷歌目前最先进的数据中心管理框架相似的设计理念,朝这个方向迈出了一大步,使在线数据中心利用率得到有效提升,接近谷歌的水平。据百度内部消息,随着Matrix在百度内部的部署,今年预计就能为百度省下超过5亿的成本,而随着百度数据中心规模不断扩大到上百万台服务器,Matrix对于百度的意义将更大。所以,Matrix获得100万美元的最高奖,当之无愧!

但既想要保障在线应用的服务质量,又想要提高数据中心资源利用率,这是一个世界级难题,即使数据中心技术最领先的谷歌也还只能做到30%的利用率。而学术界也在探索,比如前面提到的Berkeley开发Mesos就是一个例子。但这些技术都无法解决一个更根本的问题,那就是底层硬件上的相互干扰。虽然现在的服务器内部的CPU核心越来越多,理论上可以同时运行更多的应用,但是其他资源都比如CPU内部的高速缓存、内存带宽等,还是处于一种“无管理的共享”状态。

要理解“无管理的共享”状态,可以用城市交通管理作为例子。传统的数据中心服务器内部就如没有管理的城市道路交通,没有多个车道、没有红路灯、没有交通规则。可以想象,这必然会造成大量的冲突和混乱,也会导致一些关键车辆的通行(如救护车、消防车等)无法得到保障。因此当前数据中心保障在线应用服务质量的手段,其实是一种粗放的交通管制方式——因为管理部门不能区分车辆类别,所以只要得知某些道路上会出现关键车辆,那么就对其他车辆实施限行。这种方式显然极大地降低了道路的利用率。(待续)

(2个打分, 平均:5.00 / 5)

深度学习大牛Bengio教授在reddit吐槽

转载自:http://meroa.com

Deep Learning学术界的三架马车,目前Geoffrey Hinton已被Google收编,Yann LeCun已被Facebook收编,还留在学术界的Yoshua Bengio最近心情好,在reddit上开帖定期回答问题。我抽取了一些有料的回答在下面,希望对大家了解这方面有帮助。

  • 最近掀起的深度学习浪潮,只能表明机器学习界浪费了很多年没去探索它,尤其1996-2006这十年。(吐槽深度学习大热)
  • 学习好的表示(representations)是深度学习的核心目的,而非像SVM一样就是在特征的固定集合做一个线性预测。(吐槽SVM用kernel转移重点)
  • 为什么决策树注定泛化能力差?我的文章中 曾说明,其关键点是决策树(和许多其他机器学习算法)划分输入空间,然后给每个区域分配不同的参数,因此没有推广到新区域或跨区域的办法。不可能学习到一 个需要跨越区域比训练样例数目还多的函数。相反神经网络可以做到非局部的泛化,是因为每个参数在许多区域被重新使用,在常规的神经网络通常是一半的输入空 间。(吐槽决策树泛化能力差)
  • 无监督的处理过程(和预处理)仍然是处理半监督和转移学习(领域适应及非平稳数据)问题的关键成分, 尤其新出现类别的标记样本很少(或分布改变)的时候。我们就是这么赢得ICML2011的比赛。
  • 无监督学习(unsupervised learning)的未来更吸引人的原因
    1. 利用未标记数据的庞大数量的优势
    2. 了解所有观察变量间的统计依赖关系,因此可以回答给定任何变量子集下关于任何子集的新问题(训练集中未见的)
    3. 是非常强大的正则化,可以帮助学习者理清变化的潜在因素,使得更容易从极少数的例子解决新任务。
    4. 可用于在受监督情况下输出变量(待预测的)是一个非常高维的复合物(如图像或语句)的场合,即所谓的结构化输出。
  • 超参数与在训练中学习到的参数不同,因为后者通常是通过试错手动设置的,或是对所有参数值组合做愚蠢的大范围探索。(吐槽grid search傻大粗)
  • 问:目前深度学习取得成功的问题都是人类保持最先进水平(state-of-the-art)的问题,如图像和语音识别、自然语言处理(vision/audio/language),有没有胜过人类的案例?答:在欺诈识别以及Netflix的推荐系统中有成功的案例,特别是当输入变量巨大到无法可视化或人类可以消化的时候。尽管我没具体比较机器和人脑的性能,但纯粹的速度优势,也不会考虑让人类做这些工作。
  • 在一天结束时,只有数据。专业的知识也是从过去的经验来的:要么通过与人的交流传达(最近的人,或过去的几代人,即所谓文化进化),要么通 过遗传进化(这也依赖于如何将知识刻入基因的经验)。潜在说明我们可能需要多种优化方法,而不仅仅基于梯度下降(比如大多数的学习算法)。(谈谈大数据, 不明觉厉)
  • 我相信大脑的大部分工作是尽量把我们的经验变得一致(coherence), 以建立一个关于世界的更好模型。

关于深度学习的革命性再怎么强调都不为过。除了在现有的图像/语音识别中不断刷新state-of-the-art之外。在Google使用深度学 习的AI给机器随机“看”了1000万个Youtube视频,猜猜它看到了什么?猫的脸!在地球另一边,百度使用深度学习的广告CTR预估模型用103数量级特征战胜了原来1011数量级特征的线性模型,后者刚好是十多年来公司里最懂商业和最懂技术的一群人合力完成的杰作。本文的最后,我只想对机器学习界的同仁说一句:再不上船可就晚了。

(没有打分)

央视大型纪录片《互联网时代》全集放送

第一集《时代》

耕种,使人类停止流浪的脚步;蒸汽,升腾起地层深处的能量……时代的大幕常常被技术之手轻轻拉开。

 

第二集《浪潮》

互联网技术在短短二十年的商业化浪潮中,以前所未有的速度谱写着改变世界的产业传奇和创业人生。

 

第三集《能量》

互联网引爆的能量,如同核裂变。它在经济领域引发了几乎所有产业生产方式、生产关系、生产要素的重新组合、重新建构。

 

第四集《再构》

互联网去中心化、扁平化、自组织的特性,重构着传统社会结构,创造新的组织方式和组织形态。

 

第五集《崛起》

互联网赋予每一个人无限的可能,让个人力量增强、个人价值释放。

 

第六集《迁徙》

互联网催动了人类一场新的迁徙,由传统社会向网络化生存的“新大陆”的一次集体迁徙。

 

第七集《控制》

技术是中性的,但人性有善恶,互联网的能量同样放大了人性恶的一面的破坏力。如何共同在治理与发展的平衡中寻求新规则,新技术已经向整个人类发出了叩问。

 

第八集《忧虑》

隐私,是人类精神秩序、尊严和自由的基本保障。互联网时代,整个人类的隐私的失去,成为享受网络服务的代价,人类的隐私变得脆弱不堪。

 

第九集《世界》

人类过去、现在和长久的将来,都将依然是文化传承和价值观的多样化。互联网像一个探针,进入不同发展阶段、不同文化和社会特性的国家,呈现出不同的反应、样貌和景观。

 

第十集《眺望》

在时代开启的黎明,人类未知的远远大于已知。芯片技术、传感器、云计算的发展让万物相连和无处不在的智能化成为普遍,人机共同进化的可能未来日渐清晰,机器是否将超越人类智慧?所有人与机器、机器与机器的相连是否将涌现出笼罩一切的“全球脑”?

(没有打分)

Persona机器学习应用–Follow Twitter的不同面

新浪微博是一个非常棒的平台,但在产生有价值信息的同时,也夹杂了许多无用的信息。比如有些账号,本来是分享野史怪谈的,却冷不丁的夹杂了一些广告信息,或是纯个人吐槽发泄,这样就让你看微博的时候觉得非常乱杂。而Persona从狭义上就是用来解决这种问题的,也希望国内开发者,或微博官方也能推出类似应用,方便用户迅速提取有价值信息。下文引自techcrunch.com

Our identities are prismatic. We’re not the same person to everyone. Yet when you follow someone on Twitter, your feed overflows with a combination of their personal, professional, and social tweets. But thanks to TechCrunch Disrupt Hackathon  project Persona, you can choose which dimensions of someone’s identity you want to see. Persona uses machine learning to classify people’s tweets into separate themed timelines around different topics they tweet about, like their work, personal life, and interests.

If you ever wished you could just get someone’s smart professional insights without knowing what they had for lunch, or love their taste in art but yawn when they nerd out on tech or current events, Persona could banish boring tweets from your feed.

As someone who straddles a lot of scenes, I bet some of my Twitter followers would be relieved to follow just one side of my identity. By day I’m chronicling startups and analyzing the latest Facebook product changes, yet by the afternoon I’m sharing silly memes and soothing songs, and at night I’m posting photos from parties and hippie-dippie life affirmations. Entrepreneurs, culturenauts, and friends all follow me for different reasons, but I fear I overwhelm their streams with types of tweets they don’t want.

Persona could solve this. It was built by the machine-learning guru and CEO behind Guesswork, a customer intent prediction and personalization tool we covered last month. Mani Doraisamy and his brother Prabhakar tell me that on Twitter “we’re blowing our own trumpets,” more concerned with broadcasting our opinions than with those who receive them. So while Persona began as a hackathon project, Mani plans to formally launch Persona soon here.

Persona will automatically scan the words used in your tweets and assign them to three streams on your Persona page: personal, professional, or social. Alternatively, you can add custom labels to these dimensions of your identity and tag your tweets into them, which also teaches Persona’s algorithm. If you want to check out the different version of someone else’s Twitter stream, they don’t need to have signed up. Persona will run its machine learning algorithm on their profile and do the categorization for them.

By working with the Twitter dev team at the Disrupt Hackathon, the Doraisamy brothers learned how to build Persona without running into API limit problems. And while they don’t plan to monetize the app directly, they’ll feed its learnings into Mani’s app Guesswork.

Some believe we should all own up to the different sides of personality and live with a unified identity. But that’s easier said than done if you live or work with people who might not take kindly to your political views, humor, or after-hours adventures. You should never be ashamed of who you are, but with an app like Persona, you can still respect the time and attention of people who follow you, no matter who they want you to be.

(没有打分)

绿盟科技(300369)停盘的原因分析

2014年6月26日, 绿盟科技发布如下通告“绿盟科技正在筹划重大事项,因该事项可能对公司股票交易价格产生影响,且尚存在不确定性,为确保公平信息披露,维护广大投资者合法权益,避免公司股价异常波动。根据深圳证券交易所有关规定,经公司向深圳证券交易所申请,公司股票自2014年6月26日开市起停牌,公司将在相关事项确定后复牌并公告相关事项。”

9月3日,绿盟科技发布了最新的通告。股票将继续停盘,直到十月初。

下面是《弯曲评论》做的一个调查,网友分析绿盟科技的停盘原因。

(1个打分, 平均:5.00 / 5)

科技一周~天与海的落差

科技一周~天与海的落差

2014/09/07

“中秋,天涯风冷,沧海月明,潮起又潮息,花开复花灭,一万年的牵挂,却隔着天与海的落差。”这落差,若放在上古神话里,那是在说嫦娥与后羿的凄美;若放在科技圈里,则是指“天上”的Apple正藐视着一大群掉在“海里”的追随者。

明天,Apple将会发布重量级产品,几乎所有人都笃定了iPhone 6和iWatch。这着实令许多厂商“牵挂”万分,深恐iWatch一出,独霸头条,自己的产品难免落到汪峰之地步。于是,几大厂商赶集似地,一起抢在Apple之前推出了智能手表:

  • 本周三,德国柏林,Sony推出了第三代智能手表SmartWatch 3和腕带SmartBand Talk。就在同一天,三星推出其本年度的第六款智能手表:Gear S。此前5代分别是:Galaxy Gear,Gear 2,Gear Fit,Gear Neo,Gear Live。我只能用“疯狂”两个字来形容了。一年之内,能连甩六代产品的公司,当世之上,除三星外,再无它。本周四,LG推出G Watch R,主要的宣传亮点是“第一款圆面智能手表”。同一天,摩托也推出圆面的Moto 360 SmartWatch,但由于时差的关系,晚了LG半天。这四大厂商的智能手表,在功能上,大同小异;在外观上,按照Engadget上[1]的说法,它们最大的共同点就是:Ugly。我们只需再多等一天,就可以看到Apple与这四家公司那“天与海”的落差。一言概之,智能腕表,更应该注重的是时尚性,而不是纷繁复杂的功能。
  • 除了上面的终端厂商争先恐后玩起穿戴式设备之外,作为芯片业老大的Intel也挤了进来。本周,Intel不仅自己推出了一款智能手环[2],还宣布与Fossil结盟,共同开发穿戴式设备[3]。自2007年以来,Intel彻底输掉了移动芯片的世界,但它不想再输掉下一个千亿级的世界:物联网(IoT,Internet of Things)。于是在今年初的CES上,Intel隆重推出了其IoT平台:Edison(以著名发明家爱迪生的姓氏命名)。穿戴式设备自然是IoT里一个重要的分支。此番,Intel想借力Fossil的时尚特点,来发力IoT,从思路上来说是非常正确的,但唯一的问题是,Intel品牌自身的“反时尚性”。这种“反时尚性”,其实也是整个半导体行业的“原罪”。因为,半导体芯片距离终端消费者太过遥远,所以芯片企业几乎不可能像互联网企业或终端企业那样,直接给消费者以时尚视觉的冲击。如果Intel不能重塑自身形象,与其大张旗鼓地推出刻有自身品牌烙印的终端设备,还不如像MTK那样,默默地做其它品牌商的供应商。

既然谈到了IoT,那么今天,我就来为大家简单介绍一下当前比较流行的IoT方案。总的来说,当前的主流IoT方案是由四家芯片厂商在推动,其中Intel推出了两套方案。这些方案分别是:Intel Edison,Intel Gateway,Qualcomm IoE(Internet of Everything),Broadcom WICED,Marvell Wifi-MCU。它们的特点见下表。当然,由于IoT还在快速的发展当中,这些平台的变动也非常大,每隔一年就会有许多新的特性被增加进来。

Intel

Edison

Intel

Gateway

QCOM

IoE

BRCM

WICED

MRVL

Wifi-MCU

面向市场

消费类电子

企业级产品

消费类电子

企业级产品

消费类电子

消费类电子

企业级产品

通讯整合度

单芯片集成

Wifi,Bluetooth LE

需另配

通讯芯片

单芯片集成

Wifi, Bluetooth LE, 3G baseband

单芯片集成

Wifi, Bluetooth LE

单芯片集成

Wifi, Bluetooth LE

(支持ZigBee协议)

CPU

X86-Atom

X86-Quark

ARM Cortex-M3

ARM Cortex-M3

ARM Cortex-M3

兼容平台

NA

NA

NA

Apple HomeKit

Apple HomeKit, Google Chrome OS

References
(2个打分, 平均:5.00 / 5)

陈怀临 。《 孙钟秀 。操作系统教程》注释(稿):第二章:处理器管理

(3个打分, 平均:5.00 / 5)