有很多网友吐糟,大数据、云计算这些词汇近几年已经用滥了!但是我们静下心来仔细想想,当数据量激增以及云计算市场需求的不断变换,对于大量数据处理的要求也提升了不少,软硬件系统和设备的高难度兼容措施,以及数据可视化困难等等一系列问题依旧困扰着很多用户,我们磨破嘴皮所说的大数据技术真正“落地”了吗? 大数据已经说滥了?数据落地哪儿那么容易 曾经有一位业内知名厂商的研发专家表示,对于数据更快的处理和拥有更可靠的数据质量,以及给应用市场进行更加精细的花费,这些都是未来大数据时代我们首当其中要做的。 让数据分析处理速度更快 我们现在每天一觉醒来,全球所产生的数据量是很庞大的,并且这些数据在每小时、甚至每分钟当中都是以成指数倍增长的,正因为大量数据成这种增长趋势,使得我么在数据的快速分析技术方面变得比以前更加紧迫,数据不等人! 现在IT业界凡是在做大数据的企业都在自己产品对于数据的处理速度上加大研发力度和投入,从而大做文章,比如像Hadoop发布的新品Hadoop 2.0 / YARN,几乎能实时分析数据。而下一代大数据的计算牵引框架Apache Spark,它的速度比Hadoop快100倍。 据行业内部了解,硅谷风险投资机构Andreessen Horowitz,已经以1400万美元的价格领投了一家以Apache Spark为业务核心的初创企业Databricks。不久前,亚马逊也上线了实时流数据服务Kinesis ,来帮助没有数据处理能力的公司解决这一问题。 现在越来越多的厂商开始认识到数据处理速度对于大数据这个战场上的重要性了,每秒处理近TB大小的数据量已经不足为奇,传感器数据分析、物联网在工业和消费级市场快速发展的势头也共同推动了大数据的前进,特别是当实时处理的传感器数据,激增到一天几TB的时候。速度!就成了尤为关键的指标。 |