棱镜 - 群鸦的盛宴
互联网  /  houtizong 发布于 3年前   53
而棱镜计划的老巢,美国国家安全局新址,美国犹他州南部的盐湖城城际线附近的建筑群也受到关注,在这个占地约10万平方米的建筑群里,安放着“棱镜”项目的主服务器。这里的计算机能够储存至少50亿千兆字节的数据,单是冷却服务器消耗的能源每年就要耗资4000万美元,而整个“棱镜”项目耗资约20亿美元。该建筑群由美国工兵部队营建,将于10月份完工,包括了4个数据大厅和2个变电站支撑机构运转,该中心建造成本达19亿美元,计划实际运作时将有100~200名长期雇员(必须美国公民)在此工作,这些服务器的容量大得足以储存未来100年整个人类的电子信息。
如何学会在“大数据”的汪洋大海中“游泳”?这里就不得不提到美国的各大科技公司的相关技术了,以Google公司为例,Google公司的整个盈利模式就建立在对用户的相关信息的收集掌握技术上,在全球,Google公司说自己在用户数据收集处理上的能力是第二,我想没有一家公司敢跳出来说自己是第一,另外的“与有荣焉”的8大公司个个都是数据处理高手,而且他们提供给美国政府的只不过是他们掌握的用户数据的一部分,美国政府只不过是在喝汤。当然,汤也不是那么好喝的,面对海啸般扑面而来的数据狂潮,即便是美国政府也招架不住,它们将之称为“数据山”,将数据挖掘和整理称为“征服数据山”,美国前中情局长彼得雷乌斯曾对“大数据”特点做了解释,他说,举个例子,这里有人刚买了东西,那里有人刚打了一个电话,表面上两者可能没甚么关系,但通过“大数据”的分析,就可能发现这里涉及海关与移民问题,两者是有联系的。美国国安局(NSA)的数据处理系统称之为Accumulo,是一个高度分布式,大规模并行关键字(值)储存分析系统,用来分析结构化的和非结构化的数据,它是基于Google的“BigTable”数据模式来运作的,依据NSA的规划,下一步数据分析将精细到“细胞层面”,这一发展将使对具体个别数据的甄别效率大大提高,而目前一些有价值的数据还要等待人工鉴别分拣,才能提供给情报机构。"
请勿发布不友善或者负能量的内容。与人为善,比聪明更重要!
技术博客集 - 网站简介:
前后端技术:
后端基于Hyperf2.1框架开发,前端使用Bootstrap可视化布局系统生成
网站主要作用:
1.编程技术分享及讨论交流,内置聊天系统;
2.测试交流框架问题,比如:Hyperf、Laravel、TP、beego;
3.本站数据是基于大数据采集等爬虫技术为基础助力分享知识,如有侵权请发邮件到站长邮箱,站长会尽快处理;
4.站长邮箱:[email protected];
文章归档
文章标签
友情链接