Time of Update: 2015-08-12
標籤:
Time of Update: 2015-07-31
標籤:前幾天上了水木社區,發現還是有大牛的,看了關於大資料和資料庫的討論,發現還是蠻有意思的,限於篇幅和版面,我做了部分的整理。 先看看這位人士的分析,對於行業的現狀還是很有瞭解,不是大學教授就是行業先鋒。#####################################大資料是一種方案,而不是一種模型。方案有方案的壓力, 只能使出各種絕招來“解決”問題。既然是方案,就包括了存貯,運算,輸入和輸出等等。 就運算模型上,因為要更好地採用廉價硬體,
Time of Update: 2015-08-14
標籤:一、追蹤分支1.追蹤分支在Git中‘追蹤分支’是用於聯絡本地分支和遠程分支的. 如果你在’追蹤分支‘(Tracking Branches)上執行推送(push)或拉取(pull)時,它會自動推送(push)或拉取(pull)到關聯的遠程分支上. 如果你經常要從遠程倉庫裡拉取(pull)分支到本地,並且不想很麻煩的使用"git pull "這種格式; 那麼就應當使用‘追蹤分支‘(Tracking Branches). git
Time of Update: 2015-08-14
標籤:忽略某些檔案1.忽略某些檔案項目中經常會產生一些Git系統不需要追蹤(track)的檔案。典型的是在編譯產生過程中產生的檔案或是編程器產生的臨機操作備份檔案。當然,你不追蹤(track)這些檔案,可以 平時不用"git add"去把它們加到索引中。 但是這樣會很快變成一件煩人的事,你發現 項目中到處有未追蹤(untracked)的檔案; 這樣也使"git add ." 和"git commit -a" 變得實際上沒有用處,同時"git status"命令的輸出也會有它們。
Time of Update: 2015-08-10
標籤:大資料 big data 資料結構 演算法 1.Bloom Filter由一個很長的二進位向量和一系列hash函數組成優點:可以減少IO操作,省空間缺點:不支援刪除,有誤判如果要支援刪除操作: 改成計數布隆過濾器2.SkipList(跳錶)核心思路: 由多層組成,每層都是一個有序鏈表,最底層包含所有元素,元素數逐層遞減。每個節點包含兩個指標,一個->
Time of Update: 2015-08-13
標籤:轉載自http://www.csdn.net/article/2013-07-08/2816149Spark已正式申請加入Apache孵化器,從靈機一閃的實驗室“電火花”成長為大資料技術平台中異軍突起的新銳。本文主要講述Spark的設計思想。Spark如其名,展現了大資料不常見的“電光石火”。具體特點概括為“輕、快、靈和巧”。輕:Spark 0.6核心代碼有2萬行,Hadoop
Time of Update: 2015-08-13
標籤:一、概述。 MapReduce是一種可用於資料處理的編程模型。Hadoop可以運行由各種語言編寫的MapReuce程式。MapReduce分為Map部分和Reduce部分。二、MapReduce的機制
Time of Update: 2015-08-12
標籤:大資料 資料分析 社交 海量資料 雲端儲存 大資料的發展前提 關於大資料的概念其實在1998年已經就有人提出了,但是到了現在才開始有所發展,這些其實都是和當下移動互連網的快速發展分不開的,移動互連網的高速發展,為大資料的產生提供了更多的產生大資料的硬體前提,比如說智能手機,智能硬體,車連網,pda等資料的產生終端。這些智
Time of Update: 2015-08-10
標籤:大資料 hadoop gfs 架構 資料 1.Google檔案系統(GFS)使用一堆廉價的商用電腦支撐大規模資料處理。GFSClient:
Time of Update: 2015-08-09
標籤:Array:儲存方式-------索引儲存Dictionary、Object:儲存方式---------散列儲存區別:可以說它們的 key 都 對應 各自的引用,但是索引儲存要求 key 是 0,1,2...這樣按序列的正整數。有什麼區別呢,
Time of Update: 2015-08-07
標籤:
Time of Update: 2015-08-07
標籤:Spark大資料分析架構的核心組件Spark大資料分析架構的核心組件包含RDD記憶體資料結構、StreamingStreamCompute架構、GraphX圖計算與網狀資料採礦、MLlib機器學習支援架構、Spark
Time of Update: 2015-08-05
標籤:china-pub 電腦 大資料 資料分析 變革 這篇是電腦類的優質預售推薦>>>>《資料分析變革 大資料時代精準決策之道》暢銷書《駕馭大資料》作者、Teradata公司的首席分析官Bill
Time of Update: 2015-08-05
標籤:接著昨天的list,也是學習集合的相關知識ListBuffer、ArrayBuffer、Queue、stack相關操作 1.ListBuffer、ArrayBuffer代碼實現:ListBuffer與ArrayBuffer都是mutable可變的與java中的定義也差不多,可以追加的。 2.Queue、Stack相關操作:隊列是一端進去一端出來,而stack也是後進先出的原則,他們都是mutable可變的 import
Time of Update: 2015-08-04
標籤: HDInsight cluster on Linux 登入 Azure portal (https://manage.windowsazure.com )點擊左下角的 NEW 按鈕,然後點擊 DATA SERVICES 按鈕,點擊 HDINSIGHT,選擇 HADOOP ON LINUX,如所示。 輸入集群名稱,選擇叢集大小和帳號,設定叢集的密碼和儲存帳號,下表是各個參數的含義和配置說明。NameValueCluster NameName of the
Time of Update: 2015-08-04
標籤:今天主要是關於Scala中對List的相關操作,list在Scala中應該是至關重要,接下來會講解關於List的一系列操作List的map、flatMap、foreach、filter操作講解 1.關於List的Map、flatMap操作、區別 2.對List的foreach、filter操作 //list中的Map中用一個函數運算式-->實則是對list進行操作,_可以表示一個函數或者運算式 List(1, 2, 3, 4, 6) map (_ + 1)
Time of Update: 2015-08-02
標籤:接下來會講解關於各種模式比對,從中就會知道模式比對的重要性關於Type、Array、List、Tuple模式解析 1.Type模式比對代碼解析 //關於Type類型的模式比對 //匹配 Int類型、string類型、Map類型[_,_]代表任意類型的k,v def match_type(t : Any) = t match { case p : Int => println("It is Integer") case p : String =>
Time of Update: 2015-08-01
標籤:由於昨天下班後有點困,就沒有來及寫部落格,今天會把它補上!把這個習慣堅持下去!關於Scala高階函數詳解 1.Scala高階函數代碼實現:高階函數就是在我們函數中套用函數 2.高階函數代碼詳解:高階函數能夠讓方法的調用更加便捷 println("Welcome to the Scala worksheet") //> Welcome to the Scala worksheet //(1 to 9)數組中的map方法向數組中放* 用foreach用於來迴圈
Time of Update: 2015-07-31
標籤:DT大資料夢工廠 第5講 http://yun.baidu.com/s/1jGjFpWy 本節王老師講了數組。最主要的是使用了scala worksheet這個功能。這個功能可以列印出每一行代碼的運行情況。 package com.dt.scala.helloimport scala.collection.mutable.ArrayBufferobject ArrayOps { def main(args: Array[String]): Unit = {
Time of Update: 2015-07-31
標籤:波分傳輸 超大容量波分 大資料波分傳輸 超長距離波分 波分傳輸工程