推廣 熱搜: 集成  系統集成  弱電  軟件  kvm  服務器  思科  視頻會議  拼接  SFP 

電信級數據流量與監控系統部署案例分享

   日期:2014-03-13     來源:CSDN    作者:Henry    瀏覽:127    評論:0    
核心提示:手中握有數據的公司企業仿佛就是站在金礦上,通過不斷挖掘用戶的行為習慣和喜好,在凌亂紛繁的數據背后找到更符合用戶興趣和習慣的產品和服務,并對產品和服務進行針對性地調整和優化,這就是大數據的價值。

編者按:挖掘用戶的行為習慣和喜好,在凌亂紛繁的數據背后找到更符合用戶興趣和習慣的產品和服務,并對產品和服務進行針對性地調整和優化,這就是大數據的價值。今天分享的內容就是永洪大數據一個大數據分析平臺的搭建部署案例。

以下為原文:

夜深了,電話鈴聲響起!這不是恐怖片的開頭,卻是我們工作的開始。

2013年5月,我們收到一個電話線索,客戶需要支持幾十億數據量的實時查詢與分析,包括數據抓取和存儲,我們經過一番努力提出一個解決方案,客戶覺得有些不妥,決定自己招聘Hadoop團隊,實施該系統……

半個月后,客戶打來第二個電話,明確表示Hadoop未能滿足實時大數據分析的需求,決定接受我們的方案,但是客戶要求我們不僅出產品,還要負責實施……

于是乎,開工!

項目價值

CMNET網間流量分析與監控系統(簡稱流控系統),是中國移動分公司的一個項目。項目要求能基于時間、地區、運營商、業務、App、IP分組、域名等維度對全省的上網流量進行實時分析和報告。這些分析報告能給客戶帶來如下好處:

1. 實現對接入鏈路和基站的全程監控。例如,一旦來自某鏈路或基站的流量很低,可及時對鏈路和基站進行檢修,這將大大降低故障率。

2. 由于具備了對鏈路和基站進行全程監控的能力,客戶可以對鏈路和基站的帶寬進行動態調整,基于需求進行合理的資源配置。

3. 覆蓋全省的全量數據,能提供基于業務/地域/App/行業/域名等維度的數據分析報告,具備100%的可信度和極高的商業價值。

數據流向

上網數據從硬件設備中抓取出來,形成壓縮的日志文件存儲在服務器上,服務器每五分鐘生成新的日志文件。該服務器提供FTP訪問。

我們方案中承擔的流控系統,將通過FTP每五分鐘訪問一次日志文件服務器,將新生成的壓縮日志文件抽取出來。這是一個典型的、增量更新的ETL過程,如下:

1. Extract: 定期抽取的日志文件并解壓縮。

2. Transform: 解析出上網信息,同MySQL的維度表進行關聯,生成包括業務/地域/App/行業/域名等維度的寬表。

3. Load: 將數據裝載入我們的分布式集市。

 

初期驗證(POC)

中國移動的日志數據分G類和A類,各取幾塊樣本日志文件,驗證數據流向的可行性以及性能。

我們很快完成了ETL的整個過程,寬表數據被成功地裝載入我們的分布式集市。

性能上,我們按照用戶提出的每天數據量5000萬條增量,計算出支持100天50億數據量的分布式集群所需的磁盤空間、內存總量、和CPU總量。由于客戶一再強調預算有限,于是配置了6臺低配PC server:1cpu x 4core,32G內存,1T硬盤。

我們模擬了常用的用戶場景,整個系統的響應能力基本滿足需求。系統架構如下: 

           
系統架構圖

 

正式實施

中國移動分公司的上網數據在內網,一般不提供外網連接,需要嚴格申請之后才能在一定時間內提供外網連接。因而,我們先把整個系統的ETL工作開發完成之后,才正式申請了外網連接進行數據裝載。

從開始進行上網數據的ETL工作,我們就發現數據量與預期嚴重不符。預期的上網數據是每天不超過5000萬條,但實際上每天的上網數據在6億條以上,100天保存的數據量將會達到驚人的六百億條。6臺低配PC server有點小馬拉大車的感覺,完全達不到“海量數據、實時分析”的設計目標。我們趕緊聯系客戶,確定上網數據每天6億條以上,而不是之前預估的每天5000萬條左右。怎么辦?

系統重構

經過與客戶的詳細溝通和理性分析,大家一致決定進行系統重構。

上網數據的日志文件是5分鐘粒度的。我們將上網數據按照分析需求分為兩類:

1. 細節數據:保留三天的細節數據(5分鐘粒度),共約20億條。這樣,由于保留了細節數據,客戶可以對近三天的上網數據進行任意的探索式BI分析。

2. 匯總數據:在認真研究了流控系統的分析報告需求之后,我們將五分鐘的細節數據匯總為兩小時的匯總數據。這樣數據量可以降到約為原來的1/10,100天的數據總量大約60億條。

重構之后的數據流如下:


數據流圖

后期,我們陸續進行了一些系統調優,包括JVM調優、存儲調優、計算調優等等。客戶打開一個Dashboard的響應時間基本控制在秒級,最極端的分析報告也能在一分鐘之內生成?;緦崿F了“海量數據、實時分析”:

1. 系統定期推送日報、周報和月報。

2. 系統支持探索式BI分析。多數分析請求達到了秒級響應。

案例總結

1. 項目的數據量非常大,100天超過600億條日志;

2. 項目的預算非常有限,采購了6臺低端PC Server。硬件投入不大,軟件性價比也很高;

3. ETL過程難度較高,隨著降維的需求加入,BI層難度也相應提高;

4. 為達到秒級響應,以支持探索式BI的交互式分析,對系統進行了多個層面的優化。

結束語
 

有了大數據,還要從大數據中提取價值,離不開分析工具,通過豐富的分析功能,在繁雜的數據中找到其中的價值。而大數據給分析提供了一定的挑戰,需要高性能計算做支撐,才能在大數據的金礦中挖到金子。

這些案例的成功實施和上線,完美詮釋了我們的大數據之道:大數據,小投入。

 
打賞
 
更多>同類資訊
0相關評論

 
推薦資訊
點擊排行
?
網站首頁  |  付款方式  |  版權隱私  |  使用協議  |  聯系方式  |  關于我們  |  網站地圖  |  排名推廣  |  廣告服務  |  RSS訂閱  |  違規舉報  |  京ICP備11008917號-2  | 
 
porn视频在线观看