當前位置: 首頁>集成行業>

傳統外置存儲系統或將迎來嚴酷的冬天(2)

時間:2011-11-01 18:07來源:計算機世界 作者:張冬(冬瓜頭)
2、存儲下一個十年 書接上文。從存儲產品形態變化可以看得出來,在硬件形態上,高端存儲傳統架構崩塌,轉為開放式架構,那么存儲與服務器架構已經沒有本質區別,這一步的變化已經奠定了外置存儲系統體系走向崩塌的
  

2、存儲下一個十年

書接上文。從存儲產品形態變化可以看得出來,在硬件形態上,高端存儲傳統架構崩塌,轉為開放式架構,那么存儲與服務器架構已經沒有本質區別,這一步的變化已經奠定了外置存儲系統體系走向崩塌的基礎。一個事物總是要向前發展,傳統雙控存儲系統在大架構體系上已經沒有可以拿得出手的搞頭了,所以不得不向Scale-Out架構來發展,就像CPU多核化一樣,上百核的CPU都已經可以商用了,那么對于存儲系統來說,Scale-Out的下一步又會是什么呢?在沒有革命性新技術出來之前,我認為外置存儲也就只能這樣了,無非就是硬件規格、接口速率的提升過程,激進一些可能直接以磁盤為單位來做Scale-Out,讓控制器節點數達到系統內的硬盤數量級,而每個控制器節點規格可以降低,但是這始終還是Scale-Out。

那么我到底想說什么呢?憑什么我認為外置存儲系統后續日子會越來越難過?這還得從最近的兩個東西說起,一個是固態存儲介質,另一個,則是炒得火熱的云。

2.1 存儲與服務器同質化

上一代存儲產品在硬件上還是頗具特色的,尤其是以EMC Symmetrix和HDS USP為代表的高端平臺,大背板上安插CPU板、內存板、IO板等。而且上一代高端普遍使用PowerPC處理器。上一代中端產品,到處可覓見ASIC的身影,比如IBM DS4000/DS5000,HDS AMS2000等。而到了這一代,Intel處理器x86硬件平臺似乎已經統治了從高端到中端甚至中低端的存儲陣列,內部架構與普通x86 PC服務器無異,只是外觀以及其他一些專門為硬盤槽位以及維護性考慮的細節上略有不同。只有低端一些產品依然使用ASIC來降低成本。

外置存儲發展到這個階段,已經在硬件上失去了它獨立發展的“借口”。其次,在軟件上,外置存儲的借口也越來越脆弱。隨著各種卷管理軟件,比如傳統的LVM、CLVM甚至GLVM以及Windows平臺下的動態卷越做越強,還有Symantec從Veritas繼承下來的馳騁多年依然寶刀未老的VxVM以及Storage Foundation平臺,再加上號稱“The last word in filesystem”的ZFS以及其變種Btrfs,甚至原Sun公司的統一的存儲軟件ComStar等平臺,這些角色的發展對于傳統外置存儲的軟件層來講,都是威脅。比如ZFS,容錯保護、數據校驗糾錯、快照、Thin、Dedup、Clone、Replication等外置存儲用來增值的特性,它也都已經集成了,只要將其架設到JBOD或者服務器自帶存儲介質上即可形成一個差不多的存儲系統,既可以用作自身使用,也可以通過SCSI Target向外部提供存儲空間成為一個獨立的存儲設備。

2.2 固態存儲介質終將一統

固態存儲介質的好處就不必多講了,想必大家都很了解。固態存儲介質遲早會取代機械磁盤,這也是大勢所趨,雖然短期內不太可能,但是不排除若干年之后不會發生。固態存儲介質的可靠性、容量、存儲密度以及成本均會越來越變得讓人容易接受。機械磁盤屆時已經沒有必要存在,而磁帶可能相對于機械磁盤稍晚些一樣會被固態存儲介質所替代。Flash硅片也有不同的規格等級,使用低規格大容量的Flash陣列完全可以提供比傳統物理帶庫或者VTL更劃算的備份介質。這樣,從RAM到歸檔設備一條路下來就不會有任何機械部件存在,而且性能和成本可以是平滑下降的。

我曾經在某客戶機房看到過某公司高端存儲產品,占用了整整一個機柜的空間,風扇呼呼的吹著,噪音讓人頭疼,結果上面只插了幾十塊甚至十幾塊磁盤。這其中其他原因暫且不提,你懂的。咱們拋開其他因素,從任何方面講,這都屬于投資浪費。這幾十塊機械硬盤在高端存儲上所能提供的性能,可能只需要幾塊SSD就可以滿足了。至于容量方面,目前很多場景容量都是過剩的,由于機械盤無法提供太高IOPS,不得不用幾十塊甚至上百或者數百上千塊磁盤來堆出所需要的性能,然而磁盤容量的增長速度遠比性能增長速度快,那么數百塊600GB的磁盤,就可以達到上百TB 的空間,而這些空間絕大多數可能都被浪費了,只因為單個機械盤性能不夠。機械盤拿數量來換性能,容量過剩。;而SSD則是性能過剩而容量稍小而且價格太高。但是容量和壽命問題可以隨著技術發展不斷得到解決,價格也會不斷降低,而且如果從耗電、占地等個方面綜合判斷,SSD的$/IOPS顯然是劃算的。

2.2.1 歷史車輪不可阻擋

外置存儲控制器的前世形態其實是插在服務器里面的Raid卡,后來為何會擴充出去獨立成為“存儲系統”?多種因素,性能和空間問題為主要,另外一種因素是用于多主機共享存儲,后面這個因素目前看來,有點雞肋,到底有多少主機需要與其他主機共享空間?他們只是在“共享同一個設備”,真正需要共享空間的有兩種情況,一種是特殊應用,比如視頻領域、Web Server集群、HPC集群等等,而這些場景畢竟有限;其次則是最近幾年Thin Provision炒作起來之后,確實可以做到全局空間動態分配回收,但是又有多少人真正用到?從這一點上看,這個因素確實是個雞肋,不會阻止底層技術車輪發展導致的上層形態的變革。所以,共享同一個設備,或者共享同一個空間,只是為技術的發展所創造的一個噱頭。而我相信當存儲形態重新輪回回來之后,又會有新噱頭被創造出來。

所謂“輪回回來”具體是指什么呢?由于固態存儲介質成本的不斷下降,性能和容量的不斷提升,體積的不斷降低,在一臺服務器中集成高密度、大容量、超高性能的的Flash介質無疑還是最方便的存儲形態。想想看,你不再需要購買什么FC HBA、SAS HBA、Infiniband HBA,也不需要理會什么iSCSI、FC、SAS協議,部署時也不需要連接一大批線纜,更不需要購置什么所謂“存儲交換機”了。所以,導致當年Raid卡進化為外置控制器的第一個問題,也就是服務器空間、容量和性能的問題,就這么輕易被Flash固態介質解決了,非常徹底,決不拖泥帶水。至于第二個問題,也就是數據共享訪問的問題,上文也說了,場景有限,有點雞肋。但是如果確實需要共享訪問了怎么辦呢?也好辦,外部網路帶寬是飛速發展的,多個獨立服務器節點完全可以通過外部網絡來將各自的存儲介質通過某種分布式卷管理系統或者分布式文件系統聯合起來形成一個大共享存儲池,這些技術已經比較成熟,尤其是云架構炒作起來之后,這些在技術上根本不是問題。所謂輪回,就是指外置存儲控制器最終在出來溜達了一圈之后,遇上了Flash擋道,最終又不得不乖乖投胎為其前世Raid卡,回服務器機箱里呆著,這就是歷史的規律。

最近也遇到了幾個企業IT管理員問了一些問題,大致是“我到底為什么要使用SAN”,如果換了幾年前,我或許直接會這么回答:“SAN可以消除孤島,數據共享”等等等等,但是現在,我不會再拿著這些當初被忽悠的詞句去誤導別人了,至少回答之前要問清楚他目前的業務類型、數據量以及后續需求等。其中有一個人我確實沒有推薦其使用SAN,因為他的業務完全本地盤就已經滿足需求,況且還是使用PC服務器,如果使用小機等擴展性更強的服務器,一臺機器上完全可以擴充到幾十甚至上百塊硬盤,對于一般通常業務來講,有什么理由去拉根線連到外面存儲上取數據呢?

有人會問,數據如果不集中存放的話,備份怎么辦呢?還可以集中備份和LAN-Free么?這個問題,如果熟知現在的備份數據流就根本無需擔心。當前來講,就算是所謂“LAN-Free”也一樣需要數據先從SAN陣列中讀出到主機,然后再從主機寫到備份介質。筆者另一篇文章《亂七八糟的“Free”》中對這些名詞有詳細的解釋。而對于DAS模式下的備份,數據只是從每個服務器本地盤讀出來然后寫到備份介質中,與SAN備份沒有本質區別,甚至速度可以比SAN備份更快。至于所謂“集中備份”,除非使用NDMP設備到設備直接備份模式,那么這個“集中備份”也沒有意義,現在數據先從主機讀出再寫到備份介質依然是主流的備份方式,這與DAS下的備份數據流沒有區別。

在來看看DAS模式下的容災。在SAN模式下,直接通過兩地的陣列做集中的數據遠程復制與接收,確實比DAS模式下每個節點單獨做復制要方便的多,這一點確實算是一個劣勢。但是回頭想想,如果這些節點是處于云中的,由兩個云之間來做容災,那么又會被統一起來。而且目前來講仍有非常大比例的系統采用的是基于應用層的數據復制,而不是底層存儲層,比如Oracle DataGuard、DB2的HADR等等,這類復制能夠保證數據一致性并且可回放,底層存儲有時候并不能完全信任,10次有2次會產生應用無法啟動的數據不一致。

另外,SAN的另一個噱頭,即“集中管理”。如果整個數據中心只有少數幾臺集中存儲設備,那管理起來確實比較方便,尤其是對一個尚沒有完善的自動化運維體系的數據中心來講。在配置存儲空間的時候,如果有一套比較好的管理軟件,那么在一個全DAS環境中配置起來也不見得要比配置集中存儲來得復雜。但對于后期維護操作,全DAS存儲環境確實會增加不少復雜度,這就需要一套完善的自動化運維工具和體系來應對這個問題。

至于各種外置存儲所提供的快照、重刪、Thin等數據管理特性,隨著芯片性能不斷提升,Raid卡上直接集成這些功能,也將不再是難事。

總之,上述的種種因素,最終都會將目前的傳統外置存儲系統逼上絕路。

------分隔線----------------------------
推薦內容
porn视频在线观看