根據IBM研究顯示,全球資料量至2020 年將會增加為40 Zetabytes,
約為2005年全球資料量的300倍。面對Big Data的時代來臨,
如何儲存、處理、分析巨量資料已然成為各大企業迫切需要解決之問題。
「Hadoop」是目前各大企業公認處理Big Data的最佳解決方案,
只要低廉的成本就可做到分散式叢集的架構,不僅具有容錯的能力,
還能無限制的擴充儲存空間,
解決現今Big Data儲存的問題,
而並用叢集的運算資源,也滿足了Big Data高速運算的需求。
Big Data概述 -15分鐘
Hadoop安裝與設定 -30分鐘
建置HDFS架構 - 30分鐘
MapReduce實作 - 30分鐘
Q&A - 15分鐘



