hadoop是做什么的 hadoop是怎么存儲大數據的?
hadoop是怎么存儲大數據的?Hadoop本身就是一個分布式框架。在Hadoop框架下,我們需要配合HBase、hive等工具進行大數據計算。如果你想了解更多關于HDFS,map/reduce,任務
hadoop是怎么存儲大數據的?
Hadoop本身就是一個分布式框架。在Hadoop框架下,我們需要配合HBase、hive等工具進行大數據計算。如果你想了解更多關于HDFS,map/reduce,任務機制等等。如果你想分析,你需要考慮其他的分析工具。大數據只有通過分析才有價值。用于分析大數據的工具主要包括開源和商業生態圈。開源大數據生態系統:1。Hadoop HDFS、Hadoop MapReduce、HBase、hive逐漸誕生,早期的Hadoop生態系統逐漸形成。
2. Hypertable是另一種選擇。它存在于Hadoop生態系統之外,但也有一些用戶。
3. NoSQL、Membase、mongodb業務大數據生態系統:1。一體式數據庫/數據倉庫:IBMpureData(netezza)、Oracle exadata、SAP Hana等2。數據倉庫:Teradata、asterdata、EMC Greenplum、hpvertica等3。數據集市:中國的qlikview、tableau和永紅數據集市。