{eval=Array;=+count(Array);}

国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

問答專欄Q & A COLUMN

三臺32g 1T固態,就20萬數據用HBase跟SPark比Sql慢太多?為啥?

李世贊李世贊 回答0 收藏1
收藏問題

2條回答

cyrils

cyrils

回答于2022-06-28 14:16

MySQL是單機性能很好,基本都是內存操作,而且沒有任何中間步驟。所以數據量在幾千萬級別一般都是直接MySQL了。

hadoop是大型分布式系統,最經典的就是MapReduce的思想,特別適合處理TB以上的數據。每次處理其實內部都是分了很多步驟的,可以調度大量機器,還會對中間結果再進行匯總計算等。所以數據量小的時候就特別繁瑣。但是數據量一旦起來了,優勢也就來了。

評論0 贊同0
  •  加載中...
Apollo

Apollo

回答于2022-06-28 14:16

hadoop體系的性能平衡點大約在100億條數據才會出現,再往上就會明顯優于傳統sql引擎

評論0 贊同0
  •  加載中...

相關問題

最新活動

您已邀請0人回答 查看邀請

我的邀請列表

  • 擅長該話題
  • 回答過該話題
  • 我關注的人
向幫助了您的網友說句感謝的話吧!
付費偷看金額在0.1-10元之間
<