{eval=Array;=+count(Array);}

成人无码视频,亚洲精品久久久久av无码,午夜精品久久久久久毛片,亚洲 中文字幕 日韩 无码

問答專欄Q & A COLUMN

三臺32g 1T固態(tài),就20萬數(shù)據(jù)用HBase跟SPark比Sql慢太多?為啥?

李世贊李世贊 回答0 收藏1
收藏問題

2條回答

cyrils

cyrils

回答于2022-06-28 14:16

MySQL是單機性能很好,基本都是內(nèi)存操作,而且沒有任何中間步驟。所以數(shù)據(jù)量在幾千萬級別一般都是直接MySQL了。

hadoop是大型分布式系統(tǒng),最經(jīng)典的就是MapReduce的思想,特別適合處理TB以上的數(shù)據(jù)。每次處理其實內(nèi)部都是分了很多步驟的,可以調(diào)度大量機器,還會對中間結(jié)果再進行匯總計算等。所以數(shù)據(jù)量小的時候就特別繁瑣。但是數(shù)據(jù)量一旦起來了,優(yōu)勢也就來了。

評論0 贊同0
  •  加載中...
Apollo

Apollo

回答于2022-06-28 14:16

hadoop體系的性能平衡點大約在100億條數(shù)據(jù)才會出現(xiàn),再往上就會明顯優(yōu)于傳統(tǒng)sql引擎

評論0 贊同0
  •  加載中...

您已邀請0人回答 查看邀請

我的邀請列表

  • 擅長該話題
  • 回答過該話題
  • 我關(guān)注的人
向幫助了您的網(wǎng)友說句感謝的話吧!
付費偷看金額在0.1-10元之間
<