4 回答

TA貢獻(xiàn)1812條經(jīng)驗(yàn) 獲得超5個(gè)贊
建議采用緩存處理,按照你說的這種數(shù)據(jù)量,基于redis的緩存完全可以滿足,存取速度可以10W+的,另外,擬采用的hashMap 是ConcurrentHashMap還是其他,頁面展示是增量查詢還是直接所有的再查詢一次,socket數(shù)據(jù)接收你是用的netty還是mina,這都需要經(jīng)過仔細(xì)的斟酌考慮設(shè)計(jì)的。有這么大的并發(fā)的需求,完全可以考慮做分布式集群的,估計(jì)這只是領(lǐng)導(dǎo)想要的目標(biāo)吧

TA貢獻(xiàn)1804條經(jīng)驗(yàn) 獲得超8個(gè)贊
java并發(fā)包的hashmap就夠了,業(yè)務(wù)邏輯設(shè)計(jì)的就有問題
并發(fā)包hashmap與同步 hashmap在多線程10W條數(shù)據(jù)之后,性能不是一個(gè)級(jí)別的
每次獲取最新 就先過濾一遍cache然后再進(jìn)行數(shù)據(jù)庫查詢 然后組合結(jié)果
更新 可以多線程 取單隊(duì)列(并發(fā)包hashmap)然后同步更新

TA貢獻(xiàn)1895條經(jīng)驗(yàn) 獲得超7個(gè)贊
java在處理數(shù)據(jù)量比較大的時(shí)候,加載到內(nèi)存必然會(huì)導(dǎo)致內(nèi)存溢出,而在一些數(shù)據(jù)處理中我們不得不去處理海量數(shù)據(jù),在做數(shù)據(jù)處理中,我們常見的手段是分解,壓縮,并行,臨時(shí)文件等方法。
添加回答
舉報(bào)