-
DataSchema簡介
查看全部 -
Druid數(shù)據(jù)攝取配置
查看全部 -
Druid Segment聚合
查看全部 -
Druid數(shù)據(jù)劃分
查看全部 -
Druid整體架構(gòu)圖
查看全部 -
Apache Druid基本特點
查看全部 -
Apache Druid使用場景
查看全部 -
Apache Druid簡介
查看全部 -
OLAP(聯(lián)機事物分析處理
)系統(tǒng)與OLTP(聯(lián)機事物處理)系統(tǒng)的概念,Druid類似于OLAP系統(tǒng)
查看全部 -
Apache Druid是一個高性能的實時分析型數(shù)據(jù)庫
查看全部 -
解壓gz數(shù)據(jù)
查看全部 -
kafka配置druid
查看全部 -
消息發(fā)布和消息消費
查看全部 -
server.properties配置文件說明:
broker.id=0? #kafka實例節(jié)點唯一標識
num.network.threads=3 #broker處理消息的最大線程數(shù),一般是cpu的核數(shù)
num.io.threads=8 #broker處理磁盤io的線程數(shù)
socket.send.buffer.bytes=102400 #socket的一個發(fā)送緩沖區(qū)大小
socket.receive.buffer.bytes=102400 #socket的一個接入緩沖區(qū)大小
socket.request.max.bytes=104857600 #socket請求的最大數(shù)值
log.dirs=/tem/kafka-logs #log文件地址
num.partitions=1 #指定一個新創(chuàng)建的topic會包含的那些分區(qū)的一個默認值
num.recovery.threads.per.data.dir=1 #配置kafka用于自身恢復(fù)的一些機制,默認情況下,每個文件夾下就是1個線程
#log.flush.interval.messages=1000 #當消息有1000條時就刷新到磁盤上
#log.flush.interval.ms=1000 #每1000秒時就把消息刷新到磁盤
log.retention.hours=168 #過期時間,日志數(shù)據(jù)保存的一個最大時間,默認是7天
#log.retention.bytes=1073741824 #日志保存的最大字節(jié)數(shù)
log.retention.check.interval.ms=300000 #日志片段檢查周期
查看全部 -
kafka存放在磁盤上,可以配置多個目錄
查看全部 -
socket發(fā)送緩沖區(qū)、socket接入緩沖區(qū);socket請求最大數(shù)值,防止OOM溢出
查看全部
舉報