splitter_example.conf 14.3 KB
Newer Older
Z
zhulang 已提交
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
#占用cup核心数
[global]
max_process = 1

#堆栈监控
[profiling]
enable = true
host = 0.0.0.0
port = 6062

#内部数据监控
[metric]
enable = false
host = 0.0.0.0
port = 6063
path = /metrics

18
# =============================== btc ==================================
Z
zhulang 已提交
19 20 21 22 23 24 25 26 27 28 29 30
[btc]
#是否开启 btc 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 30
#btc全节点的地址 
31 32 33 34 35
endpoint = http://[btc 全节点的ip/域名]:[btc 全节点运行端口]
#运行 btc 全节点设置的用户名
user = [rpc 访问账号]
#运行 btc 全节点设置的密码
password = [rpc 访问密码]
Z
zhulang 已提交
36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52
#btc数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/btc.json
#btc数据校验是否开启
json_schema_validation_enable = false

#btc定时任务配置
[cron.btc]
update_meta_expr = @every 1m

#btc kafka 配置
[kafka.btc]
enable = true
topic = btc
# kafka 客户端标示
client_id = btc-client-1
# kafka 消费组标示
group_id = btc-group
R
root 已提交
53 54
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口] 
Z
zhulang 已提交
55 56 57 58 59 60
buffer_size = 1000
return_errors = true

#btc数据库配置
[database.btc]
#数据库类型,sql server为mssql,postgre为postgres
R
root 已提交
61
type = postgres 
Z
zhulang 已提交
62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77
#数据库的访问地址
host = [数据库服务的ip/域名] 
#数据库的端口信息
port = [数据库服务的端口] 
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库] 
#数据库的访问账号
user = [数据库服务的账号] 
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/btc-sql.log
debug = false

78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112
# =============================== bch ==================================
[bch]
#是否开启 bch 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 30
#bch 全节点的地址
endpoint = http://[bch 全节点的ip/域名]:[bch 全节点运行端口]
#运行 bch 全节点设置的用户名
user = [rpc 访问账号]
#运行 bch 全节点设置的密码
password = [rpc 访问密码]
#bch 数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/bch.json
#bch 数据校验是否开启
json_schema_validation_enable = false

#bch 定时任务配置
[cron.bch]
update_meta_expr = @every 1m

#bch kafka 配置
[kafka.bch]
enable = true
topic = bch
# kafka 客户端标示
client_id = bch-client-1
# kafka 消费组标示
group_id = bch-group
R
root 已提交
113 114
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口]
115 116 117 118 119 120
buffer_size = 1000
return_errors = true

#bch 数据库配置
[database.bch]
#数据库类型,sql server为mssql,postgre为postgres
R
root 已提交
121
type = postgres 
122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137
#数据库的访问地址
host = [数据库服务的ip/域名]
#数据库的端口信息
port = [数据库服务的端口]
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库]
#数据库的访问账号
user = [数据库服务的账号]
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/bch-sql.log
debug = false

R
root 已提交
138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180
# =============================== bsv ==================================
[bsv]
#是否开启 bsv 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 30
#bsv 全节点的地址
endpoint = http://[bsv 全节点的ip/域名]:[bsv 全节点运行端口]
#运行 bsv 全节点设置的用户名
user = [rpc 访问账号]
#运行 bsv 全节点设置的密码
password = [rpc 访问密码]
#bsv 数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/bsv.json
#bsv 数据校验是否开启
json_schema_validation_enable = false

#bsv 定时任务配置
[cron.bsv]
update_meta_expr = @every 1m

#bsv kafka 配置
[kafka.bsv]
enable = true
topic = bch
# kafka 客户端标示
client_id = bsv-client-1
# kafka 消费组标示
group_id = bsvn-group
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口]
buffer_size = 1000
return_errors = true

#bsv 数据库配置
[database.bsv]
#数据库类型,sql server为mssql,postgre为postgres
W
wangxuewei15 已提交
181
type = postgres
R
root 已提交
182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197
#数据库的访问地址
host = [数据库服务的ip/域名]
#数据库的端口信息
port = [数据库服务的端口]
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库]
#数据库的访问账号
user = [数据库服务的账号]
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/bsv-sql.log
debug = false

W
wangxuewei15 已提交
198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257
# =============================== ltc ==================================
[ltc]
#是否开启 ltc 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 30
#ltc 全节点的地址
endpoint = http://[ltc 全节点的ip/域名]:[ltc 全节点运行端口]
#运行 ltc 全节点设置的用户名
user = [rpc 访问账号]
#运行 ltc 全节点设置的密码
password = [rpc 访问密码]
#ltc 数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/ltc.json
#ltc 数据校验是否开启
json_schema_validation_enable = false

#ltc 定时任务配置
[cron.ltc]
update_meta_expr = @every 1m

#ltc kafka 配置
[kafka.ltc]
enable = true
topic = ltc
# kafka 客户端标示
client_id = ltc-client-1
# kafka 消费组标示
group_id = ltcn-group
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口]
buffer_size = 1000
return_errors = true

#ltc 数据库配置
[database.ltc]
#数据库类型,sql server为mssql,postgre为postgres
type = postgres
#数据库的访问地址
host = [数据库服务的ip/域名]
#数据库的端口信息
port = [数据库服务的端口]
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库]
#数据库的访问账号
user = [数据库服务的账号]
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/ltc-sql.log
debug = false

258 259 260 261 262 263 264 265 266 267 268 269
# =============================== eth ==================================
[eth]
#是否开启 eth 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 30
270
#eth 全节点的地址
271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317
endpoint = http://[eth 全节点的ip/域名]:[eth 全节点运行端口]
#运行 eth 全节点设置的用户名
user = [rpc 访问账号]
#运行 eth 全节点设置的密码
password = [rpc 访问密码]
#eth 数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/eth.json
#eth 数据校验是否开启
json_schema_validation_enable = false

#eth 定时任务配置
[cron.eth]
update_meta_expr = @every 1m

#eth kafka 配置
[kafka.eth]
enable = true
topic = eth
# kafka 客户端标示
client_id = eth-client-1
# kafka 消费组标示
group_id = eth-group
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口]
buffer_size = 1000
return_errors = true

#eth 数据库配置
[database.eth]
#数据库类型,sql server为mssql,postgre为postgres
type = postgres
#数据库的访问地址
host = [数据库服务的ip/域名]
#数据库的端口信息
port = [数据库服务的端口]
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库]
#数据库的访问账号
user = [数据库服务的账号]
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/eth-sql.log
debug = false

318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381
# =============================== tron ==================================
[tron]
#是否开启 tron 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#并发落库的区块高度
concurrent_height = 12000000
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 1000
skip_miss_block = false
skip_height = 0
#tron 全节点的地址
endpoint = http://[tron 全节点的ip/域名]:[tron 全节点运行端口]
#运行 tron 全节点设置的用户名
user = [rpc 访问账号]
#运行 tron 全节点设置的密码
password = [rpc 访问密码]
#tron 数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/tron.json
#tron 数据校验是否开启
json_schema_validation_enable = false

#tron 定时任务配置
[cron.tron]
update_meta_expr = @every 1m

#tron kafka 配置
[kafka.tron]
enable = true
topic = trx
# kafka 客户端标示
client_id = tron-client-1
# kafka 消费组标示
group_id = tron-group
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口]
buffer_size = 1000
return_errors = true

#tron 数据库配置
[database.tron]
#数据库类型,sql server为mssql,postgre为postgres
type = postgres
#数据库的访问地址
host = [数据库服务的ip/域名]
#数据库的端口信息
port = [数据库服务的端口]
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库]
#数据库的访问账号
user = [数据库服务的账号]
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/tron-sql.log
debug = false

W
wangxuewei10 已提交
382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441
# =============================== doge ==================================
[doge]
#是否开启 doge 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 30
#doge全节点的地址
endpoint = http://[doge 全节点的ip/域名]:[doge 全节点运行端口]
#运行 doge 全节点设置的用户名
user = [rpc 访问账号]
#运行 doge 全节点设置的密码
password = [rpc 访问密码]
#doge数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/doge.json
#doge数据校验是否开启
json_schema_validation_enable = false

#doge定时任务配置
[cron.doge]
update_meta_expr = @every 1m

#doge kafka 配置
[kafka.doge]
enable = true
topic = doge
# kafka 客户端标示
client_id = doge-client-1
# kafka 消费组标示
group_id = doge-group
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口]
buffer_size = 1000
return_errors = true

#doge数据库配置
[database.doge]
#数据库类型,sql server为mssql,postgre为postgres
type = postgres
#数据库的访问地址
host = [数据库服务的ip/域名]
#数据库的端口信息
port = [数据库服务的端口]
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库]
#数据库的访问账号
user = [数据库服务的账号]
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/doge-sql.log
debug = false

W
wangxuewei10 已提交
442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498
# =============================== etc ==================================
[etc]
#是否开启 etc 数据splitter
enable = true
#是否开启数据库
database_enable = true
#数据库worker缓存大小
database_worker_buffer = 8192
#数据库worker数量
database_worker_number = 1
#一次请求区块链数据的最大块数,400000块之前可以设置大一些,比如300
max_batch_block = 100
#etc 全节点的地址
endpoint = http://[etc 全节点的ip/域名]:[etc 全节点运行端口]
#etc 数据校验规则文件地址
json_schema_file = /etc/bds-splitter/schema/etc.json
#etc 数据校验是否开启
json_schema_validation_enable = false

#etc 定时任务配置
[cron.etc]
update_meta_expr = @every 1m

#etc kafka 配置
[kafka.etc]
enable = true
topic = etc
# kafka 客户端标示
client_id = etc-client-1
# kafka 消费组标示
group_id = etc-group
# kafka 服务的地址
broker_list = [kafka 服务的ip/域名]:[kafka 服务的运行端口]
buffer_size = 1000
return_errors = true

#etc 数据库配置
[database.etc]
#数据库类型,sql server为mssql,postgre为postgres
type = postgres
#数据库的访问地址
host = [数据库服务的ip/域名]
#数据库的端口信息
port = [数据库服务的端口]
#数据库的库名,需要初始化好,创建表和导入数据用
database = [数据库服务的库]
#数据库的访问账号
user = [数据库服务的账号]
#数据库的访问账号密码信息
password = [数据库服务的密码]
timezone = Asia/Shanghai
max_open_conns = 500
max_idle_conns = 100
sql_log_file = /var/log/bds-splitter/etc-sql.log
debug = false


499
# =============================== log ==================================
Z
zhulang 已提交
500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518
#普通日志配置
[logging_normal]
writers = console,file
log_file = /var/log/bds-splitter/normal.log
log_level = debug
caller_level_skip = 5
format = short
max_size = 100m
daily = true

#错误日志配置
[logging_detail]
writers = console,file
log_file = /var/log/bds-splitter/detail.log
log_level = debug
caller_level_skip = 5
format = long
max_size = 100m
daily = true