娃哈哈好喝-真的!
技术够用就行,吃好喝好睡好!

vector日志收集常用配置

为什么要用vector,如果日志量小elk或者loki就够了,但是如果每天的日志量达到TB级别,在节省开支的情况下可以考虑这个架构了

首先介绍官网:https://vector.dev

和其他工具对比

可靠性对比

功能性对比

环境描述:

本次演示以收集nginx日志为例,通过filebeat采集到kafka集群,然后通过vector消费kafka消息再保存到es,通过kibana展示es数据,其中es和kafka搭建环节省略了,主要看filebeat和vector的配置

软件版本:

filebeat:7.5

vector:0.41.1

kafka:2.13-3.6.1

es:7.5

1、安装部署

官网下载地址:

https://vector.dev/download/

解压后vector保存路径

[root@demo-226 vector]# pwd
/data/vector
[root@demo-226 vector]# ls
bin  config  data  etc  licenses  logs
[root@demo-226 vector]# 

配置系统服务

[Unit]
Description="Vector - An observability pipelines tool"
Documentation=https://vector.dev/
Wants=network-online.target
After=network-online.target

[Service]
LimitNOFILE=1000000
#LimitCORE=infinity
LimitSTACK=10485760
User=root
# 这里-t是开启的线程数量,根据服务器实际配置设置
# --config-dir是指定配置文件的目录,前提是目录中所有配置文件都要正确
# 也可以指定单个配置文件 -c /data/vector/config/vector.yaml
ExecStart=/data/vector/bin/vector -t 4 --config-dir=/data/vector/config/
Restart=always
AmbientCapabilities=CAP_NET_BIND_SERVICE

[Install]
WantedBy=multi-user.target

手动前台启动方式

[root@demo-226 vector]# /data/vector/bin/vector -c /data/vector/config/vector.yaml
2、配置
2.1、vector配置

vector的配置文件大致分3类,分别是输入源配置(sources),数据处理配置(transforms),目标输出配置(sinks)

以下面这段配置为例,这是一段yaml文件配置,所以格式很重要

# 数据在本地缓存目录
data_dir: "/data/vector/data"

# 数据源,vector支持的数据源有多种,具体可以参考官网
sources:
  # 本数据源的名称,后面会用到,可以配置多个数据源,名称可以自定义
  kafka_source:
    # 数据源的类型,这个需要在官网查询支持的类型名称,不能写错,以kafka为例
    type: kafka
    # kafka集群的地址,多个地址之间用逗号隔开
    bootstrap_servers: 172.20.20.227:9092,172.20.20.228:9092,172.20.20.229:9092
    # kafka的消费组名称
    group_id: kafka_group
    # 消费偏移
    auto_offset_reset: "latest"
    # 消费的topic
    topics:
      - nginx
      - demo

# 数据处理阶段,可以过滤,增加删除字段等操作,这个环节可以不要
transforms:
  # 名称自定义
  my_transform:
    # 使用的处理模块,支持的模块需要参考官网
    type: remap
    # 数据输入源名称,比如上面配置的kafka源名称
    inputs:
      - kafka_source
    # 数据处理,这是使用的vrl语法
    source: |
      # 使用json解析,将message字段重新赋值给根节点,message的值就是kafka中读取的原始值
      . = parse_json!(.message)
      # del是删除字段
      del(.@metadata)
      del(._score)
      del(._type)
      del(.agent.type)
      del(.agent.version)
      del(.ecs)
      # 新增字段
      .@timestamp = now()
      # 重命名字段
      .age = del(.value)
      
# 数据输出,当前配置是输出到终端,一般用来调试配置
sinks:
  # 名称自定义
  my_sink_id:
    # 当前类型是终端,具体支持的类型可以参考官网
    type: console
    # 使用输入的数据源名称,可以使用多个数据源,也可以使用数据处理阶段的名称
    inputs:
      - my_transform
    encoding:
      codec: "json"

下面是输出到es的配置

sinks:
  my_sink_id:
    type: elasticsearch
    inputs:
      - my_transform
    api_version: auto
    # 压缩方式
    compression: gzip
    doc_type: _doc
    endpoints:
      - http://172.20.20.226:9200
    # 用户认证
    auth:
      strategy: basic
      user: "elastic"
      password: "Aa123456"
    id_key: id
    mode: bulk
    # 索引名称,可以使用字段值作为索引名称
    bulk:
      index: "{{ .service }}-%Y-%m-%d"
    # 这个值可以通过这种方式查询 curl -X GET "http://127.0.0.1:9200/_ingest/pipeline"
    pipeline: "xpack_monitoring_7"
2.2、filebeat配置
filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /data/openresty/nginx/logs/access.log
  # 标签名称
  tags: ["access"]
  # 添加自定义字段
  fields:
    service: "nginx-226"
  # 是否把自定义字段添加到根路径
  fields_under_root: true


output.kafka:
  hosts: ["172.20.20.227:9092","172.20.20.228:9092","172.20.20.229:9092"]
  topic: "nginx"
  partition.round_robin:
    randomize: true
    leader_only: false
  required_acks: 1
  # 压缩方式
  compression: gzip
  # 压缩级别,1-9可选,数越大压缩率越高,越消耗性能,
  compression_level: 9
  codec.format: "json"
  codec.json.add_cr: false
  max_message_bytes: 1000000

关于vector支持的其他源和目标以后再更新

赞(0)
未经允许不得转载:娃哈哈好喝 » vector日志收集常用配置
分享到: 更多 (0)