概览
输入
文本采集。
采集脚本执行数据。
SLS官方
从容器标准输出/标准错误流中采集日志。
SLS官方
用于调试的读取文件内容的插件。
SLS官方
MetricInput示例插件。
SLS官方
主机Meta数据。
SLS官方
生成metric模拟数据的插件。
SLS官方
支持从网络系统调用中收集四层网络调用,并借助网络解析模块,可以观测七层网络调用细节。
SLS官方
主机监控数据。
SLS官方
将MySQL Binlog输入到iLogtail。
SLS官方
采集Golang pprof 性能数据。
SLS官方
支持收集英伟达GPU指标。
SLS官方
接收来自unix socket、http/https、tcp的请求,并支持sls协议、otlp等多种协议。
SLS官方
ServiceInput示例插件。
SLS官方
从原始的二进制文件中采集Linux系统的Journal(systemd)日志。
SLS官方
将Kafka数据输入到iLogtail。
SLS官方
生成service模拟数据的插件。
SLS官方
将Sql Server数据输入到iLogtail。
通过http/grpc协议,接收OTLP数据。
SLS官方
将PostgresSQL数据输入到iLogtail。
SLS官方
采集syslog数据。
处理
SLS官方
添加字段。
SLS官方
为日志增加云平台元数据信息。
SLS官方
不对数据任何操作,只是简单的数据透传。
对敏感数据进行脱敏处理。
SLS官方
丢弃字段。
SLS官方
加密字段
根据日志部分字段的取值,动态进行字段扩展或删除。
SLS官方
通过正则匹配过滤日志。
SLS官方
以 Go 语言时间格式解析原始日志中的时间字段。
通过 Grok 语法对数据进行处理
SLS官方
实现对Json格式日志的解析。
SLS官方
将日志转sls metric
SLS官方
通过正则匹配的模式实现文本日志的字段提取。
SLS官方
重命名字段。
SLS官方
通过单字符的分隔符提取字段。
SLS官方
通过多字符的分隔符提取字段。
SLS官方
通过切分键值对的方式提取字段。
SLS官方
实现多行日志(例如Java程序日志)的采集。
通过全文匹配、正则匹配、去转义字符等方式对文本日志进行内容替换。
聚合
按照指定的Key对采集到的数据进行分组聚合
按照指定的Metadata Keys对采集到的数据进行重新分组聚合
输出
社区
将采集到的数据输出到Kafka。推荐使用下面的flusher_kafka_v2
将采集到的数据输出到Kafka。
SLS官方
将采集到的数据输出到SLS。
SLS官方
将采集到的数据输出到标准输出或文件。
将采集到的数据支持Opentelemetry log protocol
的后端。
将采集到的数据以http方式输出到指定的后端。
将采集到的数据输出到Pulsar。
将采集到的数据输出到ClickHouse。
将采集到的数据输出到ElasticSearch。
将采集到的数据输出到Loki。
加速
SLS官方
以加速模式实现分隔符日志的字段提取。
SLS官方
以加速模式实现Json
格式日志的字段提取。
SLS官方
通过正则匹配以加速模式实现文本日志的字段提取。
扩展
ClientAuthenticator
为 http_flusher 插件提供 basic 认证能力
FlushInterceptor
为 http_flusher 插件提供根据GroupInfo筛选最终提交数据的能力
RequestInterceptor
为 http_flusher 插件提供请求熔断能力
Decoder
将内置支持的Format以Decoder扩展的形式封装
Last updated