概览
输入
文本采集。
SLS官方
从容器标准输出/标准错误流中采集日志。
SLS官方
用于调试的读取文件内容的插件。
SLS官方
MetricInput示例插件。
SLS官方
主机Meta数据。
SLS官方
主机监控数据。
SLS官方
生成metric模拟数据的插件。
SLS官方
将MySQL Binlog输入到iLogtail。
SLS官方
ServiceInput示例插件。
SLS官方
从原始的二进制文件中采集Linux系统的Journal(systemd)日志。
SLS官方
将Kafka数据输入到iLogtail。
SLS官方
生成service模拟数据的插件。
SLS官方
将Sql Server数据输入到iLogtail。
SLS官方
将PostgresSQL数据输入到iLogtail。
SLS官方
采集syslog数据。
SLS官方
支持收集英伟达GPU指标。
SLS官方
支持从网络系统调用中收集四层网络调用,并借助网络解析模块,可以观测七层网络调用细节。
SLS官方
通过http协议,接收OTLP数据。
处理
SLS官方
添加字段。
SLS官方
不对数据任何操作,只是简单的数据透传。
对敏感数据进行脱敏处理。
SLS官方
丢弃字段。
SLS官方
加密字段
根据日志部分字段的取值,动态进行字段扩展或删除。
SLS官方
通过正则匹配过滤日志。
通过 Grok 语法对数据进行处理
SLS官方
实现对Json格式日志的解析。
SLS官方
通过正则匹配的模式实现文本日志的字段提取。
通过全文匹配、正则匹配、去转义字符等方式对文本日志进行内容替换。
SLS官方
重命名字段。
SLS官方
通过单字符的分隔符提取字段。
SLS官方
通过切分键值对的方式提取字段。
SLS官方
实现多行日志(例如Java程序日志)的采集。
SLS官方
通过多字符的分隔符提取字段。
聚合
按照指定的Key对采集到的数据进行分组聚合
按照指定的Metadata Keys对采集到的数据进行重新分组聚合
输出
社区
将采集到的数据输出到Kafka。推荐使用下面的flusher_kafka_v2
将采集到的数据输出到Kafka。
SLS官方
将采集到的数据输出到SLS。
SLS官方
将采集到的数据输出到标准输出或文件。
将采集到的数据支持Opentelemetry log protocol
的后端。
将采集到的数据以http方式输出到指定的后端。
将采集到的数据输出到Pulsar。
将采集到的数据输出到ClickHouse。
将采集到的数据输出到ElasticSearch。
将采集到的数据输出到Loki。
加速
SLS官方
以加速模式实现分隔符日志的字段提取。
SLS官方
以加速模式实现Json
格式日志的字段提取。
SLS官方
通过正则匹配以加速模式实现文本日志的字段提取。
扩展
ClientAuthenticator
为 http_flusher 插件提供 basic 认证能力
FlushInterceptor
为 http_flusher 插件提供根据GroupInfo筛选最终提交数据的能力
RequestInterceptor
为 http_flusher 插件提供请求熔断能力
Decoder
将内置支持的Format以Decoder扩展的形式封装
Last updated