赛尔校园公共服务平台 Logo
平台使用
阿里云
百度云
移动云
智算服务
教育生态
登录 →
赛尔校园公共服务平台 Logo
平台使用 阿里云 百度云 移动云 智算服务 教育生态
登录
  1. 首页
  2. 阿里云
  3. 日志服务
  4. 操作指南
  5. 数据采集
  6. Logtail采集
  7. Logtail安装采集快速入门
  8. 主机文本日志采集(自动安装)

主机文本日志采集(自动安装)

  • Logtail安装采集快速入门
  • 发布于 2025-04-22
  • 0 次阅读
文档编辑
文档编辑

本文将介绍在主机场景下,当ECS与日志服务的Project属于同一个账号且在同一地域时,日志服务借助运维编排服务OOS,在ECS实例中自动安装Logtail采集文本日志的操作流程。

使用限制

  • 当ECS和日志服务Project同账号不同地域、Project和ECS服务器属于不同账号、其他云或者自建服务器,请参见主机文本日志采集(手动安装)。

  • 本文适用一个文件匹配一个Logtail采集配置的情况。如果您希望一份日志被多次采集,根据本文档操作完成后,然后参考如何实现文件中的日志被采集多份。

  • Logtail采集默认采集增量日志。如果您希望处理存量日志,请参考导入历史日志文件。

前提条件

  • 已开通日志服务。具体操作,请参见开通日志服务。

  • 已创建Project和Logstore。更多信息,请参见创建项目Project和创建Logstore。

  • 已创建与日志服务Project同账号同地域的可用的ECS。更多信息,请参见云服务器ECS快速入门。若您的主机不满足此条件,请参考主机文本日志采集(手动安装)进行采集配置。

  • ECS出方向需开放80和443端口(ECS安全组出方向默认允许所有访问,所以无需配置这两个端口),供Logtail上传数据。

  • 若您使用的不是阿里云主账号,而是使用RAM用户,需要为RAM用户开通权限。

步骤一:安装Logtail与创建机器组

  1. 使用创建Project的账号登录日志服务控制台。在Project列表区域,单击创建的Project。image

  2. 单击您的Project后会进入下图所示页面,按图示在日志存储中选择对应Logstore后在Logtail配置中添加Logtail配置,单击立即接入,本例使用正则-文本日志,表示将以正则匹配的方式解析文本日志。您也可以按需要选择其他的文本日志接入方式,效果展示参考样例展示。image

  3. 单击主机场景 > ECS > 创建机器组,在创建机器组面板中,选择与Project同地域的ECS实例,单击安装并创建为机器组。image

  4. 等待安装完成,填写名称后即可点击确定。image

  5. 点击下一步,如果心跳为FAIL,点击自动重试后等待两分钟左右直到心跳变为OK,点击下一步。此处自动安装Logtail同时也为您配置了IP类型机器组,如果您希望修改为用户自定义标识机器组,您可以参考管理机器组。image

步骤二:采集配置

  1. 在全局配置中输入配置名称。

    image

  2. 在输入配置中配置文件路径,代表日志采集的路径,日志路径必须以正斜线(/)开头,例如下图/data/wwwlogs/main/**/*.Log表示/data/wwwlogs/main目录下后缀名为.Log的文件。如果需要设置日志目录被监控的最大深度,即文件路径中通配符**匹配的最大目录深度。可以修改最大目录监控深度的取值,0代表只监控本层目录。

    image

  3. 在处理配置中,设置日志样例,多行模式以及处理模式。image

    1. 建议您在日志样例中添加日志样例:日志样例可协助您配置日志处理相关参数,降低配置难度。若配置请务必使用实际场景中待采集日志的样例。

    2. 按需选择是否开启多行模式:多行日志是指每条日志占用了连续的多行,不开启则是单行模式,即每一行为一条日志。若开启多行模式请配置:

      • 类型:

        • 自定义:原始日志的格式不固定,则配置行首正则表达式,来标定每一条日志的起始行。例如我们使用行首正则表达式\[\d+-\d+-\w+:\d+:\d+,\d+]\s\[\w+]\s.*,即可将示例中五行原始数据切分为两条日志。需要注意,行首正则表达式需要能够匹配完整的一行数据。

          [2023-10-01T10:30:01,000] [INFO] java.lang.Exception: exception happened
              at TestPrintStackTrace.f(TestPrintStackTrace.java:3)
              at TestPrintStackTrace.g(TestPrintStackTrace.java:7)
              at TestPrintStackTrace.main(TestPrintStackTrace.java:16)
          [2023-10-01T10:31:01,000] [INFO] java.lang.Exception: exception happened
        • 多行JSON:当原始日志均为标准JSON格式时,可以选择多行JSON,Logtail会自动处理单条JSON日志内部的换行。

      • 切分失败处理方式:

        • 丢弃:直接丢弃这段日志。

        • 保留单行:将每行日志文本单独保留为一条日志。

    3. 处理插件:处理插件配置的是对一条日志切割处理的方式。示例为正则-文本日志,因此处理插件中自动生成了一个正则解析插件,您也可以根据需要使用其他插件。

      以下为您介绍常用的插件配置方式:有关时间解析,过滤处理,脱敏处理等更多插件能力请参考处理插件概述。日志服务也提供了SPL处理方式,在实现类似于传统处理插件功能的前提下处理效率更高,详细了解请参考使用Logtail SPL解析日志。

      正则解析

      关于该插件的更多详情,请参见正则解析。

      1. 单击正则解析可进入处理插件详细配置页面。image

      2. 需要在此页面配置正则表达式,以及根据提取的value设置key值。您可以单击正则表达式下方的自动生成正则表达式,之后如图所示选中日志样例中的内容后,单击产生的生成正则,会自动生成选择内容的正则表达式。

        image

      3. 生成对应的正则表达式后,您还需要对在日志提取字段中对应生成的value设置key值,这些键值将有助于您后续设置日志索引。完成后点击确认并点击下一步。

        image

      JSON解析

      重要

      本模式适用于采集JSON日志。

      JSON日志有两种结构,Object类型(键值对的集合)和Array类型(值的有序列表)。Logtail JSON解析插件支持解析Object类型的JSON日志,提取为键值对,即提取Object首层的键作为Key,Object首层的值作为Value。但插件不支持解析Array类型的JSON日志。如需更细粒度请配合展开JSON字段进行处理。

      关于该插件的更多详情,请参见JSON解析。

      根据需要选择是否开启处理配置中的多行模式,如果开启,请使用以下选项:

      • 类型,选择多行JSON。

      • 切分失败处理方式,选择保留单行。

      image

      删除处理模式中的正则解析插件,然后添加一个JSON解析插件。

      image

      根据如下表格的配置说明进行插件配置,完成后单击确认,单击下一步。

      参数名称

      说明

      原始字段

      解析日志前,用于存放日志内容的原始字段,默认值为content。

      解析失败时保留原始字段

      选中解析失败时保留原始字段,则解析失败时,将保留原始字段。

      解析成功时保留原始字段

      选中解析成功时保留原始字段,则解析成功时,将保留原始字段。

      重命名的原始字段

      选中解析失败时保留原始字段或解析成功时保留原始字段后,可重命名原始字段名,用于存放原始的日志内容。

      分隔符解析

      说明

      Logtail分隔符模式解析插件支持通过分隔符将日志内容结构化,解析为多个键值对形式。

      关于该插件的更多详情,请参见分隔符模式解析。

      删除处理模式中的正则解析插件,然后添加一个分隔符解析插件。image

      根据如下表格的配置说明进行插件配置,完成后点击确认,点击下一步。

      参数

      描述

      原始字段

      解析日志前,用于存放日志内容的原始字段,默认值为content。

      分隔符

      请根据您的日志内容选择正确的分隔符,例如竖线(|)。

      说明

      指定分隔符为不可见字符时,您需要查找不可见字符在ASCII码中对应的十六进制数,输入的格式为0x<不可见字符在ASCII码中对应的十六进制数>。例如ASCII码中排行为1的不可见字符为0x01。

      引用符

      当日志字段内容中包含分隔符时,需要指定引用符进行包裹,被引用符包裹的内容会被日志服务解析为一个完整字段。请根据您的日志格式选择正确的引用符。

      说明

      指定引用符为不可见字符时,您需要查找不可见字符在ASCII码中对应的十六进制数,输入的格式为0x<不可见字符在ASCII码中对应的十六进制数>。例如ASCII码中排行为1的不可见字符为0x01。

      日志提取字段

      • 当您配置了日志样例时,日志服务会根据您输入的日志样例及选择的分隔符提取日志内容,并将其定义为Value,您需要为各个Value指定对应的Key。

      • 当您未配置日志样例时,无Value列表,您需要根据实际日志及分隔符情况,输入对应的Key。

      Key只能包括字母、数字或下划线(_),且只能以字母或下划线(_)开头。最大长度为128字节。

      允许部分字段

      如果日志中实际提取出的Value数量少于Key数量,是否上传日志到日志服务。选中允许部分字段表示上传。

      例如日志为11|22|33|44,分隔符为竖线(|),Key为A、B、C、D和E。

      • 如果选中允许部分字段,则E字段的Value为空,该日志将被上传到日志服务。

      • 如果未选中允许部分字段,该日志会被丢弃。

        说明

        Linux Logtail 1.0.28及以上版本或Windows Logtail 1.0.28.0及以上版本支持配置分隔符模式的允许部分字段参数。

      处理超出字段方式

      日志中提取的Value数量大于Key数量时的处理方法。

      • 展开:保留多余的Value内容,分别添加到__column$i__格式的字段中,其中$i代表多余字段序号,从0开始计数。例如__column0__、__column1__。

      • 保留:保留多余的Value内容,并整体添加到名为__column0__的字段中。

      • 丢弃:丢弃多余的Value内容。

      解析失败时保留原始字段

      选中解析失败时保留原始字段,则解析失败时,将保留原始字段。

      解析成功时保留原始字段

      选中解析成功时保留原始字段,则解析成功时,将保留原始字段。

      重命名的原始字段

      选中解析失败时保留原始字段或解析成功时保留原始字段后,可重命名原始字段名,用于存放原始的日志内容。

      APACHE模式解析

      说明

      Logtail Apache模式解析插件支持根据Apache日志配置文件中的定义将日志内容结构化并解析为多个键值对形式。

      关于该插件的更多详情,请参见Apache模式解析。

      操作步骤

      删除处理模式中的正则解析插件,然后添加一个APACHE模式解析插件。

      image

      根据如下表格的配置说明进行插件配置,完成后点击确认,点击下一步。

      参数名称

      说明

      日志格式

      根据Apache日志配置文件中定义的日志格式进行选择,包括common、combined和自定义。

      APACHE配置字段

      Apache配置文件中的日志配置部分,通常以LogFormat开头。

      • 当配置日志格式为common或combined时,此处会自动填充对应格式的配置字段,请确认是否和Apache配置文件中定义的格式一致。

      • 当配置日志格式为自定义时,请根据实际情况填写,例如LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\" %D %f %k %p %q %R %T %I %O" customized。

      原始字段

      解析日志前,用于存放日志内容的原始字段,默认值为content。

      正则表达式

      用于提取Apache日志的正则表达式。日志服务会根据APACHE配置字段中的内容自动生成该正则表达式。

      日志提取字段

      根据APACHE配置字段中的内容自动生成日志字段(key)。

      解析失败时保留原始字段

      选中解析失败时保留原始字段,则解析失败时,将保留原始字段。

      解析成功时保留原始字段

      选中解析成功时保留原始字段,则解析成功时,将保留原始字段。

      重命名的原始字段

      选中解析失败时保留原始字段或解析成功时保留原始字段后,可重命名原始字段名,用于存放原始的日志内容。

      NGINX模式解析

      说明

      Logtail Nginx模式插件支持根据log_format中的定义将日志内容结构化,解析为多个键值对形式。

      关于该插件的更多详情,请参见Nginx模式解析。

      删除处理模式中的正则解析插件,然后添加一个NGINX模式解析插件。

      image

      根据如下表格的配置说明进行插件配置,完成后点击确认,点击下一步。

      参数名称

      说明

      NGINX日志配置

      Nginx配置文件中的日志配置部分,以log_format开头。例如:

      log_format main  '$remote_addr - $remote_user [$time_local] "$request" '
                       '$request_time $request_length '
                       '$status $body_bytes_sent "$http_referer" '
                       '"$http_user_agent"';

      更多信息,请参见Nginx日志简介。

      原始字段

      解析日志前,用于存放日志内容的原始字段,默认值为content。

      正则表达式

      用于提取Nginx日志的正则表达式。日志服务会根据NGINX日志配置 中的内容自动生成该正则表达式。

      日志提取字段

      根据NGINX日志配置自动提取对应的日志字段(Key)。

      解析失败时保留原始字段

      选中解析失败时保留原始字段,则解析失败时,将保留原始字段。

      解析成功时保留原始字段

      选中解析成功时保留原始字段,则解析成功时,将保留原始字段。

      重命名的原始字段

      选中解析失败时保留原始字段或解析成功时保留原始字段后,可重命名原始字段名,用于存放原始的日志内容。

      IIS模式解析

      说明

      Logtail IIS模式插件支持根据IIS日志格式定义将日志内容结构化,解析为多个键值对形式。

      关于该插件的更多详情,请参见IIS模式解析。

      删除处理模式中的正则解析插件,然后添加一个IIS模式解析插件。image

      根据如下表格的配置说明进行插件配置,完成后点击确认,点击下一步。

      参数名称

      说明

      日志格式

      选择您的IIS服务器日志采用的日志格式,具体说明如下:

      • IIS:Microsoft IIS日志文件格式。

      • NCSA:NCSA公用日志文件格式。

      • W3C:W3C扩展日志文件格式。

      IIS配置字段

      配置IIS配置字段,具体说明如下:

      • 日志格式为IIS或NCSA时,日志服务已默认设置了IIS配置字段。

      • 日志格式为W3C日志时,设置为IIS配置文件中logExtFileFlags参数中的内容,例如:

        logExtFileFlags="Date, Time, ClientIP, UserName, SiteName, ComputerName, ServerIP, Method, UriStem, UriQuery, HttpStatus, Win32Status, BytesSent, BytesRecv, TimeTaken, ServerPort, UserAgent, Cookie, Referer, ProtocolVersion, Host, HttpSubStatus"
        • IIS5配置文件默认路径:C:\WINNT\system32\inetsrv\MetaBase.bin。

        • IIS6配置文件默认路径:C:\WINDOWS\system32\inetsrv\MetaBase.xml。

        • IIS7配置文件默认路径:C:\Windows\System32\inetsrv\config\applicationHost.config。

      原始字段

      解析日志前,用于存放日志内容的原始字段,默认值为content。

      正则表达式

      用于提取IIS日志的正则表达式。日志服务会根据IIS配置字段中的内容自动生成该正则表达式。

      日志提取字段

      根据IIS配置字段中的内容自动生成日志字段(Key)。

      解析失败时保留原始字段

      选中解析失败时保留原始字段,则解析失败时,将保留原始字段。

      解析成功时保留原始字段

      选中解析成功时保留原始字段,则解析成功时,将保留原始字段。

      重命名的原始字段

      选中解析失败时保留原始字段或解析成功时保留原始字段后,可重命名原始字段名,用于存放原始的日志内容。

      SPL处理

      日志服务还提供了自定义SPL处理方式,与传统的处理插件相比,使用SPL不仅提高了处理速度和效率,还提供了更多智能化和易用性方面的优势,使得日志服务的整体能力得到了显著增强。通过编写SPL语句,您可以充分利用其计算能力来处理数据。

      • SPL语法请参见SPL语法。

      • 使用步骤请参见使用Logtail SPL解析日志。

      • 使用示例请参见使用SPL采集文本日志。

  4. 查询分析配置

    Logtail配置生效需要1分钟左右,若您是第一次为Logstore进行配置,自动刷新后,采集路径下文件有增量日志且出现预览数据,则说明Logtail配置生效。 配置生效后,单击下一步,Logtail采集配置全部完成。

    日志服务默认开启全文索引,此时查询会索引日志中所有字段。您也可以根据采集到的日志,手动创建字段索引,或者单击自动生成索引,日志服务将生成字段索引,通过此索引针对特定字段进行精确查询,从而减少索引费用和提高查询效率。更多信息请参见为什么需要创建索引。image

    如果您选择了正则解析,此时您设置的键值对会自动填入,如下图:

    image

样例展示

  • 正则解析模式:

    原始日志

    127.0.0.1 - - [16/Aug/2024:14:37:52 +0800] "GET /wp-admin/admin-ajax.php?action=rest-nonce HTTP/1.1" 200 41 "http://www.example.com/wp-admin/post-new.php?post_type=page" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36 Edg/127.0.0.0"

    结果展示

    image

    其中使用的正则表达式为:

    (\S+)\s-\s(\S+)\s\[([^]]+)]\s"(\w+)\s(\S+)\s([^"]+)"\s(\d+)\s(\d+)\s"([^"]+)"\s"([^"]+).*
  • JSON解析模式:

    原始日志

    {"@timestamp":"2024-08-16T16:23:22+08:00","server_addr":"127.0.0.1","remote_addr":"127.0.0.1","scheme":"http","request_method":"POST","request_uri": "/wp-admin/admin-ajax.php","request_length": "1161","uri": "/wp-admin/admin-ajax.php", "request_time":1.099,"body_bytes_sent":78,"bytes_sent":675,"status":"200","upstream_time":"1.097","upstream_host":"unix:/dev/shm/php-cgi.sock","upstream_status":"200","host":"www.example.com","http_referer":"http://www.example.com/wp-admin/index.php","http_user_agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36 Edg/127.0.0.0"}

    结果展示image

  • APACHE模式解析

    • 原始日志

      combined 格式日志如下:

      127.0.*.* - frank [10/Oct/2023:13:55:36 +0800] "GET /index.html HTTP/1.1" 200 1024 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
    • 结果展示

      image

  • Nginx模式解析

    • Nginx默认的日志格式(combined格式)包含以下字段:

      字段名称

      说明

      remote_addr

      客户端IP地址。

      remote_user

      客户端用户名。

      time_local

      服务器时间,前后必须加上中括号([])。

      request

      请求的URI和HTTP协议。

      status

      请求状态。

      body_bytes_sent

      发送给客户端的字节数,不包括响应头的大小。

      http_referer

      URL跳转来源。

      http_user_agent

      客户端浏览器等信息。

      http_x_forwarded_for

      通过代理服务器转发的客户端真实IP地址。

      除了默认字段,以下是一些常用的扩展字段:

      字段名称

      说明

      request_time

      整个请求的总时间(单位:秒,精度毫秒)。

      upstream_response_time

      后端服务器响应时间。

      http_cookie

      客户端发送的Cookie数据。

      http_x_real_ip

      客户端的真实IP地址。

      uri

      请求的URI路径(如:/index.html)。

      args

      请求行中的参数(如:?param1=value1&param2=value2)。

      content_length

      请求头中的Content-Length字段。

      content_type

      请求头中的Content-Type字段。

      host

      请求头中的Host字段,或处理请求的服务器名称。

      server_addr

      服务器地址。

      server_name

      服务器名称。

      server_port

      服务器端口。

      server_protocol

      服务器向客户端发送响应时的协议版本(如:HTTP/1.1)。

      scheme

      请求协议(如:http或https)。

      通过log_format自定义日志格式如下:

      log_format main  '$remote_addr - $remote_user [$time_local] "$request" '
                       '$request_time $request_length '
                       '$status $body_bytes_sent "$http_referer" '
                       '"$http_user_agent"';

      Nginx根据log_format的定义生成日志如下:

      192.168.*.* - - [15/Apr/2025:16:40:00 +0800] "GET /nginx-logo.png HTTP/1.1" 0.000 514 200 368 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.*.* Safari/537.36"
    • 结果展示

      image

  • IIS模式解析

    • 原始日志

      #Fields: date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status sc-bytes cs-bytes time-taken
    • 结果展示

      image

  • 分隔符模式解析

    • 原始日志

      05/May/2022:13:30:28,10.10.*.*,"POST /PutData?Category=YunOsAccountOpLog&AccessKeyId=****************&Date=Fri%2C%2028%20Jun%202013%2006%3A53%3A30%20GMT&Topic=raw&Signature=******************************** HTTP/1.1",200,18204,aliyun-sdk-java
    • 结果展示

      image

  • 单行模式解析

    • 原始日志

      Aug 19 11:20:51 hostname-1 crond[2995]: (CRON) INFO (@reboot jobs will be run at computer's startup.)
    • 结果展示

      image

  • 多行文本解析

    • 原始日志

      2024-08-19 13:47:37,070 ERROR Failed to join the cluster, retry...
      
      java.lang.IllegalStateException: Fail to get leader of group naming_service_metadata, Unknown leader
      	at com.alipay.sofa.jraft.core.CliServiceImpl.getPeers(CliServiceImpl.java:605)
      	at com.alipay.sofa.jraft.core.CliServiceImpl.getPeers(CliServiceImpl.java:498)
      	at com.alibaba.nacos.core.distributed.raft.JRaftServer.registerSelfToCluster(JRaftServer.java:353)
      	at com.alibaba.nacos.core.distributed.raft.JRaftServer.lambda$createMultiRaftGroup$0(JRaftServer.java:264)
      	at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
      	at java.util.concurrent.FutureTask.run(FutureTask.java:266)
      	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
      	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
      	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
      	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
      	at java.lang.Thread.run(Thread.java:748)
    • 结果展示

      image

  • SPL解析

    请参考使用SPL采集文本日志。

扩展场景

  • 作为示例,本文对于采集配置中的配置选项没有详细描述,如果您需要了解更多,请参考输入配置与处理配置。如果想了解更多处理插件的选择,请参考处理插件与Logtail采集。对于SPL语法与处理能力了解更多,请参考SPL语法与使用SPL采集文本日志。

  • 本文介绍的是Logtail采集文本日志文件的流程,如果您已经了解采集流程,且希望采集其他类型的数据,请参考采集MySQL查询结果与采集HTTP数据。

  • 如果您的服务器和日志服务属于同一个账号且在同一地域时,需要在大量的阿里云ECS中安装、升级或者卸载Logtail时,可以使用运维编排OOS进行批量自动操作。具体操作,请参见使用OOS批量安装或升级Logtail。

后续操作

  • 当您完成日志内容的采集后,您可以在日志服务中使用查询与分析功能,来帮助您了解日志情况,请参考查询与分析快速指引。

  • 当您完成日志内容的采集后,您可以在日志服务中使用可视化功能, 来帮助您直观地统计与了解日志情况,请参考快速创建仪表盘。

  • 当您完成日志内容的采集后,您可以在日志服务中使用告警功能, 来自动提醒您日志中的异常情况,请参考快速设置日志告警。

相关文章

主机文本日志采集(自动安装) 2025-04-22 11:05

本文将介绍在主机场景下,当ECS与日志服务的Project属于同一个账号且在同一地域时,日志服务借助运维编排服务OOS,在ECS实例中自动安装Logtail采集文本日志的操作流程。 使用限制 当ECS和日志服务Project同账号不同地域、Project和ECS服务器属于不同账号、其他云或者自建服务

主机文本日志采集(手动安装) 2025-04-22 11:05

本文将介绍在主机场景下手动安装日志服务Logtail采集文本日志的流程,阅读本文将帮助您在主机场景下完成Logtail文本日志的采集。 如果您已经开始采集或在采集中遇到问题,您可以根据遇到的问题场景,参考Logtail常见问题。 前提条件

采集ACK集群文本日志(DaemonSet) 2025-04-22 11:05

日志服务提供DaemonSet与Sidecar两种方式部署Logtail以供采集K8s日志,两种方式的差异请参考K8s集群场景Logtail安装采集指引。本文介绍如何通过DaemonSet方式部署Logtail采集阿里云ACK集群文本日志的流程。 前提条件 已开通日志服务。具体操作,请参见开通日志服

采集自建集群文本日志(DaemonSet) 2025-04-22 11:05

日志服务提供DaemonSet与Sidecar两种方式部署Logtail以供采集K8s日志,两种方式的差异请参考K8s集群场景Logtail安装采集指引。本文介绍如何通过DaemonSet方式部署Logtail采集自建K8s集群文本日志的流程。 前提条件 已开通日志服务。具体操作,请参见

采集ACK集群标准输出-新版(DaemonSet) 2025-04-22 11:05

本文介绍如何通过DaemonSet方式部署Logtail采集阿里云ACK集群标准输出(新版)的流程。 前提条件 已开通日志服务。具体操作,请参见开通日志服务。 需要2.1及以上Logtai

采集自建集群标准输出-新版(DaemonSet) 2025-04-22 11:05

本文介绍如何通过DaemonSet方式部署Logtail采集自建K8s集群标准输出的流程。 前提条件 已开通日志服务。具体操作,请参见开通日志服务。 需要2.1及以上Logtail组件版本

目录
Copyright © 2025 your company All Rights Reserved. Powered by 赛尔网络.
京ICP备14022346号-15
gongan beian 京公网安备11010802041014号