资讯专栏INFORMATION COLUMN

elk入门

awesome23 / 3465人阅读

摘要:默认要求不低于。解决方法你可以执行以下命令,设置,但是重启后又会恢复为原值。不低于问题表示进程允许打开的最大文件数。解决方法在文件中修改参数问题安装后,访问页面时,提示以下错误信息这就说明没有把日志写入到。

ELK 快速指南 概念 ELK 是什么

ELK 是 elastic 公司旗下三款产品 ElasticSearch 、Logstash 、Kibana 的首字母组合。

ElasticSearch 是一个基于 Lucene 构建的开源,分布式,RESTful 搜索引擎。

Logstash 传输和处理你的日志、事务或其他数据。

Kibana 将 Elasticsearch 的数据分析并渲染为可视化的报表。

为什么使用 ELK ?

对于有一定规模的公司来说,通常会很多个应用,并部署在大量的服务器上。运维和开发人员常常需要通过查看日志来定位问题。如果应用是集群化部署,试想如果登录一台台服务器去查看日志,是多么费时费力。

而通过 ELK 这套解决方案,可以同时实现日志收集、日志搜索和日志分析的功能。

ELK 架构

以上是 ELK 技术栈的一个架构图。从图中可以清楚的看到数据流向。

Beats 是单一用途的数据传输平台,它可以将多台机器的数据发送到 Logstash 或 ElasticSearch。但 Beats 并不是不可或缺的一环,所以本文中暂不介绍。

Logstash 是一个动态数据收集管道。支持以 TCP/UDP/HTTP 多种方式收集数据(也可以接受 Beats 传输来的数据),并对数据做进一步丰富或提取字段处理。

ElasticSearch 是一个基于 JSON 的分布式的搜索和分析引擎。作为 ELK 的核心,它集中存储数据。

Kibana 是 ELK 的用户界面。它将收集的数据进行可视化展示(各种报表、图形化数据),并提供配置、管理 ELK 的界面。

安装 准备

ELK 要求本地环境中安装了 JDK 。如果不确定是否已安装,可使用下面的命令检查:

java -version
本文使用的 ELK 是 6.0.0,要求 jdk 版本不低于 JDK8。

友情提示:安装 ELK 时,三个应用请选择统一的版本,避免出现一些莫名其妙的问题。例如:由于版本不统一,导致三个应用间的通讯异常。

Elasticsearch

安装步骤如下:

elasticsearch 官方下载地址下载所需版本包并解压到本地。

运行 bin/elasticsearch (Windows 上运行 binelasticsearch.bat

验证运行成功:linux 上可以执行 curl http://localhost:9200/ ;windows 上可以用访问 REST 接口的方式来访问 http://localhost:9200/

Logstash

安装步骤如下:

在 logstash 官方下载地址下载所需版本包并解压到本地。

添加一个 logstash.conf 文件,指定要使用的插件以及每个插件的设置。举个简单的例子:

  input { stdin { } }
   output {
     elasticsearch { hosts => ["localhost:9200"] }
     stdout { codec => rubydebug }
   }

运行 bin/logstash -f logstash.conf (Windows 上运行bin/logstash.bat -f logstash.conf

Kibana

安装步骤如下:

在 kibana 官方下载地址下载所需版本包并解压到本地。

修改 config/kibana.yml 配置文件,设置 elasticsearch.url 指向 Elasticsearch 实例。

运行 bin/kibana (Windows 上运行 binkibana.bat

在浏览器上访问 http://localhost:5601

安装 FAQ elasticsearch 不允许以 root 权限来运行

问题:在 Linux 环境中,elasticsearch 不允许以 root 权限来运行。

如果以 root 身份运行 elasticsearch,会提示这样的错误:

can not run elasticsearch as root

解决方法:使用非 root 权限账号运行 elasticsearch

# 创建用户组
groupadd elk
# 创建新用户,-g elk 设置其用户组为 elk,-p elk 设置其密码为 elk
useradd elk -g elk -p elk
# 更改 /opt 文件夹及内部文件的所属用户及组为 elk:elk
chown -R elk:elk /opt # 假设你的 elasticsearch 安装在 opt 目录下# 切换账号
su elk
vm.max_map_count 不低于 262144

问题:vm.max_map_count 表示虚拟内存大小,它是一个内核参数。elasticsearch 默认要求 vm.max_map_count 不低于 262144。

max virtual memory areas vm.max\_map\_count [65530] is too low, increase to at least [262144]

解决方法:

你可以执行以下命令,设置 vm.max_map_count ,但是重启后又会恢复为原值。

sysctl -w vm.max\_map\_count=262144

持久性的做法是在 /etc/sysctl.conf 文件中修改 vm.max_map_count 参数:

echo "vm.max\_map\_count=262144" > /etc/sysctl.conf
sysctl -p
注意

如果运行环境为 docker 容器,可能会限制执行 sysctl 来修改内核参数。

这种情况下,你只能选择直接修改宿主机上的参数了。

nofile 不低于 65536

问题: nofile 表示进程允许打开的最大文件数。elasticsearch 进程要求可以打开的最大文件数不低于 65536。

max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]

解决方法:

在 /etc/security/limits.conf 文件中修改 nofile 参数:

echo "* soft nofile 65536" > /etc/security/limits.conf
echo "* hard nofile 131072" > /etc/security/limits.conf
nproc 不低于 2048

问题: nproc 表示最大线程数。elasticsearch 要求最大线程数不低于 2048。

max number of threads [1024] for user [user] is too low, increase to at least [2048]

解决方法:

在 /etc/security/limits.conf 文件中修改 nproc 参数:

echo "* soft nproc 2048" > /etc/security/limits.conf
echo "* hard nproc 4096" > /etc/security/limits.conf
Kibana No Default Index Pattern Warning

问题:安装 ELK 后,访问 kibana 页面时,提示以下错误信息:

Warning No default index pattern. You must select or create one to continue.
...
Unable to fetch mapping. Do you have indices matching the pattern?

这就说明 logstash 没有把日志写入到 elasticsearch。

解决方法:

检查 logstash 与 elasticsearch 之间的通讯是否有问题,一般问题就出在这。

使用

本人使用的 Java 日志方案为 slf4j + logback,所以这里以 logback 来讲解。

Java 应用输出日志到 ELK

修改 logstash.conf 配置

首先,我们需要修改一下 logstash 服务端 logstash.conf 中的配置

input { 
  # stdin { }
  tcp { 
    # host:port就是上面appender中的 destination,
    # 这里其实把logstash作为服务,开启9250端口接收logback发出的消息 
    host => "127.0.0.1" port => 9250 mode => "server" tags => ["tags"] codec => json_lines 
  }
}
output {
  elasticsearch { hosts => ["localhost:9200"] }
  stdout { codec => rubydebug }
}
说明

这个 input 中的配置其实是 logstash 服务端监听 9250 端口,接收传递来的日志数据。

然后,在 Java 应用的 pom.xml 中引入 jar 包:


  net.logstash.logback
  logstash-logback-encoder
  4.11

接着,在 logback.xml 中添加 appender




  

大功告成,此后,io.github.dunwu.spring 包中的 TRACE 及以上级别的日志信息都会被定向输出到 logstash 服务。

[

资料

elastic 官方文档

elasticsearch github

logstash github

kibana github

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/34307.html

相关文章

  • ELK入门01—Elasticsearch安装

    摘要:它的安装也很简单在线安装插件等待安装成功后,重新启动,访问即可看到图形管理界面了 1. 安装 首先从官网下载安装包此处我们选择2.4.6这个版本,然后下载tar压缩包下载以后直接解压,就算安装完成了 tar zxvf elasticsearch-2.4.6.tar.gz 2. 配置 编辑elasticsearch配置文件 # 进入安装目录 cd elasticsearch-2.4.6 ...

    susheng 评论0 收藏0
  • ELK入门02—Logstash+Log4j2+ES

    摘要:安装先到官方下载地址选择对应版本的安装包,由于我们是版本,这里我们选择版本。同时如果你关闭后再打开,会发现已经可以自动重新连接了。 1. 安装Logstash 先到官方下载地址选择对应版本的Logstash安装包,由于我们Elasticsearch是2.4.6版本,这里我们Logstash选择2.4.1版本。下载完成后,直接解压tar zxvf logstash-2.4.1.tar.g...

    acrazing 评论0 收藏0
  • ElasticSearch 连载一 基础入门

    摘要:返回的数据中,字段表示查询成功,字段返回原始记录华为笔记本计算机如果不正确,就查不到数据,字段就是。更新记录华为笔记本计算机更新记录就是使用请求,重新发送一次数据。 ElasticSearch简写ES,ES是一个高扩展、开源的全文检索和分析引擎,它可以准实时地快速存储、搜索、分析海量的数据。 应用场景 我们常见的商城商品的搜索 日志分析系统(ELK) 基于大量数据(数千万的数据)需要...

    MobService 评论0 收藏0
  • ElasticSearch 连载一 基础入门

    摘要:返回的数据中,字段表示查询成功,字段返回原始记录华为笔记本计算机如果不正确,就查不到数据,字段就是。更新记录华为笔记本计算机更新记录就是使用请求,重新发送一次数据。 ElasticSearch简写ES,ES是一个高扩展、开源的全文检索和分析引擎,它可以准实时地快速存储、搜索、分析海量的数据。 应用场景 我们常见的商城商品的搜索 日志分析系统(ELK) 基于大量数据(数千万的数据)需要...

    hizengzeng 评论0 收藏0
  • 从一份定义文件详解ELK中Logstash插件结构

    摘要:所以插件本质上就是自包含的。简称是一个用于对组件进行打包的打包系统。对照该源码和上一节的内容,我想应该不难理解的插件源码结构了吧。计划后续展示一个根据具体数据需求来自定义开发一个满足特定需求的插件的实例。 showImg(https://segmentfault.com/img/remote/1460000015754165); 概述 当下分布式系统的 日志收集、日志分析、日志处理...

    ShowerSun 评论0 收藏0

发表评论

0条评论

awesome23

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<