2023年7月17日发(作者:)
ELK(ElasticsearchLogstashKibana)安装时常见错误总结
问题⼀:[2016-11-06T16:27:21,712][WARN ][ives ] unable to install syscall filter:ortedOperationException: seccomp unavailable: requires kernel 3.5+ withCONFIG_SECCOMPandCONFIG_SECCOMP_mpl(:349) ~[:5.0.0]at (:630) ~[:5.0.0]
原因:报了⼀⼤串错误,⼤家不必惊慌,其实只是⼀个警告,主要是因为你Linux版本过低造成的。
解决⽅案: 1、重新安装新版本的Linux系统 2、警告不影响使⽤,可以忽略
问题⼆:ERROR: bootstrap checks failedmax file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]
原因:⽆法创建本地⽂件问题,⽤户最⼤可创建⽂件数太⼩
解决⽅案: 切换到root⽤户,编辑配置⽂件, 添加类似如下内容:
vi /etc/security/
添加如下内容:* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096备注:* 代表Linux所有⽤户名称(⽐如 hadoop)
保存、退出、重新登录才可⽣效。
问题三:max number of threads [1024] for user [es] likely too low, increase to at least [2048]原因:⽆法创建本地线程问题,⽤户最⼤可创建线程数太⼩
解决⽅案:切换到root⽤户,进⼊limits.d⽬录下,修改 配置⽂件。
vi /etc/security/limits.d/
找到如下内容:
* soft nproc 1024
#修改为
* soft nproc 2048
问题四:max virtual memory areas _map_count [65530] likely too low, increase to at least [262144]原因:最⼤虚拟内存太⼩
解决⽅案:切换到root⽤户下,修改配置⽂件
vi /etc/
添加下⾯配置:
_map_count=655360
并执⾏命令:
sysctl -p
然后重新启动elasticsearch,即可启动成功。
问题五:ElasticSearch启动找不到主机或路由原因:ElasticSearch 单播配置有问题
解决⽅案:检查ElasticSearch中的配置⽂件vi config/找到如下配置:
:["192.168.**.**:9300","192.168.**.**:9300"]⼀般情况下,是这⾥配置有问题,注意书写格式
问题六:TransportException: Failed to deserialize exception response from stream
原因:ElasticSearch节点之间的jdk版本不⼀致
解决⽅案:ElasticSearch集群统⼀jdk环境
问题七:Unsupported version 52.0
原因:jdk版本问题太低
解决⽅案:更换jdk版本,ElasticSearch5.0.0⽀持jdk1.8.0
问题⼋:bin/elasticsearch-plugin install licenseERROR: Unknown plugin license
原因:ElasticSearch5.0.0以后插件命令已经改变
解决⽅案:使⽤最新命令安装所有插件bin/elasticsearch-plugin install x-pack
问题九: 在Kibana⾥,安装marvel插件,Error: unexpected eofPlugin installation was unsuccessful due to error "Error extracting plugin archive" 解决⽅案: (1)是因为,⽹速不好,修改下本地的DNS即可。重新执⾏
在线安装marvel插件命令
bin/kibana plugin –install elasticsearch/marvel/latest
离线安装marvel插件命令
bin/kibana plugin –install marvel –url file:///home/hadoop/app/ (注意,离线的话,注意跟着⾃⼰的路径)
(2)若实在还是不⾏的话,则尝试离线安装吧!
然后,再上传,我这⾥上传到/home/hadoop/app⽬录下
然后,执⾏下⾯的命令,注意要根据你⾃⼰上传的⽬录。[hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$ pwd/home/hadoop/app/kibana-4.6.3-linux-x86_64[hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$ lltotal 48drwxrwxr-x. 2 hadoop hadoop 4096 Nov 4 23:24 bindrwxrwxr-x. 2 hadoop hadoop 4096 Mar 25 07:55 configdrwxrwxr-x. 2 hadoop hadoop 4096 Nov 4 23:24 datadrwxrwxr-x. 2 hadoop hadoop 4096 Mar 25 18:33 installedPlugins-rw-rw-r--. 1 hadoop hadoop 562 Nov 4 23:24 xrwxr-x. 6 hadoop hadoop 4096 Nov 4 23:24 nodedrwxrwxr-x. 83 hadoop hadoop 4096 Nov 4 23:24 node_modulesdrwxrwxr-x. 3 hadoop hadoop 4096 Nov 4 23:24 optimize-rw-rw-r--. 1 hadoop hadoop 701 Nov 4 23:24 -rw-rw-r--. 1 hadoop hadoop 2322 Nov 4 23:24 xrwxr-x. 8 hadoop hadoop 4096 Nov 4 23:24 srcdrwxrwxr-x. 2 hadoop hadoop 4096 Nov 4 23:24 webpackShims[hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$ cd installedPlugins/[hadoop@HadoopMaster installedPlugins]$ lltotal 0[hadoop@HadoopMaster installedPlugins]$ cd ..[hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$ bin/kibana plugin --install marvel --url file:///home/hadoop/app/alling marvelAttempting to transfer from file:///home/hadoop/app/ (注意我这⾥是/home/hadoop/app/)Transferring Transfer completeExtracting plugin archiveExtraction completeOptimizing and caching Plugin installation complete[hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$
查看Kibana⾥是否安装marverl插件成功![hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$ pwd/home/hadoop/app/kibana-4.6.3-linux-x86_64[hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$ lltotal 48drwxrwxr-x. 2 hadoop hadoop 4096 Nov 4 23:24 bindrwxrwxr-x. 2 hadoop hadoop 4096 Mar 25 07:55 configdrwxrwxr-x. 2 hadoop hadoop 4096 Nov 4 23:24 datadrwxrwxr-x. 3 hadoop hadoop 4096 Mar 25 18:49 installedPlugins-rw-rw-r--. 1 hadoop hadoop 562 Nov 4 23:24 xrwxr-x. 6 hadoop hadoop 4096 Nov 4 23:24 nodedrwxrwxr-x. 83 hadoop hadoop 4096 Nov 4 23:24 node_modulesdrwxrwxr-x. 3 hadoop hadoop 4096 Nov 4 23:24 optimize-rw-rw-r--. 1 hadoop hadoop 701 Nov 4 23:24 -rw-rw-r--. 1 hadoop hadoop 2322 Nov 4 23:24 xrwxr-x. 8 hadoop hadoop 4096 Nov 4 23:24 srcdrwxrwxr-x. 2 hadoop hadoop 4096 Nov 4 23:24 webpackShims[hadoop@HadoopMaster kibana-4.6.3-linux-x86_64]$ cd installedPlugins/[hadoop@HadoopMaster installedPlugins]$ lltotal 4drwxrwxr-x. 6 hadoop hadoop 4096 Mar 25 18:49 marvel[hadoop@HadoopMaster installedPlugins]$ cd marvel/[hadoop@HadoopMaster marvel]$ lltotal 88-rw-rw-r--. 1 hadoop hadoop 2366 Dec 21 10:26 -rw-rw-r--. 1 hadoop hadoop 43681 Dec 21 10:26 xrwxr-x. 486 hadoop hadoop 20480 Mar 25 18:48 node_modules-rw-rw-r--. 1 hadoop hadoop 150 Dec 21 10:26 -rw-rw-r--. 1 hadoop hadoop 1410 Jan 6 07:41 wxrwxr-x. 8 hadoop hadoop 4096 Mar 25 18:48 publicdrwxrwxr-x. 4 hadoop hadoop 4096 Mar 25 18:48 serverdrwxrwxr-x. 2 hadoop hadoop 4096 Mar 25 18:48 webpackShims[hadoop@HadoopMaster marvel]$
注意:在kibana中安装marvel 插件之后,如果之前已经启动kibana需要重启kibana。
No Marvel Data Found (marvel error)?[error][status][plugin:elasticsearch@1.0.0] Status changed from red to red - Service Unavailable?[error][status][plugin:elasticsearch@1.0.0] Status changed from red to red - Elasticsearch is still initializing the kibanaindex.
注意,若您是第⼀次进⼊kibana的话,则初次进⼊需要⾄少创建⼀个索引模板,这个是对应elasticsearch中的索引。因为,kibana默认是没有es⾥的东西的。也可以见如下,默认是Logstash⾥的东西。则如下。 解决办法 ⾸先,进⼊192.168.80.10:5601/app/kibana 因为初次进⼊kibana需要⾄少创建⼀个索引模板,这个是对应elasticsearch中的索引。 具体怎么创建es⾥的索引,请移步先去看完我这篇博客,创建好es的索引再来吧! 要么,你也可以直接拿默认的,即Logstash,也可以但是,前提你得安装好Logstash,怎么安装,请移步
然后,ok继续
注意: 若您不是第⼀次进⼊kibana的话,则如下。解决办法:: "192.168.80.10" : : "192.168.80.10:9200": ".kibana"对于,最好别0.0.0.0,不安全。不建议 也有⼈说,⽤⽕狐浏览器和⾕歌浏览器就能打开了,可以尝试⼀下! 也有⼈说, ⼀般是⼈为删除(⽐如在sense插件⾥执⾏删除命令)marvel数据,导致marvel采集出错(删除了半天数据,另外半天数据将⽆法正常采集),不能统计;对于这种情况,等第⼆天marvel就可以正常使⽤了。 也有可能是9300端⼝被占⽤,marvel默认使⽤9300端⼝;对于这种情况,找到9300端⼝占⽤进程,kill掉,重启kibana即可。 修好后,先分别kill掉三台机器的es进程,然后开启es进程,再重新,⽐如我这⾥在HadoopMaster这台上开启kibana进程,即可。
得到,继续
发布者:admin,转转请注明出处:http://www.yc00.com/xiaochengxu/1689544760a264905.html
评论列表(0条)