I는 다음과 같습니다 날짜 형식 인쇄이 로그가 : = Build Stamp: 10:45:33 On Apr 4 2014 =
그래서 내가 grok 수 디버거에 필터를 실행되었지만 제거하는 방법에 여전히 단서를 grok {
patterns_dir => "./patterns"
match => { "message" => "%{F_TIMESTAMP:ti
ELMA appliance의 일부로 Elastic Search를 사용하고 있습니다. 이 어플라이언스는 기본 인증으로 보호되는 HTTPS를 통해 ES를 제공합니다. Logstash는 별도의 컴퓨터에서 실행됩니다. 이 Logstash는 로그 데이터를 ES로 보내야합니다. 사용할 올바른 출력 구성은 무엇입니까? 모든 포인터 주셔서 감사합니다. -Raj는
elasticsearch (logstash 사용)를 실행하면 CPU 소비가 100 % 증가합니다. 내가 클러스터의 상태를 확인하면 내가 너무 많은 활성 파편이 있습니까 왜 {
"cluster_name": "elasticsearch",
"status": "red",
"timed_out": false,
"number_of_n
Logstash 메트릭 플러그인의 적절한 구성 예제가 어떤 모양인지 알아 내려고합니다. 그게 내가 지금까지 가지고 올 것을, 그래서 original from the documentation 심지어으로 configtest :(... 전달되지 않는다 (logstash 1.4.2를 사용). input {
generator
type => "gen
메시지 속성에 계층 적 메시지 데이터가 포함되어있을 때 Logstash가 elasticsearch에 구문 분석 문서를 쓰지 않는 오류가 발생했습니다. 메시지 속성에 계층 적 데이터가 포함되어 있지 않으면 잘 작동합니다. 다음 {
"Enviroment": "Dev",
"Level": "Fatal",
"CreatedOn": "2014
로그 관리를 위해 ELK (ElasticSearch + Logstash + Kibana) 스택을 사용하고 있지만 키바나는 각 구성 요소의 통계를 개별적으로 표시합니다. tomcat 서버의 예외와 같이 여러 구성 요소에서 이벤트 상관 관계를 확인하려는 결과 고객에게 HTTP 404가 발생했습니다. ELK를 통해 가능하지 않은 경우 다른 오픈 소스 솔루션을 제
Redis 목록에서 읽는 logstash 설정이 있습니다. 현재이 목록의 데이터는 베어 스트링이며, logstash가 압축 된 문자열을 사용하고, 압축을 풀고, 같은 것을 처리 할 수있는 방법이 있습니까? Logstash 전달자 (등딱지)는 저에게 유용하지 않습니다. 제 경우에는 중간에 Redis를 사용해야합니다. 현재의 아키텍처는이 같은 같습니다 닷넷 응
Logstash를 실행하여 프록시를 통해 출력을 Elasticsearch로 보내려고합니다. 늘어나는만큼 내가 프록시를 지정할 수 있도록 출력에 대한 구성이 없다는 것을 알 수 있습니다. 현재 내가 사용 output {
elasticsearch {
protocol => "http"
host => "es-dev.local"
각 파일 로그가 특정 컴퓨터에 대한 로그 파일 집합이 있습니다. 나는 각 파일에 대해 @timestamp을 하나 갖고 싶기 때문에 multiline{} 필터를 사용하여 각 파일의 여러 줄 메시지에 가입하는 방법을 사용합니다. 로그 파일 예 데이터 표제 설명 TEST1 테스트 통과 테스트 단부 , filter {
multiline {
pat