2015-02-04 2 views
0

kibana와 fluentd를 사용하여 elasticsearch를 설정하고 싶습니다. 나는 두 대의 기계를 가지고있다. 시스템 1은 로그 파일의 소스로 작동합니다. 로그는 모든 HTTP 요청으로 생성되며 모든 요청은 별도의 로그 파일에 저장됩니다. 로그 경로 strcuture는 /path/year/month/day/hour/*.log와 같습니다. 나는 기계 2에 설치되어있는 kibana와 elasticsearch를 사용하고 싶다.로그 파일을 fluentd로 전달하는 방법

나는 fluentd 전달자와 agregator에 관해 읽은 적이있다. Forward Output Plugin에 대해서도 읽었다. 하지만 여전히이 기계를 설치하는 방법을 모르겠습니다. 일반적으로 전달자는 단일 로그 파일을 보내는 데 사용되지만 여러 파일이 있습니다.

IP Adress: xxx.xxx.xxx.xxx 
 
Time: xx:xx:xx xxxx/xx/xx 
 
Data: <xml>....</xml>
:

당신은 내가 컴퓨터에서 컴퓨터에 키바와 1

형식의 하나 개의 로그 파일을 2 로그를 검색 할 수있는 올바른 방향으로 설치하는 방법 Fluentd에 모두 기계에 나를 가리켜 주시겠습니까

모든 도움이 많이 부각 될 것입니다.

감사

+0

시스템 1의 각 로그 라인은 어떻게 생겼습니까? 로그 자체에 타임 스탬프가 있습니까? –

+0

안녕하세요 kioto, 답장을 보내 주셔서 감사합니다. 단 하나의 로그 파일 형식 만 게시했습니다. –

답변

0

나는 또한 Bigdata에 대해 연구하고 질문에 대한 생각을 가지고 있어요. 난 당신이 기계 (1)에 대한이 (http://docs.fluentd.org/articles/in_tail)를 사용한다고 생각하고,이 플러그인을 설치하는 기계 2에 로그와 푸시를 받게 될 것입니다 (https://github.com/uken/fluent-plugin-elasticsearch). 희망이 도움이 될 것입니다!

+0

내가 왜 당신이 downvoted, 나는 in_tail 플러그인을 발견하게되어 기뻤는지 모르겠다. – tombh