kibana와 fluentd를 사용하여 elasticsearch를 설정하고 싶습니다. 나는 두 대의 기계를 가지고있다. 시스템 1은 로그 파일의 소스로 작동합니다. 로그는 모든 HTTP 요청으로 생성되며 모든 요청은 별도의 로그 파일에 저장됩니다. 로그 경로 strcuture는 /path/year/month/day/hour/*.log와 같습니다. 나는 기계 2에 설치되어있는 kibana와 elasticsearch를 사용하고 싶다.로그 파일을 fluentd로 전달하는 방법
나는 fluentd 전달자와 agregator에 관해 읽은 적이있다. Forward Output Plugin에 대해서도 읽었다. 하지만 여전히이 기계를 설치하는 방법을 모르겠습니다. 일반적으로 전달자는 단일 로그 파일을 보내는 데 사용되지만 여러 파일이 있습니다.
IP Adress: xxx.xxx.xxx.xxx
Time: xx:xx:xx xxxx/xx/xx
Data: <xml>....</xml>
형식의 하나 개의 로그 파일을 2 로그를 검색 할 수있는 올바른 방향으로 설치하는 방법 Fluentd에 모두 기계에 나를 가리켜 주시겠습니까
모든 도움이 많이 부각 될 것입니다.
감사
시스템 1의 각 로그 라인은 어떻게 생겼습니까? 로그 자체에 타임 스탬프가 있습니까? –
안녕하세요 kioto, 답장을 보내 주셔서 감사합니다. 단 하나의 로그 파일 형식 만 게시했습니다. –