일련의 이벤트가 시스템 (예 : 피자 오더링 시스템)을 통해 진행되어 각 이벤트의 특정 속성을 시간별로 계산하려고합니다. 예를 들어, 나는 지난 5 분 동안 얼마나 많은 사람들이 페퍼로니 피자를 주문했는지, 또는 지난주에 John Doe가 주문한 피자의 수를보고 싶을 것입니다. 이 이벤트의 특별, 그래서 심지어 카운트가 메모리에 저장 할 수 없기 때문에 우
HyperLogLog algorithm을 직접 구현했습니다. 그것은 잘 작동하지만 때로는 많은 (약 10k-100k)의 HLL 구조체를 가져 와서 병합해야합니다. 나는 각각을 비트 문자열로 저장하므로 먼저 각 비트 문자열을 버킷으로 변환해야합니다. 많은 HLL이 있기 때문에 내가 원하는 것보다 더 많은 시간이 걸립니다. my @buckets = map {
HLL을 사용하여 집합의 카디널리티를 계산하는 방법에 대한 설명을 설명하거나 연결하여 시계열 분석에 사용할 수 있습니까? 나는 정확히 druid.io을 수행하지만, 특정 라이브러리/데이터베이스 또는 특정 HLL 구현없이 혼자 HLL을 사용하는 방법에 대한 일반적인 설명을 찾고 있습니다. 그 일을하는 순진한 방법은 우리가 세고있는 것에 타임 스탬프를 접두사로
Redis는 최근 HyperLogLog라는 새로운 데이터 구조를 출시했습니다. 그것은 우리로 하여금 고유 한 객체의 수를 유지하도록 허용하고 단지 12k 바이트의 크기를 차지합니다. 내가 이해할 수없는 것은 Redis의 PFCOUNT 명령은 기술적으로 쓰기 명령이라고합니다. 왜 이런 경우입니까? 참고 :이 함수를 호출 할 때의 부작용으로 마지막 8 바이트가