1

Mahout-Samsara를 사용하여 사용자/항목 기반 권장 사항을 구현하는 방법을 이해하고 있지만 사용법을 이해할 수는 없습니다. Mahout Map Reduce 기반 알고리즘에 대한 기본적인 지식은 있지만 Mahout은 RIP을 map-reduce로 선언했습니다.권장 사항에 대한 Mahout 스파크 유사 알고리즘 구현 방법

지금까지 내가 ..

  1. 두싯 - 삼사라 모든 두싯 0.10+ 자료를 나타내는 새로운 코드 이름을 알고있어. Mahout은 MapReduce 기반 알고리즘을 포기하고 스칼라 기반 프로그래밍 환경으로 이동했습니다. 이제 Mahout은 스파크, H2OFlink과 같은 다른 배포 엔진을 지원합니다.

  2. 새로운 Mahout (Samsara)은 Scala DSL (Domain Specific Language) 레이어가 맨 위에있는 스칼라 기반 솔루션입니다.

  3. 우리는 Mahout 스파크 껍질로 아래의 문서를 따라 플레이 할 수 있습니다. 내가 두싯에 스파크 rowsimilarity, 스파크 itemsimilarity 예를의 종류 (안 명령 줄 작업을) 찾고 있어요 ..

    을 찾고 무엇 http://mahout.apache.org/users/sparkbindings/play-with-shell.html

. 나는 this tutorial을 확인하고 있었지만 커맨드 라인에 더 집중했다.

누군가 새로운 Mahout에 사용자/항목 기반 추천 엔진을 구현하는 방법에 대한 몇 가지 예를 제공해 주실 수 있습니까? 정확히 입력 된 DataModel은 무엇입니까? 이전 Mahout과 동일합니까? 파일 시스템 데이터 모델을 New Mahout 스파크 기반 알고리즘에서도 계속 사용할 수 있습니까?

답변

0

Mahout Samsara는 ML을위한 계산 엔진입니다. 실제로 쿼리에 응답하고 데이터를 수집하려면 서버가 필요합니다.

Mahout이 취하지 않는 마지막 단계는 생성 된 모델을 쿼리 단계의 k- 가장 가까운 이웃 엔진에 배치하는 것입니다. Lucene 및 Solr 및 Elasticsearch의 확장 가능한 서버 버전은 KNN에 완벽합니다. 쿼리는 사용자 기록의 가장 최근 부분이 될 것입니다. MongoDB 통합 구매를 통해 Ruby에서 구현했습니다. MongoDB에 모델을 작성하고 Solr을 사용하여 색인을 생성합니다. 그런 다음 Solr 쿼리를 작성하여 권장 사항을 얻습니다. 이것은 매우 공정한 작업이었습니다. ...

Mahout (나)에 CCO를 유지하는 사람은 거의 완전한 기능을 갖춘 Apache PredictionIO 템플릿을 만들었으며 거의 ​​모든 턴키 솔루션에 필요한 모든 구성 요소가 포함되어 있습니다. OSS이므로 예제로 사용하거나 설치하고 실행하면됩니다. 아파치 PredictionIO

  • +0

    덕분에 @pferrel 수있는 AWS AMI 있습니다,하지만 난 자바 기반의 스파크 항목을 찾거나 유사성 예를 행입니다. 이걸 어떻게 구현할 수 있겠 어? –