나는 큰 호랑이와이 큰 분야의 데이터를 처음 보았습니다. 일반적으로 데이터는 (길고, 길고, 두 번) 항상 오지 않습니다. FileDataModel에 대한 대안이 있습니까? DataModel model = new FileDataModel(new File("Ratings.csv"));
Mahout과 함께 사용하기 위해 {userID, itemID, rating} 형식으로 변환하려고 시도하는 사용자 ID, itemID 등급 매트릭스 형식의 데이터 세트가 있습니다. 여기에 설명 된대로 항목 기반 권장 사항 : https://mahout.apache.org/users/recommender/userbased-5-minutes.html#datas
두싯의 DrmRdd 유형은 그러나, 두싯 문서는 명확하게 Vector 클래스가 직렬화 아니라고 말한다 정의하고 있다고 보인다. 이것은 Vector가 직렬화되지 않는다는 사실을 넘어서지 않고 Mahout Drm에 랩핑하기 위해 RDD [(K, Vector)]를 생성하는 방법에 대해 약간의 머리말을합니다. 제 질문은 스파크 RDD 튜플을 직렬화 할 필요가 있습
짧은 동영상을 참조하여 간단한 동영상 추천자를 시도하고 있습니다. https://www.youtube.com/watch?v=63k560Livmg. 내가 diff를 시도하는 것은 콘솔이 아니라 브라우저에 추천을 표시하여 서블릿을 사용하고 싶습니다. 하지만 문제는 양식에 값 (사용자 ID)을 입력 할 때 빈 화면이 표시되는 것입니다. 내가 잘못하고있는 일을 도
나는 syncfusion에서 hadoop에 mahout recommenderJob을 실행 중입니다. 나는 다음을 얻는다. 그러나 출력이 ...이 사람이 내가이에서 output.txt을받지 못하고있는 이유 아이디어가 있습니까 무기한 를 실행하는 것 같다? 왜 이것이 무기한으로 작동하는 것입니까?
나는이 문서의 단계를 수행하여 코끼리 조련사를 통해 스파크 항목 유사성을 사용하고 : https://mahout.apache.org/users/algorithms/intro-cooccurrence-spark.html 내 데이터를 정리 할 수 있었다, 설치 로컬 전용 스파크/하프 노드와 그 모든 것. 이제 제 질문은 매트릭스의 해석에 더 의존합니다. 제한
mahout jar를 입력 파일로 실행하여 출력 파일을 생성하는 명령을 실행 중입니다. 그러나 몇 가지 오류가 있습니다. 입력 파일을 hdfs에 넣었습니다. 명령은 다음과 같습니다 mahout recommenditembased -s SIMILARITY_COOCCURRENCE -i /input.txt -o /output --booleanData true