Naive Bayes Classifier를 설정하여 5 개 문자열 속성의 두 레코드 사이의 동일성을 확인하려고합니다. 각 속성 쌍 (예 : 자바 .equals() 메소드) 만 정확하게 비교합니다. TRUE와 FALSE 두 가지 교육 데이터가 있지만 TRUE 사례에만 초점을 맞추어 보겠습니다. 5 가지 속성이 모두 다른 진정한 교육 사례가 있다고 가정 해 봅
저는 카페에서 tensorflow로 전환 중입니다. 배치 (batching)가없는 아주 초기의 예제 인 tensorflow가 있습니다. 미니 배치를 사용할 예정이지만 배치가 필요합니다. 배치, 대기열 및 좌표가 필요합니다. 나는 내가 어떻게 그들을 사용할 수 있는지 정확히 모른다. 당신은 내가 배치를 사용할 수있는 방법을 내 코드에서 나를 설명 할 수 있다
열차와 열차로 분리 된 14 개의 열 (여행 열, 성별, 연령 및 요금 가격의 열 4 개만 사용)이있는 데이터 세트가 있습니다. 데이터 세트를 테스트하십시오. 나는 여행 클래스 (1, 2, 3이 클래스)에 의해 승객의 분포에 대한 기차 데이터 세트에서 수직 막대 차트를 작성해야합니다. NumPy, Pandas, SciPy 및 SciKit-Learn를 사용할
저는 훈련을 위해 3080 * 16 입력 이미지를 사용하여 일괄 처리로 16 개의 이미지를 제공하는 완전 컨볼 루션 신경 네트워크를 학습합니다. 나는 100 개의 신기원에 이것을하고있다. in every epoch:
after each batch:
calculate errors, do weight update, get confusion matrix
a
내 질문은 꽤 간단하지만 나는 caret 패키지 doc을 사용하여 확실한 답변을 찾을 수 없습니다. 열 함수에서 전처리 옵션 센터 및 비율을 사용하는 경우 예측을 수행하는 동안 동일한 사전 처리가 새 데이터 세트에 적용됩니다. 예 : 예 : 훈련 세트의 평균과 스케일이 새 데이터에 적용된다는 의미입니까? 또는 새로운 센터링 및 스케일링이 새로운 데이터 세트
나는 약 3000 개의 개체가 있으며 각 개체에는 그 개체와 관련된 개수가 있습니다. 무작위로 70 % 훈련 및 30 % 테스트 분할로 훈련 및 테스트 데이터에서 이러한 개체를 나누고 싶습니다. 그러나 개체 수와 관계없이 각 개체와 관련된 개수를 기준으로 나누고 싶습니다. 예를 들어, 내 데이터 집합에 5 개의 개체가 있다고 가정합니다. 나는 거의 70 %
나는 keras를 가진 nn를 train_on_batch 기능 훈련하는 것을 시도하고있다. 39 개 기능이 있고 32 개 샘플을 포함하는 배치가 필요합니다. 따라서 모든 교육 반복마다 32 개의 numpy 배열 목록이 있습니다. 그래서 여기 내 코드입니다 (여기 모든 batch_x 32 NumPy와 배열의 목록이 각각 포함 39 개 기능입니다) : inpu
데이터 프레임 내의 응답 변수 벡터에있는 각 요소에 GAM (스플라인 포함)을 맞추기 위해 lapply 내에 함수를 작성했습니다. 결국 mgcv 또는 gam 패키지를 사용하는 대신 모델을 맞추기 위해 caret을 사용하기로했습니다. 왜냐하면 결국 데이터를 유효성 검사를 위해 열차/테스트 세트로 분할하고 다양한 리샘플링 기법을 사용하기를 원하기 때문입니다.