두 개의 다른 분류 자의 하이퍼 매개 변수 사이에 약간의 상관 관계가 있는지 궁금합니다. 예를 들어 : 우리가 (GridSearch 통해 찾아) 최고의 하이퍼 파라미터와 데이터 집합에 LogisticRegression를 실행하는 것이 가정 해 봅시다과 같은 데이터 세트에 SVC (SVM 분류)와 같은 다른 분류를 실행하려면 대신 GridSearch을 사용하
max_depth 매개 변수가 RandomForestClassifier 인 것을 찾으려고합니다. 우리는 RandomizedSearchCV을 사용하고 있습니다 : from scipy.stats import randint as sp_randint
from sklearn.ensemble import RandomForestClassifier
from sklea
일부 데이터 세트에서 SVM (scikit-learn)을 적용하고 테스트 세트에 대해 최상의 정확도를 줄 수있는 C 및 감마 값을 찾고 싶습니다. 먼저 C를 정수로 고정한 다음 감마가 나올 때까지 많은 감마 값을 반복했습니다.이 감마값은 C에 대한 최상의 테스트 정확도를 제공합니다. 그런 다음 위의 단계에서 얻은 감마를 고쳤습니다. 그리고 C의 값을 반복하
GPML 도구 상자를 사용하여 회귀에 대한 가우스 프로세스를 수행하고 있습니다. 그러나 'minimize.m'을 사용하여 최적화 한 후에 (평균 함수가없는 경우), 음의 하이퍼 매개 변수가 생깁니다. 초기 하이퍼 파라미터는 : hyp.cov = [0; 0]; % two hyper-parameters in covariance kernel (length-sca
H2O에 대해 스칼라 내에 GridSearch api를 사용하려고합니다. 나는 this 문서를 찾았는데 R과 파이썬에서 무엇을해야하는지 보여 주지만 자바 문서는 실제로 가장 좋은 모델을 얻기 전에 멈춘다. 누군가가 지난 몇 줄을 말해 줄 수 있습니까? IE는 Grid<MP>을 어떻게 받습니까? 최고의 하이퍼 파라메타 조합 또는 최상의 모델을 얻으려면 어떻게
여기에 속한 질문이 여기에 속하기를 바랍니다. 그래서 제가 지금 다루고있는 문제는 여기에 있습니다 : 제조 공정 (센서 데이터, 프로세스 매개 변수 등)에서 수집 한 데이터가 있고 스크랩 여부에 관계없이 생산 라인을 떠나는 모든 부품에 대한 데이터가 있습니다. 그래서 각 부분마다 공정 데이터와 품질이 있습니다. (0 : 좋은 1 : 나쁜) 목표는 제조 공정
scikit-learn에서 GridSearchCV() 메서드를 사용하여 의사 결정 트리 분류 자에서 최적의 하이퍼 매개 변수를 찾는 방법을 배우려고합니다. print(__doc__)
# Code source: Gael Varoquaux
# Modified for documentation by Jaques Grobler
# License: BSD 3
내 svm.SVC()의 하이퍼 매개 변수가 너무 커서 GridSearchCV()이 완료되지 않는 문제가 있습니다! 하나의 아이디어는 대신 RandomizedSearchCV()을 사용하는 것입니다. 그러나 다시, 내 데이터 세트는 500 번 반복이 약 1 시간 정도 걸리는 비교적 큰 크기입니다! 내 질문은 자원 낭비를 막기 위해 GridSearchCV (또는