Strona Scikit Learn na temat wyboru modelu wspomina o zagnieżdżonej weryfikacji krzyżowej:
>>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits)
Dwie pętle wzajemnej weryfikacji są wykonywane równolegle: jedna przez estymator GridSearchCV, aby ustawić gamma, a druga przez cross_val_score, aby zmierzyć wydajność predykcji estymatora. Wynikowe wyniki są obiektywnymi szacunkami wyniku prognozy na nowych danych.
Z tego, co rozumiem, clf.fit
użyję natywnej weryfikacji krzyżowej, aby określić najlepszą gamma. W takim przypadku, dlaczego powinniśmy używać zagnieżdżonego cv, jak podano powyżej? Uwaga wspomina, że zagnieżdżone cv daje „obiektywne oszacowania” wyniku prognozy. Czy tak też nie jest clf.fit
?
Ponadto nie byłem w stanie uzyskać najlepszych oszacowań clf z cross_validation.cross_val_score(clf, X_digits, y_digits)
procedury. Czy możesz doradzić, jak to zrobić?