Czy istnieje istniejąca metodologia stosowania nadzorowanego modelu uczenia się do niepewnego zestawu danych? Załóżmy na przykład, że mamy zestaw danych z klasami A i B:
+----------+----------+-------+-----------+
| FeatureA | FeatureB | Label | Certainty |
+----------+----------+-------+-----------+
| 2 | 3 | A | 50% |
| 3 | 1 | B | 80% |
| 1 | 1 | A | 100% |
+----------+----------+-------+-----------+
Jak moglibyśmy szkolić w tym zakresie model uczenia maszynowego? Dzięki.
Zamiast mieć etykiety A lub B, możesz zastąpić je ciągłymi wartościami pewności - na przykład odpowiada czemuś, co na pewno jest A1 ZA , odpowiada czemu masz pewność, że B, a 0,6 odpowiada czemuś „re 40% pewny jest . Następnie przygotuj model, który zamiast przewidywać, że klasa A lub B generuje wynik od 0 do 1 na podstawie tego, jak myślisz, że to jedno lub drugie (i próg tego wyniku na podstawie, czy jego> lub <1/2). Sprawia to, że problem z klasyfikacją staje się problemem regresyjnym (który progujesz, aby wrócić do klasyfikatora).0 b 0,6 ZA ZA b 0 1
jakoβ0+β T 1 x(gdziep(A|x)jest pewnością powyżej). Następnie, gdy chcesz przetestować niektóre dane, podłącz je do modelu i wydrukuj etykietęlogp ( A | x )p ( B | x )= logp ( A | x )1 - P( A | x ) β0+ βT.1x p ( A | x ) ZA β0+βT.1x > 0 b
źródło