Biorę kurs Andrew Ng na Machine Learning poprzez Coursera . W przypadku równań zamiast indeksów dolnych stosuje się indeks górny. Na przykład w poniższym równaniu użyto zamiast : x i
Najwyraźniej jest to powszechna praktyka. Moje pytanie brzmi: po co używać indeksów górnych zamiast indeksów dolnych? Indeksy górne są już używane do potęgowania. To prawda, że wydaje mi się, że potrafię rozróżnić przypadki użycia indeksu górnego i potęgowania, zwracając uwagę na obecność nawiasów, ale nadal wydaje się to mylące.
machine-learning
notation
entpnerd
źródło
źródło
i
indeksowanie jest większe niż rozmiar zestawu danych, czy też elementy wektorax
? Jeśli to pierwsze, jest to całkowicie standardowe. Jeśli to drugie, jest to całkowicie niestandardowe. Powodem, dla którego używany jest indeks górny, jest to, że czasami chcesz odwoływać się do elementu wektora za pomocą indeksu dolnego.Odpowiedzi:
Jeśli oznacza wektor x ∈ R m, to x i jest standardowym zapisem dla i- tej współrzędnej x , tj. X = ( x 1 , x 2 , … , x m ) ∈ R m .x x∈Rm xi i x
Jeśli masz kolekcję takich wektorów, jak opisałbyś i- ty wektor? Nie możesz pisać x i , to ma inne standardowe znaczenie. Czasami więc ludzie piszą x ( i ) i dlatego wierzę, dlaczego Andrew Ng to robi.n i xi x(i)
To znaczy
źródło
Używanie super skryptów, jak stwierdziliście, uważam, że nie jest bardzo powszechne w literaturze dotyczącej uczenia maszynowego. Musiałbym przejrzeć notatki z kursu Nga, aby potwierdzić, ale jeśli zastosuje to tutaj, powiedziałbym, że byłby źródłem rozpowszechnienia tego zapisu. To jest możliwość. Tak czy inaczej, żeby nie być zbyt niemiłym, ale nie sądzę, aby wielu studentów kursów online publikowało literaturę na temat uczenia maszynowego, więc notacja ta nie jest zbyt powszechna w literaturze. W końcu są to kursy wprowadzające do uczenia maszynowego, a nie doktoranckie.
Bardzo powszechne w super skryptach jest oznaczanie iteracji algorytmu za pomocą super skryptów. Na przykład możesz napisać iterację metody Newtona jako
gdzie to Hesjan, a ∇ θ ( t ) to gradient.H(θ(t)) ∇θ(t)
(... tak, nie jest to najlepszy sposób na wdrożenie metody Newtona ze względu na inwersję macierzy Hesji ...)
Tutaj reprezentuje wartość θ w iteracji t t h . Jest to najczęstsze (ale na pewno nie tylko) użycie super skryptów, o których wiem.θ(t) θ tth
EDIT: Do wyjaśnienia, w oryginalnym pytanie wydawało się sugerować, że w zapisie ML, była równoważna statystyka na x i notacja. W mojej odpowiedzi twierdzę, że nie jest to tak naprawdę powszechne w literaturze ML. To prawda. Jednak, jak podkreślił @amoeba, jest mnóstwo indeksie górnym zapisie w literaturze ml dla danych, ale w tych przypadkach x ( i ) zazwyczaj nie oznacza í t h obserwację pojedynczego wektora x .x(i) xi x(i) ith x
źródło
=
==
W matematyce indeksy górne i lewe są używane w zależności od dziedziny. Wybór jest zawsze dziedzictwem historycznym, niczym więcej. Ktokolwiek pierwszy wszedł w teren, ustalił konwencję używania subskryptów lub indeksów górnych.
Dlatego wybór indeksów górnych przez Ng jest również czysto historyczny. Nie ma prawdziwego powodu, aby z nich korzystać lub nie korzystać z nich, ani też preferować indeksów dolnych. Właściwie uważam, że tutaj ludzie ML używają notacji tensorowej. Zdecydowanie dobrze znają temat, np. Patrz ten artykuł.
źródło