Jestem nowy w optymalizacji. Ciągle widzę równania, które mają indeks górny 2 i indeks dolny 2 po prawej stronie normy. Na przykład tutaj jest równanie najmniejszych kwadratów
min
Wydaje mi się, że rozumiem indeks górny 2: oznacza to wyprostowanie wartości normy. Ale czym jest indeks dolny 2? Jak mam czytać te równania?
regression
optimization
notation
bernie2436
źródło
źródło
Odpowiedzi:
Masz rację co do indeksu górnego. Indeks dolny określa -norm. p||.||p p
W związku z tym:
I:
źródło
x ‖ x ‖ 2 2 x ‖ x ‖ ‖ x ‖ 2 : = √∥x∥2 jest normą euklidesową wektora ; jest kwadratową normą euklidesową . Zauważ, że ponieważ norma euklidesowa jest prawdopodobnie najczęściej stosowaną normą, ludzie zwykle skracają ją przez. Z definicji przy założeniu euklidesowej przestrzeni wektorowej: .x ∥x∥22 x ∥x∥ ∥x∥2:=x21+x22+⋯+x2n−−−−−−−−−−−−−−−√
Jak wspomniano w komentarzach, indeks dolny odnosi się do stopnia normy. Inne powszechnie stosowane normy są dla , , a . Dla otrzymuje się liczbę elementów niezerowych w , dla (tj. ) otrzymuje się normę Manhattanu, a dla uzyskuje się maksymalną wartość bezwzględną z elementów w . Zarówno i są popularne w rzadkich / skompresowanych ustawieniach aplikacji, w których chce się „zmusić” niektóre współczynniki do wyzerowania.p = 0 p = 1 p = ∞ p = 0 x p = 1 ‖ x ‖ 1 p = ∞ x p = 0 p = 1p p=0 p=1 p=∞ p=0 x p=1 ∥x∥1 p=∞ x p=0 p=1
źródło