Wpis w Wikipedii dotyczący prawdopodobieństwa wydaje się niejednoznaczny

26

Mam proste pytanie dotyczące „prawdopodobieństwa warunkowego” i „prawdopodobieństwa”. (Sprawdziłem już to pytanie tutaj, ale bezskutecznie).

Zaczyna się od strony Wikipedii dotyczącej prawdopodobieństwa . Mówią to:

Prawdopodobieństwo zestaw wartości parametrów, , biorąc pod uwagę efekty jest równa prawdopodobieństwu tych zaobserwowanych wyników podanych wartości tych parametrów, to jestθx

L(θx)=P(xθ)

Świetny! Tak więc po angielsku czytam to jako: „Prawdopodobieństwo parametrów równych theta, dla danych X = x, (po lewej stronie), jest równe prawdopodobieństwu, że dane X są równe x, biorąc pod uwagę, że parametry są równe theta ”. ( Pogrubienie jest moje dla podkreślenia ).

Jednak nie mniej niż 3 linie później na tej samej stronie, wpis w Wikipedii mówi dalej:

Niech X będzie zmienną losową o dyskretnym rozkładzie prawdopodobieństwa p zależnym od parametru θ . Następnie funkcja

L(θx)=pθ(x)=Pθ(X=x),

rozpatrywana jako funkcja θ , nazywa się funkcją prawdopodobieństwa (of θ , biorąc pod uwagę wynik x losowej zmiennej X ). Czasami prawdopodobieństwo wartości x z X do wartości parametru θ jest napisane jako P(X=xθ) ; często zapisywane jako P(X=x;θ) aby podkreślić, że różni sięL(θx) to od \ mathcal {L} (\ theta \ mid x), co nie jest prawdopodobieństwem warunkowym , ponieważ θ jest parametrem, a nie zmienną losową.

( Pogrubienie jest moje dla podkreślenia ). Tak więc w pierwszym cytacie dosłownie powiedziano nam o prawdopodobieństwie warunkowym P(xθ) , ale zaraz potem powiedziano nam, że tak naprawdę NIE jest to prawdopodobieństwo warunkowe i powinno być napisane jako P(X=x;θ) ?

Więc który to jest? Czy prawdopodobieństwo faktycznie wiąże się z prawdopodobieństwem warunkowym, podobnie jak w pierwszym cytacie? Czy też oznacza to proste prawdopodobieństwo, podobnie jak drugi cytat?

EDYTOWAĆ:

Na podstawie wszystkich pomocnych i wnikliwych odpowiedzi, które otrzymałem do tej pory, streściłem moje pytanie - i moje dotychczasowe zrozumienie:

  • W języku angielskim mówimy: „Prawdopodobieństwo jest funkcją parametrów, PODAJ obserwowane dane”. W matematyce piszemy to jako: .L(Θ=θX=x)
  • Prawdopodobieństwo nie jest prawdopodobieństwem.
  • Prawdopodobieństwo nie jest rozkładem prawdopodobieństwa.
  • Prawdopodobieństwo nie jest masą prawdopodobieństwa.
  • Prawdopodobieństwo jest jednak w języku angielskim : „Iloczyn rozkładów prawdopodobieństwa (przypadek ciągły) lub iloczyn mas prawdopodobieństwa (przypadek dyskretny), gdzie , i sparametryzowany przez . " W matematyce piszemy to w ten sposób: (ciągły przypadek, gdzie jest plikiem PDF) i jako (przypadek dyskretny, gdzie jest masą prawdopodobieństwa). Na wynos tutaj jest to, że w żadnym momencie tutajΘ = θ L ( Θ = θ X = x ) = f ( X = x ; Θ = θ ) f L ( Θ = θ X = x ) = P ( X = x ; Θ = θ ) PX=xΘ=θL(Θ=θX=x)=f(X=x;Θ=θ)f
    L(Θ=θX=x)=P(X=x;Θ=θ)P jest w ogóle prawdopodobieństwo warunkowe.
  • W twierdzeniu Bayesa mamy: . Potocznie mówi się nam, że „ jest prawdopodobieństwem”, jednak nie jest to prawdą , ponieważ może być rzeczywista zmienna losowa. Dlatego możemy poprawnie powiedzieć, że termin jest po prostu „podobny” do prawdopodobieństwa. (?) [Nie jestem tego pewien.] P(X=xΘ=θP(Θ=θX=x)=P(X=xΘ=θ) P(Θ=θ)P(X=x)P(X=xΘ=θ) P ( X = x Θ = θ )ΘP.(X=xΘ=θ)

EDYCJA II:

Na podstawie odpowiedzi @amoebas narysowałem jego ostatni komentarz. Myślę, że to dość wyjaśnia i myślę, że to wyjaśnia moją główną sprzeczkę. (Komentarze do obrazu).

wprowadź opis zdjęcia tutaj

EDYCJA III:

Rozszerzyłem również komentarze @amoebas do sprawy Bayesian:

wprowadź opis zdjęcia tutaj

Creatron
źródło
Masz już dwie fajne odpowiedzi, ale sprawdź także stats.stackexchange.com/q/112451/35989
Tim
@ Tim Doskonałe dzięki dzięki! Niestety nadal nie jestem pewien, jakie konkretne pytania mam względem prawdopodobieństwa i prawdopodobieństwa warunkowego (?), Które wydaje się ono wywoływać. W tej kwestii wciąż nie jestem do końca jasna. : - /
Creatron,
2
„Biorąc to pod uwagę” nie zawsze oznacza warunkowe prawdopodobieństwo. Czasami to wyrażenie jest jedynie próbą wskazania, jakie symbole mają być ustalone w obliczeniach lub koncepcyjnie.
whuber
2
Niektórzy ludzie rzeczywiście używają takiej konwencji typograficznej z średnikami. Istnieje wiele, wiele konwencji: indeksy dolne, indeks górny itp. Często trzeba dowiedzieć się, co ktoś oznacza z kontekstu lub opisów tekstowych tego, co robią.
whuber
4
Kiedy jest zmienną losową (to znaczy wartością uważaną za wynikającą ze zmiennej losowej ), nic w definicji prawdopodobieństwa się nie zmienia. To wciąż prawdopodobieństwo. Logicznie rzecz biorąc, nie różni się to od powiedzenia, że ​​niebieski motyl wciąż jest motylem. Technicznie rodzi to problemy dotyczące wspólnej dystrybucji i . Oczywiście ten wspólny rozkład musi być dobrze zdefiniowany i cieszyć się pewnymi „warunkami regularności”, zanim będzie można zidentyfikować prawdopodobieństwo z prawdopodobieństwem warunkowym. Θ Θ xθΘΘx
whuber

Odpowiedzi:

18

Myślę, że jest to w dużej mierze niepotrzebne dzielenie włosów.

Warunkowego prawdopodobieństwa z podanych jest zdefiniowany przez dwie zmiennych losowych i o wartościach i . Ale możemy też mówić o prawdopodobieństwie dla podanego gdzie nie jest zmienną losową, ale parametrem.x y X Y x y P ( x θ ) x θ θP(xy)P(X=xY=y)xyXYxyP(xθ)xθθ

Zauważ, że w obu przypadkach można użyć tego samego terminu „dany” i tego samego zapisu . Nie ma potrzeby wymyślania różnych zapisów. Co więcej, tak zwany „parametr” i „zmienna losowa” może zależeć od twojej filozofii, ale matematyka się nie zmienia.P()

Pierwszy cytat z Wikipedii stwierdza, że z definicji. Zakłada się tutaj, że jest parametrem. Drugi cytat mówi, że jest nie warunkowego prawdopodobieństwa. Oznacza to, że nie jest to warunkowe prawdopodobieństwo dla ; i rzeczywiście nie może tak być, ponieważ przyjmuje się , że jest tutaj parametrem.θ L ( θ x ) θ x θL(θx)=P(xθ)θL(θx)θxθ

W kontekście twierdzenia Bayesa oba i są zmiennymi losowymi. Ale nadal możemy nazwać „prawdopodobieństwem” (z ), a teraz jest to również binarne prawdopodobieństwo warunkowe ( ). Ta terminologia jest standardem w statystyce bayesowskiej. Nikt nie mówi, że jest to coś „podobnego” do prawdopodobieństwa; ludzie nazywają to po prostu prawdopodobieństwem.

P(ab)=P(ba)P(a)P(b),
abP(ba)ab

Uwaga 1: W ostatnim akapicie jest oczywiście warunkowym prawdopodobieństwem . Jako prawdopodobieństwo jest postrzegane jako funkcja ; ale nie jest to rozkład prawdopodobieństwa (lub prawdopodobieństwo warunkowe) z ! Jego całka nad niekoniecznie musi być równa . (Podczas gdy jego całka nad .)b L ( a b ) a a a 1 bP(ba)bL(ab)aaa1b

Uwaga 2: Czasami prawdopodobieństwo określa się do arbitralnej stałej proporcjonalności, jak podkreśla @MichaelLew (ponieważ ludzie są zainteresowani współczynnikami prawdopodobieństwa ). Może to być przydatne, ale nie zawsze jest wykonywane i nie jest konieczne.


Zobacz także Jaka jest różnica między „prawdopodobieństwem” a „prawdopodobieństwem”? a w szczególności odpowiedź @ whubera tam.

W pełni zgadzam się z odpowiedzią @ Tima w tym wątku (+1).

ameba mówi Przywróć Monikę
źródło
1
Czy zatem prawdopodobieństwo może być równe prawdopodobieństwu warunkowemu (jak w ostatnim akapicie), prawda? Właśnie to próbuję rozwiązać. Na przykład w jednej z pierwszych odpowiedzi mamy: „ Po pierwsze, prawdopodobieństwo nie może być zasadniczo równe prawdopodobieństwu danych, biorąc pod uwagę wartość parametru, ponieważ prawdopodobieństwo jest określone tylko do stałej proporcjonalności . Fisher wyraźnie o tym mówił, gdy po raz pierwszy sformalizowane prawdopodobieństwo (Fisher, 1922). „To właśnie próbuję wyrównać. Czy prawdopodobieństwo - czy prawdopodobieństwo - może być kiedykolwiek równe prawdopodobieństwu warunkowemu?
Creatron
@Creatron Dodałem dwie uwagi do mojej odpowiedzi. Czy oni to wyjaśniają?
ameba mówi Przywróć Monikę
1
W odniesieniu do uwagi 1: Ponieważ jest warunkowym rozkładem prawdopodobieństwa, a ponieważ nie może być rozkładem prawdopodobieństwa, wydaje mi się, że najbardziej „poprawny” sposób możemy zapisać równanie dla prawdopodobieństwo w tym kontekście wynosi: , a nie jako . (Wiem, że przy optymalizacji nie robi to różnicy, ale staram się ustalić poprawność prawdopodobieństwa). Czy moje rozumowanie jest prawidłowe? Dziękuję za Twoją cierpliwość. P(b|a) L(a|b) L(a|b)P(b|a)L(a|b)=P(b|a)
Creatron
1
@Creatron Myślę, że mylisz tutaj kilka różnych problemów. Zakładam, że mówimy o ustawieniu twierdzenie Bayesa (czyli to, co my Uwaga 1 dotyczy), gdzie zarówno i są zdarzeniami losowymi. Ok, więc jest warunkowym rozkładem prawdopodobieństwa biorąc uwagę . Ale należy postrzegać jako funkcję , nie ! I nie jest to rozkład prawdopodobieństwa ponieważ nie sumuje się do jednego. Nie ma to nic wspólnego z kwestią lub proporcjonalnością (co jest moją uwagą 2). Myślę, że możemy napisać . abP(b|a)baL(a|b)abaL(a|b)=P(b|a)
ameba mówi Przywróć Monikę
1
Amoeba, dziękuję !! Odegrałeś znaczącą rolę w rozplątywaniu dla mnie tych koncepcji, dziękuję bardzo !! :) Właśnie „rozszerzyłem” schemat na przypadek Bayesa i byłbym wdzięczny za twoją opinię, aby upewnić się, że dobrze to zrozumiałem. Zaakceptowałem również twoją odpowiedź. Jeszcze raz, ogromnie łaskawy!
Creatron
10

Masz już dwie fajne odpowiedzi, ale ponieważ nadal wydaje się to niejasne, pozwól mi podać jedną. Prawdopodobieństwo jest zdefiniowane jako

L(θ|X)=P(X|θ)=ifθ(xi)

mamy więc prawdopodobieństwo jakiejś wartości parametru danej dane X . Jest on równy iloczynowi funkcji prawdopodobieństwa (przypadek dyskretny) lub funkcji gęstości (przypadek ciągły) f z X sparametryzowanego przez θ . Prawdopodobieństwo jest funkcją parametru przy danych. Zauważ, że θ jest parametrem, który optymalizujemy, a nie zmienną losową, więc nie ma przypisanych żadnych prawdopodobieństw. Dlatego Wikipedia stwierdza, że ​​stosowanie warunkowego zapisu prawdopodobieństwa może być niejednoznaczne, ponieważ nie uzależniamy żadnej zmiennej losowej. Z drugiej strony w ustawieniu bayesowskim θ jestθ XfXθθθ zmienna losowa i ma rozkład, więc możemy z nią pracować jak z każdą inną zmienną losową i możemy użyć twierdzenia Bayesa do obliczenia prawdopodobieństw późniejszych. Prawdopodobieństwo Bayesa jest nadal prawdopodobieństwem, ponieważ mówi nam o prawdopodobieństwie danych z uwagi na parametr, jedyną różnicą jest to, że parametr jest uważany za zmienną losową.

Jeśli znasz programowanie, możesz pomyśleć o funkcji prawdopodobieństwa jako o funkcji przeciążonej w programowaniu. Niektóre języki programowania pozwalają mieć funkcję, która działa inaczej, gdy jest wywoływana przy użyciu różnych typów parametrów. Jeśli myślisz o takim prawdopodobieństwie, to domyślnie przyjmuje jako argument pewną wartość parametru i zwraca prawdopodobieństwo danych, biorąc pod uwagę ten parametr. Z drugiej strony, możesz użyć takiej funkcji w ustawieniu Bayesa, gdzie parametr jest zmienną losową, co prowadzi do zasadniczo tego samego wyniku, ale można to rozumieć jako prawdopodobieństwo warunkowe, ponieważ warunkujemy zmienną losową. W obu przypadkach funkcja działa tak samo, wystarczy jej użyć i zrozumieć ją nieco inaczej.

// likelihood "as" overloaded function
Default Likelihood(Numeric theta, Data X) {
    return f(X, theta); // returns likelihood, not probability
}

Bayesian Likelihood(RandomVariable theta, Data X) {
    return f(X, theta); // since theta is r.v., the output can be
                        // understood as conditional probability
}

Co więcej, raczej nie znajdziesz Bayesianów, którzy piszą twierdzenie Bayesa jako

P(θ|X)L(θ|X)P(θ)

... to byłoby bardzo mylące . Po pierwsze, miałbyś po obu stronach równania i nie miałoby to większego sensu. Po drugie, mamy późniejsze prawdopodobieństwo, aby wiedzieć o prawdopodobieństwie θ danych (tj. Rzeczy, którą chcielibyście wiedzieć w strukturze prawdopodobieństwa, ale nie macie, kiedy θ nie jest zmienną losową). Po trzecie, ponieważ θ jest zmienną losową, mamy ją i zapisujemy jako prawdopodobieństwo warunkowe. The L.θ|XθθθL-notacja jest zasadniczo zarezerwowana dla ustawienia prawdopodobieństwa. W obu podejściach nazwa prawdopodobieństwa jest używana przez konwencję w celu określenia podobnej rzeczy: prawdopodobieństwa zaobserwowania takich zmian danych przy danym modelu i parametrze.

Tim
źródło
Dziękuję Tim, bardzo mi to pomogło. Ponownie skonsolidowałem swoje pytanie (patrz „Edycja”) z tą nową wiedzą. Wierzę, że wszystko, co tam napisałem, jest prawdą. Jedyną przeszkodą jest ostatni punkt na liście według zasady Bayesa. Jeśli mógłbyś rzucić okiem, byłbym bardzo wdzięczny. Jeszcze raz dziękuję i życzę uznania!
Creatron
1
@Creatron Dodałem zdanie komentujące twój ostatni pocisk do mojej odpowiedzi, mam nadzieję, że teraz jest jasne - jeśli nie, powiedz to.
Tim
(1/2) Twoje zmiany w przeciążonym operatorze bardzo mi pomagają. W tym przypadku wydaje mi się, że możemy to powiedzieć: 1) Zgodnie z „matematycznie czystym” (przypadek historyczny w sensie tego, co prawdopodobnie miał na myśli Fisher), przypadek, w którym nie jest zmienną losową, a zamiast tego jest parametrem pliku PDF (lub funkcji parametru?), prawdopodobieństwo jest równe prawdopodobieństwu P ( X = x ; θ ) . Jasne, że funkcja prawdopodobieństwa NIE jest rozkładem prawdopodobieństwa, ale jest RÓWNA DO prawdopodobieństwa P ( X = x ; θ ) . Czy to jest poprawne? θP(X=x;θ)P(X=x;θ)
Creatron
(2/2) Jednak w drugim przypadku (2), gdy kontekstem jest ustawienie bayesowskie, wówczas w tym przypadku naszymi parametrami są rv, a więc w tym przypadku prawdopodobieństwo JEST w rzeczywistości warunkowym rozkładem prawdopodobieństwa P (b | a), zapisane jednak jako L (a | b). Tak więc w pierwszym przypadku „domyślnym” prawdopodobieństwo zdecydowanie NIE było rozkładem prawdopodobieństwa (ale było równe wartości prawdopodobieństwa), jednak w drugim przypadku prawdopodobieństwo JEST w rzeczywistości rozkładem prawdopodobieństwa, a ten rozkład prawdopodobieństwa jest warunkowy prawdopodobieństwo, zapisane jako P (b | a). Czy to jest poprawne?
Creatron,
2
Dziękuję Tim, mimo że zaakceptowałem odpowiedź @amoeba, twój post naprawdę pomógł mi zrozumieć tę różnorodną i głęboką koncepcję, szczególnie twoją analogię do przeciążonych funkcji. Jeszcze raz dziękuję!
Creatron
7

Istnieje kilka aspektów wspólnych opisów prawdopodobieństwa, które są nieprecyzyjne lub pomijają szczegóły w sposób, który powoduje zamieszanie. Wpis w Wikipedii jest dobrym przykładem.

Po pierwsze, prawdopodobieństwo nie może być zasadniczo równe prawdopodobieństwu danych, biorąc pod uwagę wartość parametru, ponieważ prawdopodobieństwo określa się tylko do stałej proporcjonalności. Fisher wyraźnie o tym mówił, kiedy po raz pierwszy sformalizował prawdopodobieństwo (Fisher, 1922). Powodem tego wydaje się fakt, że nie ma ograniczenia na całce (lub sumie) funkcji prawdopodobieństwa, a na prawdopodobieństwo zaobserwowania danych w modelu statystycznym przy dowolnej wartości parametru (-ów) ma silny wpływ precyzja wartości danych i szczegółowość specyfikacji wartości parametrów.x

Po drugie, bardziej pomocne jest myślenie o funkcji wiarygodności niż o indywidualnych prawdopodobieństwach. Funkcja prawdopodobieństwa jest funkcją wartości parametru (parametrów) modelu, co wynika z wykresu funkcji wiarygodności. Taki wykres ułatwia także dostrzeżenie, że prawdopodobieństwa pozwalają na uszeregowanie różnych wartości parametru (ów) według tego, jak dobrze model przewiduje dane po ustawieniu tych wartości parametrów. Badanie funkcji prawdopodobieństwa sprawia, że ​​role danych i wartości parametrów są o wiele bardziej wyraźne, moim zdaniem, niż rozważenie różnych formuł podanych w pierwotnym pytaniu.

Zastosowanie stosunku par prawdopodobieństw w funkcji wiarygodności jako względnego stopnia wsparcia oferowanego przez obserwowane dane dla wartości parametrów (w modelu) pozwala obejść problem nieznanych stałych proporcjonalności, ponieważ stałe te są anulowane w stosunku. Należy zauważyć, że stałe niekoniecznie ulegałyby anulowaniu w stosunku prawdopodobieństw pochodzących z oddzielnych funkcji prawdopodobieństwa (tj. Z różnych modeli statystycznych).

Na koniec warto sprecyzować rolę modelu statystycznego, ponieważ prawdopodobieństwo określa zarówno model statystyczny, jak i dane. Jeśli wybierzesz inny model, otrzymasz inną funkcję wiarygodności i możesz uzyskać inną nieznaną stałą proporcjonalności.

Tak więc, aby odpowiedzieć na pierwotne pytanie, prawdopodobieństwa nie są żadnym prawdopodobieństwem. Nie przestrzegają aksjomatów prawdopodobieństwa Kołmogorowa i odgrywają inną rolę w statystycznym poparciu wnioskowania niż role odgrywane przez różne typy prawdopodobieństwa.

  1. Fisher (1922) O matematycznych podstawach statystyki http://rsta.royalsocietypublishing.org/content/222/594-604/309
Michael Lew
źródło
1
Pierwszy wiersz w twoim poście podsumowuje moją frustrację związaną z tym tematem. W każdym razie niektóre pytania oparte na twoim stanowisku, proszę pana: 1) Formuła bayesowska jest często zapisywana jako , gdzie (powiedziano nam), żeP(b|a)jest „prawdopodobieństwem”, aP(a)jest „uprzednim”. Jeśli prawdopodobieństwo nie jest prawdopodobieństwem, to czy to stwierdzenie jest fałszywe? 2) Moja motywacja do pytania dotyczy kontekstu oszacowania maksymalnego prawdopodobieństwa, które nieuchronnie łączy prawdopodobieństwo z (pozornie) konkretnym (warunkowym) prawdopodobieństwem. Biorąc pod uwagę te dwa przykłady, jak je następnie pogodzić? Dzięki. P(a|b)=P(b|a)P(a)P(b)P(b|a)P(a)
Creatron
@Creatron 1. Nie, stwierdzenie niekoniecznie jest błędne. Funkcja prawdopodobieństwa polega na tym, w jaki sposób dowód wchodzi do obliczeń, a połączenie go z rozkładem prawdopodobieństwa daje rozkład prawdopodobieństwa. W tym kontekście nieznana stała proporcjonalności nie stanowi problemu, ponieważ po iloczynie funkcji prawdopodobieństwa i wcześniejszego prawdopodobieństwa rozkład jest arbitralnie skalowany, tak aby miał poprawną całkę jedności (lub sumę).
Michael Lew
2. W kontekście znalezienia oszacowania maksymalnego prawdopodobieństwa nie ma znaczenia, czy użyjesz prawdopodobieństwa warunkowego, czy prawdopodobieństwa, ponieważ będą one proporcjonalne w całym zakresie wartości parametrów.
Michael Lew
1
Czy możemy zatem powiedzieć, że podczas gdy jest technicznie niepoprawne, L ( θ | x ) P ( x | θ ) jest technicznie i formalnie poprawne? Czy to wszystko? L(θ|x)=P(x|θ)L(θ|x)P(x|θ)
Creatron
Dziękuję Micheal Lew, twój post naprawdę pomógł w zrozumieniu tego problemu, bardzo doceniony.
Creatron
7

Wikipedia powinien powiedzieć, że nie jest prawdopodobieństwo warunkowe θ bytu w pewnym określonym zestawie, ani gęstości prawdopodobieństwa θ . Rzeczywiście, jeśli istnieje nieskończenie wiele wartości θ w przestrzeni parametrów, możesz mieć θ L ( θ ) = , na przykład przez L ( θ ) = 1 niezależnie od wartości θ , i jeśli istnieje jakiś standard zmierz d θ w przestrzeni parametrów ΘL(θ)θθθ

θL(θ)=,
L(θ)=1θdθΘ, to w ten sam sposób można mieć Istotną kwestią, którą należy podkreślić w tym artykule, jest to, że L jest funkcją θ P ( x θ ),  a NIE  x P ( x θ ) .
ΘL(θ)dθ=.
L
θP(xθ) and NOT xP(xθ).
Michael Hardy
źródło
2
+1 i dziękuję za edycję mojej odpowiedzi; Zapomniałem, że \midistnieje.
ameba mówi Przywróć Monikę
@amoeba: Cieszę się, że mogę pomóc.
Michael Hardy,
3

„Czytam to jako:” Prawdopodobieństwo parametrów równych theta, dla danych X = x, (po lewej stronie), jest równe prawdopodobieństwu, że dane X są równe x, biorąc pod uwagę, że parametry są równe theta ". (Pogrubienie jest moje dla podkreślenia)."

P(x|θ)L(θ|x)

θθ=θθ

Alex R.
źródło
P(a|b)L(θ|x)=P(X=x;θ)
P(a|b)=P(b|a) P(a)P(b)P(b|a)
L(θ|x):=P(x|θ)θxLLθ
L(θ|x) := P(x|θ) a conditional probability?
Creatron
This makes more sense to me now. Thanks for your initial help, @Alex.
Creatron