Myślałem o tym problemie.
http://en.wikipedia.org/wiki/Two_envelopes_problem
Wierzę w to rozwiązanie i myślę, że je rozumiem, ale jeśli przyjmuję następujące podejście, jestem całkowicie zdezorientowany.
Problem 1:
Oferuję ci następującą grę. Zapłacisz mi 10 $, a ja rzuci uczciwą monetę. Głowy daję ci 5 $, a ogony daję ci 20 $ .
Oczekiwany wynik to 12,5 USD, więc zawsze będziesz grać.
Problem 2:
Dam ci kopertę z 10 $ , koperta jest otwarta i możesz to sprawdzić. I wtedy pokazać kolejną kopertę, tym razem zamknięte i powiedzieć: ta koperta albo ma $ 5 lub $ 20 w niej z jednakowym prawdopodobieństwem. Chcesz zamienić?
Wydaje mi się, że jest to dokładnie to samo, co problem 1, rezygnujesz z 10 USD za 5 USD lub 20 USD , więc znowu zawsze będziesz się zmieniał.
Problem 3:
Robię to samo co powyżej, ale zamykam koperty. Więc nie wiesz, że jest 10 $, ale pewna kwota X. Mówię ci, że druga koperta ma podwójną lub połowę. Teraz, jeśli postępujesz zgodnie z tą samą logiką, którą chcesz przełączyć. To paradoks kopert.
Co zmieniło się po zamknięciu koperty?
EDYTOWAĆ:
Niektórzy twierdzą, że problem 3 nie jest problemem z kopertą i postaram się wyjaśnić poniżej, dlaczego tak myślę, analizując sposób, w jaki każda gra postrzega grę. Daje także lepszą konfigurację do gry.
Wyjaśnienie problemu 3:
Z perspektywy osoby organizującej grę:
Trzymam 2 koperty. W jednym zakładam 10 $, zamykam go i daję graczowi. Mówię mu, że mam jeszcze jedną kopertę, która ma albo podwójną, albo połowę kwoty, którą właśnie ci dałem. Czy chcesz się zmienić? Następnie zaczynam rzucić uczciwą monetę i Głowy wkładam 5 $, a Tails wkładam 20 $ i wręczam mu kopertę. Następnie go pytam. Koperta, którą mi dałeś, ma dwa lub połowę ilości, którą trzymasz. Czy chcesz się zmienić?
Z perspektywy gracza:
Dostaję kopertę i mówię, że istnieje inna koperta, która ma dwa lub połowę kwoty z jednakowym prawdopodobieństwem. Czy chcę się zmienić? Myślę, że mam X
X , stąd 12 (12 X+2X)>X,12(12X+2X)>X więc chcę się przełączyć. Dostaję kopertę i nagle stoję w obliczu dokładnie tej samej sytuacji. Chcę zmienić ponownie, ponieważ druga koperta ma albo dwukrotność, albo połowę kwoty.
źródło
sum(p(X) * (1/2X*f(X) + 2X(1-f(X)) ) = X
, gdzie f (X) jest prawdopodobieństwem, że pierwsza koperta będzie większa, biorąc pod uwagę dowolny konkretny X.Odpowiedzi:
1. NIEZBĘDNE PRAWDOPODOBIEŃSTWA.
W następnych dwóch sekcjach tej notatki przeanalizowano problemy „zgadnij, co jest większe” i „dwie koperty” przy użyciu standardowych narzędzi teorii decyzji (2). Takie podejście, choć proste, wydaje się być nowe. W szczególności identyfikuje zestaw procedur decyzyjnych dla problemu dwóch kopert, które są wyraźnie lepsze od procedur „zawsze zmieniaj” lub „nigdy nie zmieniaj”.
Część 2 wprowadza (standardową) terminologię, pojęcia i notację. Analizuje wszystkie możliwe procedury decyzyjne w celu „odgadnięcia, który problem jest większy”. Czytelnicy zaznajomieni z tym materiałem mogą pominąć tę sekcję. W sekcji 3 zastosowano podobną analizę do problemu dwóch kopert. W sekcji 4 wnioski podsumowano kluczowe punkty.
Wszystkie opublikowane analizy tych zagadek zakładają, że istnieje rozkład prawdopodobieństwa rządzący możliwymi stanami przyrody. To założenie nie jest jednak częścią układanek. Kluczową ideą tych analiz jest to, że odrzucenie tego (nieuzasadnionego) założenia prowadzi do prostego rozwiązania pozornych paradoksów w tych łamigłówkach.
2. PROBLEM „ZGADŹ SIĘ, ŻE WIĘKSZY”.
Eksperymentatorowi powiedziano, że różne liczby rzeczywiste x 1x1 i x 2x2 są zapisane na dwóch kartkach papieru. Patrzy na numer na losowo wybranym poślizgu. Opierając się tylko na tej jednej obserwacji, musi zdecydować, czy jest to mniejsza czy większa z dwóch liczb.
Proste, ale otwarte problemy, takie jak prawdopodobieństwo, są znane z tego, że są mylące i sprzeczne z intuicją. W szczególności istnieją co najmniej trzy różne sposoby, w jakie prawdopodobieństwo wchodzi w obraz. Aby to wyjaśnić, przyjmijmy formalny eksperymentalny punkt widzenia (2).
Rozpocznij od podania funkcji straty . Naszym celem będzie zminimalizowanie jego oczekiwań, w sensie zdefiniowanym poniżej. Dobrym wyborem jest wyrównanie straty równej 1,1 gdy eksperymentator zgadnie poprawnie, a 0 w0 przeciwnym razie. Oczekiwaniem na tę funkcję straty jest prawdopodobieństwo błędnego zgadnięcia. Zasadniczo, poprzez przypisywanie różnych kar niewłaściwym domysłom, funkcja straty odzwierciedla cel odgadywania poprawnie. Oczywiście przyjęcie funkcji straty jest tak samo arbitralne jak przyjęcie wcześniejszego rozkładu prawdopodobieństwa na x 1x1 i x 2x2 , ale jest bardziej naturalny i fundamentalny. Kiedy stajemy przed decyzją, naturalnie bierzemy pod uwagę konsekwencje bycia dobrym lub złym. Jeśli tak czy inaczej nie ma żadnych konsekwencji, po co się tym przejmować? Podejmujemy domniemane rozważenia dotyczące potencjalnej straty za każdym razem, gdy podejmujemy (racjonalną) decyzję, i dlatego korzystamy z wyraźnego rozważenia straty, podczas gdy wykorzystanie prawdopodobieństwa do opisania możliwych wartości na kartkach papieru jest niepotrzebne, sztuczne i… zobaczymy —- może uniemożliwić nam uzyskanie użytecznych rozwiązań.
Teoria decyzji modeluje wyniki obserwacji i ich analizę. Wykorzystuje trzy dodatkowe obiekty matematyczne: przestrzeń próbki, zbiór „stanów natury” i procedurę decyzyjną.
Próbka SS składa się ze wszystkich możliwych obserwacji; tutaj można go zidentyfikować za pomocą RR (zbiór liczb rzeczywistych).
Stany natury ΩΩ to możliwe rozkłady prawdopodobieństwa rządzące wynikiem eksperymentu. (Jest to pierwszy sens, w którym możemy mówić o „prawdopodobieństwie” zdarzenia). W przypadku problemu „zgadnij, który jest większy” są to rozkłady dyskretne przyjmujące wartości o różnych liczbach rzeczywistych x 1x1 i x 2x2 z jednakowymi prawdopodobieństwami z 1212 przy każdej wartości. ΩΩ można sparametryzować za pomocą{ω=(x1,x2)∈R×R| x1>x2}. {ω=(x1,x2)∈R×R | x1>x2}.
Przestrzeń decyzyjna to zbiór binarny Δ = { mniejszy , większy }Δ={smaller,larger} możliwych decyzji.
W tych kategoriach funkcja stratna jest funkcją o wartościach rzeczywistych zdefiniowaną na Ω × ΔΩ×Δ . Mówi nam, jak „zła” jest decyzja (drugi argument) w porównaniu z rzeczywistością (pierwszy argument).
Najbardziej ogólną procedurę decyzja δδ dostępne eksperymentatora jest losowo jeden: wartości dla każdego wyniku doświadczalnego jest rozkład prawdopodobieństwa na hemibursztynianuΔ . Oznacza to, że decyzja, którą należy podjąć po zaobserwowaniu wyniku x,x niekoniecznie jest określona, ale powinna być wybierana losowo zgodnie z rozkładem δ ( x )δ(x) . (Jest to drugi sposób, w jaki może być zaangażowane prawdopodobieństwo).
Gdy ΔΔ ma tylko dwa elementy, każdą procedurę losową można zidentyfikować na podstawie prawdopodobieństwa, które przypisuje ona z góry określonej decyzji, którą konkretnie uważamy za „większą”.
Fizyczny spinner wdraża taką binarną randomizowaną procedurę: swobodnie obracający się wskaźnik zatrzyma się w górnym obszarze, odpowiadającym jednej decyzji w ΔΔ , z prawdopodobieństwem δδ , a w przeciwnym razie zatrzyma się w lewym dolnym obszarze z prawdopodobieństwem 1 - δ ( x )1−δ(x) . Błystka jest całkowicie określana przez określenie wartości δ ( x ) ∈ [ 0 , 1 ]δ(x)∈[0,1] .
Dlatego procedurę decyzyjną można traktować jako funkcję
δ ′ : S → [ 0 , 1 ] ,
gdzie
Pr δ ( x ) (większy)= δ ′ (x) i Pr δ ( x ) (mniejszy)=1- δ ′ (x).
I odwrotnie, każda taka funkcja δ ′δ′ określa losową procedurę decyzyjną. Randomizowane decyzje obejmują decyzje deterministyczne w szczególnym przypadku, w którym zakres δ ′δ′ leży w { 0 , 1 }{0,1} .
Powiedzmy, że kosztem procedury decyzyjnej δδ dla wyniku xx jest oczekiwana strata δ ( x )δ(x) . Oczekiwanie dotyczy rozkładu prawdopodobieństwa δ ( x )δ(x) w przestrzeni decyzyjnej ΔΔ . Każdy stan natury ωω (który, przypomnijmy, jest dwumianowym rozkładem prawdopodobieństwa w przestrzeni próbki SS ) określa oczekiwany koszt dowolnej procedury δδ ; to ryzyko od hemibursztynianuδ do Ohmω , ryzyko δ ( ω )Riskδ(ω) . Oczekuje się tutaj stanu natury ωω .
Procedury decyzyjne są porównywane pod względem funkcji ryzyka. Gdy stan natury jest naprawdę nieznany, εε i δδ są dwiema procedurami, a ryzyko ε ( ω ) ≥ ryzyko δ ( ω )Riskε(ω)≥Riskδ(ω) dla wszystkich ωω , wówczas nie ma sensu stosowanie procedury εε , ponieważ procedura δδ nigdy nie jest gorsza ( i może być lepszy w niektórych przypadkach). Taka procedura εε jest niedopuszczalna; w przeciwnym razie jest to dopuszczalne. Często istnieje wiele dopuszczalnych procedur. Uważamy, że którykolwiek z nich jest „dobry”, ponieważ żaden z nich nie może być konsekwentnie realizowany za pomocą innej procedury.
Zauważ, że nie wprowadzono wcześniejszej dystrybucji ΩΩ („mieszana strategia dla CC ” w terminologii (1)). Jest to trzeci sposób, w jaki prawdopodobieństwo może stanowić część problemu. Wykorzystanie go sprawia, że obecna analiza jest bardziej ogólna niż analiza (1) i odniesień, a jednocześnie jest prostsza.
Tabela 1 ocenia ryzyko, gdy prawdziwy stan przyrody podaje ω = ( x 1 , x 2 ) .ω=(x1,x2). Przypomnij sobie, że x 1 > x 2 .x1>x2.
Tabela 1.Decyzja:Większe powiększenie mniejszy mniejszy Wyniki Prawdopodobieństwo prawdopodobieństwo strat prawdopodobieństwo straty kosztów x 1 1 / 2 δ ' ( x 1 ), 0 1 - δ ' ( x 1 ), 1 1 - δ ' ( x 1 ) x 2 1 / 2 hemibursztynianu ' ( x 2 ) 1 1 - δ ′( x 2 ) 0 1 - δ ′ ( x 2 )
Ryzyko ( x 1 , x 2 ) : ( 1 - δ ′ ( x 1 ) + δ ′ ( x 2 ) ) / 2.
W tych kategoriach pojawia się problem „zgadnij, co jest większe”
To stwierdzenie jest równoważne wymaganiu δ ′ ( x ) > δ ′ ( y ) ilekroć x > y . Stąd konieczne i wystarczające jest, aby procedura decyzyjna eksperymentatora była określona przez jakąś ściśle rosnącą funkcję δ ′ : S → [ 0 , 1 ] . Ten zestaw procedur obejmuje, ale jest większy niż wszystkie „mieszane strategie Q ” z 1 . Jest wieleδ′(x)>δ′(y) x>y. δ′:S→[0,1]. Q losowych procedur decyzyjnych, które są lepsze niż jakakolwiek nieandomizowana procedura!
3. PROBLEM „DWÓCH KOPERTÓW”.
Zachęcające jest to, że ta prosta analiza ujawniła duży zestaw rozwiązań problemu „zgadnij, który jest większy”, w tym dobre, które nie zostały wcześniej zidentyfikowane. Zobaczmy, co to samo podejście może ujawnić w stosunku do drugiego problemu, przed którym stoimy, problemu „dwóch kopert” (lub „problemu pudełkowego”, jak się go czasami nazywa). Dotyczy to gry rozgrywanej przez losowe wybranie jednej z dwóch kopert, z których jedna ma o dwa razy więcej pieniędzy niż druga. Po otwarciu koperty i obserwowaniu ilości xx pieniędzy, gracz decyduje, czy zachować pieniądze w nieotwartej kopercie („zmienić”), czy zachować pieniądze w otwartej kopercie. Można by pomyśleć, że zamiana i brak zamiany byłyby równie akceptowalnymi strategiami, ponieważ gracz jest równie niepewny, która koperta zawiera większą ilość. Paradoksem jest to, że przełączanie wydaje się być opcja lepsza, ponieważ oferuje „równie prawdopodobny” alternatywy między wypłat z 2 x oraz x / 2 , którego oczekiwana wartość 5 x / 4 przekroczy wartość w otwartej kopercie. Zauważ, że obie te strategie są deterministyczne i stałe.2x x/2, 5x/4
W tej sytuacji możemy formalnie napisać
S={x∈R | x>0},Ω={Discrete distributions supported on {ω,2ω} | ω>0 and Pr(ω)=12},andΔ={Switch,Do not switch}.
As before, any decision procedure δδ can be considered a function from SS to [0,1],[0,1], this time by associating it with the probability of not switching, which again can be written δ′(x)δ′(x) . The probability of switching must of course be the complementary value 1–δ′(x).1–δ′(x).
Strata, pokazana w tabeli 2 , jest ujemna z wypłaty gry. Jest to funkcja prawdziwego stanu natury ω , wyniku x (który może wynosić albo ω lub 2 ω ) oraz decyzji, która zależy od wyniku.ω x ω 2ω
Tabela 2.Strata StrataOutcome(x)SwitchDo not switchCostω−2ω−ω−ω[2(1−δ′(ω))+δ′(ω)]2ω−ω−2ω−ω[1−δ′(2ω)+2δ′(2ω)]
In addition to displaying the loss function, Table 2 also computes the cost of an arbitrary decision procedure δδ . Because the game produces the two outcomes with equal probabilities of 1212 , the risk when ωω is the true state of nature is
Riskδ(ω)=−ω[2(1−δ′(ω))+δ′(ω)]/2+−ω[1−δ′(2ω)+2δ′(2ω)]/2=(−ω/2)[3+δ′(2ω)−δ′(ω)].
A constant procedure, which means always switching (δ′(x)=0δ′(x)=0 ) or always standing pat (δ′(x)=1δ′(x)=1 ), will have risk −3ω/2−3ω/2 . Any strictly increasing function, or more generally, any function δ′δ′ with range in [0,1][0,1] for which δ′(2x)>δ′(x)δ′(2x)>δ′(x) for all positive real x,x, determines a procedure δδ having a risk function that is always strictly less than −3ω/2−3ω/2 and thus is superior to either constant procedure, regardless of the true state of nature ωω ! The constant procedures therefore are inadmissible because there exist procedures with risks that are sometimes lower, and never higher, regardless of the state of nature.
Comparing this to the preceding solution of the “guess which is larger” problem shows the close connection between the two. In both cases, an appropriately chosen randomized procedure is demonstrably superior to the “obvious” constant strategies.
These randomized strategies have some notable properties:
There are no bad situations for the randomized strategies: no matter how the amount of money in the envelope is chosen, in the long run these strategies will be no worse than a constant strategy.
No randomized strategy with limiting values of 00 and 11 dominates any of the others: if the expectation for δδ when (ω,2ω)(ω,2ω) is in the envelopes exceeds the expectation for εε , then there exists some other possible state with (η,2η)(η,2η) in the envelopes and the expectation of εε exceeds that of δδ .
The δδ strategies include, as special cases, strategies equivalent to many of the Bayesian strategies. Any strategy that says “switch if xx is less than some threshold TT and stay otherwise” corresponds to δ(x)=1δ(x)=1 when x≥T,δ(x)=0x≥T,δ(x)=0 otherwise.
What, then, is the fallacy in the argument that favors always switching? It lies in the implicit assumption that there is any probability distribution at all for the alternatives. Specifically, having observed xx in the opened envelope, the intuitive argument for switching is based on the conditional probabilities Prob(Amount in unopened envelope | xx was observed), which are probabilities defined on the set of underlying states of nature. But these are not computable from the data. The decision-theoretic framework does not require a probability distribution on ΩΩ in order to solve the problem, nor does the problem specify one.
This result differs from the ones obtained by (1) and its references in a subtle but important way. The other solutions all assume (even though it is irrelevant) there is a prior probability distribution on ΩΩ and then show, essentially, that it must be uniform over S.S. That, in turn, is impossible. However, the solutions to the two-envelope problem given here do not arise as the best decision procedures for some given prior distribution and thereby are overlooked by such an analysis. In the present treatment, it simply does not matter whether a prior probability distribution can exist or not. We might characterize this as a contrast between being uncertain what the envelopes contain (as described by a prior distribution) and being completely ignorant of their contents (so that no prior distribution is relevant).
4. CONCLUSIONS.
In the “guess which is larger” problem, a good procedure is to decide randomly that the observed value is the larger of the two, with a probability that increases as the observed value increases. There is no single best procedure. In the “two envelope” problem, a good procedure is again to decide randomly that the observed amount of money is worth keeping (that is, that it is the larger of the two), with a probability that increases as the observed value increases. Again there is no single best procedure. In both cases, if many players used such a procedure and independently played games for a given ωω , then (regardless of the value of ωω ) on the whole they would win more than they lose, because their decision procedures favor selecting the larger amounts.
In both problems, making an additional assumption-—a prior distribution on the states of nature—-that is not part of the problem gives rise to an apparent paradox. By focusing on what is specified in each problem, this assumption is altogether avoided (tempting as it may be to make), allowing the paradoxes to disappear and straightforward solutions to emerge.
REFERENCES
(1) D. Samet, I. Samet, and D. Schmeidler, One Observation behind Two-Envelope Puzzles. American Mathematical Monthly 111 (April 2004) 347-351.
(2) J. Kiefer, Introduction to Statistical Inference. Springer-Verlag, New York, 1987.
źródło
The issue in general with the two envelope problem is that the problem as presented on wikipedia allows the size of the values in the envelopes to change after the first choice has been made. The problem has been formulized incorrectly.
However, a real world formulation of the problem is this: you have two identical envelopes: AA and BB , where B=2AB=2A . You can pick either envelope and then are offered to swap.
Case 1: You've picked AA . If you switch you gain AA dollars.
Case 2: You've picked BB . If you switch you loose AA dollars.
This is where the flaw in the two-envelope paradox enters in. While you are looking at loosing half the value or doubling your money, you still don't know the original value of AA and the value of AA has been fixed. What you are looking at is either +A+A or −A−A , not 2A2A or 12A12A .
If we assume that the probability of selecting AA or BB at each step is equal,. the after the first offered swap, the results can be either:
Case 1: Picked AA , No swap: Reward AA
Case 2: Picked AA , Swapped for BB : Reward 2A2A
Case 3: Picked BB , No swap: Reward 2A2A
Case 4: Picked BB , Swapped for AA : Reward AA
The end result is that half the time you get AA and half the time you get 2A2A . This will not change no matter how many times you are offered a swap, nor will it change based upon knowing what is in one envelope.
źródło
My interpretation of the question
I am assuming that the setting in problem 3 is as follows: the organizer first selects amount XX and puts XX in the first envelope. Then, the organizer flips a fair coin and based on that puts either 0.5X0.5X or 2X2X to the second envelope. The player knows all this, but not XX nor the result of the coin-flip. The organizer gives the player the first envelope (closed) and asks if the player wants to switch. The questioner argues 1. that the player wants to switch because the switching increases expectation (correct) and 2. that after switching, the same reasoning symmetrically holds and the player wants to switch back (incorrect). I also assume the player is a rational risk-neutral Bayesian agent that puts a probability distribution over XX and maximizes expected amount of money earned.
Note that if the we player did not know about the coin-flip procedure, there might be no reason in the first place to argue that the probabilities are 0.5 for the second envelope to be higher/lower.
Why there is no paradox
Your problem 3 (as interpreted in my answer) is not the envelope paradox. Let the ZZ be a Bernoulli random variable with P(Z=1)=0.5P(Z=1)=0.5 . Define the amount YY in the 2nd envelope so that Z=1Z=1 implies Y=2XY=2X and Z=0Z=0 implies Y=0.5XY=0.5X . In the scenario here, XX is selected without knowledge of the result of the coin-flip and thus ZZ and XX are independent, which implies E(Y∣X)=1.25XE(Y∣X)=1.25X .
E(Y)=E(E(Y∣X))=E(1.25X)=1.25E(X)
To invoke the paradox, you would have to make the situation symmetric, so that you could argue that I also want to switch from envelope 2 to envelope 1. Only this would be the paradox: that I would want to keep switching forever. In the question, you argue that the situation indeed is symmetric, however, there is no justification provided. The situation is not symmetric: the second envelope contains the amount that was picked as a function of a coin-flip and the amount in the first envelope, while the amount in the first envelope was not picked as a function of a coin-flip and the amount in the second envelope. Hence, the argument for switching back from the second envelope is not valid.
Example with small number of possibilities
Let us assume that (the player's belief is that) X=10X=10 or X=40X=40 with equal probabilities, and work out the computations case by case. In this case, the possibilities for (X,Y)(X,Y) are {(10,5),(10,20),(40,20),(40,80)}{(10,5),(10,20),(40,20),(40,80)} , each of which has probability 1/41/4 . First, we look at the player's reasoning when holding the first envelope.
Taking the average over these, the expected gain of switching is 0.5×2.5+0.5×10=6.250.5×2.5+0.5×10=6.25 , so the player switches. Now, let us make similar case-by-case analysis of switching back:
Now, the expected value, i.e. probability-weighted average, of gain by switching back is 0.25×5+0.5×5+0.25×(−40)=−6.250.25×5+0.5×5+0.25×(−40)=−6.25 . So, switching back exactly cancels the expected utility gain.
Another example with a continuum of possibilities
You might object to my previous example by claiming that I maybe cleverly selected the distribution over XX so that in the Y=80Y=80 case the player knows that he is losing. Let us now consider a case where XX has a continuous unbounded distribution: X∼Exp(1)X∼Exp(1) , ZZ independent of XX as previously, and YY as a function of XX and ZZ as previously. The expected gain of switching from XX to YY is again E(0.25X)=0.25E(X)=0.25E(0.25X)=0.25E(X)=0.25 . For the back-switch, we first compute the conditional probability P(X=0.5Y∣Y=y)P(X=0.5Y∣Y=y) using Bayes' theorem:
P(X=0.5Y∣Y=y)=P(Z=1∣Y=y)=p(Y=y∣Z=1)P(Z=1)p(Y=y)=p(2X=y)P(Z=1)p(Y=y)=0.25e−0.5yp(Y=y)
General solution
The situation seen in the two examples must always occur: you cannot construct a probability distribution for X,Z,YX,Z,Y with these conditions: XX is not a.s. 0, ZZ is Bernoulli with P(Z=1)=0.5P(Z=1)=0.5 , ZZ is independent of XX , Y=2XY=2X when Z=1Z=1 and 0.5X0.5X otherwise and also Y,ZY,Z are independent. This is explained in the Wikipedia article under heading 'Proposed resolutions to the alternative interpretation': such a condition would imply that the probability that the smaller envelope has amount between 2n,2n+12n,2n+1 (P(2n<=min(X,Y)<2n+1)P(2n<=min(X,Y)<2n+1) with my notation) would be a constant over all natural numbers nn , which is impossible for a proper probability distribution.
Note that there is another version of the paradox where the probabilities need not be 0.5, but the expectation of other envelope conditional on the amount in this envelope is still always higher. Probability distributions satisfying this type of condition exist (e.g., let the amounts in the envelopes be independent half-Cauchy), but as the Wikipedia article explains, they require infinite mean. I think this part is rather unrelated to your question, but for completeness wanted to mention this.
źródło
Problem 1: Agreed, play the game. The key here is that you know the actual probabilities of winning 5 vs 20 since the outcome is dependent upon the flip of a fair coin.
Problem 2: The problem is the same as problem 1 because you are told that there is an equal probability that either 5 or 20 is in the other envelope.
Problem 3: The difference in problem 3 is that telling me the other envelope has either X/2X/2 or 2X2X in it does not mean that I should assume that the two possibilities are equally likely for all possible values of XX . Doing so implies an improper prior on the possible values of XX . See the Bayesian resolution to the paradox.
źródło
This is a potential explanation that I have. I think it is wrong but I'm not sure. I will post it to be voted on and commented on. Hopefully someone will offer a better explanation.
So the only thing that changed between problem 2 and problem 3 is that the amount became in the envelope you hold became random. If you allow that amount to be negative so there might be a bill there instead of money then it makes perfect sense. The extra information you get when you open the envelope is whether it's a bill or money hence you care to switch in one case while in the other you don't.
If however you are told the bill is not a possibility then the problem remains. (of course do you assign a probability that they lie?)
źródło
Problem 2A: 100 note cards are in an opaque jar. "$10" is written on one side of each card; the opposite side has either "$5" or "$20" written on it. You get to pick a card and look at one side only. You then get to choose one side (the revealed, or the hidden), and you win the amount on that side.
If you see "$5," you know you should choose the hidden side and will win $10. If you see "$20," you know you should choose the revealed side and will win $20. But if you see "$10," I have not given you enough information calculate an expectation for the hidden side. Had I said there were an equal number of {$5,$10} cards as {$10,$20} cards, the expectation would be $12.50. But you can't find the expectation from only the fact - which was still true - that you had equal chances to reveal the higher, or lower, value on the card. You need to know how many of each kind of card there were.
Problem 3A: The same jar is used, but this time the cards all have different, and unknown, values written on them. The only thing that is the same, is that on each card one side is twice the value of the other.
Pick a card, and a side, but don't look at it. There is a 50% chance that it is the higher side, or the lower side. One possible solution is that the card is either {X/2,X} or {X,2X} with 50% probability, where X is your side. But we saw above that the the probability of choosing high or low is not the same thing as these two different cards being equally likely to be in the jar.
What changed between your Problem 2 and Problem 3, is that you made these two probabilities the same in Problem 2 by saying "This envelope either has $5 or $20 in it with equal probability." With unknown values, that can't be true in Problem 3.
źródło
Overview
I believe that they way you have broken out the problem is completely correct. You need to distinguish the "Coin Flip" scenario, from the situation where the money is added to the envelope before the envelope is chosen
Not distinguishing those scenarios lies at the root of many people's confusion.
Problem 1
If you are flipping a coin to decide if either double your money or lose half, always play the game. Instead of double or nothing, it is double or lose some.
Problem 2
This is exactly the same as the coin flip scenario. The only difference is that the person picking the envelope flipped before giving you the first envelope. Note You Did Not Choose an Envelope!!!! You were given one envelope, and then given the choice to switch This is a subtle but important difference over problem 3, which affects the distribution of the priors
Problem 3
This is the classical setup to the two envelope problem. Here you are given the choice between the two envelopes. The most important points to realize are
Interestingly, if you can make some guess as to what the maximum money in the envelope can be, or if you can play the game multiple times, then you can benefit by switching, whenever you open an envelope less than M/2. I have simulated this two envelope problem here and find that if you have this outside information, on average you can do 1.25 as well as just always switching or never switching.
źródło