Uwaga: z góry przepraszam, jeśli jest to duplikat, nie znalazłem podobnego q w moim wyszukiwaniu
Powiedzmy, że mamy prawdziwy parametr p. Przedział ufności C (X) to RV, który zawiera p, powiedzmy 95% czasu. Załóżmy teraz, że obserwujemy X i obliczamy C (X). Częstą odpowiedzią wydaje się być to, że błędne jest interpretowanie tego jako mającego „95% szansy na zawarcie p”, ponieważ „zawiera albo nie zawiera p”
Powiedzmy jednak, że wybieram kartę z wierzchu potasowanej talii i zostawiam ją zakrytą. Intuicyjnie myślę o prawdopodobieństwie, że ta karta będzie Asa pik jako 1/52, mimo że w rzeczywistości „to jest albo nie jest to As pik”. Dlaczego nie mogę zastosować tego rozumowania do przykładu przedziału ufności?
Lub jeśli nie ma sensu mówić o „prawdopodobieństwie”, że karta jest asem pik, ponieważ „jest lub nie jest”, nadal stawiałbym szanse 51: 1, że nie jest to as pik. Czy istnieje inne słowo opisujące tę informację? Czym różni się ta koncepcja od „prawdopodobieństwa”?
edytuj: Być może by było bardziej jasne, na podstawie bayesowskiej interpretacji prawdopodobieństwa, jeśli powiedziano mi, że zmienna losowa zawiera p 95% czasu, biorąc pod uwagę realizację tej zmiennej losowej (i żadnych innych informacji, które można uzależnić) poprawne jest powiedzenie, że zmienna losowa ma 95% prawdopodobieństwo, że zawiera p?
edytuj: także, z częstokształtnej interpretacji prawdopodobieństwa, powiedzmy, że częstokładca zgadza się nie mówić czegoś takiego jak „istnieje 95% prawdopodobieństwa, że przedział ufności zawiera p”. Czy nadal logiczne jest, aby częsty miał „pewność”, że przedział ufności zawiera p?
Niech alfa będzie poziomem istotności, a t = 100-alfa. K (t) to „pewność” częstego, że przedział ufności zawiera p. Ma to sens, że K (t) powinno wzrastać wt. Gdy t = 100%, częsty powinien mieć pewność (z definicji), że przedział ufności zawiera p, abyśmy mogli znormalizować K (1) = 1. Podobnie, K (0) = 0. Przypuszczalnie K (0,95) jest gdzieś pomiędzy 0 i 1, a K (0,999999) jest większy. W jaki sposób częsty uważa, że K różni się od P (rozkład prawdopodobieństwa)?
źródło
Odpowiedzi:
I think lots of conventional accounts of this matter are not clear.
Lets say you take a sample of size100 and get a 95% confidence interval for p .
Then you take another sample of100 , independent of the first, and get another 95% confidence interval for p .
What changes is the confidence interval; what does not change isp . That means that in frequentist methods, one says the confidence interval is "random" but p is "fixed" or "constant", i.e. not random. In frequentist methods, such as the method of confidence intervals, one assigns probabilities only to things that are random.
Let's say in a particular instance you haveL=40.53 and U=43.61 . In frequentist methods one would not assign a probability to the statement 40.53<p<43.61 , other than a probability of 0 or 1 , becuase nothing here is random: 40.53 is not random, p is not random (since it won't change if we take a new sample), and 43.61 is not random.
In practice, people do behave as if they're95% sure that p is between 40.53 and 43.61 . And as a practical matter, that may often make sense. But sometimes it doesn't. One such case is if numbers as large as 40 or more are known in advance to be improbable, or if they are known to be highly probable. If one can assign some prior probability distribution to p , one uses Bayes theorem to get a credible interval, which may differ from the confidence interval because of prior knowledge of which ranges of values of p are probable or improbable. It can also actually happen that the data themselves --- the things that change if a new sample is taken, can tell you that p is unlikely to be, or even certain not to be, as big as 40 . That can happen even in cases in which the pair (L,U) is a sufficient statistic for p . That phenomenon can be dealt with in some instances by Fisher's method of conditioning on an ancillary statistic. An example of this last phenomenon is when the sample consists of just two independent observations that are uniformly distributed in the interval θ±1/2 . Then the interval from the smaller of the two observations to the larger is a 50% confidence interval. But if the distance between them is 0.001 , it would be absurd to be anywhere near 50% sure that θ is between them, and if the distance is 0.999 , one would reasonably be almost 100% sure θ is between them. The distance between them would be the ancillary statistic on which one would condition.
źródło
The textbook definition of a100×(1−α) % confidence interval is:
Probability, to frequentists, comes from the notion of "rewinding time and space" to replicate findings, as if an infinite number of copies of the world were created to assess a scientific finding again and again and again. So a probability is a frequency exactly. For scientists, this is a very convenient way to discuss findings, since the first principle of science is that studies must be replicable.
In your card example, the confusion for Bayesians and Frequentists is that the frequentist does not assign a probability to the face value of the particular card you have flipped from the deck whereas a Bayesian would. The frequentist would assign the probability to a card, flipped from the top of randomly shuffled deck. A Bayesian is not concerned with replicating the study, once the card is flipped, you now have 100% belief about what the card is and 0% belief that it could take any other value. For Bayesians, probability is a measure of belief.
Note that Bayesians do not have confidence intervals for this reason, they summarize uncertainty with credibility intervals.
źródło