Statystyka, prognozowanie, ekonometria, data mining Strona Główna
Reklama pqstat.pl
Statystyka, prognozowanie, ekonometria, data mining
Forum miłośników statystyki - Portal Statystyczny

FAQFAQ  SzukajSzukaj  UżytkownicyUżytkownicy  GrupyGrupy  StatystykiStatystyki
RejestracjaRejestracja  ZalogujZaloguj  Chat   Regulamin  Kadra forum
PORTAL STATYSTYCZNY
 Ogłoszenie 
FORUM STATYSTYCZNE MA JUŻ 10 LAT

Znasz statystykę lub ekonometrię, metody prognozowania, data mining i chcesz pomóc w rozwoju forum statystycznego ?
Pisz na: administrator(małpa)statystycy.pl

Rozpoczął swoją działalność portal statystyczny - masz pomysł na jego rozwój ?

Drogi forumowiczu! Zanim napiszesz posta zapoznaj się z regulaminem forum i przedstaw się
The International Year of Statistics (Statistics2013) Smarter Poland Portal statystyczny

Poprzedni temat «» Następny temat

Tagi tematu: Brak tagów.

Rozkład normalny
Autor Wiadomość
Crunchy 
Major
Crunchy


Pomógł: 75 razy
Posty: 1129
Skąd: Katowice
Wysłany: 2010-12-29, 12:07   

maronere napisał/a:
Generalnie rozkład normalny nie jest mi do niczego potrzebny.

Słuszna konstatacja - tego bym się trzymał. :lol:
W celach edukacyjnych proponuję porównać wyniki dla danych kompletnych i pozbawionych skrajnych wartości...
 
     
Google

Wysłany:    Reklama google.

 
 
Crunchy 
Major
Crunchy


Pomógł: 75 razy
Posty: 1129
Skąd: Katowice
Wysłany: 2010-12-29, 23:24   

Jak w teście natężenia stresu od 0 do 63 pkt. ktoś wynalazł >150...
Cytat:
"Na wynik pierwszej korelacji duży wpływ ma odstająca obserwacja - natężenie stresu > 150, bez tej osoby współczynnik mocno się zmniejszy.
:roll:
 
     
Królowa_Śniegu 
Szeregowy


Posty: 6
Skąd: Poznań
Wysłany: 2010-12-29, 23:43   

Nie, nie: 0 - 63 to była depresja - zmienna zależna Natomiast stres to zmienna niezalezna - badany zaznaczał w kwestionariuszu, jakie wydarzenia krytyczne miał w życiu, oceniał, jak bardzo były stresujące (na skali od 0 do 10) i ile ich było, a ja to potem sumowałam, tzn stres ze wszystkich zdarzeń
 
 
     
artemisia 
Szeregowy


Posty: 2
Skąd: Kraków
Wysłany: 2014-08-30, 22:55   

Dobry wieczór! Na wstępie jak chcę zaznaczyć, że marny ze mnie statystyk, więc proszę o tłumaczenie łopatologiczne. Mam problem następującej treści:
”Chcąc przeprowadzić ANOVĘ na 3 grupach, z których każda miała liczebność N>80 dokonano sprawdzenia założeń o jednorodności wariancji i rozkładzie normalnym. Wartość p w teście Levenea wyniosła p=0,24; natomiast w teście Shapiro-Wilka p=0,02. Pomimo niespełnionego założenia o ‘normalności’ przeprowadzono analizę wariancji, dlaczego?”
Wiem tylko tyle, że im większa jest próba tym ANOVA jest bardziej niewrażliwa na odstępstwa od rozkładu normalnego.
Ale czy można czymś jeszcze tłumaczyć jej ‘niewrażliwość’?
Jeżeli był już poruszany taki wątek, to b. proszę o link, a najlepiej jakąś cytację. Z góry bardzo dziękuję!
 
     
Crunchy 
Major
Crunchy


Pomógł: 75 razy
Posty: 1129
Skąd: Katowice
Wysłany: 2014-08-31, 11:22   

Sama wielkość próby niczego nie przesądza, ani nie udowadnia w konkretnym przypadku.
Cytat:
1.1 Problems with Assuming Normality

To begin, distributions are never normal. For some this seems obvious, hardly worth
mentioning, but an aphorism given by Cram´er (1946) and attributed to the mathematician
Poincar´e remains relevant: “Everyone believes in the [normal] law of errors, the
experimenters because they think it is a mathematical theorem, the mathematicians because
they think it is an experimental fact.” Granted, the normal distribution is the most important
distribution in all aspects of statistics. But in terms of approximating the distribution of any
continuous distribution, it can fail to the point that practical problems arise, as will become
evident at numerous points in this book. To believe in the normal distribution implies that
only two numbers are required to tell us everything about the probabilities associated with a
random variable: the population mean and population variance. Moreover, assuming
normality implies that distributions must be symmetric.
Of course, nonnormality is not, by itself, a disaster. Perhaps a normal distribution provides a
good approximation of most distributions that arise in practice, and there is the central limit
theorem, which tells us that under random sampling, as the sample size gets large, the limiting
distribution of the sample mean is normal. Unfortunately, even when a normal distribution
provides a good approximation to the actual distribution being studied (as measured by the
Kolmogorov distance function described later) practical problems arise. Also, empirical
investigations indicate that departures from normality, that have practical importance, are
rather common in applied work (e.g., Hill & Dixon, 1982; Micceri, 1989; Wilcox, 2009a).
Even over a century ago, Karl Pearson and other researchers were concerned about the
assumption that observations follow a normal distribution (e.g., Hand, 1998, p. 649). In
particular, distributions can be highly skewed, they can have heavy tails (tails that are thicker
than a normal distribution), and random samples often have outliers (unusually large or small
values among a sample of observations). Outliers and heavy-tailed distributions are serious
practical problems because they inflate the standard error of the sample mean, so power can
be relatively low when comparing groups. Modern robust methods provide an effective way
of dealing with this problem. Fisher (1922), for example, was aware that the sample mean
could be inefficient under slight departures from normality.

1.5 Is the ANOVA F Robust?

Practical problems with comparing means have already been described, but some additional
comments are in order. For many years, conventional wisdom held that standard analysis of
variance (ANOVA) methods are robust, and this point of view continues to dominate applied
research. In what sense is this view correct? What many early studies found was that if two
groups are identical, meaning that they have identical distributions, Student’s t test and more
generally the ANOVA F-test are robust to nonnormality in the sense that the actual
probability of a type I error would be close to the nominal level. Tan (1982) reviews the
relevant literature. Many took this to mean that the F-test is robust when groups differ. In
terms of power, some studies seemed to confirm this by focusing on standardized differences
among the means.
Many studies have investigated the power of Student’s t test by
examining power as a function of where is the assumed common variance.
What these studies failed to take into account is that small shifts away from normality,
toward a heavy-tailed distribution, lowers,
and this can mask power problems associated with Student’s t test. The important point is that
for a given difference between the means, modern methods can have substantially
more power.
To underscore concerns about power when using Student’s t, consider the two normal
distributions in the left panel ofFigure 1.3. The difference between the means is 0.8 and both
distributions have variance 1. With a random sample of size 40 from both the groups, and
when testing at the 0.05 level, Student’s t has power approximately equal to 0.94. Now look at
the right panel. The difference between the means is again 0.8, but now power is 0.25, despite
the obvious similarity to the right panel. The reason is that the distributions are contaminated
normals, each having variance 10.9.
More recently it has been illustrated that standard confidence intervals for the difference
between means can be unsatisfactory and that the F-test has undesirable power properties.
One concern is that there are situations where, as the difference between the means increases,
power goes down, although eventually it goes up. That is, the F-test can be biased. For
example, Wilcox (1996a) describes a situation involving lognormal distributions where the
probability of rejecting is .18, when testing at the alpha 0.05 level, even though the means are
equal. When the first mean is increased by 0.4 standard deviations, power drops to 0.096, but
increasing the mean by 1 standard deviation, power increases to 0.306. Cressie and Whitford
(1986) show that for unequal sample sizes, and when distributions differ in skewness,
Student’s t test is not even asymptotically correct. More specifically, the variance of the test
statistic does not converge to one as is typically assumed, and there is the additional problem
that the null distribution is skewed. The situation improves by switching to heteroscedastic
methods, but problems remain (e.g., Algina, Oshima, & Lin, 1994).

Introduction to Robust Estimation and Hypothesis Testing, Rand Wilcox (2012)
 
     
artemisia 
Szeregowy


Posty: 2
Skąd: Kraków
Wysłany: 2014-09-07, 18:44   

Z duży opóźnieniem ale - bardzo dziękuję za odpowiedź. Niestety jestem człowiekiem słabego umysłu, więc do zrozumienia tematu musiałam sięgnąć do jeszcze kilku innych źródeł :) w razie gdyby ktoś miał podobny problem polecam: Schmider E. i in., 2010: Is it really robust? Reinvestigating the robustness of ANOVA against violations of the normal distribution assumption. Methodology 6 (4), 147-151. Dostępne np. w serwisie ResearchGate.
 
     
Crunchy 
Major
Crunchy


Pomógł: 75 razy
Posty: 1129
Skąd: Katowice
Wysłany: 2014-09-08, 09:57   

Zwróć jednak uwagę, że przedstawione tam wyniki mówią wyłącznie o sytuacji porównywaniu rozkładów innych niż normalne w określonych warunkach:
- równoliczne i spore (25)
- ten sam typ rozkładu w każdej z trzech grup
Jeżeli w grupie miałabyś próbki z trzech różnych rozkładów wyniki byłyby z pewnością bardziej pesymistyczne. ;-)
 
     
budzy 
Szeregowy
budzy


Posty: 5
Skąd: Gorzów Wielkopolski
Wysłany: 2014-11-01, 14:18   

Witam, mam następujące pytanie. Czy jest możliwe przeprowadzenie test nieparametrycznego chi-kwadrat w sytuacji gdy brak jest rozkładu normalnego. Pytanie formuje ponieważ w literaturze spotkałem się z różnymi interpretacjami. Jedni pisali, że rozkład normalny jest konieczny tylko dla testów parametrycznych ale przeczyłem też w jednym ze źródeł, że przy teście chi-kwadrat również jest to jeden z warunków do jego przeprowadzenia. Dodam, że rozkład normalny sprawdzałem, za pomocą testu K-S. Liczba badanych osób 102. Z góry dziękuję za pomoc :-)
 
     
Crunchy 
Major
Crunchy


Pomógł: 75 razy
Posty: 1129
Skąd: Katowice
Wysłany: 2014-11-02, 16:28   

Możliwe jest, tyle że jest to lekkomyślne...
Cytat:
rozkład zmiennej losowej, która jest sumą k kwadratów niezależnych zmiennych losowych o standardowym rozkładzie normalnym.
Test K-S jest dobry tylko dla zmiennych ciągłych, dla dyskretnych będzie miał za małą moc. Jeżeli masz na myśli test niezależności musisz jeszcze brać pod uwagę różnice w ogonie rozkładu (wielomianowy vs ) oraz dyskretność (vs ciągły).
Ostatnio zmieniony przez Crunchy 2014-11-02, 16:44, w całości zmieniany 2 razy  
 
     
budzy 
Szeregowy
budzy


Posty: 5
Skąd: Gorzów Wielkopolski
Wysłany: 2014-11-07, 15:18   

z opóźnieniem dziękuję za odpowiedź
 
     
Ulala 
Szeregowy


Posty: 20
Skąd: Warszawa
Wysłany: 2015-10-18, 22:15   

Czy ktoś z Was mógłby mi troche pomóc...Chce sprawdzic czy są istotne różnice w wartościach eGFR wyliczonych za pomocą dwóch wzorów(nazwijmy je M i E). Rozumiem ze przed wybraniem testu musze spr czy ich rozkład jest zgodny z normalnym.Mam wyliczone wartośći eGFR za pomocą wzoru M i wzoru E również mam wyliczone różnice gdyz wartości maja byc wartościami bezwzglenymi.Czy wiec badajac rozkład robie to na wartościach eGFR wyliczonych za pomoca wzorów czy tez na tych różnicach??Jaki test proponujecie gdy grupy maja licznoścc 7 a niektóre 40?
z góry dziekuje za pomoc
 
     
wwwmetodologpl 
Starszy Szeregowy
Metodolog


Posty: 35
Skąd: Sopot
Wysłany: 2016-10-13, 16:38   

Ja nie wiem, ale używanie testu ks dla małych próbek to jak strzał z armaty do wróbla ;d

Pomoc statystyczna
_________________
www.metodolog.pl
 
     
kleo 
Szeregowy


Posty: 1
Skąd: Poznań
Wysłany: 2016-11-04, 15:10   

Mam być może prozaiczne pytanie. Jeśli analizowane są zmienne zależne (np stężenie glukozy przed i po zastosowaniu pewnego leku) to czy rozkład normalny należy sprawdzić dla różnicy pomiędzy tymi stężeniami, czy osobno dla stężeń przed i po?
 
     
Wyświetl posty z ostatnich:   
Odpowiedz do tematu
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach
Nie możesz załączać plików na tym forum
Możesz ściągać załączniki na tym forum
Dodaj temat do Ulubionych zakładek(IE)
Wersja do druku

Skocz do:  

Podobne Tematy
Temat Autor Forum Odpowiedzi Ostatni post
Brak nowych postów Przyklejony: Rozkład normalny
PoQsa Teoria i rachunek prawdopodobieństwa 46 2014-06-11, 11:18
Shidley
Brak nowych postów Przyklejony: rozkład normalny w regresji
Modelowanie ekonometryczne 8 2016-10-13, 16:35
wwwmetodologpl
Brak nowych postów Przyklejony: Rozkład normalny i reguła 3 sigm
koniu31 Teoria i rachunek prawdopodobieństwa 12 2013-02-09, 20:55
szw1710
Brak nowych postów Przyklejony: Dlaczego rozkład na bazie normalnego jest nie-normalny?
StyleR Teoria i rachunek prawdopodobieństwa 4 2009-12-11, 12:20
StyleR
Brak nowych postów Przyklejony: Rozkład dwumianowy i rozkład Poissona
martaa Teoria i rachunek prawdopodobieństwa 7 2009-11-16, 10:37
Olympia

Ideą przyświecającą istnieniu forum statystycznego jest stworzenie możliwości wymiany informacji, poglądów i doświadczeń osób związanych ze statystyką, mierzenie się z różnego rodzaju problemami statystycznymi i aktuarialnymi. Poruszane problemy: Statystyka w badaniach sondażowych rynku, metody reprezentacyjne, Teoria i rachunek prawdopodobieństwa, statystyka opisowa, teoria estymacji, testowanie hipotez statystycznych, ekonometria, prognozowanie, metody data mining.
Copyright (C) 2006-2015 Statystycy.pl
Powered by phpBB modified by Przemo © 2003 phpBB Group
Strona wygenerowana w 0,07 sekundy. Zapytań do SQL: 25