Тест Куйпера

Тест Куйпера використовується в статистиці для перевірки того чи даний розподіл, або сімейство розподілів, не має підстав у вибірці даних. Названий на честь голландського математика Ніколаса Койпера[1].

Тест Куйпера тісно пов'язаний з більш відомим тестом Колмогорова – Смирнова (або як його часто називають КС тестом). Як і у випадку з тестом КС, статистика розбіжностей D+ і D позначає абсолютні значення найбільших позитивних і найбільших негативних похибок між двома порівнюваними функціями розподілу. Хитрість тесту Куйпера полягає у використанні величини D+   +   D як тестової статистики. Ця невеличка зміна робить тест Куйпера настільки ж чутливим у хвостах як в медіані, а також робить його інваріантним до циклічних перетворень незалежної змінної. Тест Андерсона-Дарлінга - инший тест, що забезпечує однакову чутливість в хвостах і медіані, проте він не гарантує циклічної інваріантності.

Ця інваріантність до циклічних перетворень робить тест Куйпера неоціненним при тестуванні циклічних варіацій за часом року або днем тижня або часу доби, і взагалі для тестування відповідності і відмінностей між кільцевими розподілами ймовірностей .

Означення[ред. | ред. код]

Ілюстрація двовимірної статистики тесту Куйпера. Кожна з червоних і синіх ліній відповідає емпіричній функції розподілу, а чорні стрілки показують відстані точок, які складають статистику Куйпера.

Тестова статистика, V, тесту Куйпера визначена так: нехай F неперервна функція розподілу, яку приймають за нульову гіпотезу. Позначимо вибірку даних, що є незалежними реалізаціями випадкових величин, з функцією розподілу F, xi (i=1,...,n). Далі визначають[2]

і, нарешті,

Таблиці критичних значень тестової статистики доступні[3] і до них належать деякі випадки, коли тестований розподіл цілком не відомий, тож параметри сімейства розподілів оцінюють.

Якщо тестована гіпотеза правильна, то статистика прямує до розподілу[1]:

.

Аби зменшити залежність розподілу статистики від розміру вибірки, можна в критерії використовувати модифікацію статистики вигляду[4]

,

чи модифікацію статистики типу[5]

.

У першому випадку розбіжностями між розподілом статистики від граничного розподілу можна знехтувати при , у другому — при .

При перевірці простих гіпотез критерій не залежить від розподілу, тобто не залежить від типу тестованого розподілу.

Гіпотезу відхиляють при великих значеннях статистики.

Приклад[ред. | ред. код]

Спробуємо перевірити гіпотезу, що комп'ютери ламаються частіше в певний проміжок в році ніж решту часу. Щоб перевірити це, потрібно зібрати дати коли комп'ютери ламаються і побудувати емпіричну функцію розподілу. Тоді нульова гіпотеза полягає в тому, що невдачі є рівномірно розподіленими. Статистика Куйпера не змінюється, якщо ми змінюємо початок року і для нього не потрібно групувати несправності за місяцями чи щось такого штибу[1][6]. Ще один приклад тестової статистики з такою ж властивістю статистика Уотсона[2][6], яка пов'язана з тестом Крамера–фон Мізеса.

Однак, якщо збої стаються в основному у вихідні, багато тестів рівномірного розподілу, такі як K-С і Куйпера б не здатні цього виявити, оскільки вихідні трапляються протягом року. Ця неможливість відрізнити гребінце-подібні розподіли від неперервного рівномірного розподілу -- є наріжною проблемою статистистик варіацій К-С тесту. Тест Куйпера, застосований до часових подій з модулем один тиждень здатний виявити таку закономірність. Застосовуючи до промодулювані в часі подій К-С тест може дати різні результати, в залежності від фазування даних. У такому прикладі К-С тест може виявляти нерівномірність вибірки даних, якщо починати тиждень в суботу, але не в змозі виявити нерівномірність, якщо вважати початком тижня середу.

Див. також[ред. | ред. код]

Джерела[ред. | ред. код]

  1. а б в Kuiper, N. H. (1960). Tests concerning random points on a circle. Proceedings of the Koninklijke Nederlandse Akademie van Wetenschappen, Series A 63: 38–47.  (англ.)
  2. а б Pearson, E.S., Hartley, H.O. (1972) Biometrika Tables for Statisticians, Volume 2, CUP. ISBN 0-521-06937-8 (page 118)
  3. Pearson, E.S., Hartley, H.O. (1972) Biometrika Tables for Statisticians, Volume 2, CUP. ISBN 0-521-06937-8 (Table 54)
  4. Stephens M. A. EDF statistics for goodness of fit and some comparisons // J. American Statistic. Association. 1974. V. 69. N 347. P. 730—737. (англ.)
  5. Лемешко Б. Ю., Горбунова А. А. О применении и мощности непараметрических критериев согласия Купера, Ватсона и Жанга // Измерительная техника. 2013. № 5. — С.3-9. (рос.)
  6. а б Watson, G.S. (1961) "Goodness-Of-Fit Tests on a Circle", Biometrika, 48 (1/2), 109–114 JSTOR 2333135