نابرابری چبیشف - ویکی‌پدیا، دانشنامهٔ آزاد

در نظریه احتمالات، نابرابری چبیشف، تضمین می‌کند که در هر نمونه تصادفی یا توزیع احتمال، «تقریباً تمامی» مقادیر، در نزدیکی میانگین خواهند بود. به‌طور دقیقتر این قضیه بیان می‌کند که حداکثر مقادیری که در هر توزیع می‌تواند بیش از k برابر انحراف معیار با میانگین فاصله داشته باشد، است. این نامساوی بسیار کاربردی است، چون می‌تواند برای هر توزیع دلخواهی به کار برده شود (جز مواردی که میانگین و واریانس نامعلوم اند). به عنوان مثال از این نامساوی برای اثبات قانون ضعیف اعداد بزرگ استفاده می‌شود.

عنوان نامساوی از نام ریاضیدان روسی پافنوتی چبیشف، گرفته شده‌است، اگرچه در ابتدا نامساوی توسط دوست و همکلاسش فرموله شد. این نامساوی را می‌توان به صورت کاملاً کلی با کمک نظریه اندازه، بیان کرد.

شرح مسئله[ویرایش]

شرح با نظریه اندازه[ویرایش]

اگر (X،  Σ،  μ) یک فضای اندازه و ƒ یک تابع اندازه پذیر با مقادیر حقیقی گسترش یافته، تعریف شده بر X باشد، آنگاه:

به‌طور کلی، اگر g یک تابع اندازه پذیر با مقادیر حقیقی گسترش یافته، نامنفی و غیر نزولی روی برد ƒ باشد، آنگاه:

با تعریف (g(t به صورت:

و استفاده از |ƒ| به جای ƒ، در رابطه قبل، حاصل می‌شود.

شرح احتمالی[ویرایش]

اگر X متغیری تصادفی با امید ریاضی μ و واریانس نامتناهی σ2 باشد، برای هر مقدار حقیقی k> 0، داریم:

که تنها حالت k> 1 ارزش استنباطی دارد (در حالت k ≤ ۱ عبارت سمت راست بیشتر از یک خواهد شد که معنادار نیست، مسلماً طبق اصول احتمال، احتمال هر پدیده بیشتر از یک نیست). به عنوان مثال در حالت: نتیجه می‌شود، دست کم نیمی از مقادیر توزیع X بین (μ-√۲ σ، μ+√۲ σ) قرار خواهند گرفت.

به دلیل عمومی بودن فرضیات قضیه (تنها فرض لازم، معلوم بودن گشتاورهای اول و دوم است)، نسبت به حالتی که معلومات بیشتری از توزیع داریم (مثلاً معلوم بودن. سایر گشتاورها)، این نابرابری، کران‌های عریض تری ایجاد می‌کند. (و در نتیجه در حالت دوم دقیقترین کران نیست).

بعنوان مثال، فرض کنید دسته‌ای مجله داریم که به‌طور متوسط محتوی ۱۰۰۰ کلمه‌اند و انحراف معیاری برابر ۲۰۰ کلمه دارند. در اینصورت می‌توان نتیجه گرفت، نسبت مجلاتی که حاوی ۶۰۰ تا ۱۴۰۰ کلمه‌اند (یعنی بین k = 2 برابر انحراف معیار از میانگین) نمی‌تواند کمتر از باشد. چون طبق نابرابری چبیشف بیش از 1/k&sup2=۱/۴ مجله خارج از محدودهٔ فوق قرار نمی‌گیرند. اما اگر علاوه بر اطلاعات بالا بدانیم که توزیع کلمات نرمالاست، می‌توانیم بگوییم ۷۵ درصد از مقادیر مابین ۷۷۰ و ۱۲۳۰ قرار دارند (همچنان که انتظار می‌رفت، نابرابری اخیر دقیقتر است).

همانگونه که در مثال فوق نشان داده شد، کران‌های نابرابری چبیشف، عموماً دقت نسبی لازم را ندارند. با این حال، کران‌های ارائه شده در نابرابری چبیشف نمی‌توانند در حالت کلی، بهبود یابند. مثالاً، برای هر k ≥ 1 با متغیر زیر که مقادیر کران را اختیار می‌کند:

برای این توزیع میانگین μ = ۰ و انحراف معیار σ=1/k داریم:

تساوی برای هر توزیعی که تبدیل خطی متغیر بالا است، رخ می‌دهد؛ و در سایر حالات، تنها نابرابری صریح صادق است.

سایر اشکال: نابرابری یک-طرفهٔ چبیشف[ویرایش]

نابرابری چبیشف به شکل یک-طرفه با k> 0 به صورت زیر است:[۱]

شکل یک-طرفهٔ نابرابری چبیشف، نابرابری کانتلی نامیده می‌شود.

استفاده در تعیین فاصلهٔ بین میانگین و میانه[ویرایش]

با استفاده از شکل یک-طرفهٔ نابرابری چبیشف، می‌توان نشان داد که برای هر توزیع احتمال با امید ریاضی و میانه تعریف شده، فاصلهٔ بین میانگین و میانه هرگز بیشتر از یک انحراف معیار نیست. به زبان ریاضی، اگر μ، m وσ به ترتیب، میانه، میانگین و واریانس توزیع باشند، داریم:

توجه کنید که به فرض متناهی بودن واریانس (یا معادل آن به فرض وجود واریانس) نیازی نیست.

اثبات با نابرابری چبیشف[ویرایش]

با فرض k = 1 با استفاده از شکل یک-طرفهٔ نابرابری چبیشف:

با تغییر علامت X و μ داریم:

فاصلهٔ میانه تا میانگین حداکثر یک انحراف معیار است.

اثبات با نابرابری جنسن[ویرایش]

با دو بار استفاده از نابرابری جنسن، داریم:

نابرابری اول با استفاده از نابرابری جنسن (حالت تابع کوژ) با بکار بردن تابع قدرمطلق (که تابعی کوژ است) بدست می‌آید. نابرابری دوم به دلیل این است که میانه تابع انحراف مطلق را کمینه می‌کند.

نابرابری سوم با استفاده از نابرابری جنسن (حالت تابع کاو) با بکار بردن تابع ریشه دوم (که تابعی کاو است) بدست می‌آید.

اثبات (حالت دو سویه نابرابری چبیشف)[ویرایش]

اثبات با نظریه اندازه[ویرایش]

فرض کنید At به صورت: {At  := {x ∈ X | ƒ(x) ≥ t تعریف شود و فرض کنید: 1At، تابع مشخصه مجموعهٔ  At باشد. داریم:

بنابراین:

نابرابری مورد نظر با تقسیم نابرابری بالا بر (g(tبه دست می‌آید.

اثبات احتمالی[ویرایش]

طبق نابرابری مارکف برای هر متغیر تصادفی حقیقی مقدار Y و هر عدد مثبت a، داریم: Pr(|Y| > a) ≤ E(|Y|)/a. یک راه ساده برای اثبات نابرابری چبیشف قراردادن متغیر تصادفی Y = (X − μ)2 و مقدار a = (σk)2 در نابرابری مارکوف است.

برای اثبات مستقیم، فرض کنید برای هر پیشامد A متغیر تصادفی نشانگر باشد (یعنی IA اگر A رخ دهد مقدار ۱ و در غیر اینصورت مقدار صفر می‌گیرد) داریم:

منابع[ویرایش]

  1. Grimmett and Stirzaker, problem 7.11.9. اثبات‌های دیگر بایگانی‌شده در ۲۴ فوریه ۲۰۱۹ توسط Wayback Machine.