تحلیل مؤلفه‌های اصلی - ویکی‌پدیا، دانشنامهٔ آزاد

نقاط سبز رنگ، نمونه‌هایی از توزیع نرمال دومتغیره‌اند و محور آبی رنگ، مختصات جدید در راستای قرار گرفتن بیشترین تغییرات نمونه بر روی مؤلفه‌های اصلی است.

تحلیل مؤلفه‌های اصلی (به انگلیسی: Principal Component Analysis - PCA) تبدیلی در فضای برداری است، که تحلیل مجموعه داده‌های بزرگ با تعداد زیادی بعد یا ویژگی، افزایش تفسیرپذیری داده‌ها با حفظ حداکثر مقدار اطلاعات و تجسم داده‌های چند بعدی را فراهم می‌کند. تحلیل مؤلفه‌های اصلی در واقع، یک تکنیک آماری برای کاهش ابعاد یک مجموعه داده‌است. این کار با تبدیل خطی داده‌ها به یک سیستم مختصات جدید انجام می‌شود که (بیشتر) تغییرات در داده‌ها را می‌توان با ابعاد کمتری نسبت به داده‌های اولیه توصیف کرد. بسیاری از مطالعات از دو مؤلفه اصلی اول برای نمایش داده‌ها در دو بعد و شناسایی بصری خوشه‌های نقاط داده نزدیک به هم استفاده می‌کنند. تحلیل مؤلفه‌های اصلی در بسیاری از زمینه‌ها مانند ژنتیک جمعیت، مطالعات میکروبیوم‌ها و علوم جوی کاربرد دارد.[۱]

مؤلفه‌ها اصلیِ مجموعه‌ای از نقاط در یک فضای مختصات حقیقی، دنباله‌ای از بردارهای واحد هستند، که در آن بردار -ام امتداد خطی است که بهترین تطابق را با داده‌ها دارد و در عین حال به بردار اول متعامد است. در اینجا بهترین خط، خطی است که میانگین مجذورات فاصله عمود نقاط از خط را کمینه می‌کند. این بردارها یک پایه متعامد و یکه را تشکیل می‌دهند که در آن ابعاد مختلف داده‌ها به‌طور خطی همبستگی ندارند. تحلیل مؤلفه‌های اصلی فرایند محاسبه مؤلفه‌های اصلی و استفاده از آن‌ها برای تغییر پایه داده‌ها است که گاهی فقط از چند مؤلفه اصلی اول استفاده می‌کند و بقیه را نادیده می‌گیرد.

تاریخچه[ویرایش]

تحلیل مؤلفه‌های اصلی اولین بار در سال ۱۹۰۱ توسط کارل پیرسون[۲] به عنوان متناظری از قضیه محورهای اصلی در مکانیک ارائه شد. این روش بعدها به صورت مستقل توسط هارولد هتلینگ[۳] در دهه ۱۹۳۰ میلادی توسعه یافت و نام‌گذاری شد. باتوجه به کاربرد این روش آن را تبدیل گسسته کارانن-لوف یا KLT در پردازش سیگنال نیز یا تبدیل هتلینگ در کنترل کیفیت چند متغیره می‌نامند.

ایده[ویرایش]

تحلیل مؤلفه‌های اصلی را می‌توان به عنوان برازش یک بیضی با ابعاد به داده‌ها در نظر گرفت، که در آن هر محور بیضی یک مؤلفه اصلی را نشان می‌دهد. اگر برخی از محورهای بیضی کوچک باشد، واریانس در امتداد آن محور نیز کوچک است. برای پیدا کردن محورهای بیضی، ابتدا باید با کم کردن میانگین مقادیر هر متغیر از آن‌ها، میانگین مجموعه داده را صفر کنیم. این مقادیر تبدیل شده حالا به جای مقادیر اصلی برای هر یک از متغیرها استفاده می‌شود. سپس، ماتریس کواریانس داده‌ها را محاسبه کرده و مقادیر ویژه و بردارهای ویژه آن را محاسبه می‌کنیم. سپس باید هر یک از بردارهای ویژه متعامد را نرمال کنیم تا آنها را به بردارهای واحد تبدیل کنیم. پس از انجام این کار، هر یک از بردارهای ویژه واحد متعامد را می‌توان به عنوان محوری از بیضی برازش داده‌ها تفسیر کرد. این انتخاب پایه، ماتریس کوواریانس را به ماتریسی قطری تبدیل می‌کند، که در آن درایه‌های روی قطر واریانس هر محور را نشان می‌دهد. درصد واریانسی که هر بردار ویژه از اطلاعات موجود بیان می‌کند را می‌توان با تقسیم مقدار ویژه مربوط به آن بردار ویژه بر مجموع همه مقادیر ویژه محاسبه کرد.

جزئیات[ویرایش]

تحلیل مؤلفه‌های اصلی در تعریف ریاضی[۴] یک تبدیل خطی متعامد است که داده را به دستگاه مختصات جدید می‌برد به‌طوری‌که بزرگ‌ترین واریانس داده بر روی اولین محور مختصات، دومین بزرگ‌ترین واریانس بر روی دومین محور مختصات قرار می‌گیرد و همین‌طور برای بقیه.

ماتریس داده با میانگین تجربی صفر، که هر سطر یک مجموعه مشاهده و هر ستون داده‌های مربوط به یک شاخصه است را در نظر بگیرید. از منظر ریاضی، این تبدیل با مجموعه‌ای تایی از بردارهای -بعدیِ وزن یا ضرایب تعریف می‌شود که هر بردار سطری از را به بردار جدیدی از امتیازات مؤلفه‌های اصلی به صورت

تطبیق می‌دهد. به این صورت که متغیرهای در بیشترین واریانس ممکن از داده‌های را داشته باشد. همچنین هر بردار ضریب باید یک بردار واحد باشد و معمولاً بسیار کمتر از انتخاب می‌شود.

مؤلفه اول[ویرایش]

برای این‌که واریانس را بیشینه کنیم، اولین بردار وزن باید شرط زیر را برآورده کند:

و اگر آن را به صورت ماتریسی بنویسیم خواهیم داشت:

از آن‌جایی که باید یک بردار واحد باشد خواهیم داشت:

کمیتی که باید بیشینه شود را می‌توان به عنوان خارج قسمت رایلی در نظر گرفت. یک نتیجه برای یک ماتریس مثبت نیمه معین مانند این است که حداکثر مقدار ممکن ضریب، بزرگ‌ترین مقدار ویژه ماتریس است، که زمانی رخ می‌دهد که بردار ویژه مربوط باشد.

با پیدا کردن ، اولین مؤلفه اصلی بردار داده را می‌توان به صورت امتیاز در مختصات تبدیل‌شده به دست آورد.

مؤلفه‌های بعدی[ویرایش]

مؤلفه ام را می‌توان با کم کردن مؤلفه اصلی اول از به‌دست‌آورد:

و سپس بردار وزنی که حداکثر واریانس را از این ماتریس داده جدید استخراج می‌کند به‌دست می‌آوریم:

عبارت بالا بردارهای ویژه باقیمانده را با حداکثر مقادیر برای کمیت در پرانتز با مقادیر ویژه متناظر آنها را به‌دست می‌آورد؛ بنابراین بردارهای وزن همان بردارهای ویژه هستند. مؤلفه اصلی ام بردار داده را می‌توان به صورت امتیاز در مختصات تبدیل‌شده به دست آورد.

بنابراین، تجزیه کامل مؤلفه‌های اصلی را می‌توان به این صورت نشان داد:

که در آن یک ماتریس از وزن‌ها است که ستون‌های آن بردارهای ویژه هستند. ترانهاده گاهی تبدیل سفید یا کروی نامیده می‌شود.

تجزیه مقدارهای منفرد[ویرایش]

تبدیل مؤلفه‌های اصلی را می‌توان با تجزیه ماتریس دیگری، یعنی تجزیه مقدارهای منفرد انجام داد.

که این‌جا یک ماتریس قطری از اعداد مثبت (یا همان مقادیر تکین ) است. یک ماتریس است که ستون‌های آن بردارهای متعامد واحدی به طول هستند که بردارهای تکین چپ نامیده می‌شوند و یک ماتریس است که ستون‌های آن بردارهای متعامد واحدی به طول هستند که بردارهای تکین راست نامیده می‌شوند.

با این تجزیه می‌توان ماتریس را به صورت زیر نوشت:

که ماتریس قطری مربعی شامل مقادیر تکین است که صفرهای اضافی آن حذف شده‌است و عبارت برای آن برقرار است. مقایسه با بردارهای ویژه نشان می‌دهد که بردارهای تکین راست برابر با بردارهای ویژه و همچنین مقادیر تکین برابر با ریشه دوم مقادیر ویژه هستند. با استفاده از تجزیه مقدارهای منفرد، ماتریس امتیاز را به صورت زیر نوشت:

بنابراین هر ستون ماتریس را می‌توان از حاصل ضرب بردارهای تکین چپ و مقدار تکین متناظر به‌دست‌آورد.

محدودیت‌های تحلیل مولفه‌های اصلی[ویرایش]

استفاده از تحلیل مؤلفه‌های اصلی منوط به فرض‌هایی است که در نظر گرفته می‌شود. از جمله:

  • فرض خطی بودن

فرض بر این است که مجموعه داده ترکیب خطی پایه‌هایی خاص است.

  • فرض بر این که میانگین و کواریانس از نظر احتمالاتی قابل اتکا هستند.
  • فرض بر این که واریانس شاخصه اصلی داده‌است.

محاسبه مولفه‌های اصلی با استفاده از ماتریس کواریانس[ویرایش]

بر اساس تعریف ارائه شده از تحلیل مؤلفه‌های اصلی، هدف از این تحلیل انتقال مجموعه داده X با ابعاد M به داده Y با ابعاد L است. بنابرین فرض بر این است که ماتریس X از بردارهای تشکیل شده‌است که هر کدام به صورت ستونی در ماتریس قرار داده شده‌است. بنابرین با توجه به ابعاد بردارها (M) ماتریس داده‌ها به صورت است.

محاسبه میانگین تجربی و نرمال‌سازی داده‌ها[ویرایش]

نتیجه میانگین تجربی، برداری است که به صورت زیر به دست می‌آید:

که به‌طور مشخص میانگین تجربی روی سطرهای ماتریس اعمال شده‌است.
سپس ماتریس فاصله تا میانگین به صورت زیر به دست می‌آید:


که h برداری با اندازه با مقدار ۱ در هرکدام از درایه‌ها است.

محاسبه ماتریس کواریانس[ویرایش]

ماتریس کواریانس C با ابعاد به صورت زیر به دست می‌آید:

محاسبه مقادیر ویژه ماتریس کواریانس و بازچینی بردارهای ویژه[ویرایش]

در این مرحله، مقادیر ویژه و بردارهای ویژه ماتریس کواریانس، ، به دست می‌آید.

V ماتریس بردارهای ویژه و D ماتریس قطری است که درایه‌های قطر آن مقادیر ویژه هستند. آنچنان که مشخص است، هر مقدار ویژه متناظر با یک بردار ویژه است. به این معنا که ماتریس V ماتریسی است که ستون‌های آن بردارهای ویژه می‌باشند و بردار ویژه در ستون qام قرار دارد و مقدار ویژه qام یعنی درایهٔ متناظر با آن است. بازچینی بردارهای ویژه بر اساس اندازهٔ مقادیر ویژه متناظر با آن‌ها صورت می‌گیرد؛ یعنی بر اساس ترتیب کاهشی مقادیر ویژه، بردارهای ویژه بازچینی می‌شوند؛ یعنی

انتخاب زیرمجموعه‌ای از بردارهای ویژه به عنوان پایه[ویرایش]

تحلیل مقادیر ویژه ماتریس کواریانس

انتخاب زیرمجموعه‌ای از بردارهای ویژه با تحلیل مقادیر ویژه صورت می‌گیرد. زیرمجموعه نهایی با توجه به بازچینی مرحله قبل به صورت انتخاب می‌شود. در اینجا می‌توان از انرژی تجمعی استفاده کرد که طبق آن

انتخاب l باید به صورتی باشد که حداقل مقدار ممکن را داشته باشد و در عین حال g مقدار قابل قبولی داشته باشد. به‌طور مثال می‌توان حداقل l را انتخاب کرد که

بنابرین خواهیم داشت:

انتقال داده به فضای جدید[ویرایش]

برای این کار ابتدا تبدیلات زیر انجام می‌گیرد: ماتریس انحراف معیار مجموعه داده‌است که می‌تواند به صورت زیر به دست بیاید:

سپس داده به صورت زیر تبدیل می‌شود:

که ماتریسهای و در بالا توضیح داده شده‌اند. داده‌ها می‌توانند به ترتیب زیر به فضای جدید برده شوند:

کاربرد[ویرایش]

هوش[ویرایش]

اولین کاربرد تحلیل مؤلفه‌ای در پیداکردن و اندازه‌گیری مؤلفه‌های هوش انسانی بود. در گذشته باورها بر این بود که هوش دارای مؤلفه‌های نامرتبط مختلفی مانند هوش فضایی، هوش کلامی، استنتاج، قیاس و غیره است و می‌توان امتیازات مربوط به این موارد را با تحلیل مؤلفه‌ای از نتایج آزمون‌های مختلف به‌دست‌آورد تا یک شاخص واحد به نام ضریب هوش (IQ) به‌دست‌آورد. روان‌شناس آماری چارلز اسپیرمن در واقع تحلیل مؤلفه‌ای را در سال ۱۹۰۴ برای نظریه دو عاملی هوش خود توسعه داد و یک تکنیک رسمی را به علم روان‌سنجی اضافه کرد. در سال ۱۹۲۴، تورستون ۵۶ عامل هوش را بررسی کرد و مفهوم سن ذهنی را توسعه داد. تست‌های استاندارد هوش امروزی بر اساس همین کار اولیه است.[۵]

ژنتیک جمعیت[ویرایش]

در سال ۱۹۷۸ کاوالی-اسفورزا و دیگران پیشگام استفاده از تحلیل مؤلفه‌های اصلی برای خلاصه‌کردن داده‌ها دربارهٔ تنوع در فرکانس‌های ژن انسانی در مناطق مختلف بودند. مؤلفه‌ها، الگوهای متمایزی از جمله گرادیان و امواج سینوسی را نشان دادند. آنها این الگوها را ناشی از رویدادهای مهاجرت باستانی تفسیر کردند.

نرم‌افزارها[ویرایش]

  • در نرم‌افزار متلب تابع princomp مؤلفه‌های اصلی را بازمی‌گرداند که در نسخه‌های جدید، تابع pca جایگزین آن شده‌است.
  • در زبان پایتون کتابخانه matplotlib دارای پکیج PCA در ماژول mlab. است.
  • کتابخانه scikit-learn در پایتون برای یادگیری ماشین که شامل PCA, PCA احتمالی، Kernel PCA, Sparse PCA و تکنیک‌های دیگر در ماژول decomposition است.
  • OpenCV
  • Eviews
  • در نرم‌افزار R تابع prcomp و princomp مؤلفه‌های اصلی را بازمی‌گرداند. prcomp از تجزیه مقدارهای منفرد استفاده می‌کند که به‌طور کلی دقت عددی بهتری دارد. برخی از پکیج‌ها که PCA را در R پیاده‌سازی می‌کنند، عبارتند از: ade4 و vegan و ExPosition

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. Jolliffe, Ian T.; Cadima, Jorge (2016-04-13). "Principal component analysis: a review and recent developments". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 374 (2065): 20150202. doi:10.1098/rsta.2015.0202. PMC 4792409. PMID 26953178.
  2. Pearson, K. (1901). "On Lines and Planes of Closest Fit to Systems of Points in Space". Philosophical Magazine. 2 (11): 559–572. doi:10.1080/14786440109462720.
  3. Hotelling, H. (1933). Analysis of a complex of statistical variables into principal components. Journal of Educational Psychology, 24, 417–441, and 498–520.
    Hotelling, H (1936). "Relations between two sets of variates". Biometrika. 28 (3/4): 321–377. doi:10.2307/2333955. JSTOR 2333955.
  4. Jolliffe I.T. Principal Component Analysis بایگانی‌شده در ۱۶ اکتبر ۲۰۱۹ توسط Wayback Machine, Series: Springer Series in Statistics, 2nd ed. , Springer, NY, 2002, XXIX, 487 p. 28 illus. ISBN 978-0-387-95442-4
  5. Kaplan, R.M. , & Saccuzzo, D.P. (2010). Psychological Testing: Principles, Applications, and Issues. (8th ed.). Belmont, CA: Wadsworth, Cengage Learning.