نتیجه آن است که به متغیرهای دارای اشتراکات پایین وزن کم تری ارائه می شود. نهایتاً، در این رویکرد مقیاسهای عاملی طبق معادله ذیل به دست می آید:
در این جا، قطر ماتریس واریانس های یگانه است.
انتخاب
بر اساس همبستگی های بین عوامل اولیه و مقیاس های ساخته شده، روش رگرسیون بر روش بارتلت برتری دارد، لیکن روش بارتلت بر روش اندرسون- روبین برتری دارد. بر اساس شرط بی ابهامی، روش بارتلت بهترین است، لیکن بر اساس شرط متعامدگرایی ملاک اندرسون- روبین برتری دارد. در این پژوهش، از آن جا که هدف ایجاد بالاترین میزان همبستگی بین نمرات عاملی با عوامل اولیه می باشد، روش رگرسیون برای ایجاد نمرات عاملی انتخاب خواهد گردید.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
نمای کلی تجزیه مولفه های اصلی (PCA): فرض کنید که یک ماتریس داده ای داریمُ، این یک نمونه بردار ابعادی برحسب درجه واریانس آن است (یک درجه بالاتر واریانس، معناداری بیشتری را نشان می دهد). PCA برداری که در مجموعه داده با اهمیت است را تعیین می کند. تجزیه مقدار منفرد (SVD) برای تبدیل مجموعه داده به یک مجموعه بردار ویژه و مقدار ویژه به کار می رود. ماتریس کوواریانس S برای مجموعه داده فراهم می شود تا بردارهای ویژه ارائه شود. ماتریس کوواریانس به صورت زیر است:
I ماتریس واحد و U وV ماتریس متعامد هستند.
مقدارهای ویژه ماتریس کوواریانس (S) و
نسبت واریانس میان بردارهای ویژه و مجموعه داده با تقسیم مقدار ویژه به جمع مقدارهای ویژه بدست می آید. بردارهای ویژه دو به دو نسبت به مجموعه خروج از محور متعامد هستند. این مجموع مربعات، فاصله خطا میان نقاط داده ها و پیش بینی های خود را بر روی محور های اجزا کاهش می دهد. درجات مختلف واریانس منسوب به هر بردار ویژه است. بردارهای m با بزرگترین مقدار ویژه m از S رابطه دارد، که بزرگترین درجه واریانس را نشان میدهد. اولین مولفه اصلی، بزرگترین درجه واریانس دارد؛ دومین مولفه اصلی، بزرگترین درجه بعدی را دارد و غیره(کانتاردزیک[۱۰۹]، ۲۰۰۳).
۳-۲-۴- اجرای مدل های درخت تصمیم در دو سطح صنعت و بورس
در این مرحله با کمک درخت های (CHAID, C5.0 , C&RT , QUEST)، قدرت برازندگی نسبت های مالی بر معیارهای ارزیابی عملکرد در دو سطح صنعت و بورس تعیین شده و با بهره گرفتن از ماتریس انطباق، عملکرد هر یک از درخت های تصمیم مورد بررسی قرار گرفته خواهد شد.
۳-۲-۴-۱- انواع الگوریتم درخت تصمیم
یکی از الگوریتم های درخت تصمیم ، ID3 است که در اواخر دهه ۷۰ و اوایل ۸۰ میلادی توسط کوئینلن[۱۱۰] معرفی و در فاصله کوتاهی الگوریتم C4.5 نیز توسط همین فرد ابداع گردید.( کوئینلن،۱۹۸۶) الگوریتمC5.0 آخرین نسخه C4.5 است.
پایه ی الگوریتم ID3: این الگوریتم درختان تصمیم از بالا به پایین می سازد و با طرح این سوال که چه صفتی باید در ریشه ی درخت آزمایش شود آغاز می کند. برای پاسخ به این سوال، با بهره گرفتن از یکی از انواع آزمایش های آماری برای تعیین مناسب ترین صفت برای دسته بندی مثال های آموزشی، تصمیم براساس هر صفت نمونه را ارزیابی می کند. سپس بهترین صفت را انتخاب کرده و به عنوان تست در گره ی ریشه ی درخت استفاده می کند. برای هر مقدار ممکن صفت تست شده در ریشه، یک گره ی متناظر ایجاد شده و مثال های آموزشی براساس مقادیر صفت تست، بین این گره ها افراز می شوند. تمام فرایند ذکر شده، با بهره گرفتن از مثال های آموزشی نسبت داده شده به هر گره، برای انتخاب بهترین صفت برای آزمایشی در آن گره ی درخت تکرار می شود. این روش جستجویی حریصانه را برای یک درخت تصمیم قابل قبول ارائه می دهد که در این الگوریتم، هیچ گاه برای در نظر گرفتن دوباره ی انتخاب های قبلی، به عقب برگشت نمی شود. این الگوریتم در یادگیری نمونه هایی با صفات فاقد مقدار مشکل داشته و غیرافزایشی و ارزان می باشد.
الگوریتمID4-hat: تغییریافته ی الگوریتم ID4 است؛ به شکلی که اگر درخت موجود نتواند نمونه ی جدید را به شکل صحیح دسته بندی کند، این الگوریتم درخت را دوباره می سازد. اگر درخت نتواند دوباره ساخته شود بنابراین بهترین درخت نخواهد بود. در این حالت نتیجه با درخت نهایی تولید شده توسط ID3 متفاوت خواهد بود. هر دوی این الگوریتم ها وقتی بی نظمی صفر است یا تعداد خروجی های تصمیم را نگه می دارند و وقتی تمام بجز یکی صفر است آن را متوقف می کنند.
الگوریتم ID5: یک الگوریتم افزایشی بهبود یافته است که توسط Utgoff توسعه یافته و همانند الگوریتم ID4 شروع می شود. وقتی یک نمونه ی جدید اضافه می شود، اگر توسط درخت موجود به شکل صحیح دسته بندی نشود بهترین صفت بعدی را با بهره گرفتن از نفع اطلاعات برای دسته بندی این مثال اضافه می کند (در غیر این صورت درخت موجود را حفظ می کند.). در هر مرحله، اگر برای تمام نمونه هایی که تا این مرحله دیده شده اند، صفت پایین تر به نسبت صفت بالاتر بی نظمی شرطی کوچکتری داشته باشد درخت را با انجام تقسیم، معکوس کردن، ادغام و ساده سازی دوباره می سازد.
الگوریتم ID5-hat: در الگوریتم ID5 هرگاه که یک نمونه ی آموزشی اضافه می شود، بی نظمی های شرطی دوباره کنترل می شوند (و در صورت لزوم ساختار درخت تغییر می یابد.). این الگوریتم مشابه الگوریتم ID5 می باشد جز اینکه بی نظمی های شرطی فقط زمانی دوباره درنظر گرفته می شوند که درخت قادر به دسته بندی صحیح یک نمونهی جدید نباشد.
الگوریتمC4.5 : نسل بعدی الگوریتم ID3 است و از نوعی از قانون هرس بعدی استفاده می کند. همچنین قادر است صفات گسسته، صفات فاقد مقدار و داده های نویزی را استفاده کند. این الگوریتم بهترین صفت را با بهره گرفتن از معیار بی نظمی انتخاب می کند و به دلیل استفاده از عامل GainRatio قادر به بکارگیری صفات با مقادیر بسیار زیاد میباشد. حتی اگر هیچ خطایی در داده های آموزشی وجود نداشته باشد هرس انجام می شود که باعث می شود درخت عام تر شده و کمتر به مجموعه ی آموزشی وابسته شود. هرس در این الگوریتم نسبت پیچیده و برپایه ی توزیع دوجمله ای و به شکل بازگشتی به برگ های درخت است. وقتی هرس یک شاخه متوقف می شود به سمت بالا ادامه نمی یابد. برای ممانعت از داشتن برگ هایی با یک نمونهی آزمایشی، جداسازی بیشتر روی دسته هایی که در حال حاضر به دو عنصر کاهش یافته اند انجام نمی شود. هرس فقط زمانی انجام می شود که تعداد پیش بینی شده ی خطاها افزایش نیابد. این الگوریتم، با در نظر گرفتن بی نظمی های هریک از آن ها برای هر موردی که برای آن ها داده، داده شده است یک صفت را انتخاب می کند. بعد از انتخاب بهترین صفت، موارد صفات فاقد مقدار با مقادیری از صفت در بخشی از مواردی که داده فراهم است تخصیص مییابند و الگوریتم ادامه می یابد.
CHAID: شناسایی کننده تعامل متقابل خودکار مجذور مربعات (CHAID) یک تکنیک آماری بسیار موثر، توسعه یافته توسط کاس در سال ۱۹۸۰ است. کاربرد اصلی آن در تقسیم بندی یا رشد درخت است. CHAID یک تکنیک درخت تصمیم بر پایه آزمون معناداری تعدیل شده می باشد. می توان آن را برای پیش بینی در فرآیندی مشابه تحلیل رگرسیون و خوشه بندی به خوبی در تشخیص تعامل متقابل بین متغیر ها استفاده کرد. تفاوت آن با دیگر تکنیک های درخت تصمیم در این است که، CHAIDمی تواند بیش از دو طبقه در هر سطح درخت ایجاد کند. بنابراین آن روش درخت دوتایی نیست. خروجی آن بسیار دیداری است و به آسانی تفسیر می شود از آنجایی که آن از انشعاب چندراهه بطور پیش فرض استفاده می کند. آن یک درخت جامع تری از روش های روینده دوتایی ایجاد می کند. این الگوریتم برای هر نوع متغیر کار می کند زیرا که هم متغیرهای دوره ای و وزنی را درنظر می گیرد. CHAID ارزش های نامشخص را با گروهبندی آن ها در یک گروه منفرد معتبر کنترل می کند.
C&RT: درخت خوشه بندی و رگرسیون توسط بریمن، فردمن، اولشن و استون (۱۹۸۴) آغاز شد. C&RT یک الگوریتم درخت تصمیم دوتائی مستعد فرایند متوالی یا پیش بینی کننده مطلق یا متغیرهای هدف است. آن به طور بازگشتی کار می کند: داده ها به دو زیرمجموعه گروهبندی می شود تا سوابق را همگن تر از زیرمجموعه قبلی بکند؛ سپس دو زیرمجموعه دوباره تجزیه می شود تا زمانی که معیار همگن بودن یا دیگر معیارهای توقف رضایت بخش باشد. بخش پیش بینی کننده مشابه ممکن است چندین بار در درخت استفاده شود. هدف غایی تجزیه تعیین متغیر صحیح وابسته به آستانه درست برای ماکزیمم کردن همگن بودن گروهای زیرمجموعه نمونه است. علاوه بر آن C&RT مقدارهای ازقلم افتاده را با بهره گرفتن از تجزیه جانشین کنترل می کند تا بهترین استفاده از داده را داشته باشد. این الگوریتم مراحل درختان هرس شده تودرتو ایجاد می کند که هر یک می تواند بهینه باشد. اندازه صحیح با ارزیابی عملکرد پیش بینی کننده هر درخت در مراحل هرس شده ازطریق تست مستقل بودن داده یا وارسی اعتبار نسبت به استفاده از داده داخلی (برپایه داده آموزش) تعیین می شود. انتخاب درخت بهینه بعد از ارزیابی بر پایه تست آموزش پیش می رود. این مکانیزم تراز دسته اتوماتیک اختیاری را به خوبی کنترل مقدارهای ازقلم افتاده فراهم می کند و یادگیری حساسیت هزینه را می پذیرد.
QUEST: الگوریتم درخت اماری موثر عاری از تعصب و سریع (QUEST) یک الگوریتم درخت تصمیم تجزیه دوتایی نسبتا جدید است (لو و شی[۱۱۱]، ۱۹۹۷). مشابه الگوریتم C&RT است (بریمن و همکاران، ۱۹۸۴). با این وجود چند تفاوت جزئی وجود دارد. برای مثال QUEST روش انتخاب متغیر عاری از تعصب را به کار می برد که از نسبت دادن برای سروکار داشتن با مقادیر از قلم افتاده بجای تجزیه جانشین استفاده می کند و متغیرهای گروهبندی شده با بسیاری از گروه ها کنترل می کند. آن از انتخاب تجزیه و تجزیه نقطه به طور جداگانه استفاده می کند. تجزیه یک متغیری، انتخاب رشته غیرمرتبط را اجرا می کند که بدین معنی است که اگر همه رشته های پیش بینی کننده با توجه به سطح هدف بطور مساوی حاوی اطلاعات مفید باشند، آن هر رشته پیش بینی کننده با سودآوری برابر انتخاب میکند. آن درخت های غیرقابل کنترل ارائه می کند ولی از هرس با هزینه پیچیده اتوماتیک استفاده می کند تا اندازه آن ها را حداقل کند.
۳-۲-۵- ترکیب نتایج مدل های الگوریتم درخت تصمیم با کمک تحلیل حساسیت
در نهایت نتایج چهار درخت تصمیم با بهره گرفتن از تحلیل حساسیت ترکیب می شود و مدل نهایی شکل می گیرد تا اعتباردهی هر یک از نسبت ها با دقت بیشتری انجام شود. تحلیل حساسیت تکنیکی مبتنی بر ترکیب اطلاعات است که با اجرای آن می توان نتایج چهار درخت تصمیم را ترکیب کرد تا مدل توانمند و صحیح تری ارائه کرد.
۳-۳- سوالات پژوهش
بیان مسئله تنها به صورت کلی پژوهش را هدایت میکند و تمام اطلاعات ویژه پژوهشی را دربرندارد، از طرفی دیگر در صورتیکه کلیه اطلاعات پژوهشی را در مسأله مطرح کنیم مسأله به گونهای بزرگ میشود که تدبیر و هدایت آن امکان پذیر نیست، بنابراین مسأله هرگز به صورت عملی حل نخواهد شد مگر اینکه به فرضیه یا فرضیههایی تبدیل شود. رابطه فرضیه با تحقیق مثل رابطه راه با مسافرت است. فرضیه، حدس بخردانه ای درباره رابطه دو یا چند متغیر است که به صورت جملهی خبری بیان شده و نشانگر نتایج مورد انتظار میباشد (تقیزاده، ۱۳۸۶). با توجه به آن چه که تا کنون بیان شده است سوال اصلی تحقیق حاضر آن است که:
-
- با بهره گیری از الگوریتم درخت تصمیم، کدامیک از شاخص های شرکتی، عملکرد شرکت را بهتر تبیین می کند؟
-
- آیا اولویت نسبت ها در ارزیابی عملکرد می تواند تحت تاثیر خصوصیات صنایع (نوع صنعت) قرار گیرد؟
در اینجا این نکته قابل توجه است که آیا بهره گیری از الگوریتم درخت تصمیم، نتایج متفاوتی نسبت به مطالعات قبلی ارائه می کند یا خیر.
۳-۴- تعریف متغیرها
اولین گام برای آزمون فرضیههای پژوهش، ارائه تعریف دقیق و مناسبی از متغیرهایی است که امکان اندازهگیری خصوصیات مورد توجه در این پژوهش را میسر میسازد. متغیرهای این پژوهش به منظور آزمون فرضیهها، به سه گروه متغیرهای مستقل، متغیرهای وابسته و متغیرهای کنترل تقسیم میشود که در فصل ۲ کلیه این متغیرها تشریح گردیده است. در این جا نحوه محاسبه متغیرهای پژوهش به اختصار بررسی می شود.
۳-۴-۱- متغیرهای مستقل
کلیه نسبت های مالی(به جز بازده دارایی ها و بازده حقوق صاحبان سهام) مطرح در فصل دوم که به اختصار در جدول آمده است جزء متغیر های مستقل این پژوهش می باشد.
الف)گروه معیارهای سودآوری:
حاشیه سود ناخالص:
حاشیه سود خالص:
حاشیه سود عملیاتی:
نسبت سود قبل از مالیات به حقوق صاحبان سهام:
نسبت هزینه عملیاتی به فروش خالص:
سود هر سهم:
بازده سرمایه در گردش:
ب)گروه معیارهای فعالیت:
نسبت گردش حساب دریافتنی:
نسبت گردش موجودی کالا:
نسبت گردش خالص سرمایه در گردش:
نسبت گردش دارایی:
نسبت گردش حقوق صاحبان سهام:
نسبت گردش دارایی های ثابت:
[سه شنبه 1401-04-14] [ 03:20:00 ب.ظ ]
|