در این مقاله آموزش آنالیز و تجزیه و تحلیل تشخیصی چندگانه در spss و حالت های مختلف آن آمده است که در تحلیل آماری داده های پرسشنامه و پایان نامه ارشد روانشناسی و علوم تربیتی کاربرد دارد.

تحلیل تشخیص را می توان برای تعیین طبقه بندی مواردی به کار برد که بر اساس امتیاز یک یا چند متغیر کمی هر مورد، در یک گروه خاص قرار می گیرند .

مثلاً شرکتی که بیمه ی خودروها را انجام می دهد بر اساس اسناد مشتری هایش، آنها را بیمه می کند » موردی که خیلی بر آن تاکید دارد آن است که بداند کدام یک از راننده ها طی شش سال تصادف کرده یا نکرده اند .

یعلاوه، فرض کنید که شرکت اطلاعات بیشتری درمورد هر مشتری دارد . اطلاعاتی از جمله درآمد، سن، میزان تحصیلات، تعداد مایلی که در سال رانندگی و سال هایی که در آدرس کنونی زندگی کرده است .

تحلیل تشخیصی را می توان برای مشخص کردن این مساله استفاده کرد که چطور می توان متغیرهای اطلاعات مشتریان را با موفقیت طوری طبقه بندی کرد که این مشتریان در طبقه های درستی قرار بگیرند بر اساس اینکه کدام یک از آنها طی شش سال تصادف داشته یا نداشته اند .

در کل، این تحلیل یک یا چند قانون را برای طبقه بندی موارد بر اساس ترکیبات خطی از متغیرهای کمی وضع می کند .

با بررسی ترکیب توابع می توان دیدگاهی برای متغیرها فراهم کرد که در تشخیص گروه ها از یکدیگر تاثیر بیشتری داشته باشند .

هابرتی در سال 1984 دو کاربرد تحلیل تشخیص را متمایز ساخت .

اولین کاربرد، تحلیل تشخیص پیشگویی کننده هایی است که چگونگی تشخیص گروه هایی را به عهده دارد که از مجموعه ای از پیشگویی کننده ها استفاده می کنند .

دومین کاربرد تحلیل تشخیصی ، توصیفی است که برای معین کردن یک مجموعه بهینه از پیشگویی کننده ها به کار می رود که گروه ها را از هم مشخص کرده و سپس به تفسیر ابعاد زیر بنایی می پردازد که گروه ها را از هم جدا می کند .

هاسین و هابرتی در سال 2003 پیشنهاد کردند در صورتی که سوال محقق مربوط به یکی از این دو محتوا باشد، باید بر جنبه های متفاوتی از نتایج در این گزارش تاکید داشته باشند .

- حالت اول آنالیز تشخیصی :

یک متغیر پیشگویی کننده ی منفرد و دو گروه:

با بررسی داده هایی که در شکل بعد داده شده اند ، امتیازات IQ دو گروه از افراد فرضی ارائه می شود که آیا آنها رایانه خانگی (own=2 ) و یا ندارند ( own=1 ) ، چطور می توانیم امتیازهای IQی هر گروه را برای متمایز کردن گروهی که رایانه دارد و گروهی که رایانه ندارد از هم تشخیص دهیم ؟

توجه کنید که در نمودار داده های IQ در مورد تعداد خطوط نشان داده شده در سمت راست بالای نمودار شکل نشان می دهد که امتیازات IQ افرادی که رایانه شخصی دارند ، در یک نگاه کلی ، بالاتر از افرادی است که رایانه ندارند .

بویژه ، میانگین IQی همه موارد ، 100 می باشد .

به طور کلی دارندگان رایانه، IQ بالاتری از میانگین دارتد و افرادی هم که رایانه ندارند IQ زیر میانگین دارند .

این تحلیل با مشتق تابع تشخیص شروع می شود که میانگین صفر دارد ( این میانگین با کسر کردن میانگین 100 از هر امتیاز IQ برای تشکیل معادله ی Di = IQ – 100 بدست آمد) و مشتق استاندارد آمیخته برای گروه های یک ( در این قسمت با تقسیم معادله Di بر میانگین مشتق استاندارد امتیازات IQی هر گروه که مقدار 584/4 می باشد ) برای تشکیل تابع تشخیص است :

( معادله ی خط رگرسیون D بر حسب IQ ) Di=0/245*IQi-24/498 مقدار D به ازای هرمورد بدست آمده از این فرمول، در آخرین ستون شکل نشان داده شده است .

این تابع چطور به ما کمک می کند ؟

توجه کنید که با داشتن این تابع که در نقطه ی صفر متمرکز شده است، می توانیم قانون وضع کنیم که همه موارد با مقدار D مثبت ( مثلاً مواردی در بالای میانگین IQ ) متعلق به یک گروه می باشد و همه موارد با مقدار D منفی متعلق به گروه دیگر می باشند .

این قانون به ما کمک می کند تا همه موارد را بجز یکی به درستی طبقه بندی کنیم . در یک نگاه ، آنچه انجام داده ایم ، محل نقطه تشخیص را بر خط عددی قرار می دهیم که IQ را با قرار دادن معادله به دست آمده به ازای D = 0 و حل مقدار IQ را هم نشان می دهد :

تحلیل تشخیصی چندگانه در spss

خط شکسته ی پایین شکل به این نقطه می پردازد . بعدی که برای طبقه بندی موارد استفاده می شود به صورت خطی نشان داده می شود که در گوشه راست از خط تشخیص ( نقطه چین ) گسترش می یابد.

تحلیل تشخیصی چندگانه در spss

تحلیل تشخیصی چندگانه در spss

 

شکل بالا ، داده های فرضی دارندگان رایانه و آنهایی که رایانه ندارند ، امتیاز IQ آنها و مقادیر تابع تشخیص را نشان می دهد .

قسمت بالای شکل  ، IQ های دارندگان رایانه ی شخصی را روی خطی عددی و قسمت پایین شکل  ، مقادیر تابع تشخیص D را مطابق با مقادیر IQ نشان می دهد .

 

- حالت دوم آنالیز تشخیصی :

دو متغیر پیشگویی کننده و دو گروه :

حالا بسط حالت اول آنالیز تشخیصی را بررسی کنید که شامل دومین متغیر کمی سال های آموزش می شود که ممکن است به تمایز موارد به گروه دارندگان در مقابل ندارندگان رایانه کمک کند . داده های متغیر پیشگویی کننده ی جدید ، یعنی YrsEd در جدول شکل و نمودار نقطه ای داده ها در شکل  نشان داده است .

معادله ی تمایز دارندگان و ندارندگان رایانه بر اساس مقادیر هر مورد IQ و YrsEd که بوسیله روش تحلیل تشخیص در SPSS ایجاد می شوند ، به صورت زیر است که در مثال اول در همین فصل به تفصیل بررسی شده و به همین معادله می رسیم .

Di=0/159*IQi+0/211*YrsEd-18/9

قرار دادن D = 0 در این معادله و تغییر معادله نتیجه گیری به شکل عرض از مبدا – شیب (y = bX + a) و با قر ار دادن IQ به عنوان متغیر X و YrsEd به عنوان متغیر Y ، معادله ی زیر را به وجود می آورد .

YrsEd=0/754*IQi+89/80 شکل مقادیر دو پیشگویی کننده ی IQ و YrsEd یک متغیر گروه بندی، یعنی Own و مقادیر تابع تشخیص D برای هر یک از 8 مورد فرضی را نشان دهد .

شکل نمودار نقطه ای متغیرهای IQ و YrsEd را نشان می دهد .

تحلیل تشخیصی چندگانه در spss

تحلیل تشخیصی چندگانه در spss

 

تحلیل نتایج :

- تعداد توابع تشخیص:

عدد توابع تشخیص که با تحلیل تشخیصی بدست آمده ، کوچکتر از تعداد گروه ها منهای 1 یا تعداد نتغیرهای پیشگویی کننده می باشد .

بنابراین در صورتی که سه گروه و فقط یک پیشگویی کننده ی منفرد وجود داشته باشند که آنها را متمایز کنیم ، پس فقط می توانیم یک تابع تشخیص منفرد ایجاد کنیم .

در صورتی که سه گروه و 17 پیشگویی کننده برای تمایز داشته باشیم ، می توانیم فقط دو تابع تشخیص ایجاد کنیم .

تابع تشخیص اول احتمال یکی از گروه ها را از دو گروه ترکیبی دیگر بهتر جدا خواهد کرد، یعنی شاید گروه 2 از گروه های ترکیبی 1 و 3 . دومین تابع تشخیص ، یعنی توابع تشخیص متوالی که مستقل از دیگری باشند ، ممکن است دو تای باقیممانده را از هم جدا کند » در این مثال ، گروه های 1 و 3 .

- تاثیرگذاری تابع تشخیص:

اندازه ی درجه ای که در آن تابع تشخیص موفق به تمایز بین گروه ها می شود می تواند براساس همبستگی مقادیر D و اعضای گروه قرار گیرد.

این اندازه به همبستگی کانونی (متعارفی) شناخته می شود.

همبستگی کانونی شامل متغیری است که از ترکیب متغیرهای دیگر به دست می آید، تابع تشخیص یک چنین متغیری است.

به ازای داده های شکل های (9-1) و (9-2)، همبستگی های کانونی بین متغیرهای own وD،به ترتیب 849/0 و 841/0 محاسبه شده اند.

در صورتی که بیش از یک تابع تشخیص به وجود آید، تعیین مقدار ارتباط تشخیص به دست آمده توسط هر تابع مفید خواهد بود در این مورد مقادیر ویژه ( λ ) برای این هدف مفیدند.

در مفهوم آنالیز تشخیص، یک مقدار ویژه نسبت مجموع مربعات شامل مقادیر D هستند بدین صورت تعریف می شود:

تحلیل تشخیصی چندگانه در spss

 

این مقادیر معمولا وابسته به خروجی ANOVA هستند.

اگر میانگین مقادیر D برای گروه های نشان داده شده در شکل با استفاده از ANOVA مقایسه شوند، داده های شکل به دست می آید.

تحلیل تشخیصی چندگانه در spss

تحلیل تشخیصی چندگانه در spss

 

 

یک مقدار ویژه منفرد، عدد 00/6 است که در شکل (9-6) به عنوان مجموع مربعات درون گروهی نشان داده شده است.

در کل، به خاطر این که انحراف استاندارد ادغام شده مقادیر D، 0/1 است، مقدار ویژه برابر N-g خواهد شد که در آن N تعداد موارد و g تعداد گروه ها می باشد.

مقدار ویژه تابع تشخیص برای مثال طرح شده، تقریبا 00/2 است، به این خاطر که مجموع مربعات بین گروهی، تقریبا 12 است، یعنی مقداری دو برابر مجموع مربعات درون گروهی.

مقدار ویژه صفر نشان می دهد که مقادیر D هرگز به تشخیص بین گروه ها کمک نمی کند.

به هر حال، حتی مقادیر ویژه کوچک هم می توانند با همبستگی های کانونی قابل اندازه گیری مطابقت داشته باشند.

برای مثال مقدار ویژه 01/0 با همبستگی کانونی 10/0 مطابقت می کند.

در کل، مقدارهای ویژه ممکن است به مقادیر همبستگی کانونی (R^* ) با فرمول زیر تبدیل شوند:

تحلیل تشخیصی چندگانه در spss

 

- اهمیت تابع تشخیص:

زمانی که تحلیل تشخیص برا تشخیص مواردی از یک نمونه به گروه ها به کار برده شده است این سوال ممکن است پرسیده شود، که آیا این تحلیل به طور کافی بین گروه ها تمایز ایجاد می کند، یا اینکه جدایی بین گروه هایی که در این نمونه مورد تحلیل قرار گرفته اند ماورای آن است که بتوان تصادفی ایجاد کرد.

این سوال با استفاده از آماره ی ویلکس لامبدا ، (ᴧ) عنوان می شود، که سهم واریانس کلی در مقادیر D که با تفاوت بین گروه ها توضیح داده نشده و یا محاسبه نشده است.

در اینجا آماره ی ویلکس لامبدا با مقادیر D عنوان نسب مجموع مربعات درون گروهی به مجموع مربعات کل ( مجموع مربعات درون گروهی باضافه مجموع مربعات بین گروهی ) اندازه گیری می شود:

تحلیل تشخیصی چندگانه در spss

 

زمانی که هیچ تفکیکی بین میانگین های گروه وجود نداشته باشد، مولفه بین گروهی صفر خواهد بود و آماره ویلکس لامبدا حداکثر مقدارش، یعنی 1 را خواهد داشت.

زمانی که درجه ی بالایی تفکیک در بین میانگین های گروه، نسبت به تغییرD درون گروهی وجود نداشته باشد آماره ویلکس لامبدا به حداقل مقدارش یعنی صفر می رسد.

بنابراین مقادیر کوچک آماره ویلکس لامبدا با درجه ی بالای تشخیص مابین گروه ها مطابقت دارد.

به ازای داده های تحلیل شده در شکل مقدار آماره ی ویلکس لامبدا برابر 33/0 خواهد بود.

برای انجام استنباط از روی آماره ی ویلکس لامبدا، توجه کنید که این آماره با مقدار توان دوم همبستگی کانونی ارتباط دارد؛ یعنی R^(*2) مفید خواهد بود، که این سهم واریانس در مقادیر D را که به وسیله ی تنوع مابین گروه ها اندازه می گیرد.

بنابراین، اگر توان دوم مقدار همبستگی کانونی 67/0 باشد، آماره ی ویلکس لامبدا 33/0 خواهد بود؛ زیرا حاصل جمع این دو شاخص برابر 00/1 است.

فرمول دیگری برای محاسبه آماره ی ویلکس لامبدا بر اساس مقدار ویژه تابع تشخیص به صورت زیر است:

تحلیل تشخیصی چندگانه در spss

در صورت یکه چندین تابع تشخیص وجود داشته باشد، آماره ی ویلکس لامبدا برای اندازه گیری سهم ترکیبی واریانس باقیمانده به وسیله ی فرمول زیر داده می شود:

تحلیل تشخیصی چندگانه در spss

 

برتری روش آزمون با برآورد تاثیر همه ی توابع تشخیص شروع می شود که در تشخیص میان گروه ها ترکیب می شود.

بعد از آزمون این که همه توابع تشخیص با همدیگر مقدار واریانس مابین میانگین گروه را توضیح می دهند، که به طور معناداری به صورت تصادفی متفاوت است، اولین و موثرترین تابع تشخیص برداشته می شود و توانایی توابع تشخیص باقیمانده ی ترکیبی آزمون می شود تا معلوم شود که آیا آن ها با یکدیگر مقدار واریانس باقیمانده ی مابین گروه ها را توضیح می دهند که به طور معناداری به صورت تصادفی متفاوت است.

این فرآیند تا زمانی که آخرین تابع تشخیص آزمون شود، تکرار می شود.

تاثیر آماره ی ویلکس لامبدا در این فرایند را می توان با آماره ی x^2 یا آماره ی F برآورد کرد.

فرمول به ازای x^2، تابعی از تعداد کل مقادیر (N)، تعداد پیشگویی کننده ها (p)، تعداد گروه ها(g) و آماره ی ویلکس لامبدا است که به صورت زیر تعریف می شود:

تحلیل تشخیصی چندگانه در spss

به ازای k امین تابع تشخیص که برداشته می شود ( k=0 در اولین گام، زمانی است که هیچ تابع تشخیصی برداشته نشود)، درجه ی آزادی آزمون ( 1ـk ـg)(k ـg) است.

به ازای داده هایی که در شکل (9-1) نشان داده شد، دو گروه، یک پیشگویی کننده و تابع تشخیص دارد که مقدار آماره ی ویلکس لامبدا برابر 33/0 به دست آمد. بنابراین مقدار خی دو به صورت زیر به دست می آید.

تحلیل تشخیصی چندگانه در spss

 

درجه ی آزادی این آزمون 1= (1-0-2)(0-1) است.

- تفسیر توابع تشخیص :

ضریب تابع تشخیص غیر استاندارد شده:

هر ضریب تابع تشخیص مشخص می کند که چطور موقعیت هر مورد بر روی بعدی که به بهترین شکل موارد را به گروه هایی تقسیم می کند تحت تاثیر واحدی در هر متغیر پیشگویی کننده قرار می گیرد.

برای مثال تابع تشخیص برای دارندگان رایانه و آن هایی که رایانه ندارند براساس IQ در معادله ی (9-1) به صورت I Q_i 0/245 *= D_i به دست آمد.

مقدار 245/0، ضریب تابع تشخیص غیر استاندارد شده ی متغیر پیشگویی کننده ی IQ می باشد.

این ضریب نشان می دهد که به ازای افزایش واحدی در IQ، موقعیت مشخص روی تابع تشخیص به وسیله واحد های دیگر 245/0 افزایش پیدا می کند.

در موقعیت پیچیده تری که در شکل (9-3) نشان داده شد، در حالات دارندگان رایانه که به وسیله IQ و میزان تحصیلات معین می شود، تابع تشخیص به صورت+ 0/211* YrsEd – 18/947 IQ_i 0/159 *= D_iبه دست آمد.

این معادله نشان می دهد که IQ و میزان تحصیلات بر موقعیت امتیاز بر بُعدی که بهترین شکل دو گروه را از هم جدا می کند تاثیر می گذارد.

از ضرایب تابع تشخیص غیر استاندارد شده می توانیم ببینیم که تغییر واحدی در IQ با مقدار 159/0، D را افزایش می دهد ( در صورتی که YrsEd تغییر نکند) و تغییر واحدی در میزان تحصیلات به مقدار 211/0، D را افزایش می دهد. ( در صورتی که IQ تغییر نکند).

ضرایب تابع تشخیص استاندارد شده:

به منظور تفسیر مقادیر نسبی ضرایب در تابع تشخیص باید ابتدا متغیرها را استاندارد کرد، چون واحدهای استفاده شده برای اندازه گیری متغیر، بزرگی ضریب استاندارد نشده ی متغیر را تحت تاثیر قرار می دهد.

نتیجه ی به کارگیری تحلیل تشخیص برای استاندارد کردن متغیرها، تابع تشخیصی با ضرایب استاندارد شده خواهد بود.

اگر شخصی قبلا معادله ای به شکل غیر استاندارد، مثل معادله ی داشته باشد، می تواند با ضرب کردن هر ضریب غیر استاندارد در ریشه مربع حاصل مجموع مربعات متغیرهای درون گروهی، تقسیم بر N-g ضریب غیر استاندارد را به استاندارد تبدیل کرد.

بنابراین داریم:

تحلیل تشخیصی چندگانه در spss

 

که در آنg = تعداد گروه ها، n =تعداد مقادیر در یک گروه، N= تعداد کل موارد و X مقدار مورد i در گروه g است.

استفاده از این فرمول برا ی استاندارد کردن ضرایب غیر استاندارد در معادله ی 9-2، معادله ای به ازای D به شکل استاندارد به صورت زیر به ما می دهد:

تحلیل تشخیصی چندگانه در spss

 

با بررسی بزرگی هر ضریب استاندارد ( با چشم پوشی از علامت) در معادلاتی مثل این، می توان بزرگی نسبی سهم هر متغیر را به مقدار D معلوم کرد.

بنابراین در معادله بالا، تاثیر نهایی IQ بزرگتر از سال های تحصیل در تحت تاثیر قرار دادن موقعیت مورد نظر روی بعد تشخیصی است.

ضرایب ساختاری :

با اندکی تامل معلوم می شود که ضرایب استاندارد و غیر استاندارد در توابع تشخیص، مثل ضرایب b در معادله رگرسیون، تاثیر مستقل هر متغیر را در مورد مقدار D بر تاثیرات همه متغیرهای دیگر اندازه گیری می کند.

بنابراین مقدار ضرایب استاندارد و غیر استاندارد متغیر را می توان تغییر داد، بسته به این که کدام یک از متغیرها به عنوان پیشگویی کننده و درجه ی همبستگی آن متغیر با پیشگویی کننده های دیگر استفاده شده باشد.

ضرایب ساختاری بر خلاف ضرایب استاندارد و غیراستاندارد، جهت تاثیر نسبت پیشگویی کننده به پیشگویی کننده های دیگر قرار نمی گیرد.

ضریب ساختاری، همبستگی دو متغیره ی پیشگویی کننده و مقدار D برای هر گروه است که بعدا به همه ی گروه تعمیم داده می شود.

برای مثال، ضریب ساختاری IQ برای داده های شکل (9-3) با به دست آوردن مقدارr برای IQ و D بین دارندگان رایانه r=0/92 و بین کسانی که رایانه ندارند r = 0/92 و میانگین مقادیر 91/0 به دست می آید.

فرآیندی مشابه برای YrsEd، مقدار تقریبی ضریب ساختاری 83/0 را به دست می دهد.

بنابراین تابع تشخیص نشان داده شده در معادله ی (9-2)، ارتباط زیادی با هر دو پیشگویی کننده دارد، ولی ارتباط کمی قوی تری با IQ نسبت به YrsEd دارد.

کلیکا در سال 1980 پیشنهاد می کند که ارتباطات پیچیده درونی بین پیشگویی کننده ها می تواند ضرایب ساختاری را به راهنمای بهتری برای اندازه گیری تابع تشخیصی آن ضرایب استاندارد تبدیل کند، بنابراین هر دو اندازه را باید مورد بررسی قرار داد(هابرتی، 1975).

-طبقه بندی موارد :

کاربرد مهم تحلیل تشخیصی، پیش بینی اعضای گروه بر اساس آگاهی از مقادیر متغیرهای پیشگویی کننده می باشد.

در مثال شرکت بیمه ی خودرو که در ابتدای این فصل در مورد آن بحث شد، هدف، استفاده از اطلاعاتی در مورد رانندگان بود تا معلوم شود که راننده تصادف داشته یا نداشته است.

چنین پیشگویی کننده ها می توانند بر اساس توابع تشخیص باشند که از طریق تحلیل به وجود آمده اند.

مثلا، داده های شکل (9-3)، که از IQ و میزان تحصیلات استفاده کرده تا بین دارندگان رایانه و کسانی که رایانه ندارند تمایز ایجاد کند معادله زیر را به وجود می آورد.

تحلیل تشخیصی چندگانه در spss

 

جایگزین کردن مقادیر مورد برای IQ و YrsEd، مقدار D را به وجود خواهد آورد.

در صورتی که D مثبت باشد، فرد، دارنده رایانه خواهد بود و اگر منفی باشد فرد، رایانه نخواهد داشت.

در صورتی که بیش از یک تابع تشخیص بهدست آید، پیشگویی براساس توابع چندگانه بوده، طبقه بندی به صورت موثرتری با استفاده از توابع طبقه بندی فیشر به وجود می آید.

در این حالت تابع طبقه بندی مجزایی برای هر گروه وجود دارد.

توابعی که با نرم افزار SPSS برای داده های شکل فراهم شده اند، به صورت زیر می باشند:

تحلیل تشخیصی چندگانه در spss

 

گرچه تفسیر این توابع پیچیده است، ولی با استفاده از آنها سخت نیست، برای به دست آوردن مقدار G_i می توان مقادیر هر مورد از پیشگویی کننده ها را در هر تابع جایگذاری کرد.

این مورد به عنوان عضوی از گروه رده بندی می شود (مثلا به عنوان مقدار i)، که بالاترین مقدار G را دارد. مثلا با جایگزین کردن مقدار 100 به جای IQ و تعداد سال های تحصیلی 16 در هر یک از این معادلات مقادیر 322/31= G_1 و 323/29= G_2 به دست می آیند. چون مقدار G_2 بالاتر از G_1 است این مورد به عنوان عضوی از گروه 2 رده بندی می شود که در این مثال، شخصی است که رایانه ندارد.

خلاصه ی موفقیت طبقه بندی با استفاده از SPSSبه شکل یک جدول به دست می آید که عدد پیش بینی شده و واقعی مواردی را به ما می دهد که در هر مقوله از گروه بندی ( مثلا دارندگان و ندارندگان رایانه) قرار می گیرند.

همچنین درصد پیشش بینی شده و واقعی مواردی را نشان می دهد که در هر گروه قرار می گیرد.

شکل که از خروجی SPSSبه دست آمده، این اطلاعات را برای شکل فراهم می کند.

درصورتی که نمونه ی دیگری را استفاده کنیم، فرآیند طبقه بندی چقدر موثر خواهد بود؟

ا ین سوال خیلی اهمیت دارد، چون طبقه بندی بر اساس نمونه ای از موارد قرار می گیرد که اعضای آن گروه قبلا شناخته شده اند و می تواند با برجسته کردن خطاهای غیر عادی در نمونه ای ممکن است نماینده ی جمعیت نباشند، درستی طبقه بندی را اضافه برآورد کنند.

یک روش اعتبار بخشیدن به نتیجه نمونه، تقسیم نمونه به دو زیر مجموعه است.

یکی از زیر مجموعه ها، که گاهی پیشنهاد می شود موارد نسبتا بیشتر داشته باشد، برای به دست آوردن توابع طبقه بندی استفاده می شود و دیگری برای آزمون درستی طبقه بندی استفاده می شود.

این روش اعتبار نمونه ی تقسیمی، نیاز به تعداد کافی از موارد دارد.

شیوه دیگری که برای این هدف استفاده می شود، روش Leave- one- out نامیده می شود.

با این شیوه، هر مورد از معادله ای طبقه بندی می شود که با موارد حذف شده از مجموعه ی داده ها به دست آمده است.

این انتخاب در SPSS در مقالات دیگر نشان داده می شود.

 


 

 

برای دریافت متن کامل این مقاله آموزشی بسته آموزش تحلیل آماری با spss را تهیه کنید:

شما با این بسته می توانید تحلیل آماری با spss و amos را کامل و آسان بیاموزید

و قطعا قادر می شوید کارهای آماری را حودتان انجام دهید

چگونه؟

بسته آموزشی تجزیه تحلیل آماری با SPSS و AMOS

از صفر تا صد آموزش  spss

آموزش مباحث اساسی AMOS

آموزش به زبان ساده ، موضوعی و گام به گام همراه با تصویر

33 پکیج (1378 صفحه تصویری)+ به همراه همه مقالات آموزشی این سایت درباره spss

لطفا و خواهشا برای سوال های آماری و رفع اشکال تماس نگیرید

هر آنچه لازم باشد در این بسته آموزشی آمده است.

 


انتخاب جدیدترین موضوعات پایان نامه روانشناسی، مشاوره و علوم تربیتی و انجام تخصصی پروپوزال(دانلود نمونه کار پروپوزال)::

شماره تماس: 09011853901
جهت ارسال سریع پیام در پیام رسان های زیر نام هر یک را لمس کنید.