آمار توصیفی
نگاه اجمالی
هنگامی که تودهای از اطلاعات کمی برای تحقیق گرد آوری میشود، ابتدا سازمان بندی و خلاصه کردن آنها به طریقی که به صورت معنی داری قابل درک و ارتباط باشند، ضروری است. روشهای آمار توصیفی (Descriptive Statistics) به همین منظور بکار برده میشوند. غالبا مفیدترین و در عین حال اولین قدم در سازمان دادهها مرتب کردن دادهها بر اساس یک ملاک منطقی است و سپس استخراج شاخصهای مرکزی و پراکندگی و در صورت لزوم محاسبه همبستگی میان دو دسته اطلاعات و استفاده از تحلیلهای پیشرفته تر نظیر رگراسیون (Regression) و پیش بینی (Prediction) میباشد.
در یک جمعبندی با استفاده مناسب از روشهای آمار توصیفی میتوان دقیقا ویژگیهای یک دسته از اطلاعات را بیان کرد. آمار توصیفی همیشه برای تعیین و بیان ویژگیهای اطلاعات پژوهشها بکار برده میشوند.
روشهای آمار توصیفی
تشکیل جدول توزیع فراوانی
توزیع فراوانی عبارت است از سازمان دادن دادهها یا مشاهدات به صورت طبقات همراه با فراوانی هر طبقه. برای تشکیل یک جدول توزیع فراوانی باید دامنه تغییرات ، تعداد طبقات و حجم طبقات توسط فرمولهای مربوطه محاسبه شده و سپس اقدام به نوشتن جدول توزیع در دو ستون X (ستون طبقات) و F (فراوانی طبقات) شود. پس از این مرحله در صورت تمایل یا لزوم پژوهشگر میتواند شاخصهای دیگری نظیر فراوانی تراکمی ، فراوانی تراکمی درصدی را محاسبه نماید. تشکیل جدول توزیع فراوانی یک روش اقتصادی و در عین حال آسان برای نمایش انبوهی از دادههای نامنظم است. اما در طبقه بندی کردن ، برخی از اطلاعات به علت خطای گروه بندی از دست میروند که در محاسبه شاخصهای آماری نیز منعکس میشود. ولی مقدار آن ناچیز بوده و اشکال عمدهای ایفا نمیکند.
ترسیم نمودار
یکی از نقاط ضعف نمایش دادهها به صورت جدول فراوانی عدم درک سریع اطلاعات جدول است. نمودارها ابزار مناسبی برای نمایش تصویری اطلاعات هستند. انواع مختلفی از نمودار وجود دارد که از جمله میتوان به نمودار هیستوگرام ، نمودار ستونی ، نمودار چند ضلعی تراکمی ، نمودار دایرهای ، نمودار سریهای زمانی و …اشاره کرد.
محاسبه شاخصهای مرکزی
در محاسبات آماری لازم است که ویژگیها و موقعیت کلی دادهها تعیین شود. برای این منظور شاخصهای مرکزی محاسبه میشوند. شاخصهای مرکزی در سه نوع نما (Mode) ، میانه (Median) و میانگین (Mean) هستند که هر یک کاربرد خاص خود را دارا میباشند. در تحقیقاتی که مقیاس اندازه گیری دادهها حداقل فاصلهای است میانگین بهترین شاخص است. ولی در تحقیقاتی که مقیاس اندازه گیری دادهها رتبهای یا اسمی است، میانه یا نما مورد استفاده قرار میگیرند.
محاسبه شاخصهای پراکندگی
شاخصهای پراکندگی برخلاف شاخصهای مرکزی هستند. آنها میزان پراکندگی یا تغییراتی را که در بین دادههای یک توزیع (نتایج تحقیق) وجود دارد، نشان میدهند. دامنه تغییرات ، انحراف چارکی (Quartile Deviation) ، واریانس (Variance) و انحراف استاندارد (Standard Deviation) شاخصهایی هستند که به همین منظور در تحقیقات مورد استفاده قرار میگیرند. پس از محاسبه شاخصهای مرکزی و پراکندگی میتوان نمرههای استاندارد را محاسبه و منحنی طبیعی (Z) را ترسیم کرد
شاخص های پراکندگی
الف) دامنه تغییرات : این شاخص بدترین نوع شاخص پراکندگی است زیرا تنها با دو مقدار ابتدایی و انتهایی سری داده مرتب شده در ارتباط است که توسط رابطه زیر به دست می آید:
R=Xmax-Xmin
ب) متوسط قدر مطلق انحرافات: این شاخص پراکندگی را با Ad نمایش داده وبه صورت زیر تعریف می کنند .
شاخص فوق به دلیل ثقیل قدر مطلق توصیه نمی شود.
ج)واریانس:
به دلیا این که واریانس واحد اندازه گیری را مر بع می کند توصیه نمی شود.
محاسبه همبستگی
تحقیقاتی وجود دارد که پژوهشگر میخواهد رابطه بین دو متغیر را تعیین کند و به همین منظور از روشهای همبستگی (Correlation) استفاده میکند. در محاسبه همبستگی ، نوع مقیاس اندازه گیری دخالت دارد و بطور کلی به دو دسته پارامتری و ناپارامتری تقسیم میشوند.
محاسبه همبستگی برای تحقیقات پارامتری : چنانچه دو متغیر در مقیاسهای فاصله یا نسبی اندازه گیری شده باشند، میتوان برای تعیین رابطه بین آنها از ضریب همبستگی گشتاوری پیرسون استفاده کرد. ولی اگر در تمام مفروضات ضریب همبستگی پیرسون صادق نباشد، نمیتوان از آنها استفاده کرد و به جای آن میتوان از روشهای دیگری مانند ضریب همبستگی دو رشتهای ( ) ، دورشتهای ( ) و یا ضریب تتراکوریک ( ) استفاده کرد.
محاسبه همبستگی برای تحقیقات ناپارامتری : در تحقیقاتی که در سطح مقیاسهای اسمی و رتبهای انجام میگیرد، باید از روشهای دیگری برای محاسبه همبستگی بین دو متغیر استفاده کرد. برخی از این روشها عبارتند از : ضریب همبستگی فی (φ) ضریب کریمر (C) ، ضریب کپا (K) و ضریب لامبدا ، در تحقیقات اسمی و ضریب همبستگی اسپرمن ( ) ، ضریب کندال و آماده گاما (G) برای تحقیقات ترتیبی.
رگراسیون و پیش بینی
رگراسیون (Regression) روشی برای مطالعه سهم یک یا چند متغیر مستقل در پیش بینی متغیر وابسته است. از تحلیل رگراسیون هم در تحقیقات توصیفی (غیر آزمایشی) و هم در تحقیقات آزمایشی میتوان استفاده کرد. با توجه به نوع تحقیق و متغیرهای آن روش متنوعی برای تحلیل رگراسیون وجود دارد که برخی از آنها عبارتند از : رگراسیون خطی (با سه راهبرد همزمان ، گام به گام ، سلسله مراتبی) ، رگراسیون انحنایی ، رگراسیون لوجیستیک و تحلیل کواریانس.
تحلیل دادههای ماتریس کواریانس
از جمله تحلیلهای همبستگی ، تحلیل ماتریس کواریانس یا ماتریس همبستگی است. دو نوع از معروفترین این تحلیلها عبارتند از : مدل تحلیل عاملی برای پی بردن به متغیرهای زیر بنایی یک پدیده در دو دسته اکتشافی و تاییدی و مدل معادلات ساختاری برای بررسی روابط علی بین متغیرها.
منابع:
1-http://daneshnameh.roshd.ir
2-http://bekrizadeh.blogfa.com
/خ
هنگامی که تودهای از اطلاعات کمی برای تحقیق گرد آوری میشود، ابتدا سازمان بندی و خلاصه کردن آنها به طریقی که به صورت معنی داری قابل درک و ارتباط باشند، ضروری است. روشهای آمار توصیفی (Descriptive Statistics) به همین منظور بکار برده میشوند. غالبا مفیدترین و در عین حال اولین قدم در سازمان دادهها مرتب کردن دادهها بر اساس یک ملاک منطقی است و سپس استخراج شاخصهای مرکزی و پراکندگی و در صورت لزوم محاسبه همبستگی میان دو دسته اطلاعات و استفاده از تحلیلهای پیشرفته تر نظیر رگراسیون (Regression) و پیش بینی (Prediction) میباشد.
در یک جمعبندی با استفاده مناسب از روشهای آمار توصیفی میتوان دقیقا ویژگیهای یک دسته از اطلاعات را بیان کرد. آمار توصیفی همیشه برای تعیین و بیان ویژگیهای اطلاعات پژوهشها بکار برده میشوند.
روشهای آمار توصیفی
تشکیل جدول توزیع فراوانی
توزیع فراوانی عبارت است از سازمان دادن دادهها یا مشاهدات به صورت طبقات همراه با فراوانی هر طبقه. برای تشکیل یک جدول توزیع فراوانی باید دامنه تغییرات ، تعداد طبقات و حجم طبقات توسط فرمولهای مربوطه محاسبه شده و سپس اقدام به نوشتن جدول توزیع در دو ستون X (ستون طبقات) و F (فراوانی طبقات) شود. پس از این مرحله در صورت تمایل یا لزوم پژوهشگر میتواند شاخصهای دیگری نظیر فراوانی تراکمی ، فراوانی تراکمی درصدی را محاسبه نماید. تشکیل جدول توزیع فراوانی یک روش اقتصادی و در عین حال آسان برای نمایش انبوهی از دادههای نامنظم است. اما در طبقه بندی کردن ، برخی از اطلاعات به علت خطای گروه بندی از دست میروند که در محاسبه شاخصهای آماری نیز منعکس میشود. ولی مقدار آن ناچیز بوده و اشکال عمدهای ایفا نمیکند.
ترسیم نمودار
یکی از نقاط ضعف نمایش دادهها به صورت جدول فراوانی عدم درک سریع اطلاعات جدول است. نمودارها ابزار مناسبی برای نمایش تصویری اطلاعات هستند. انواع مختلفی از نمودار وجود دارد که از جمله میتوان به نمودار هیستوگرام ، نمودار ستونی ، نمودار چند ضلعی تراکمی ، نمودار دایرهای ، نمودار سریهای زمانی و …اشاره کرد.
محاسبه شاخصهای مرکزی
در محاسبات آماری لازم است که ویژگیها و موقعیت کلی دادهها تعیین شود. برای این منظور شاخصهای مرکزی محاسبه میشوند. شاخصهای مرکزی در سه نوع نما (Mode) ، میانه (Median) و میانگین (Mean) هستند که هر یک کاربرد خاص خود را دارا میباشند. در تحقیقاتی که مقیاس اندازه گیری دادهها حداقل فاصلهای است میانگین بهترین شاخص است. ولی در تحقیقاتی که مقیاس اندازه گیری دادهها رتبهای یا اسمی است، میانه یا نما مورد استفاده قرار میگیرند.
محاسبه شاخصهای پراکندگی
شاخصهای پراکندگی برخلاف شاخصهای مرکزی هستند. آنها میزان پراکندگی یا تغییراتی را که در بین دادههای یک توزیع (نتایج تحقیق) وجود دارد، نشان میدهند. دامنه تغییرات ، انحراف چارکی (Quartile Deviation) ، واریانس (Variance) و انحراف استاندارد (Standard Deviation) شاخصهایی هستند که به همین منظور در تحقیقات مورد استفاده قرار میگیرند. پس از محاسبه شاخصهای مرکزی و پراکندگی میتوان نمرههای استاندارد را محاسبه و منحنی طبیعی (Z) را ترسیم کرد
شاخص های پراکندگی
الف) دامنه تغییرات : این شاخص بدترین نوع شاخص پراکندگی است زیرا تنها با دو مقدار ابتدایی و انتهایی سری داده مرتب شده در ارتباط است که توسط رابطه زیر به دست می آید:
R=Xmax-Xmin
ب) متوسط قدر مطلق انحرافات: این شاخص پراکندگی را با Ad نمایش داده وبه صورت زیر تعریف می کنند .
شاخص فوق به دلیل ثقیل قدر مطلق توصیه نمی شود.
ج)واریانس:
به دلیا این که واریانس واحد اندازه گیری را مر بع می کند توصیه نمی شود.
محاسبه همبستگی
تحقیقاتی وجود دارد که پژوهشگر میخواهد رابطه بین دو متغیر را تعیین کند و به همین منظور از روشهای همبستگی (Correlation) استفاده میکند. در محاسبه همبستگی ، نوع مقیاس اندازه گیری دخالت دارد و بطور کلی به دو دسته پارامتری و ناپارامتری تقسیم میشوند.
محاسبه همبستگی برای تحقیقات پارامتری : چنانچه دو متغیر در مقیاسهای فاصله یا نسبی اندازه گیری شده باشند، میتوان برای تعیین رابطه بین آنها از ضریب همبستگی گشتاوری پیرسون استفاده کرد. ولی اگر در تمام مفروضات ضریب همبستگی پیرسون صادق نباشد، نمیتوان از آنها استفاده کرد و به جای آن میتوان از روشهای دیگری مانند ضریب همبستگی دو رشتهای ( ) ، دورشتهای ( ) و یا ضریب تتراکوریک ( ) استفاده کرد.
محاسبه همبستگی برای تحقیقات ناپارامتری : در تحقیقاتی که در سطح مقیاسهای اسمی و رتبهای انجام میگیرد، باید از روشهای دیگری برای محاسبه همبستگی بین دو متغیر استفاده کرد. برخی از این روشها عبارتند از : ضریب همبستگی فی (φ) ضریب کریمر (C) ، ضریب کپا (K) و ضریب لامبدا ، در تحقیقات اسمی و ضریب همبستگی اسپرمن ( ) ، ضریب کندال و آماده گاما (G) برای تحقیقات ترتیبی.
رگراسیون و پیش بینی
رگراسیون (Regression) روشی برای مطالعه سهم یک یا چند متغیر مستقل در پیش بینی متغیر وابسته است. از تحلیل رگراسیون هم در تحقیقات توصیفی (غیر آزمایشی) و هم در تحقیقات آزمایشی میتوان استفاده کرد. با توجه به نوع تحقیق و متغیرهای آن روش متنوعی برای تحلیل رگراسیون وجود دارد که برخی از آنها عبارتند از : رگراسیون خطی (با سه راهبرد همزمان ، گام به گام ، سلسله مراتبی) ، رگراسیون انحنایی ، رگراسیون لوجیستیک و تحلیل کواریانس.
تحلیل دادههای ماتریس کواریانس
از جمله تحلیلهای همبستگی ، تحلیل ماتریس کواریانس یا ماتریس همبستگی است. دو نوع از معروفترین این تحلیلها عبارتند از : مدل تحلیل عاملی برای پی بردن به متغیرهای زیر بنایی یک پدیده در دو دسته اکتشافی و تاییدی و مدل معادلات ساختاری برای بررسی روابط علی بین متغیرها.
منابع:
1-http://daneshnameh.roshd.ir
2-http://bekrizadeh.blogfa.com
/خ