آمار توصیفی





نگاه اجمالی
هنگامی که توده‌ای از اطلاعات کمی ‌برای تحقیق گرد آوری می‌شود، ابتدا سازمان بندی و خلاصه کردن آنها به طریقی که به صورت معنی داری قابل درک و ارتباط باشند، ضروری است. روشهای آمار توصیفی (Descriptive Statistics) به همین منظور بکار برده می‌شوند. غالبا مفیدترین و در عین حال اولین قدم در سازمان داده‌ها مرتب کردن داده‌ها بر اساس یک ملاک منطقی است و سپس استخراج شاخص‌های مرکزی و پراکندگی و در صورت لزوم محاسبه همبستگی میان دو دسته اطلاعات و استفاده از تحلیل‌های پیشرفته تر نظیر رگراسیون (Regression) و پیش بینی (Prediction) می‌باشد.
در یک جمعبندی با استفاده مناسب از روشهای آمار توصیفی می‌توان دقیقا ویژگیهای یک دسته از اطلاعات را بیان کرد. آمار توصیفی همیشه برای تعیین و بیان ویژگیهای اطلاعات پژوهش‌ها بکار برده می‌شوند.
روشهای آمار توصیفی
تشکیل جدول توزیع فراوانی
توزیع فراوانی عبارت است از سازمان دادن داده‌ها یا مشاهدات به صورت طبقات همراه با فراوانی هر طبقه. برای تشکیل یک جدول توزیع فراوانی باید دامنه تغییرات ، تعداد طبقات و حجم طبقات توسط فرمولهای مربوطه محاسبه شده و سپس اقدام به نوشتن جدول توزیع در دو ستون X (ستون طبقات) و F (فراوانی طبقات) شود. پس از این مرحله در صورت تمایل یا لزوم پژوهشگر می‌تواند شاخص‌های دیگری نظیر فراوانی تراکمی‌ ، فراوانی تراکمی‌ درصدی را محاسبه نماید. تشکیل جدول توزیع فراوانی یک روش اقتصادی و در عین حال آسان برای نمایش انبوهی از داده‌های نامنظم است. اما در طبقه بندی کردن ، برخی از اطلاعات به علت خطای گروه بندی از دست می‌روند که در محاسبه شاخصهای آماری نیز منعکس می‌شود. ولی مقدار آن ناچیز بوده و اشکال عمده‌ای ایفا نمی‌کند.
ترسیم نمودار
یکی از نقاط ضعف نمایش داده‌ها به صورت جدول فراوانی عدم درک سریع اطلاعات جدول است. نمودارها ابزار مناسبی برای نمایش تصویری اطلاعات هستند. انواع مختلفی از نمودار وجود دارد که از جمله می‌توان به نمودار هیستوگرام ، نمودار ستونی ، نمودار چند ضلعی تراکمی ‌، نمودار دایره‌ای ، نمودار سریهای زمانی و …اشاره کرد.
محاسبه شاخصهای مرکزی
در محاسبات آماری لازم است که ویژگیها و موقعیت کلی داده‌ها تعیین شود. برای این منظور شاخصهای مرکزی محاسبه می‌شوند. شاخصهای مرکزی در سه نوع نما (Mode) ، میانه (Median) و میانگین (Mean) هستند که هر یک کاربرد خاص خود را دارا می‌باشند. در تحقیقاتی که مقیاس اندازه گیری داده‌ها حداقل فاصله‌ای است میانگین بهترین شاخص است. ولی در تحقیقاتی که مقیاس اندازه گیری داده‌ها رتبه‌ای یا اسمی‌ است، میانه یا نما مورد استفاده قرار می‌گیرند.
محاسبه شاخصهای پراکندگی
شاخصهای پراکندگی برخلاف شاخصهای مرکزی هستند. آنها میزان پراکندگی یا تغییراتی را که در بین داده‌های یک توزیع (نتایج تحقیق) وجود دارد، نشان می‌دهند. دامنه تغییرات ، انحراف چارکی (Quartile Deviation) ، واریانس (Variance) و انحراف استاندارد (Standard Deviation) شاخصهایی هستند که به همین منظور در تحقیقات مورد استفاده قرار می‌گیرند. پس از محاسبه شاخصهای مرکزی و پراکندگی می‌توان نمره‌های استاندارد را محاسبه و منحنی طبیعی (Z) را ترسیم کرد
شاخص های پراکندگی
الف) دامنه تغییرات : این شاخص بدترین نوع شاخص پراکندگی است زیرا تنها با دو مقدار ابتدایی و انتهایی سری داده مرتب شده در ارتباط است که توسط رابطه زیر به دست می آید:
R=Xmax-Xmin
ب) متوسط قدر مطلق انحرافات: این شاخص پراکندگی را با Ad نمایش داده وبه صورت زیر تعریف می کنند .
شاخص فوق به دلیل ثقیل قدر مطلق توصیه نمی شود.
ج)واریانس:
به دلیا این که واریانس واحد اندازه گیری را مر بع می کند توصیه نمی شود.
محاسبه همبستگی
تحقیقاتی وجود دارد که پژوهشگر می‌خواهد رابطه بین دو متغیر را تعیین کند و به همین منظور از روشهای همبستگی (Correlation) استفاده می‌کند. در محاسبه همبستگی ، نوع مقیاس اندازه گیری دخالت دارد و بطور کلی به دو دسته پارامتری و ناپارامتری تقسیم می‌شوند.
محاسبه همبستگی برای تحقیقات پارامتری : چنانچه دو متغیر در مقیاسهای فاصله یا نسبی اندازه گیری شده باشند، می‌توان برای تعیین رابطه بین آنها از ضریب همبستگی گشتاوری پیرسون استفاده کرد. ولی اگر در تمام مفروضات ضریب همبستگی پیرسون صادق نباشد، نمی‌توان از آنها استفاده کرد و به جای آن می‌توان از روشهای دیگری مانند ضریب همبستگی دو رشته‌ای ( ) ، دورشته‌ای ( ) و یا ضریب تتراکوریک ( ) استفاده کرد.
محاسبه همبستگی برای تحقیقات ناپارامتری : در تحقیقاتی که در سطح مقیاس‌های اسمی ‌و رتبه‌ای انجام می‌گیرد، باید از روش‌های دیگری برای محاسبه همبستگی بین دو متغیر استفاده کرد. برخی از این روشها عبارتند از : ضریب همبستگی فی (φ) ضریب کریمر (C) ، ضریب کپا (K) و ضریب لامبدا ، در تحقیقات اسمی ‌و ضریب همبستگی اسپرمن ( ) ، ضریب کندال و آماده گاما (G) برای تحقیقات ترتیبی.
رگراسیون و پیش بینی
رگراسیون (Regression) روشی برای مطالعه سهم یک یا چند متغیر مستقل در پیش بینی متغیر وابسته است. از تحلیل رگراسیون هم در تحقیقات توصیفی (غیر آزمایشی) و هم در تحقیقات آزمایشی می‌توان استفاده کرد. با توجه به نوع تحقیق و متغیرهای آن روش متنوعی برای تحلیل رگراسیون وجود دارد که برخی از آنها عبارتند از : رگراسیون خطی (با سه راهبرد همزمان ، گام به گام ، سلسله مراتبی) ، رگراسیون انحنایی ، رگراسیون لوجیستیک و تحلیل کواریانس.
تحلیل داده‌های ماتریس کواریانس
از جمله تحلیل‌های همبستگی ، تحلیل ماتریس کواریانس یا ماتریس همبستگی است. دو نوع از معروفترین این تحلیل‌ها عبارتند از : مدل تحلیل عاملی برای پی بردن به متغیرهای زیر بنایی یک پدیده در دو دسته اکتشافی و تاییدی و مدل معادلات ساختاری برای بررسی روابط علی بین متغیرها.
1-http://daneshnameh.roshd.ir
2-http://bekrizadeh.blogfa.com