بسم الله الرحمن الرحیم

روش تحقیق کیفی

فهرست علوم
متدلوژی-روش‌شناسي-منهجية
روش‌شناسی خاص علوم انسانی
روش‌شناسی خاص علوم تجربی
روش تحقیق
روش تحقیق کیفی
روش تحقیق کمّی




اقای مجید حیدری در آموزش خود سه نوع کدگذاری بیان کردند: باز، محوری، گزینشي، یعنی: ۱- اول برداشت و ۲- جامع گیری و دسته بندی و ۳- ارتباط بین محورها و...

Grounded theory

Open coding - Wikipedia
Axial coding - Wikipedia
Selective coding



روش تحقیق کیفی
از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به ناوبری
پرش به جستجو
این مقاله نیازمند ویکی‌سازی است. لطفاً با توجه به راهنمای ویرایش و شیوه‌نامه، محتوای آن را بهبود بخشید.
محتویات

۱ روش تحقیق کیفی
۲ ریشه‌شناسی کلمه
۳ جایگاه روش کیفی در علوم اجتماعی
۴ اجزای عمدهٔ تشکیل دهندهٔ تحقیق کیفی
۴.۱ در تحقیق کیفی سه بخش عمده وجود دارد
۵ انواع تحقیق کیفی
۶ پانویس
۷ منابع

روش تحقیق کیفی
ریشه‌شناسی کلمه

واژه Research در لغت به‌معنای پژوهش، تحقیق، کندوکاو، تجسس و کاوش است و Qualitative به‌معنای کیفی و چونی است. این دو واژه مجموعاً به‌معنای تحقیق و پژوهش کیفی است.[۱] تحقیق کیفی عبارت از مجموعه فعالیت‌هایی (چون مشاهده، مصاحبه و شرکت گسترده در فعالیت‌های پژوهشی) است، که هرکدام به‌نحوی محقّق را در کسب اطلاعات دست اول، دربارهٔ موضوع مورد تحقیق یاری می‌دهند. بدین‌ترتیب، از اطلاعات جمع‌آوری شده، توصیف‌های تحلیلی، ادراکی و طبقه‌بندی‌شده حاصل می‌شود. در روش مورد بحث دسترسی به اطلاعات؛ یعنی زندگی کردن با مردم مورد پژوهش، یادگیری فرهنگ آن‌ها، از جمله مبانی ارزشی، عقیدتی و رفتاری، زبان و تلاش برای درک احساس، انگیزش و هیجان‌های آن‌ها است. محقق کیفی، رفتار اجتماعی را به این دلیل درک می‌کند که خود را به‌جای دیگران قرار می‌دهد.[۲]

آنسلم استراس هزاره می‌گوید: «منظور ما از تحقیق کیفی عبارت از هرنوع تحقیقی است که یافته‌هایی را به‌دست می‌دهند که با شیوه‌هایی غیر از روش‌های آماری یا هرگونه کمّی کردن کسب نشده‌اند. شیوه مذکور ممکن است به تحقیق دربارهٔ زندگی افراد، شرح حال‌ها، رفتارها و همچنین دربارهٔ کارکرد سازمانی، جنبش‌های اجتماعی یا روابط بین‌الملل معطوف باشد.»[۳]

تا پایان دههٔ ۱۹۶۰ نزدیک به ۹۰ درصد گزارش‌های منتشرشده در مجلات جامعه‌شناسی آمریکا، مبتنی بر تحقیق کمّی و آماری بودند. گرچه در بریتانیا آمارهای قابل مقایسه‌ای در دست نیستند؛ ولی گمان می‌رود تا اواخر دههٔ ۱۹۶۰ تحقیق آماری در این کشور نیز مسلط بود. اما امروزه قضیه تفاوت پیدا کرده و به‌دلیل انتقادهای نظری از "اثبات‌گرایی(Positivism)" (که گرایش به شیوه‌های آماری و کمّی دارند)، اکنون روش‌های کیفی، جایگاهی کانونی در آموزش و تحقیق اجتماعی به‌دست آورده‌اند.[۴] این روش را انسان‌شناسان فرهنگی برای مطالعه آداب و رفتارهای مردمان فرهنگ‌های دیگر ابداع کرده‌اند. مبنای فلسفی تحقیق کیفی، "انسان‌گرایی" (Humanism) و "طبیعت‌گرایی" (Naturalism) است. منظور از مبنای انسان‌گرایانه، توجه به نقش و اهمیت انسان در تحقیق‌های کیفی است. مطابق این فلسفه، وجه ممیّز انسان با موجودات دیگر، کنش بر پایهٔ انگیزه‌ها یا عوامل درونی و بیرونی به‌جای واکنش است.[۵]

پژوهش‌گر اثبات‌گرا، دانش را از طریق گردآوری داده‌های عددی و مشاهدهٔ نمونه‌ها و سپس عرضهٔ این داده‌ها به تحلیل عددی فراهم می‌کند. در مقابل این‌ها پژوهش "مابعد اثبات‌گرا"، ریشه در این فرض دارد که جلوه‌های محیط اجتماعی به‌عنوان تفسیرهایی به‌وسیلهٔ افراد ساخته می‌شود. این تفسیرها شکل گذرا و وابسته به موقعیت دارند. پژوهش‌گران مابعد اثبات‌گرا دانش را از درجهٔ اول از طریق گردآوری داده‌های کلامی با "مطالعهٔ جدّی و عمقی" (Intensive) موارد، و عرضه این داده‌ها به استقراء تحلیلی فراهم می‌آورند.[۶] پژوهش‌گران کیفی بر نوعی تفسیر کل‌نگر تأکید می‌کنند. آنان واقعیتها و ارزش‌ها را به‌صورتی غیرقابل تفکیک و آمیخته با یکدیگر در نظر می‌گیرند. از طرف دیگر پژوهش‌گران کمّی به‌جای توجه بر تفسیرهای کل‌نگر، بر عوامل و متغیرهای فردی تأکید دارند. پژوهش‌گر کمّی بر این باور است که واقعیّت را می‌توان به مؤلفه‌هایش تقسیم کرد و با نگاه به این اجزاء، شناختی از کل به‌دست‌آورد؛ ولی پژوهش‌گر کیفی براساس این باور، که واقعیّت، کلیّتی است غیرقابل تقسیم، به بررسی کلّ فرایند می‌پردازد.[۷]

البته پژوهش‌های کیفی و کمّی می‌توانند از طریق کشف (توسط پژوهش‌های کیفی) و تأیید (توسط پژوهش‌های کمی) هم‌دیگر را کامل کنند؛[۸] فلذا با وجود همه تفاوت‌ها، بسیاری از پژوهش‌گران، اکنون ترکیبی از رویکردهای کمّی و کیفی را برای فهم کامل پدیده مورد بررسی خود، به‌کار می‌برند.[۹]
جایگاه روش کیفی در علوم اجتماعی

گرچه روش کیفی را انسان‌شناسان فرهنگی ابداع کردند، ولی امروزه در سایر علوم انسانی و اجتماعی نظیر جامعه‌شناسی، ارتباطات، آموزش و پرورش، تاریخ، مطالعات فرهنگی و مطالعات جنس‌واره‌ای (جنسیّتی:Sexuality) نیز به‌کار می‌رود. لکن در روان‌شناسی، روش‌های کمّی غلبه دارند.[۱۰]

اساساً بخش عمده‌ای از مطالعات مربوط به تأثیر ایدئولوژی دین، فرهنگ، سیاست، اخلاق و مانند آن، برکنش و رفتار انسان که موضوع مطالعه بسیاری از رشته‌های علوم انسانی است، را می‌توان با استفاده از روش تحلیل کیفی و عقلی، تجزیه و تحلیل نمود[۱۱]
اجزای عمدهٔ تشکیل دهندهٔ تحقیق کیفی
در تحقیق کیفی سه بخش عمده وجود دارد

بخش اول: داده‌ها؛ داده‌ها می‌توانند از منابع مختلف گردآوری شده باشند. مصاحبه، مشاهده و مشارکت، معمول‌ترین منابع‌اند؛

بخش دوم: شامل روش‌های تحلیلی و تعبیر و تفسیری است؛ که برای رسیدن به یافته‌ها یا نظریه‌ها به‌کار می‌رود. این روش‌ها شامل شیوه‌های مفهوم‌پردازی از داده‌ها است؛ که به "کدگذاری(Coding)" موسوم است. شیوه‌های دیگری مثل نمونه‌گیری غیرآماری، یادداشت‌برداری و نمایش روابط مفهومی به‌صورت دیاگرام نیز بخشی از مرحلهٔ تحلیلی‌اند؛

بخش سوم: عبارت است از گزارش‌های نوشته‌شده و شفاهی و ارائه آن‌ها در مجله‌ها و کنفرانس‌های علمی.[۱۲]
انواع تحقیق کیفی

دسته‌بندی تحقیقات کیفی آسان و مورد توافق همه نیست. آنسلم، استراس و جولیت کوربین شیوه‌های تحقیق کیفی را شامل موارد ذیل می‌دانند:[۱۳]

نظریه مبنایی(Grounded theory)؛ یعنی آن‌چه که به‌طور استقرایی (Induction)؛ یعنی از جزء به کل، از مطالعه پدیده‌ای به‌دست آید و نمایان‌گر آن پدیده است. به‌عبارت دیگر، باید آن‌ را کشف کرد و کامل نمود و به‌طور آزمایشی از طریق گردآوری منظم اطلاعات و تجزیه و تحلیل داده‌هایی که از آن پدیده نشأت گرفته‌است، اثبات نمود.
مردم‌نگاری یا قوم‌نگاری(Ethnography)؛ پژوهش قوم‌نگاری معمولاً با انسان‌شناسی همبسته است. قوم‌نگاری توصیفی عمیق و تحلیلی از موقعیّت فرهنگی و در معنای وسیع، از فرهنگ است. پژوهش قوم‌نگاری بر مشاهده، توصیف و داوری‌های کیفی یا تفسیر پدیده‌های مورد بررسی تأکید بسیار دارد.[۱۴]

پانویس

آریان‌پور، منوچهر و دیگران؛ فرهنگ پیشرو آریان‌پور، تهران، جهان رایانه، 1377، چاپ اول، ج5.
دلاور، علی؛ مبانی نظری و عملی پژوهش در علوم انسانی و اجتماعی، تهران، رشد، 1385، چاپ پنجم، ص259.
آنسلم استراس می‌گوید: «منظور ما از تحقیق کیفی عبارت از هرنوع تحقیقی است که یافته‌هایی را به‌دست می‌دهند که با شیوه‌هایی غیر از روش‌های آماری یا هرگونه کمّی کردن کسب نشده‌اند. شیوه مذکور ممکن است به تحقیق دربارهٔ زندگی افراد، شرح حال‌ها، رفتارها و همچنین دربارهٔ کارکرد سازمانی، جنبش‌های اجتماعی یا روابط بین‌الملل معطوف باشد.»[
سیلورمن، دیوید؛ روش تحقیق کیفی در جامعه‌شناسی، محسن ثلاثی، تهران، تبیان، 1379، چاپ اول، ص1.
رفیعی، حسن و دیگران؛ روش‌های تحقیق بین رشته‌ای در اعتیاد، تهران، دانژه، 1387، چاپ اول، ص133-132.
گال، مردیت و دیگران؛ روش‌های تحقیق کمّی و کیفی در علوم تربیتی و روان‌شناسی، احمدرضا نصر و دیگران، تهران، انتشارات دانشگاه شهید بهشتی و سمت، 1382، چاپ اول، ج1، ص59.
خوی‌نژاد، غلامرضا؛ روش‌های پژوهش در علوم تربیتی، تهران، سمت، 1380، چاپ اول، ص110 و ویمر، راجردی و جوزف آر. دومینیک؛ ص160.
گال، مردیت و دیگران؛ ج 1، ص 64.
ویمر، راجردی و جوزف آر دومینیک؛ ص162.
رفیعی، حسن و دیگران؛ ص132.
حافظ‌نیا، محمدرضا؛ مقدمه‌ای بر روش تحقیق در علوم انسانی، تهران، سمت، 1382، چاپ نهم، ص235.
استراس، آنسلم و جولیت کوربین؛ ص20-19.
استراس، آنسلم و جولیت کوربین؛ ص20.

بازرگان، عباس؛ مقدمه‌ای بر روش‌های تحقیق کیفی و آمیخته، تهران، دیدار، 1387، چاپ اول، ص47 و خوی‌نژاد، غلامرضا؛ ص 114.

منابع

استراس،آنسلم؛کوربین،جولیت: اصول روش تحقیق کیفی(نظریه مبنایی). ترجمه بیوک
محمدی، پژوهشگاه علوم انسانی و مطالعات فرهنگی. تهران1385.
ببی،ارل: روش‌های تحقیق در علوم اجتماعی. ترجمه رضا فاضل. انتشارات سمت. تهران1388.
بلیکی، نورمن: طراحی پژوهش‌های اجتماعی. ترجمه حسن چاوشیان. انتشارات نی، تهران 1384.
بیکر،ترز.ال: نحوه انجام تحقیقات اجتماعی. ترجمه هوشنگ نائبی. نشر نی. تهران1388.
حافظ نیا،محمدرضا: مقدمه‌ای بر روش تحقیق در علوم انسانی، انتشارات سمت، تهران1387.
دواس، دی.ای: پیمایش در تحقیقات اجتماعی. ترجمه هوشنگ نائبی. نشر نی، تهران1387.
رفیع پور، فرامرز: تکنیک‌های خاص تحقیق در علوم اجتماعی. انتشارات شرکت سهامی انتشار تهران 1385.
ساروخانی، باقر: روش‌های تحقیق در علوم اجتماعی 3 جلد. جلد اول و دوم. پژوهشگاه علوم انسانی و مطالعات فرهنگی. تهران 1388.
سرمد، زهره؛بازرگان،عباس؛حجازی،الهه: روش‌های تحقیق در علوم رفتاری، انتشارات آگه تهران1382.
محمدپور، احمد: روش در روش، انتشارات جامعه شناسان، تهران 1388.
مارشال کاترین. روش تحقیق کیفی. چاپ سوم. تهران:دفتر پژوهش‌های فرهنگی.۱۳۸۰
مارشال، کاترین و گرچن ب. راس من؛ روش تحقیق کیفی، تهران، پژوهش‌های فرهنگی، ۱۳۷۷، چاپ اول،.
رفرس، پل، روانشناسی تجربی، سیروس ذکا، تهران، سازمان انتشارات و آموزش انقلاب اسلامی، ۱۳۶۹، چاپ اول
پایگاه جامع روش تحقیق (‌کمی، کیفی و ترکیبی)

[نمایش]

نبو

اثبات‌گرایی
رده‌ها:

روش تحقیق کیفیروش علمیروش‌های ارزیابیروش‌های پژوهشروش‌های جامعه‌شناسی












تحلیل داده‌ها
از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به ناوبری
پرش به جستجو

تحلیل داده (به انگلیسی: Data analysis) فرایند فهمیدن، پاک‌سازی، آماده‌سازی و تحلیل داده‌هاست که به منظور استخراج اطلاعات سودمند برای تصمیم‌گیری انجام می‌شود. تحلیل داده‌ها امروزه در اغلب شاخه‌های علوم و صنعت از جمله اقتصاد، رشته‌های مهندسی، بازاریابی، پزشکی و غیره کاربرد دارد.

داده کاوی، روش خاصی برای تحلیل داده است که بر مدل‌سازی و کشف دانش برای اهداف قابل پیش‌بینی و نه صرفاً توصیفی متمرکز است؛ در حالی‌که هوش کسب‌وکار را پوشش می‌دهد که به‌طور عمده بر تجمع اطلاعات کسب‌وکار متکی است.[۱] در کاربردهای آماری، تجزیه‌وتحلیل داده‌ها را می‌توان به آمار توصیفی، تجزیه‌وتحلیل داده‌های اکتشافی (EDA) و تجزیه‌وتحلیل داده‌های تأییدی (CDA) تقسیم کرد. EDA بر کشف ویژگی‌های جدید در داده‌ها و CDA بر تأیید یا تکذیب فرضیه‌های موجود تمرکز دارد. علم تجزیه‌وتحلیل بر کاربرد مدل‌های آماری برای پیش‌بینی یا طبقه‌بندی تمرکز دارد، در حالی‌که تجزیه‌وتحلیل متن روش‌های آماری، زبانی و ساختاری را برای استخراج و طبقه‌بندی اطلاعات از منابع متنی به‌کار می‌بندد. تمام این‌ها، انواع تحلیل داده به‌شمار می‌آیند.

یکپارچه‌سازی داده‌ها پیش زمینه‌ای برای تحلیل داده‌ها است و تحلیل داده با مصورسازی داده و انتشار داده رابطه نزدیکی دارد. واژه تحلیل داده گاهی اوقات به عنوان مترادف برای مدل‌سازی داده استفاده می‌شود.
محتویات

۱ مراحل تحلیل داده
۱.۱ الزامات داده
۱.۲ جمع‌آوری داده
۱.۳ پردازش داده
۱.۴ پاک‌سازی داده
۱.۵ تجزیه‌وتحلیل داده اکتشافی
۱.۶ مدل‌سازی و الگوریتم
۱.۷ محصول داده
۱.۸ ارتباط
۲ روش‌های تجزیه‌وتحلیل دادهٔ کمی
۳ جستارهای وابسته
۴ منابع

مراحل تحلیل داده

تجزیه‌وتحلیل به معنای شکستن کل به اجزاء جداگانه است. تحلیل داده روند به دست آوردن دادهٔ جدید و تبدیل آن به اطلاعاتی مفید در جهت تصمیم‌گیری کاربران است. داده جمع‌آوری و تحلیل می‌شود تا پاسخگوی سوالات، آزمایش فرضیه‌ها یا تکذیب نظریه‌ها باشد.[۲]

آمارگر جان توکی در سال ۱۹۶۱ تحلیل داده‌ها را به صورت زیر تعریف کرد: «روش‌هایی برای تجزیه‌وتحلیل داده‌ها، تکنیک‌هایی برای تفسیر کردن نتایج حاصل از چنین روش‌هایی، روش‌های برنامه‌ریزی جمع‌آوری داده‌ها برای آسان‌تر ساختن تجزیه‌وتحلیل دقیق‌تر و صحیح‌تر و تمام ماشین‌آلات و نتایج حاصل از آمار که برای تحلیل کردن داده‌ها به کار بسته می‌شود.»[۳]

چندین مرحله قابل تشخیص وجود دارد که در زیر توضیح داده می‌شود.[۴]
الزامات داده

دادهٔ لازم به عنوان ورودی جهت تحلیل، بر اساس پیش‌نیازهای جهت‌دار یا مشتریانی که از محصول نهایی تحلیل استفاده می‌کنند، مشخص شده‌اند. ماهیت کلی که بر مبنای آن داده جمع‌آوری خواهد شد، واحد آزمایشی نامیده می‌شود (به‌طور مثال، یک فرد یا جمعیت). متغیرهای خاص در رابطه با یک جمعیت (به‌طور مثال سن یا درآمد) می‌تواند مشخص شود و به دست آید. داده‌ها ممکن است عددی یا مطلق (مثلاً اعداد یا یک متن) باشند.[۴]
جمع‌آوری داده

داده از منابع گوناگون جمع‌آوری می‌شود. پیش‌نیازها می‌تواند توسط تحلیل‌گران و متولیان داده وسیله ارتباطی باشد. مثلاً تجهیزات فناوری اطلاعات که در یک سازمان است. همچنین داده می‌تواند از سنسورهای داخل محیط مانند دوربین‌های ترافیک، ماهواره، وسایل ثبت و غیره جمع‌آوری شود. همچنین می‌تواند از طریق مصاحبه‌ها، دانلود از منابع آنلاین یا خواندن اسناد به دست آید.[۴]
پردازش داده
مراحل چرخه اطلاعاتی مورد استفاده برای تبدیل داده خام به هوش عملی یا دانش است که به لحاظ مفهومی شبیه به مراحل تجزیه‌وتحلیل داده است..

داده اولیه باید برای تحلیل، فرآوری یا سازماندهی شود. به‌طور مثال آن‌ها در فرمت ستونی یا ردیفی در یک جدول قرار می‌گیرند (یعنی داده ساختاری) که برای تحلیل بیشتر از نرم‌افزارهای آماری یا صفحه گسترده استفاده می‌کنند.
پاک‌سازی داده

زمانی که سازماندهی انجام شد، داده ممکن است ناقص، دارای تکرار یا خطا باشد. نیاز به پاک‌سازی داده هنگام وقوع مشکل در مسیر ورود یا ذخیرهٔ داده معلوم می‌شود. پاک‌سازی داده فرایندی برای اصلاح یا جلوگیری از چنین خطاهایی است. اهداف رایج شامل ثبت تطابق، شناسایی عدم دقت داده، کیفیت کلی دادهٔ موجود,[۵] حذف داده‌های تکراری و تقسیم‌بندی ستون است.[۶] چنین مشکلاتی در داده از طریق روش‌های مختلف تحلیلی هم می‌تواند قابل تشخیص باشد. به‌طور مثال با اطلاعات مالی، مجموع متغیرهای مشخص ممکن است با اعدادی که جداگانه به عنوان داده مورد قبول منتشر شده بودند، مقایسه شود.[۷] مقادیر غیرعادی بالا یا زیر آستانهٔ مشخص هم باید دوباره بررسی شود. بسته به نوع داده مانند شماره‌های تماس، آدرس‌های ایمیل، کارمندان و غیره انواع پاک‌سازی داده وجود دارد. روش‌های دادهٔ کمی برای تشخیص داده‌های پرت می‌تواند برای خارج کردن داده‌هایی که اشتباهاً وارد شده هم استفاده شود. بررسی‌کننده‌های غلط املایی می‌تواند برای کاهش مقدار کلمات اشتباه تایپ شده به کار رود اما مشکل اینجاست که کلماتی که خودشان درست‌اند تشخیص داده شود.[۸]
تجزیه‌وتحلیل داده اکتشافی

زمانی که داده پاک‌سازی شد، می‌تواند تحلیل شود. برای داده اکتشافی، تحلیل‌گر ممکن است چندین روش را به کار ببندد تا پیام موجود در داده را بتواند درک کند. خود این بخش می‌تواند شامل پاک‌سازی دیگری شود.[۹][۱۰] بنابراین این فعالیت‌ها در ذات خود ممکن است تکرار داشته باشند. آمار توصیفی مانند معدل و میانه ممکن است برای کمک به فهم آن داده تولید شود. مصورسازی داده نیز به فرمت گرافیکی به کار می‌رود تا دید بیشتری نسبت به پیام‌های درون داده حاصل آید.[۴]
مدل‌سازی و الگوریتم

مدل‌ها یا فرمول‌های ریاضی که به آن‌ها الگوریتم گفته می‌شود، ممکن است بر روی داده به کار بسته شود تا روابط بین متغیرها مانند همبستگی یا نسبت میان علت و معمول شناسایی شود. به‌طور کلی، مدل‌ها برای ارزیابی به متغیری مشخص در داده که بر مبنای دیگر متغیرها است، توسعه می‌یابد که در آن چند خطای باقی‌مانده بسته به دقت مدل وجود دارد (داد ه= مدل + خطا).

آمار استنتاجی، شامل روش‌های اندازه‌گیری روابط بین متغیرهای مشخص می‌باشد. برای مثال، تحلیل رگرسیون ممکن است برای مدل استفاده شود که تغییر در تبلیغ (متغیر مستقل X) و تغییر در فروش (متغیر وابسته Y) را توضیح می‌دهد. از لحاظ ریاضی، Y (فروش) تابعی از X (تبلیغات) است. ممکن است به صورت Y = aX + b + error توضیح داده شود که در آن مدل به گونه‌ای طراحی شده که a و b زمانی که مدل Y را برای طیفی از مقادیر X پیش‌بینی می‌کند، خطا را کاهش دهند. ممکن است تحلیل‌گران سعی کنند تا مدل‌هایی بسازند که توصیفی هستند تا تحلیل ساده و نتایج قابل فهم شود.
محصول داده

محصول داده یک برنامه کامپیوتری است که داده‌ها را گرفته و خروجی تولید می‌کند و آن‌ها را به محیط برمی‌گرداند؛ می‌تواند برحسب یک مدل یا الگوریتم باشد. برای مثال، برنامه‌ای کاربردی که اطلاعات تاریخچه خرید مشتری را تحلیل می‌کند و خریدهایی که ممکن است برای آن مشتری مطلوب باشد را پیشنهاد می‌کند.[۴]
ارتباط

مقاله اصلی: مصورسازی داده

هنگامی که داده‌ها مورد تجزیه و تحلیل است، می‌تواند به فرمت‌های مختلف برای کاربران گزارش شود تا نیازهای آن‌ها حمایت شود. کاربران ممکن است بازخورد دهند که موجب تجزیه و تحلیل اضافی می‌شود. به این ترتیب، بسیاری از چرخه تحلیلی تکراری است.[۴]

هنگام تعیین نحوه انتقال نتایج، تحلیل‌گر ممکن است که روش‌های تجسم داده را برای کمک به شفافیت و کارایی در انتقال پیام به مخاطب در نظر بگیرد. تجسم داده اطلاعات را به صورت جدول‌ها و نمودارها نمایش می‌دهد تا پیام کلیدی موجود در داده قابل انتقال شود. جدول‌ها برای کاربری که به دنبال اعداد خاصی است کمک‌کننده است در حالی که نمودارها (مثلاً نمودار خطی یا نمودار میله‌ای) برای توضیح پیام‌های کمی کمک‌کننده هستند.
روش‌های تجزیه‌وتحلیل دادهٔ کمی

همچنین ببینید: حل مسئله

نویسنده جاناتان کومی چند سری از بهترین تمرین‌ها را برای فهم بهتر دادهٔ کمی توصیه می‌کند که عبارتند از:

دادهٔ خام را قبل از اجرای تحلیل‌تان بررسی کنید؛
محاسبات مهم، مانند بررسی ستون داده که از فرمول به دست آمده را مجدداً اجرا کنید؛
کلیات را که حاصل زیرمجموعه‌ها هستند، تأیید کنید؛
روابط بین اعدادی را که می‌بایست مربوط به حالتی قابل پیش‌بینی باشند، مانند نرخ‌ها در طول زمان، چک کنید؛
به منظور ساده‌سازی مقایسه، بخش‌هایی چون تحلیل مقادیر را در هر نفر یا نسبت به تولید ناخالصی داخلی (GDP) یا به عنوان شاخص نسبی در یک سال پایه را به صورت قاعده درآورید؛
مشکلات را به عوامل تحلیلی که منجر به نتیجه می‌شوند، بشکنید.

برای متغیرهای تحت بررسی، تحلیل‌گران معمولاً آمار توصیفی به دست می‌آورند (مانند معدل، میانه و انحراف معیار). آن‌ها هم‌چنین ممکن است که توزیع متغیرهای کلیدی را تحلیل کنند تا چگونگی مقادیر مشخص حول میانه را ببینند.

مشاوران در مکنزی اند کامپنی، روش شکستن مشکلات کمی به اجزاء آن را اصل MECE نام‌گذاری کردند. هر لایه می‌تواند به اجزایش شکسته شود. هر جزء باید منحصر به دیگری باشد و به صورت تجمعی به لایه بالایی‌اش اضافه شود. این رابطه به نام «متقابلاً منحصر به فرد و تجمعی کامل» یا MECE خوانده می‌شود. به‌طور مثال، سود طبق تعریف می‌تواند به درآمد کل و هزینه کل شکسته شود. به نوبه خود، درآمد کل می‌تواند توسط اجزای آن تحلیل شود؛ از جمله درآمد حاصل از بخش B, A و C (متقابلاً منحصر به فرداند) که باید به درآمد کل (تجمعی کامل) اضافه شوند.

تحلیل‌گران ممکن است اندازه‌گیری‌های آماری قوی برای حل مشکلات تحلیلی خاص به کار ببرند. آزمون فرضیه زمانی استفاده می‌شود که فرضیه خاصی دربارهٔ حالت واقعی امور توسط تحلیل‌گر ساخته می‌شود و داده برای تعیین اینکه آیا آن حالت درست است یا غلط، به کار می‌رود. برای مثال، ممکن است فرضیه این باشد که «بیکاران اثری بر تورم ندارند» که مربوط به مفهومی اقتصادی است. آزمون فرضیه شامل در نظر گرفتن احتمال نوع I و نوع II است و مرتبط است به اینکه آیا داده فرضیه را رد می‌کند یا می‌پذیرد.

تحلیل رگرسیون زمانی به کار می‌رود که تحلیل‌گر سعی دارد تعیین کند که تا چه میزان متغیرهای مستقل X بر متغیرهای وابسته Y تأثیر می‌گذارند (مثلاً تا چه حد تغییرات نرخ بیکاری X در نرخ تورم Y تأثیر دارد؟). این تلاشی برای مدل‌سازی یا برقراری خط تساوی یا منحنی داده در تابع Y به X است.

تحلیل شرطی لازم (NCA) در حالتی به‌کار می‌رود که تحلیل‌گر سعی دارد تعیین کند که تا چه میزان متغیر مستقل X, متغیر Y را می‌پذیرد (به‌طور مثال، تا چه میزان نرخ مشخصی از بیکاری (X) برای نرخ تورم (Y) ضروری است). درحالی‌که تحلیل (چند) رگرسیونی منطق افزایشی دارد که در آن هر متغیر X می‌تواند نتیجه‌ای تولید کند و Xها برای یکدیگر جبران می‌کنند (کافی هستند ولی غیر ضروری) و تحلیل شرطی لازم (NCA) منطق ضرورت را به‌کار می‌برد که در آن ممکن است یک یا چند متغیر X نتیجه را بپذیرد ولی شاید موجب تولید آن نباشد (ضروری هستند ولی کافی نیستند). هر شرط لازم باید وجود داشته باشد و جبران خسارت امکان‌پذیر نیست.
جستارهای وابسته

علم داده‌ها
تصمیم‌گیری داده‌محور
هوش کسب‌وکار
داده سانسورشده
داده کاوی
مصورسازی داده
پردازش سیگنال دیجیتال

منابع

Exploring Data Analysis
Judd, Charles and, McCleland, Gary (1989). Data Analysis. Harcourt Brace Jovanovich. ISBN 0-15-516765-0.
John Tukey-The Future of Data Analysis-July 1961
O'Neil, Cathy and, Schutt, Rachel (2014). Doing Data Science. O'Reilly. ISBN 978-1-4493-5865-5.
Clean Data in CRM: The Key to Generate Sales-Ready Leads and Boost Your Revenue Pool Retrieved 29th July, 2016
"Data Cleaning". Microsoft Research. Retrieved 26 October 2013.
Perceptual Edge-Jonathan Koomey-Best practices for understanding quantitative data-February 14, 2006
Hellerstein, Joseph (27 February 2008). "Quantitative Data Cleaning for Large Databases" (PDF). EECS Computer Science Division: 3. Retrieved 26 October 2013.
Stephen Few-Perceptual Edge-Selecting the Right Graph For Your Message-September 2004

Behrens-Principles and Procedures of Exploratory Data Analysis-American Psychological Association-1997

Provost, F. , & Fawcett, T. (2013). Data Science for Business: What you need to know about data mining and data-analytic thinking. " O'Reilly Media, Inc.".
[نهفتن]

نبو

داده

آماده‌سازی داده Scrubbing پاک‌سازی داده کیفیت اعتبار‌سنجی امنیت Corruption یکپارچگی گزینش ویرایش Farming Fusion ادغام داده Pre-processing داده‌کاوی Scraping تحلیل فشرده‌سازی مخزن ذخیره‌سازی ازدست‌رفته حفاظت (حریم خصوصی) Reduction

رده‌ها:

تحلیل دادهروش علمیفیزیک ذرات بنیادی







نظریه داده بنیاد گراندد تئوری کدگذاری
نظریه داده بنیاد گراندد تئوری کدگذاری به زبان ساده

تحلیل تئوری بنیاد داده یا گراندد تئوری به زبان ساده

در تحقیقات مختلف از روش‌ها و راهبردهای گوناگونی برای انجام یک طرح مبتنی بر تئوری داده بنیاد استفاده شده است. با این حال، راهکارهای عمومی مورد استفاده در این نوع تحقیقات به شرح زیر است:

۱- فرآیند تکراری جمع‌آوری و تحلیل داده‌ها: چارمز[۱] (۲۰۰۳) اظهار می‌کند که فرآیند جمع‌آوری و تحلیل داده‌ها باید مقارن و همزمان باشد؛ چرا که هم داده‌ها و هم تحلیل آنها از تجربیات مشترک محقق و افراد شاغل در زمینه مورد تحقیق ناشی می‌شود.

۲- کدگذاری داده‌ها[۲]: کدگذاری، ابزار اساسی تحلیل در تئوری داده بنیاد است. از این ابزار برای کشف تئوری در حال کشف استفاده می‌شود. در این زمینه استروس و کربین (۱۹۹۸) سه نوع کدگذاری را مشخص کرده‌اند؛ کدگذاری باز[۳]، کدگذاری محوری[۴] و کدگذاری گزینشی[۵].

کدگذاری باز: فرآیندی که مفاهیم در قالب داده‌ها تعیین می‌شوند.

کدگذاری محوری: فرآیند تقسیم طبقات اصلی داده‌ها به طبقات فرعی.

کدگذاری گزینشی: فرآیند انتقال مفاهیم به تئوری در حال کشف.

۳- نمونه‌گیری تئوریکی: تئوری در حال کشف، چگونگی نمونه‌گیری را تسهیل می‌کند. نمونه‌گیری تئوریکی به معنی فرآیند انتخاب رویدادها یا مصاحبه‌ها برای مقایسه پاسخ‌هاست. این رویکرد به جمع‌آوری داده‌های جدید و مرتبط با تئوری در حال توسعه کمک می‌کند.

۴- یادداشت برداری و نمودارها[۶]: هدف از این ساز و کارها، کشف فاصله‌ها در تحقیقات اولیه، شفاف ساختن مقایسه‌ها و طرح سؤالات جدید است.

۵- اشباع تئوریکی[۷]: جمع‌آوری و تحلیل داده‌ها باید تا زمان دستیابی به تحلیل‌های مرتبط با تئوری در حال کشف ادامه یابد.

۶- توسعه استقرایی تئوری[۸]: با تمرکز روی برهم کنش‌های موجود در موضوع مورد مطالعه، تئوری در داده‌های حاصل از مشاهدات و مصاحبه‌ها پایه‌گذاری می‌شود.

همچنین از اینجا یک پایان نامه دکتری گراندد تئوری به زبان فارسی دانلود کنید
روش تحقیق کیفی گراندد تئوری grounded theory

زمانی می‌توان نظریه داده بنیاد را به عنوان یک نظریه پژوهشی جامع برگزید که به دنبال یافتن یک نظریه مناسب برای یک مسئله مشخص باشیم. این یک نظریه فرآیندی است و می‌کوشد فرآیندی را که میان اجزای تحقیق وجود دارد با مشاهدات کیفی خود تشریح کند. چرا که، نظریه داده بنیاد ذاتی اکتشافی دارد و سعی می‌کند طرح نوینی ارائه کند به همین دلیل عمق تحقیق را فراتر می‌برد و سؤال را جایگزین پیش فرض می‌کند. در تحقیقات مبتنی بر تئوری داده بنیاد روایی و پایایی تحقیق برخلاف روش‌های کمی براساس شاخص «اعتماد پذیرش تحقیق» سنجیده می‌شود که این شاخص با توجه به بازخورد مصاحبه شوندگان در طول فرآیند تحقیق حاصل می‌شود (چارمز، ۲۰۱۴).

شنیدن آموزش های صوتی گراندد تئوری به زبان صوتی در روای دانش

تاریخچه نظریه داده بنیاد grounded theory

گراندد تئوری[۹] یا نظریه بنیاد داده یک روش پژوهشی اکتشافی است و به پژوهشگر امکان می‌دهد در مواردی که امکان تدوین فرضیه وجود ندارد به جای استفاده از فرضیه‌های از پیش تعریف شده خود به تدوین یک فرضیه جدید اقدام کند. به بیان دیگر، نظریه داده بنیادی روشی است برای کسب شناخت پیرامون موضوع مورد مطالعه، موضوع یا موضوع‌هایی که قبلاً تحقیق جامعی در مورد آن انجام نشده و دانش ما در آن زمینه محدود است.

سابقه‌ی نظریه داده بنیاد به سال ۱۹۶۷ برمی‌گردد هنگامی که دو پژوهشگر در حوزه مطالعات پرستاری و پیراپزشکی به نام‌های گلیرز و استراس در مورد ایده‌ها و نگر‌ش‌های بیماران بستری در بیمارستان تحقیق می‌کردند؛ این دو در سال ۱۹۶۷ کتابی تحت عنوان کشف گراندد تئوری منتشر کردند. استراوس و کوربین در سال ۱۹۹۴ در یک تعریف مشابه گراندد تئوری را این گونه تبیین کرده‌اند:

«نظریه داده بنیاد یک روش پژوهش عمومی برای تولید تئوری است. منظور از این روش، ارائه نظریه‌ای برگرفته از داده‌هایی است که در طی فرآیند پژوهش به صورت نظام‌مند گردآوری و تحلیل شده‌اند. در این راهبرد، گردآوری و تحلیل داده‌ها و نظریه‌ای که در نهایت از داده‌ها استنتاج می‌شود، در ارتباط نزدیک با یکدیگر قرار دارند. پژوهشگر به جای این که مطالعه خود را با نظریه از پیش تصور شده‌ای آغاز کند، کار را با یک حوزه مطالعاتی خاص شروع کرده، اجازه می‌دهد که نظریه از دل داده‌ها پدیدار شود. نظریه برگرفته از داده‌ها نسبت به نظریه‌ای که حاصل جمع آمدن یک سلسله مفاهیم براساس تجربه یا تأملات صرف است، با احتمال بیشتری می‌تواند نمایانگر واقعیت باشد و از آنجا که نظریه داده بنیاد از داده‌ها استنتاج می‌شوند، می‌توانند با ایجاد بصیرت و ادراک عمیق‌تر، رهنمود کاملی برای عمل باشند.»

روش تحقیق کاربرد تئوری گراندد تئوری

این پژوهش بر آن است که با استفاده از روش تئوری داده بنیاد به گردآوری، تحلیل و تبیین موضوع پژوهش اقدام نماید. روش تئوری داده بنیاد را این‌گونه تعریف کرده‌اند: «فرآیند ساخت یک نظریه مستند و مدون، از طریق گردآوری سازمان یافته داده‌ها و تحلیل استقرایی مجموعه داده‌های گردآوری شده به منظور پاسخ‌گویی به پرسش‌های نوین در زمینه‌هایی که فاقد مبانی نظری کافی برای تدوین هرگونه فرضیه و آزمون آن هستند» (منصوریان، ۱۳۸۶). در این روش، نمونه‌گیری غیرتصادفی و هدفمند می‌باشد و پژوهشگر تا زمانی که به اشباع نرسد همچنان نمونه‌برداری را ادامه می‌دهد (دانایی‌فر، ۱۳۸۴؛ مهرابی و همکاران، ۱۳۹۰). تحلیل داده‌ها در این روش مبتنی بر سه عنصر اصلی (کدها، مفاهیم و مقوله‌ها) استوار است (دانایی‌فر و امامی، ۱۳۸۶). فرآیند پیش‌برد تحقیق در سه گام صورت می‌گیرد: ۱٫ کدگذاری باز؛ ۲٫ کدگذاری محوری؛ ۳٫ کدگذاری انتخاب (دانایی فر، ۱۳۸۴).
لینک نمونه رساله دکتری با روش گراندد تئوری