چالش های Big Data

Big Data

Big Data تغییرات بی سابقه ای در نوع انجام پژوهش در هر رشته علمی به وجود آورده است. در حالی که در گذشته پژوهشگران تنها به ابزارهای موجود در رشته اختصاصی خود محدود بودند، امروزه Big Data به طور فزاینده ای به ابزاری مشترک در تمامی رشته ها تبدیل شده است. قابلیت استفاده Big Data و ظرفیت ذخیره سازی و اشتراک گذاری حجم عظیمی از داده ها چندین مسیر جهت اکتشافات علمی برای پژوهشگران ایجاد کرده است.

به دلیل نقش بنیادین داده در پژوهش، ارزشمندی آن برای پژوهشگران واضح و مبرهن است. بنابراین این حجم داده زیاد مزیتی برای پژوهشگران – به ویژه آنهایی که در حوزه ژنتیک، اخترشناسی و فیزیک ذرات فعالیت دارند – محسوب می گردد. در حالی که امروزه Big Data به عنوان یک پارادایم بی نظیر علمی در نظر گرفته می شود، از آن جایی که Big Data ماهیتا چند بعدی و پیوسته تغییر پذیر است، متخصصان آمار به پژوهشگران توصیه می نمایند که هنگام مواجهه با Big Data جانب احتیاط را رعایت نمایند. علیرغم آن که Big Data فرصت های زیادی را برای پژوهشگران فراهم نموده است و به همین دلیل پژوهشگران آن را با آغوش باز پذیرفته اند، پیچیدگی های فراوانی را نیز سبب شده است. بعضی از چالش های عمده ای که پژوهشگران با آنها مواجهه اند را در ذیل ملاحظه می نمایید:

دشواری مدیریت موثر داده ها

مدیریت داده

ذخیره سازی مجموعه های داده بزرگ، پژوهشگرانی که توسط دانشگاه یا موسسه ای پشتیبانی نمی گردند را با مشکلات زیرساختی و اقتصادی روبرو می کند. علاوه بر این، رعایت مواردی مانند محرمانگی، امنیت و یکپارچگی داده ها در همکاری های پژوهشی بین المللی که می تواند به تعارض منافع منجر گردد، مدیریت و به اشتراک گذاری داده های حجیم را با پیچیدگی هایی همراه نموده است. بنابراین به یک مدل اقتصادی پایدار نیاز است که بر چالش های زیرساختی غلبه نماید و فرآیند پژوهش های داده محور را آسان تر نماید.

اولویت طراحی تحقیق بر جمع آوری داده

طراحی تحقیق

اگر چه داده برای پژوهش حیاتی است، فقط گاهی اوقات جمع آوری داده بر طراحی دقیق تحقیق تقدم دارد. بعضی از پژوهشگران دارای این تصور غلط هستند که داده های بیشتر با پژوهش بهتر تناسب مستقیم دارد. یعنی به جای تمرکز بر نوع و هدف جمع آوری داده، فرض می شود که جمع آوری حجم زیاد داده پژوهش را بهبود می بخشد. به عنوان مثال می توان از یک پژوهش در بریتانیا یاد کرد که در آن برای ارزیابی مزایای شیر پاستوریزه، ۲۰۰۰۰ کودک مورد مطالعه قرار گرفتند. یک متخصص آمار به نام ویلیام گوست طراحی تحقیق و مقیاسی که با آن مطالعه صورت گرفت را مورد انتقاد قرار داد. بنا به گفته او به جهت ناکافی بودن تصادفی سازی در این مطالعه، پژوهشی با همین موضوع که فقط با ۶ دوقلو انجام شده باشد، از قابلیت اطمینان بیشتری برخوردار است.

تحلیل Big Data به ابزار خاصی بستگی دارد

حجم زیاد داده ها را نمی توان با ابزار معمول تحلیل داده، تحلیل نمود. تکنیک های نرم افزاری استاندارد برای تحلیل مجموعه داده های کوچک طراحی گردیده اند. با این حال Big Data شامل آن چنان داده های بزرگی است که استفاده از ابزار سنتی برای تحلیل آن نیاز به زمان بسیار زیادی دارد – البته اگر توانایی تحلیل آن را داشته باشد. بنابراین برای ارتباط داده ها به مدل ها جهت ارزیابی صحیح آنها به ابزاری خاص نیاز است. برای مثال می توان از الگوریتم طراحی شده توسط شرکت مایکروسافت FaST-LMM نام برد.

حجم زیاد داده باعث چالش در تفسیر آن می شود

Big Data شامل داده ها از منابعی متعدد می باشد که این امر باعث می گردد تا Big Data چند منظوره قلمداد شود و به همین دلیل تفسیر آن دشوار گردد. برای مثال مجموعه داده ای که شامل اطلاعاتی درباره جمعیت جهانی باشد، دارای داده هایی مبتنی بر موقعیت های جغرافیایی، سبک های زندگی متنوع و … خواهد بود و این داده ها از طریق تکنیک های متفاوت بدست خواهند آمد. ممکن است پژوهشگران نتوانند تمامی جوانب داده ها را در نظر بگیرند و این امر به نتیجه گیری اشتباه منجر گردد. بنابراین توسعه روندی قابل اطمینان برای تفسیر صحیح چنین داده هایی امری ضروری است.

انحراف در جستجوی الگو در داده ها خطرناک است

از آن جایی که Big Data بسیار بزرگ است، پژوهشگران می بایست توانایی جداسازی داده های مفید را در مجموعه داده داشته باشند. با این حال در بیشتر موارد به جای حذف داده های غیر ضروری، تا زمان رسیدن به ایده ای که توسط شواهد پشتیبانی می گردد، گرایشی برای جستجوی الگوهایی در داده ها وجود دارد. هنگام انجام پژوهش این امر تله ای خطرناک است که ممکن است پژوهشگر در دام آن گرفتار آید.

بدون شک داده دارایی ارزشمندی است – واقعیتی که توسط انجمن اقتصادی جهان در سال ۲۰۱۲ مورد تایید قرار گرفته است – و Big Data نقش اصلی در پیشرفت علم بازی می کند. با این حال مواجهه با حجم زیاد داده نشان داده است که ممکن است همیشه Big Data به معنی داده های خوب نباشد. بنابراین پژوهشگران برای درک بهینه Big Data می بایست بین داده ها و رشته تخصصی خود و استدلال علمی تعادل برقرار نمایند.

0 پاسخ

دیدگاه خود را ثبت کنید

Want to join the discussion?
Feel free to contribute!

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *