کارگاههای آموزشی کنفرانس

(شرکت در کارگاههای آموزشی رایگان است و به شرکت کنندگان گواهی معتبر ارائه خواهد شد.)

(جهت پیشنهاد برگزاری کارگاه آموزشی، لطفا با دبیرخانه کنفرانس با آدرس ایمیل dcbdp@azaruniv.ac.ir تماس حاصل نمائید.)

(به برگزار کنندگان کارگاه ها گواهی معتبر از سوی کنفرانس ارائه خواهد شد.)

 

عنوان کارگاه آموزشی 1: علم داده و یادگیری عمیق با پایتون

ارائه دهنده: آقای مهندس سعید حمدالهی (کارشناس ارشد فناوری اطلاعات)

مدت زمان کارگاه: ۲ ساعت

چکیده:

علم داده (Data Science)، دانشی میان‌رشته‌ای پیرامون استخراج دانش و آگاهی از مجموعه‌ای داده و اطلاعات است. علم داده از ترکیب مباحث مختلفی به وجود آمده و بر مبانی و روش‌های موجود در حوزه‌های مختلف علمی بنا شده است. تعدادی از این حوزه‌ها عبارتند از: ریاضیات، آمار، مهندسی داده و بازشناخت الگو. هدف این علم، استخراج مفهوم از داده و تولید محصولات داده‌محور است.

همچنین، یادگیری عمیق (Deep learning) شاخه­ای از بحث یادگیری ماشین و هوش مصنوعی و مجموعه ای از الگوریتم­هایی است که تلاش می­کنند مفاهیم انتزاعی سطح بالا را با استفاده از یادگیری در سطوح و لایه­های مختلف مدل کنند. مطالعات بالینی نشان می دهند که ساختار مغز پستانداران از معماری شبکه­های عصبی عمیق بهره می­برد که در آن مفاهیم انتزاعی در لایه­های مختلف، به ترتیب از مفاهیم و ویژگی­های ساده تا مفاهیم سطح بالا در نواحی مختلف قشر مغز پردازش می شوند. ایده­ی یادگیری عمیق با الهام از ساختار طبیعی مغز انسان و به کمک امکانات و فن آوری­های جدید، توانسته است در بسیاری از حوزه های مربوط به هوش مصنوعی و یادگیری ماشین، موفقیت­های چشم گیری را کسب کند.

در نهایت، پایتون (Python) یک زبان برنامه‌نویسی همه منظوره، سطح بالا، شیءگرا، اِسکریپتی و متن باز است که توسط خیدو فان روسوم در سال ۱۹۹۱ در کشور هلند طراحی شد. فلسفه­ی ایجاد آن تأکید بر دو هدف اصلی خوانایی بالای برنامه‌های نوشته شده و کوتاهی و بازدهی نسبی بالای آن است. نقطه­ی قوت پایتون، کتابخانه‌های متنوع و بسیار وسیعی است که در اختیار دارد و از جمله­ی آن­ها می­توان به­ کتابخانه­های قدرتمندی که برای علم داده، یادگیری ماشین و یادگیری عمیق طراحی شده­اند اشاره کرد.

 

مخاطبان کارگاه:

دانشجويان، فارغ‌التحصیلان و محققان رشته‌های علوم و مهندسی کامپيوتر و فناوري اطلاعات

 

سرفصل مطالب:
  • نصب و راه اندازی پایتون و محیط­ توسعه
  • آشنایی اجمالی با پایتون
  • آشنایی با مفاهیم علم داده
  • PIP یا Anaconda
  • آشنایی با Jupyter notebook
  • آرایه­ها، ماتریس­ها و عملیات ریاضی با Numpy
  • تجزیه و تحلیل داده­ها‌ با Pandas
  • مصورسازی داده­ها با Matplotlib
  • یادگیری ماشین با Scikit-learn
  • استخراج داده از وب با Scrapy
  • آشنایی با مفاهیم یادگیری عمیق
  • نصب و راه اندازی Tensorflow و keras
  • ایجاد مدل­های یادگیرنده­­ی عمیق با Keras

 

عنوان کارگاه آموزشی 2: آشنایی با هادوپ و اسپارک

ارائه دهنده: آقای مهندس امیررضا محمدی (کارشناس ارشد فناوری اطلاعات)

مدت زمان کارگاه: ۲ ساعت

چکیده:

هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم میکند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. امروزه هادوپ بصورت وسیعی و در زمینه های بسیاری از فعالیتهای دانشگاهی تا تجارت، از علوم تا نجوم مورد استفاده قرار می گیرد. هادوپ مکانی امن برای ذخیره و تحلیل داده های کلان بشمار می رود و مقیاس پذیر، توسعه پذیر و متن باز است. هادوپ هدف اصلی کمپانی های بزرگ تولید و ذخیره داده ها از جمله Facebook ، IBM ، EMC ، Oracle و Microsoft است.
در مقابل هادوپ اسپارک از حافظه اصلی برای نگهداری داده‌های برنامه استفاده می‌کند که این امر باعث سریعتر اجرا شدن برنامه‌ها می‌شود (برخلاف مدل نگاشت/کاهش که از دیسک به عنوان مکان ذخیره‌سازی داده‌های میانی استفاده می‌کند). همچنین یکی دیگر از مواردی که باعث افزایش کارایی اسپارک می‌شود، استفاده از مکانیسم حافظه نهان هنگام استفاده از داده‌هایی است که قرار است دوباره در برنامه استفاده شوند. اینکار باعث کاهش سربار ناشی از خواندن و نوشتن از دیسک می‌شود. یک الگوریتم برای پیاده‌سازی در مدل نگاشت/کاهش، ممکن است به چندین برنامه مجزا تقسیم شود و در هنگام اجرا هر بار باید داده‌ها از دیسک خوانده شده، پردازش شوند و دوباره در دیسک نوشته شوند. اما با استفاده از مکانیسم حافظه نهان در اسپارک، داده‌ها یکبار از دیسک خوانده می‌شوند و در حافظه اصلی کَش می‌شوند و عملیات‌های متفاوت بروی آن اجرا می‌شود. در نتیجه استفاده از این روش نیز باعث کاهش چشمگیر سربار ناشی از ارتباط با دیسک در برنامه‌ها و بهبود کارایی می‌شود. با این اوصاف شاید به این نتیجه برسیم که دوران هادوپ به سر رسیده.

 

مخاطبان کارگاه:

دانشجويان، فارغ‌التحصیلان و محققان رشته‌های علوم و مهندسی کامپيوتر و فناوري اطلاعات

 

سرفصل مطالب:

 Big Data
    Introduction to BigData
    BigData Challenges
Hadoop
    Introduction to Hadoop
    Hadoop Architecture
    Advantages of hadoop
    HDFS Architecture
    Mapreduce & Algoritms
    Hadoop Job Schedulers
Spark
    Spark architecture
    Spark syntax (scala & python)
 Hadoop vs Spark

 
 
پوستر کنفرانس گروه تلگرامی کنفرانس

طراحی و اجرا: اداره فناوری اطلاعات دانشگاه شهید مدنی آذربایجان