کارگاههای آموزشی کنفرانس

(شرکت در کارگاههای آموزشی رایگان است و به شرکت کنندگان گواهی معتبر ارائه خواهد شد.)

(جهت پیشنهاد برگزاری کارگاه آموزشی، لطفا با دبیرخانه کنفرانس با آدرس ایمیل dcbdp@azaruniv.ac.ir تماس حاصل نمائید.)

(به برگزار کنندگان کارگاه ها گواهی معتبر از سوی کنفرانس ارائه خواهد شد.)

 

عنوان کارگاه آموزشی 1: علم داده و یادگیری عمیق با پایتون

ارائه دهنده: آقای مهندس سعید حمدالهی (کارشناس ارشد فناوری اطلاعات)

مدت زمان کارگاه: ۲ ساعت

چکیده:

علم داده (Data Science)، دانشی میان‌رشته‌ای پیرامون استخراج دانش و آگاهی از مجموعه‌ای داده و اطلاعات است. علم داده از ترکیب مباحث مختلفی به وجود آمده و بر مبانی و روش‌های موجود در حوزه‌های مختلف علمی بنا شده است. تعدادی از این حوزه‌ها عبارتند از: ریاضیات، آمار، مهندسی داده و بازشناخت الگو. هدف این علم، استخراج مفهوم از داده و تولید محصولات داده‌محور است.

همچنین، یادگیری عمیق (Deep learning) شاخه­ای از بحث یادگیری ماشین و هوش مصنوعی و مجموعه ای از الگوریتم­هایی است که تلاش می­کنند مفاهیم انتزاعی سطح بالا را با استفاده از یادگیری در سطوح و لایه­های مختلف مدل کنند. مطالعات بالینی نشان می دهند که ساختار مغز پستانداران از معماری شبکه­های عصبی عمیق بهره می­برد که در آن مفاهیم انتزاعی در لایه­های مختلف، به ترتیب از مفاهیم و ویژگی­های ساده تا مفاهیم سطح بالا در نواحی مختلف قشر مغز پردازش می شوند. ایده­ی یادگیری عمیق با الهام از ساختار طبیعی مغز انسان و به کمک امکانات و فن آوری­های جدید، توانسته است در بسیاری از حوزه های مربوط به هوش مصنوعی و یادگیری ماشین، موفقیت­های چشم گیری را کسب کند.

در نهایت، پایتون (Python) یک زبان برنامه‌نویسی همه منظوره، سطح بالا، شیءگرا، اِسکریپتی و متن باز است که توسط خیدو فان روسوم در سال ۱۹۹۱ در کشور هلند طراحی شد. فلسفه­ی ایجاد آن تأکید بر دو هدف اصلی خوانایی بالای برنامه‌های نوشته شده و کوتاهی و بازدهی نسبی بالای آن است. نقطه­ی قوت پایتون، کتابخانه‌های متنوع و بسیار وسیعی است که در اختیار دارد و از جمله­ی آن­ها می­توان به­ کتابخانه­های قدرتمندی که برای علم داده، یادگیری ماشین و یادگیری عمیق طراحی شده­اند اشاره کرد.

 

مخاطبان کارگاه:

دانشجويان، فارغ‌التحصیلان و محققان رشته‌های علوم و مهندسی کامپيوتر و فناوري اطلاعات

 

سرفصل مطالب:
  • نصب و راه اندازی پایتون و محیط­ توسعه
  • آشنایی اجمالی با پایتون
  • آشنایی با مفاهیم علم داده
  • PIP یا Anaconda
  • آشنایی با Jupyter notebook
  • آرایه­ها، ماتریس­ها و عملیات ریاضی با Numpy
  • تجزیه و تحلیل داده­ها‌ با Pandas
  • مصورسازی داده­ ها با Matplotlib
  • یادگیری ماشین با Scikit-learn
  • استخراج داده از وب با Scrapy
  • آشنایی با مفاهیم یادگیری عمیق
  • نصب و راه اندازی Tensorflow و keras
  • ایجاد مدل­های یادگیرنده­­ی عمیق با Keras

 

عنوان کارگاه آموزشی 2: آشنایی با هادوپ و اسپارک

ارائه دهنده: آقای مهندس امیررضا محمدی (کارشناس ارشد فناوری اطلاعات)

مدت زمان کارگاه: ۲ ساعت

چکیده:

هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم میکند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. امروزه هادوپ بصورت وسیعی و در زمینه های بسیاری از فعالیتهای دانشگاهی تا تجارت، از علوم تا نجوم مورد استفاده قرار می گیرد. هادوپ مکانی امن برای ذخیره و تحلیل داده های کلان بشمار می رود و مقیاس پذیر، توسعه پذیر و متن باز است. هادوپ هدف اصلی کمپانی های بزرگ تولید و ذخیره داده ها از جمله Facebook ، IBM ، EMC ، Oracle و Microsoft است.
در مقابل هادوپ اسپارک از حافظه اصلی برای نگهداری داده‌های برنامه استفاده می‌کند که این امر باعث سریعتر اجرا شدن برنامه‌ها می‌شود (برخلاف مدل نگاشت/کاهش که از دیسک به عنوان مکان ذخیره‌سازی داده‌های میانی استفاده می‌کند). همچنین یکی دیگر از مواردی که باعث افزایش کارایی اسپارک می‌شود، استفاده از مکانیسم حافظه نهان هنگام استفاده از داده‌هایی است که قرار است دوباره در برنامه استفاده شوند. اینکار باعث کاهش سربار ناشی از خواندن و نوشتن از دیسک می‌شود. یک الگوریتم برای پیاده‌سازی در مدل نگاشت/کاهش، ممکن است به چندین برنامه مجزا تقسیم شود و در هنگام اجرا هر بار باید داده‌ها از دیسک خوانده شده، پردازش شوند و دوباره در دیسک نوشته شوند. اما با استفاده از مکانیسم حافظه نهان در اسپارک، داده‌ها یکبار از دیسک خوانده می‌شوند و در حافظه اصلی کَش می‌شوند و عملیات‌های متفاوت بروی آن اجرا می‌شود. در نتیجه استفاده از این روش نیز باعث کاهش چشمگیر سربار ناشی از ارتباط با دیسک در برنامه‌ها و بهبود کارایی می‌شود. با این اوصاف شاید به این نتیجه برسیم که دوران هادوپ به سر رسیده.

 

مخاطبان کارگاه:

دانشجويان، فارغ‌التحصیلان و محققان رشته‌های علوم و مهندسی کامپيوتر و فناوري اطلاعات

 

سرفصل مطالب:

 Big Data
    Introduction to BigData
    BigData Challenges
Hadoop
    Introduction to Hadoop
    Hadoop Architecture
    Advantages of hadoop
    HDFS Architecture
    Mapreduce & Algoritms
    Hadoop Job Schedulers
Spark
    Spark architecture
    Spark syntax (scala & python)
 Hadoop vs Spark

 

عنوان کارگاه آموزشی 3: معرفی و مقایسه الگوریتم های خوشه بندی (کلاسترینگ)

ارائه دهنده: آقای مهندس مهدی اکبری (کارشناس ارشد مهندسی کامپیوتر)

مدت زمان کارگاه: ۲ ساعت

چکیده:

خوشه بندی کاربردهای فراوانی در حوزه های مختلف علوم و فناوری کامپیوتر نظیر داده کاوی، یادگیری ماشین، یادگیری عمیق، مهندسی معکوس، مهندسی نرم افزار، بینایی ماشین، تحلیل شبکه های اجتماعی، پردازش داده های بزرگ و پردازش تصویر دارد. لذا با معرفی و مرور انواع روشهای خوشه بندی، مقایسه و بررسی نقاط ضعف و قوت آنها، می­ توان دید وسیع­تری را در اختیار پژوهشگران و دانشجویان، جهت بهره گیری بهینه هر یک از الگوریتمها در فیلدهای مناسب خود قرار داد.

 

مخاطبان کارگاه:

دانشجويان، فارغ‌التحصیلان و محققان رشته‌های علوم و مهندسی کامپيوتر و فناوري اطلاعات

 

سرفصل مطالب:
  • معرفی خوشه بندی، اهمیت و کاربردهای آن
  • معرفی و بررسی الگوریتم های سلسله مراتبی جهت خوشه بندی
  • معرفی و بررسی الگوریتم های مبتنی بر جمعیت و جستجوی محلی و سراسری جهت خوشه بندی
  • معرفی و بررسی الگوریتم های فراابتکاری (الگوریتم های تکاملی، الگوریتم های هوش جمعی) جهت خوشه بندی

  • حل مسئله خوشه بندی با الگوریتم های معرفی شده، مقایسه و بررسی نقاط ضعف و قوت هر کدام

 
 

عنوان کارگاه آموزشی 4: آشنایی با شبیه ساز Cloudsim برای رایانش ابری

ارائه دهنده: آقای مهندس رضا عاصمی

مدت زمان کارگاه: ۲ ساعت

 

مخاطبان کارگاه:

دانشجويان، فارغ‌التحصیلان و محققان رشته‌های علوم و مهندسی کامپيوتر و فناوري اطلاعات

 

سرفصل مطالب:
• What is Cloud Computing?
• What is CloudSim?
• CloudSim Architecture
• CloudSim Installation & Working
• Versions in Market (CloudSim)
 
 

عنوان کارگاه آموزشی 5: آشنایی با رایانش کوانتومی : تصویر بزرگ از یک ایده بزرگ

(Quantum Computing: The Big Picture of a Big Idea)

ارائه دهنده: آقای مهندس نادر صامصونچی (عضو هیئت علمی و مدیر مرکز فناوری اطلاعات دانشگاه شهید مدنی آذربایجان)

مدت زمان کارگاه: ۲ ساعت

چکیده:

رایانش کوانتومی (Quantum Computing) از عرصه های رو به رشد است که امید می رود در مسایلی که حل آنها در ابعاد بزرگ با کامپیوترهای رایج فعلی (کامپیوترهای کلاسیک) در زمان معقول امکانپذیر نیست راهگشا باشد. علیرغم آن که به نظر می رسد فناوری رایانش کوانتومی هنوز در مراحل آغازین خود قرار دارد، ولی نتایج تجربی و عملی حاصل شده تا کنون، این امید را تقویت می کند؛ چنانچه برخی رایانه های کوانتومی را نسل آینده (نه چندان دور) رایانه ها دانسته اند.  با توجه به آن که رایانش کوانتومی صرفاً یک بهبود جزیی فناوری یا الگوریتم نیست بلکه اساساً دیدگاه و روش متفاوتی در مورد مفهوم داده و پردازش و انتقال آن ارائه می نماید، آشنایی با آن برای مهندسان رایانه و علاقمندان این حوزه لازم و مناسب بنظر می رسد. در این کارگاه آموزشی تلاش می شود ضمن بیان مفاهیم پایه، تواناییها و محدودیتهای رایانش کوانتومی و پیشرفتها و چالشهای جاری این عرصه مورد بحث قرار گیرد. معرفی برخی از ابزارها و نرم افزارهای تحقیق و توسعه در این حوزه نیز بخش دیگری از کارگاه آموزشی است.

 

مخاطبان کارگاه:

دانشجويان، فارغ‌التحصیلان و محققان رشته‌های علوم و مهندسی کامپيوتر و فناوري اطلاعات

 

سرفصل مطالب:
  • مبانی رایانش کوانتومی
  • مزایا و ضرورت رایانش کوانتومی
  • رایانش کوانتومی چه چیزی نیست.
  • برخی از الگوریتمهای مهم رایانش کوانتومی.
  • برخی از ابزارها و نرم افزارهای تحقیق و توسعه
  • برتری کوانتومی.
  • پیشرفتهای اخیر در این حوزه.

 

 
پوستر کنفرانس گروه تلگرامی کنفرانس

طراحی و اجرا: اداره فناوری اطلاعات دانشگاه شهید مدنی آذربایجان