یازدهمین کارگاه سالانه آزمایشگاه فناوری وب

یازدهمین کارگاه سالانه آزمایشگاه فناوری وب

یازدهمین کارگاه سالانه آزمایشگاه فناوری وب

یازدهمین کارگاه سالانه آزمایشگاه فناوری وب دانشگاه فردوسی مشهد همزمان با دهمین دوره کنفرانس بین المللی مهندسی کامپیوتر و دانش (ICCKE) در تاریخ 10 و 11 آبان ماه 1399 بر گزار می گردد.  

 تلفن تماس: 05138806163

 ایمیل : این آدرس ایمیل توسط spambots حفاظت می شود. برای دیدن شما نیاز به جاوا اسکریپت دارید

 

برای ثبت نام در کارگاه بر روی  ثبت نام  کلیک کنید (مهلت ثبت نام تا 9 آبان ماه تمدید شد)

  توجه: به اطلاع ثبت نام کنندگان عزیز می رساند که کارگاه ها به صورت  مجازی   و در تاریخ های بیان شده برگزار خواهد شد. همچنین، به شرکت‌کنندگان در کارگاه‌ها، گواهي حضور از طرف آزمايشگاه تخصصي فناوري وب دانشگاه فردوسي اعطا مي‌شود؛ بنابراین لطفاً در هنگام ثبت نام دقت لازم را در درج مشخصات خود مبذول فرمایید.



پردازش داده جریانی


چکیده

در سال‌های گذشته پردازش داده‌های جریانی به یکی از موضوعات موردتوجه محققان در حوزه‌های مختلف تبدیل شده است. داده هاي جریانی، داده هاي مداوم و پی در پی، ترتیبی، قابل تغییر، سریع و در حجم زیاد هستند، از این رو نیاز است تا این داده ها به وسیله یک سیستم پردازش داده جریانی بدرستی مدیریت شوند. در این کارگاه ابتدا به بیان مفاهیم و ویژگی‌های داده جریانی پرداخته و پس از آن تکنیک های پردازش این گونه داده ها بررسی می شود. در بخش دوم این کارگاه به معرفی و استفاده از ابزار Esper Engine، آموزش داده خواهد شد.


سر فصل ها

  • مقدمه و مفاهیم داده جریانی
  • مروری بر کاربردهای پردازش داده جریانی
  • ویژگی‌های پردازش جریانی
  • چالش‌های موجود
  • مهمترین تکنیک‌های پردازش جریانی
  • معرفی و آموزش ابزار Esper Engine


زمینه پژوهشی



نحوه ارائه کارگاه

مجازی


زمان برگزاری

10 آبان 1399


مدت زمان برگزاری

14 - 18


خزش وب و شبکه‏ های اجتماعی


چکیده

بالا رفتن قدرت محاسباتی سیستم‏ها، افزایش حافظه‏ها و همچنین دسترسی آسان به داده‏های موجود در وب، باعث شده است تا پژوهشگران حوزه علوم داده به استفاده از داده‏های حجیم، علاقه مند شوند. با توجه به این که سایت‏ها، شرکت‏ها و بنگاه‏های تجاری اینترنتی، داده‏های خود را به سادگی در اختیار دیگران نمی‏گذارند، پژوهشگران و برنامه نویسان، روش‏ها و ابزارهای قدرتمندی را برای جمع آوری و ذخیره سازی داده‏ها توسعه داده اند که به آن خزش یا کرال می‏گویند. با استفاده از این ابزار‏ها، داده‏ها و اطلاعات داخل وب سایت‏ها و شبکه‏های اجتماعی را بدست آورده و در قالب‏های معمول و قابل استفاده برای تحلیل‏های خود ذخیره می‏کنند.
در این کارگاه قصد داریم به آموزش وب اسکریپینگ (Web Scraping) برای صفحات وب و خزش شبکه‏های اجتماعی بپردازیم. اسکریپر در واقع یک برنامه کامپیوتری (در این آموزش به زبان پایتون) است که خیلی ساده یک درخواست را به یک سرور ارسال می‌کند و پاسخ سرور را تجزیه و بخش مورد نظر ما را چاپ می‌کند. در بخش خزش شبکه‏های اجتماعی نیز روی دو مورد اینستاگرام و تلگرام، به نحوه ساخت یک خزشگر به زبان پایتون خواهیم پرداخت.


سر فصل ها

خزش وب :

  • معرفی web scraping و کاربرد آن
  • معرفی کتابخانه requests در پایتون
  • نحوه ارسال درخواست HTTP و دریافت پاسخ آن
  • معرفی ابزار selenium در پایتون و کاربرد آن در خزش صفحات وب
  • معرفی کتابخانه BeautifulSoup
  • استفاده از کتابخانه BeautifulSoup برای خواندن تگ HTML از صفحه وب و نمایش آن
  • نمونه عملی خزشگر وب

خزشگر اینستاگرام :
  • معرفی اصطلاحات مهم و پایه در اینستاگرام
  • اطلاعات قابل جمع آوری در اینستاگرام
  • روش‏های جمع آوری اطلاعات از اینستاگرام
  • نمونه عملی از خزش اینستاگرام

خزشگر تلگرام :
  • مقدمات خزش شبکه ‏های اجتماعی
  • آشنایی با خزش تلگرام
  • معرفی کتابخانه Telethon
  • نحوه ساخت ربات ‏های تلگرام


زمینه پژوهشی



نحوه ارائه کارگاه

مجازی


زمان برگزاری

11 آبان 1399


مدت زمان برگزاری

14 - 18


4 2 5