فایل ورد کامل مدل‌سازی کنترل چراغ‌های راهنمایی؛ یادگیری Q چندعاملی در محیط‌های غیرثابت شهری


در حال بارگذاری
10 جولای 2025
فایل ورد و پاورپوینت
20870
1 بازدید
۹۹,۰۰۰ تومان
خرید

توجه : به همراه فایل word این محصول فایل پاورپوینت (PowerPoint) و اسلاید های آن به صورت هدیه ارائه خواهد شد

 فایل ورد کامل مدل‌سازی کنترل چراغ‌های راهنمایی؛ یادگیری Q چندعاملی در محیط‌های غیرثابت شهری دارای ۱۳ صفحه می باشد و دارای تنظیمات در microsoft word می باشد و آماده پرینت یا چاپ است

فایل ورد فایل ورد کامل مدل‌سازی کنترل چراغ‌های راهنمایی؛ یادگیری Q چندعاملی در محیط‌های غیرثابت شهری  کاملا فرمت بندی و تنظیم شده در استاندارد دانشگاه  و مراکز دولتی می باشد.

این پروژه توسط مرکز فایل ورد کامل مدل‌سازی کنترل چراغ‌های راهنمایی؛ یادگیری Q چندعاملی در محیط‌های غیرثابت شهری۲ ارائه میگردد

توجه : در صورت  مشاهده  بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل فایل ورد می باشد و در فایل اصلی فایل ورد کامل مدل‌سازی کنترل چراغ‌های راهنمایی؛ یادگیری Q چندعاملی در محیط‌های غیرثابت شهری،به هیچ وجه بهم ریختگی وجود ندارد


بخشی از متن فایل ورد کامل مدل‌سازی کنترل چراغ‌های راهنمایی؛ یادگیری Q چندعاملی در محیط‌های غیرثابت شهری :

فایل ورد کامل مدل‌سازی کنترل چراغ‌های راهنمایی؛ یادگیری Q چندعاملی در محیط‌های غیرثابت شهری

( + به همراه متن اصلی انگلیسی )

۲۰۱۱ ۱۴th International IEEE Conference on Intelligent Transportation Systems Washington, DC, USA. October 5-7, 2011

Traffic Light Control in Non-stationary Environments based on Multi Agent Q-learning

Abstract—In many urban areas where traffic congestion does not have the peak pattern, conventional traffic signal timing methods does not result in an efficient control. One alternative is to let traffic signal controllers learn how to adjust the lights based on the traffic situation. However this creates a classical non-stationary environment since each controller is adapting to the changes caused by other controllers. In multi-agent learning this is likely to be inefficient and computationally challenging, i.e., the efficiency decreases with the increase in the number of agents (controllers). In this paper, we model a relatively large traffic network as a multi-agent system and use techniques from multi-agent reinforcement learning. In particular, Q-learning is employed, where the average queue length in approaching links is used to estimate states. A parametric representation of the action space has made the method extendable to different types of intersection. The simulation results demonstrate that the proposed Q-learning outperformed the fixed time method under different traffic demands.

کنترل چراغ ترافیک (راهنمایی) در محیط­های غیرثابت براساس یادگیری-Q چند عاملی

چکیده

در بسیاری از مناطق شهری که در آنجا تراکم ترافیک دارای الگوی اوج نیست، روش­های زمان­بندی چراغ­های معمولی باعث کنترل موثری نمی­شود. یک روش جایگزین این است که یادگیری نحوه تنظیم چراغ بر اساس وضعیت ترافیک توسط کنترلرهای سیگنال ترافیکی میسر شود. با این­حال، این امر باعث ایجاد یک محیط غیرثابت کلاسیک می­شود زیرا هر کنترلر تغییرات ناشی از دیگر کنترلرها را تطبیق می­دهد. در یادگیری چند عاملی، این کار به احتمال زیاد ناکارآمد بوده و دارای پیچیدگی­های محاسباتی است، یعنی با افزایش تعداد عامل­ها (کنترلرها)، بازده کاهش می­یابد. در این ، یک شبکه ترافیکی نسبتا بزرگ را بصورت سیستم چند عاملی مدل­سازی می­کنیم و از تکنیک­های یادگیری تقویتی چند عاملی استفاده می­کنیم. بطور خاص، یادگیری-Q به کار گرفته شده است، که در آن طول متوسط صف درلینک­های نزدیک شونده به منظور برآوردحالت­ها استفاده می­شود. یک بیان پارامتری از فضای عمل، این روش را قابل توسعه به انواع مختلفی از تقاطع­ها کرده است. نتایج شبیه­سازی نشان می­دهد که یادگیری-Q پیشنهادی عملکرد بهتری نسبت به روش زمان ثابت تحت نیازهای ترافیکی متفاوت دارد.

  راهنمای خرید:
  • لینک دانلود فایل بلافاصله بعد از پرداخت وجه به نمایش در خواهد آمد.
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.