مقاله هندسه محاسباتی

23
ن الرحیم الرحم بسم ا الگوريتم محاسباتیندسه یيبی در ه های تقرض آبادی فیئزه اکبری فاوردين فر1931 فهرست مطالب1. ايی با نظريه آشنPN 2. س کN _ NlonyloP 9. س کPN Plyolilo onynsiniNlonyloPo 4. س کdPoo PN 5. س کiloeloli PN 6. نه سازی بهی7. جه تقريب در8. ( قطعی خطایloolo etslosil ) 3. ( ع کاهش ها انواnlosiinly ) 11. Strike reduction 11. A-reduction 12. P-reduction 19. R-reduction

Upload: faezeh-akbari

Post on 19-Aug-2015

40 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: مقاله هندسه محاسباتی

بسم اهلل الرحمن الرحیم

های تقريبی در هندسه ی محاسباتی الگوريتم

فائزه اکبری فیض آبادی

1931فروردين

فهرست مطالب

PNآشنايی با نظريه .1

N _ NlonyloPکالس .2

PN­PlyoliloonynsiniNlonyloPoکالس .9

dPoo PNکالس .4

iloeloli PNکالس .5

بهینه سازی .6

درجه تقريب .7

( loolo etslosilخطای قطعی) .8

(nlosiinlyانواع کاهش ها ) .3

11. Strike reduction

11. A-reduction

12. P-reduction

19. R-reduction

Page 2: مقاله هندسه محاسباتی

14. L-reduction 15. F-reduction

16. Apx کالس

PNNکالس .17

الگوريتم های تقريبینمونه مسائل هندسه محاسباتی قابل حل با استفاده از .18

مراجع .13

PNآشنايی با نظريه

پیچیدگی زمانی آن تابع چندجمله ای از ،الگوريتم زمانی چند جمله ای , الگوريتمی است که در بدترين حالت

اندازه ورودی میباشد .

: مساله ای است که حل آن توسط الگوريتمی با زمان چند جمله ای غیر ممکن (oyioPiiPtol )مساله بغرنج

باشد .توجه شود که بحث ما سر خود مساله است و نه الگوريتم حل مساله . برای آنکه مساله بغرنج باشد بايد

بت کرد که هیچ الگوريتمی با مرتبه ای چند جمله ای برای آن وجود ندارد .ثا

ن يا نبودن , مسائل علوم کامپیوتر به سه دسته تقسیم میشوند:از نظر بغرنج بود

مسائلی که الگوريتمی با پیچیدگی زمانی چند جمله ای برای آن ها پیدا شده است 1

مسائلی که اثبات شده است بغرنج هستند , يعنی الگوريتم چند جمله ای برای آن يافت نمیشود 2

است ولی از طرف ديگر هیچ الگوريتم چند جمله ای هم برای آنها پیدا مسالی که بغرنج بودن آنها ثابت نشده 9

نشده است.

( 1و 1)نمونه دسته سوم مساله فروشنده دوره گرد و کوله پشتی

Page 3: مقاله هندسه محاسباتی

رابطه مسائل بهینه سازی و مسائل تصمیم گیری

است. نکته خروجی مسائل بهینه سازی يک حل بهینه است و خروجی مسائل تصمیم گیری ,جواب بله يا خیر

مهم اين است که هر مساله بهینه سازی را میشود معادل يک مساله تصمیم گیری در نظر گرفت.

مثال مساله بهینه سازی فروشنده دوره گرد اين است که يک تور با حداقل کل وزن يال ها را بدست آوريم )

بقیه رئوس ديگر دقیقا يک بار منظور از تور مسیری است که از يک راس شروع و به همان راس ختم شود و از

داده شده , توری با وزن tعبور کند (. مساله تصمیم گیری فروشنده دوره گرد آن است که در ازای عدد مثبت

وجود دارد يا نه . tکل کمتر يا مساوی

, کلیک و رنگ آمیزی گراف را میشود نام برد. 1و 1از نمونه های ديگر مساله کوله پشتی

N _ NlonyloPکالس

الگوريتم های با به طور کلی مسال تصمیم گیری به چهار کالس تقسیم میکنیم , مسائلی که برای حل آن ها

)معین( را مرتبه زمانی چند جمله ای يافت شده است اين کالس يا به عبارت بهتر کالس الگوريتم های قطعی

تشکیل میدهند.

PN­PlyoliloonynsiniNlonyloPo کالس

برای معرفی اين کالس بايد ماشینی با مشخصات جديد تعريف کنیم . ماشینی را تصور کنید که افزون بر توانايی

ین را نیز اجرا کند . يک دستور نامعین عی قادر است برخی دستور های نامعاجرای دستور های معین و قط

پیش بینی نیست . برای مثال فرض کنید دستوری داشته باشیم که از دستوری است که نتیجه آن از قبل قابل

يکی را انتخاب بکند قبل از اجرای چنین دستوری نمیتوان پیش بینی کرد که دقیقا کدام 11تا 1بین اعداد

يک از اعداد انتخاب خواهند شد . چنین ماشینی را يک کامپیوتر يا ماشین نامعین می نامیم و الگوريتم های

تابع انتخاب 9که برای چنین ماشینی طراحی میشوند را الگوريتم های نامعین می نامیم. برای اين الگوريتم ها

, شکست و پیروزی استفاده میشود.

Page 4: مقاله هندسه محاسباتی

تشخیص اول بودن يا نبودن يک عدد طبیعی , مرتب کردن اطالعات و صدق پذيری نمونه هايی از مسائلی

عین سادهای برای آن ها طراحی کرد . هستند که میتوان الگوريتم های نام

محققین بسیاری سعی کردند که e≤ye ک الگوريتم نامعین قابل اجراست پسهر الگوريتم معین توسط ي

مفهوم آن اين است که هر مسئله ای که برای ان الگوريتم نامعین با مرتبه زمانی چند جمله e=yeثابت کنند

اس . 1371ای وجود دارد میتوان برای آن يک الگوريتم معین با مرتبه زمانی چند جمله ای پیدا کرد .در سال

با بیان اين .e=yeد که تعلق دارد ثابت میشو eای . کوک ثابت کرد چنانچه ثابت شود صدق پذيری به کالس

و ye dPooمطلب مساله صدق پذيری از اهمیت بااليی برخوردار میشود , به گونه ای که کالس های

iloeloli ye بر محور اين قضیه شکل می گیرند. افزون بر آن تالش دانشمندان را در اين مسیر جهت دار

ه حل معین چند جمله ای برای مسائل صدق پذيری و فعالیت آن ها را حول محور تالش برای يافتن رامیسازد

متمرکز میکند.

به اين مزموم که آيا يک عبارت منطقی داده شده به ازامقاديری از صدق پذيری است yeيکی از مسائل کالس

لفظ های تشکیل دهنده آن درست خواهد بود. طراحی يک الگوريتم نامعین که تشخیص بدهد يک عبارت داده

ر هست يا خیر مشکل نیست منتها بربرای اجرای الگوريتم های نامعین نیاز به کامپیوتر های با شده صدق پذي

تعداد پردازنده های نامتناهی است.

dPoo PNکالس

ابتدا به بیان مفهوم تقلیل يا همان کاهش پذيری میپردازم :

کاهش ) تقلیل ( می يابد اگر و فقط اگر الگوريتمی معین با yبه مساله oدو مساله باشند , مساله yو oاگر

وجود داشته باشد, آنگاه بتوان با بکارگیری الگوريتم معین با مرتبه زمانی yزمانی چند جمله ای برای مرتبه

را با الگوريتمی معین و زمان چند جمله ای حل کرد. oرا حل میکند , yچند جمله ای که

صدق پذيری به آن کاهش پیدا کند.است اگر و فقط اگر dPoo yeيک o: مساله dPoo yeمساله

نمونه ای از اين کالس مساله توقف پذيری است

Page 5: مقاله هندسه محاسباتی

iloeloli PNکالس

است در واقع فصل مشترک اين دو کالس میباشد dPoo ye و yeاين کالس زير کالس های

باشد و در عین حال dPoo yeيک مساله oاست اگر و فقط اگر iloeloli yeيک مساله oتعرف:

𝑚 باشد. ∈ 𝑛𝑝

رنگ پزيری گراف و چهار رنگ نمونه ای ازمسائل عضو اين کالس مساله های صدق پذيری ترکیبات عطفی, سه

{1پذيری }

:بهینه سازی

محاسباتی به چالش کشید , پیدا کردن بسیاری از مسائل بزرگ بهینه سازی دنیای واقعی را میشود از ديد

جواب بهینه يا حتی نزديک به بهینه در اين گونه مسائل بخصوص در حالتی که مسائل بزرگ میشود نیاز به

منابع محاسباتی دارد و با بزرگ شدن اين گونه مسائل حجم محاسبات نیز افزايش می يابد.

آنها به صورت چند جمله ای رشد میکند در غیر اين مسائلی که با استفاده از راه حل های محسباتی زمان

صورت نمايی خواهد بود يا حتی در حجم کوچکتر میتواند غیر قابل حل میباشد.

طبقه بندی میشود )دسته dPoo yeيک حجم وسیعی از کالس های مسائل معمولی بهینه سازی جزو مسائل

مسائلی که تضمین شده است راه حل بهینه داشته باشد(

جواب تقريبی نزديک به بهینه برای مسائل بهینه سازی سخت وجود سوالی که مطرح میشود اين است که آيا

دارد؟

li yPoln _ 1372 ,nldysly _ 1374ايده تخمین در متن مقاله های 1371و 1361در دهه های

,yoPdPoo _ 1366 در باره برنامه ريزی چند پردازنده ها و ,ePiknyp tny اد شد .پیشنه

Page 6: مقاله هندسه محاسباتی

الگوريتم های تقريبی دارای دو ويژگی است: اوال برای يک نمونه از مساله يک راه حل شدنی در زمان چند جمله

علی رقم اين که ما يک ای ارائه میدهد در بسیاری از مواقع ساختن رويه برای راه حل شدنی کار سختی نیست

تقريبی را بیش ترين فاصله راه حل تقريبی از راه حل مطمئن را ترجیح میدهیم ولی کیفیت الگوريتم های

جواب بهینه روی تمام نمونه های ممکن از مساله تعیین میکند.

به صورت غیر رسمی میتوانیم بگويیم که الگوريتم تقريبی حلی برای مساله بهینه سازی است اگر بهینه ای که

اندازه گیری میکند قابل بازگشت به راه حل شدنی باشد.

يک ابزار قدرتمند برای طراحی الگوريتم های تقريبی استفاده همزمان از الگوريتم های تصادفی , حريصانه و

slPoid oliPo

nPpdPgPy وiliwPyn نشان دادند که الگوريتم های تصادفی از الگوريتم های قطعی برای 1335در سال

وانیم الگوريتم های تصادفی و تقريبی را با هم ترکیب آنالیز و اجرا کردن سريع تر و راحت تر می باشند , ما میت

کرده و در حل مسائل بهینه سازی به کار ببريم در اين حالت زمان اجرای متغیر های تصادفی ممکن است

متغییر های تصادفی باشد.)نکته حائز اهمیت اين است که اين تصادفی بودن از اجرای الگوريتم های تصادفی و

رد نه از نمونه ها (تقريبی نشات میگی

ما الگوريتم های موثری را نمیشناسیم الگوريتم های تقريبی برای ما مفید dPoo yeچون در مورد مسال

هستند که در ازا خطای کوچک پیچیدگی زمانی آن ها از نمايی به سکت چند جمله ای برود.الگوريتم های

نامیده میشوند, اين کالس از eeAشده است که تقريبی خوبی برای چند مساله کلیدی بهینه سازی ارائه

الگوريتم ها پیچدگی زمانی چند جمله ای دارند که با يک عدد ثابت کراندار شده اند.

ما میتوانیم يک خانواده از الگوريتم های تقريبی را در نظر بگیريم که به ما کمک میکنند تا به حدی که

( نامیده eoplonido AidloP) eAانواده از الگوريتم ها را میخواهیم به جواب بهینه نزديک بشويم اين خ

NAeAالگوريتم ها در زمان چند جمله ای قابل حل هستند eAمیشود و تمامی اين مسالی که با اين

(Anol NlonyloPo.نامیده میشوند )

يز ورودی و بزرگی خطای در برخی موارد ما میتوانیم برنامه های تقريبی را با زمان چند جمله ای وابسته به سا

( نامیده sidloP PeeolAnoPil oNlonyloP ysoon) SNAeAتقريبی حدس بزنیم اين کالی از مسائل

میشود.

Page 7: مقاله هندسه محاسباتی

مساله بهینه سازی :

ما به بیان مسائل بهینه سازی به گونه سنتی میپردازيم هر مساله بهینه سازی سه ويژگی را داراست:

تابع اندازه گیری برای تعین اين که کدام راه 9معیاری برای راه حل شدنی مساله 2ساختار ورودی نمونه 1

{2حل شدنی بهینه جواب شدنی را برای مساله در بر دارد. }

قابل کاهش و تبديل شدن به همديگر iloeloli Peاين نکته حائز اهمیت است که دسته مسائل کالس

{9يبی در مورد آن ها قابل تقلیل و تعمیم نمی باشد .}میباشند ولی تقريب و الگوريتم های تقر

:درجه تقريب

و sye oPAهنگام تعريف کالس sPyyPkPknsو NPePononionlssتوسط 1388ايده اصلی در سال

که به صورت تقريبی با ثابت نمايش داده میشد مطرح L­olosiinlyموضوع جديدی در تقلیل به نام

{4گرديد}

sye oPA شامل مسائلی است که به صورت نحوی در يک مدل مشخصی تعريف میشوند و به وسیله آن ها :

را به روش غیر محاسباتی در زمان چند جمله ای ثابت حل نمود. Pelبسیاری از مسال

تقلیل داد برای نمونه sye oPA-iloeloliرا میشود به sye oPAاين دو ثابت کردند که هر مساله در

sPi9 oPA مساله پیدا کردن جايگذاری درستی که بیشترين تعداد جمالت را دارا باشد.( فرمول (tllonPy

لفظ تشکیل شده باشد.( 9) متقارن جمالت در حالی که هر جمله نامتقارن از حداکثر FPS9در

را میتوان با هر ثابتی تقريب زد؟ sye oPAآيا مساله -

{ ثابت شده است که با فرض 5تا همین اواخر اين سوال بدون جواب بوده ولی درمقاله }

𝑃 میشود با يک ثابت مشخص تقريب زد ولی با هر ثابتی خیر ≠ 𝑁𝑃

Pelدرجه تقريب مسال

Page 8: مقاله هندسه محاسباتی

)ماکزيمم زير مجموعه مستقل ( همچون مساله پیدا کردن sli nyo oPAيکی از مسائل سخت مساله تقريب

ماکزيمم سايز مجموعه ی از نقاط مستقل در گراف که مستقیما با يال ها بهم متصل نشده اند. اين مساله را

میشود تقريب زد. iبه توان yتعداد رئوس گراف باشد با yتقريب زد ولی اگر iنمیشود با ثابت

LIN مساله پیدا کردن طوالنی ترين مسیر القايی در گراف جزو مسالPN است که قابل کاهش بهN میباشد و

جوابی چند جمله ای به اندازه تمامی وروديها دارد.

نشان دادند که نمیتوان الگوريتمی ارائه کرد که همه مسائل AenoPknsو AloP 1383در سال

e­iloeloli مسال {, ولی آنها نشان دادند که 6د }را در زمان ثابت تخمین زN را میشود با الگوريتم های

موجود در کالس الگوريتم های سلسله مراتبی با يک ثابت تقريب زد , آنها همچنین نشان دادند که تقريب زدن

{8{}7سخت است.} PNمسائل

Nlilos وnsoloed { يک الگوريتمی با زمان لگاريتمی موازی با برنامه تخمین برای مساله 3در مقاله ای }

را به مسال شبکه PNNنیز نتیجه برخی از الگوريتم های تقريبی برای مسال sPlکوله پشتی پیدا کردند.

{11عصبی منتقل کرد.}

Page 9: مقاله هندسه محاسباتی

میکند بهینه محلی بهتری را با در يک فیلد تحقیقاتی ديگر تخمین زدن بهینه محلی است. اين تخمین تالش

نظر گرفتن اختالف بهینه فعلی بدست بیاورد و اگر اختالفی وجود نداشته باشد خروجی ما همان بهینه فعلی

است.

آيا الگوريتم پیدا کردن بهینه محلی همیشه در زمان چند جمله ای ؟ -1دو سوال در اينجا مطرح میشود

حل بهینه محلی مرتبط میشود؟چگونه راه حل بهینه با راه -2

ionlsnldysly­ePePonon وsPyyPkPkns يک کالس پیچیده از مسال جستجو محلی به نامNLA را

{ يک بحث و جدلی پیرامون اين که برخی از مسال 14{}19{}12{ که بعد ها در مقاالت }11تعريف کردند }

iloeloliylss NLA رفتاری مشابه مسالiloeloli­PN . دارند به راه افتاد

nldysly اولین بارکالسPN { 15را در مسال بهینه نشان داد , }NPyilylsn وFolsilyrn در مقاله

می باشند که در زمان چند جمله ای قابل PNN (Mi9)کالسی از مسال Nl (Mi2){ نسان دادند که 16}

حل هستند.

است که بهینه باشد . sبه معنی پیدا کردن Xبا دادن ورودی Sحل کردن مساله بهینه سازی

Nei مشخص کننده ارزش جواب بهینه است برای مسال ماکزيمم سازی بهترين جواب ماکزيمم وبرای

مسال مینیمم سازی بهترين جواب مینیمم

𝑂𝑝𝑡𝑓 ∈ {max, 𝑚𝑖𝑛}

x ∈ 𝐼𝑓 مجموعه ورودی های مساله بهینه سازی 𝐼𝑓

𝑆𝑓 : مجموعه ناحیه شدنی است که ⊆ Σ∗

yϵ𝑆𝑓(𝑥)

از ورودی ها به ناحیه شدنی به صورت زير:تابعی است 𝑚𝑓(𝑥, 𝑦)

I𝑓 × Σ∗ → 𝑁

𝑚𝑓(𝑥, 𝑦) → yϵ𝑆𝑓(𝑥)

Page 10: مقاله هندسه محاسباتی

پس يک مساله بهینه سازی به صورت چهارتايی زير تعريف میشود:

F = ( 𝐼𝑓, 𝑆𝑓, 𝑀𝑓, 𝑂𝑝𝑡𝑓)

در مقاله nldyslyو yPolnنحوه اندازه گیری تخمین بستگی به نوع مساله دارد که ترمینولوژی آن توسط

{ مطرح شده است ولی به طور معمول برای مسالی که خیلی سخت نمی باشند برای اندازه گیری تخمین 17}

ستفاده میکنند.ا loloo nloPiloاز yelدر فضاهای شدنی با در نظر داشتن شرايط بهینه مساله

𝜀𝑓𝑟(𝑥, 𝑦) =

|𝑂𝑝𝑡𝑓(𝑥) − 𝑚𝑓(𝑥, 𝑦)|

𝑂𝑝𝑡𝑓(𝑥)

Max 𝜀𝑓𝑟(𝑥, 𝑦) = 1 −

𝑚𝑓(𝑥,𝑦)

𝑂𝑝𝑡𝑓(𝑥,𝑦) ⇒ 1 ≤ 𝜀𝑓

𝑟(𝑥, 𝑦) ≤ 1 , 𝑂𝑝𝑡𝑓(𝑥) ≥ 𝑀𝑓(𝑥, 𝑦) ≥ 1

Min 𝜀𝑓𝑟(𝑥, 𝑦) =

𝑚𝑓(𝑥,𝑦)

𝑂𝑝𝑡𝑓(𝑥,𝑦) − 1 ≥ 1 ⇒ 𝑀𝑓(𝑥, 𝑦) ≤ 𝑂𝑝𝑡𝑓(𝑥) ≤ 1

( : loolo etslosilقطعی)خطای

𝜀𝑓a(𝑥, 𝑦) = |𝑂𝑝𝑡𝑓(𝑥) − 𝑀𝑓(𝑥)|

yϵ𝑆𝑓(𝑥)

امیدی به يافتن راه حل بهینه با خطای قطعی ثابت وجود ندارد. oliiloel PNنکته : برای هیچ يک از مسال

قضیه:

,𝑜𝑝𝑡𝑓(𝑥 در اين حالت میگويیم اندازه ما 𝑦) = 𝑚𝑓(𝑥, 𝑦) ⇔ 𝜀𝑓(𝑥, 𝑦) = 1 , 𝑦𝜖 𝑠𝑓(𝑥)

است. Cost­respecting

را در زمان چند جمله ای محاسبه می کند. PNNاز نوع yمدل تخمین : الگوريتمی که جواب بهینه مساله

NAeA الگوريتم تخمین به همراه ورودی هايی و يک مقدار ثابت در زمان چند جمله ای که :

Page 11: مقاله هندسه محاسباتی

می زند. ɛ+1خروجی بهینه را با حدود x ∈ 𝐼𝑓 و 𝜀 > 1

می باشد که در NAeAمساله پیدا کردن ماکزيمم مجموعه رئوس در گراف مسطح يکی از نمونه مسال قابل

{18حل میباشد.} 𝑜(𝑛.8

1𝜀

𝜀) زمان

ɛ /1 FPTASتعريف میشود فقط اين الگوريتم ها در زمان چند جمله ای از NAeAنیز همچون مسال

تخمین میزند.نمونه ای از اين گونه مسال ,مساله کوله پشتی ɛ+1و طول ورودی حل بهینه را در حدود

{13است.}

PN PNN يک کالس مهم از مسالPNN { میگويم يک مساله بهینه سازی)21{ }21است }PNN )y به

وجود داشته باشد که: Nصورت چند جمله ای کراندار است اگر چند جمله ای همچون

𝑂𝑝𝑡𝑓(𝑥) ≤ 𝑝(|𝑥|) 𝑓𝑜𝑟 𝑎𝑙𝑙 𝑥 ∈ 𝐼𝑓

نامید نمونه ای از اين دست مسال Nei [olpy]{ کالس 21در مقاله } lolyiloاين دسته از مسال را

جزو اين 1-1مینیمم برنامه و Aseبعدی و ماکزيمم مجموعه مستقل است اما مسالی نظیر 9ماکزيمم انطباق

دست از مسال نمیباشد.

تخمینی متفاوت دارند؟ iloeloli-Peچرا مسال

فعالیت داشته باشیم . تمامی مسالدر اين است که هر دو بايد يک کرانی روی تابع Pelو Peشباهت مسال

Pel .میتوانند به صورت مسال تصمیم گیری مطرح بشود و بلعکس

تقلیل پیدا بکند که به سختی تابع فعالیت را حفظ میکنند yو Sمیتواند به دو مساله Peيک مساله 1

ممکن است باز هم راهی برای تخمین زدن آن وجود yمنتقل بشود به تابع فعالیت Sاگر حتی تابع فعالیت 2

يک زير مجموعه گراف مستقل اگر و فقط اگر مکمل آن Ali oyo iPAنداشته باشد؛ به عنوان مثال مساله

اگر و تنها اگر يک مجموعه مستقل از δنده باشد بنابر اين يک راس پوشش دهنده به سايز يک راس پوشش ده

داشته باشیم .پیدا کردن راه حل با خطای قطعی برای هر دو اين مسال سخت ولی با خطای نسبی ­δVسايز

Page 12: مقاله هندسه محاسباتی

داريم که از سخت تر است، پس ما دو مساله بهینه سازی يکسان Ali oyo iPAپیدا کردن بهینه برای مساله

نظر دوش يکسان میباشند و از لحاظ تخمین متفاوت.

F = Max Ind Set

G = Min Nod Cover

𝑥 = < 𝑉, 𝐸 > ∈ 𝐼𝑓 = 𝐺𝑓 𝑦 ∈ 𝑆𝑓(𝑥), 𝑦 = 𝑉 − 𝑦

𝑤𝑜𝑟𝑠𝑡𝑓(< 𝑉, 𝐸 >) = 1 𝑤𝑜𝑟𝑠𝑡𝐺(< 𝑉, 𝐸 >) = |𝑉|

ε_f^n (x,y)= |〖opt〗_f (x)-m_f (x)|/|〖opt〗_f (x)- 〖worst〗_f (x)| =(〖opt〗

_f (x)- m_f (x))/(〖opt〗_f (x) )

𝜀𝐺𝑛(𝑥, 𝑦) =

|𝑜𝑝𝑡𝐺(𝑥)− 𝑚𝐺(𝑥,�̅�)|

|𝑜𝑝𝑡𝐺(𝑥)−𝑤𝑜𝑟𝑠𝑡𝐺(𝑥)|=

𝑚𝐺(𝑥,�̅�)−𝑜𝑝𝑡𝐺(𝑥)

𝑤𝑜𝑟𝑠𝑡𝐺(𝑥)−𝑜𝑝𝑡𝐺(𝑥)=

( |𝑉|−𝑚𝑓(𝑥,𝑦))−(|𝑉|−𝑜𝑝𝑡𝑓(𝑥))

|𝑉|−(|𝑉|−𝑜𝑝𝑡𝑓(𝑥))=

𝑜𝑝𝑡𝑓(𝑥)− 𝑚𝑓(𝑥)

𝑜𝑝𝑡𝑓(𝑥)⇒ 𝜀𝑓

𝑛(𝑥, 𝑦) = 𝜀𝐺𝑛(𝑥, 𝑦)

( :nlosiinlyانواع کاهش ها )

با در نظر گرفتن yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله : Strick reduction

y (t,P) زوج مرتببرای تخمین و يک جفت ԑاندازه ثابت

- P وt توابع قابل محاسبه در زمان چند جمله ای می باشند

∀ 𝑦 ∈ 𝑆𝐺(𝑎), 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥) , ∀ 𝑥 ∈ 𝐼𝑓 , 𝑎: 𝐼𝑓 → 𝐼𝐺

∀𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝑓(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝜀𝐺(𝑎(𝑥), 𝑦)

𝑖𝑓 𝐹 𝑡𝑜 𝐺 𝑖𝑠 𝑆𝑡𝑟𝑖𝑐𝑘 𝑟𝑒𝑑𝑢𝑐𝑡𝑖𝑜𝑛 → 𝐹 ≤𝑠𝑝

𝐺

𝑖𝑓 𝐹, 𝐺, 𝐻 𝑖𝑠 𝑁𝑃𝑂 𝑎𝑛𝑑 𝐹 ≤𝑠𝑝

𝐺 , 𝐺 ≤𝑠𝑝

𝐻 → 𝐹 ≤𝑠𝑝

𝐺

(Approximate preserving reduction) A-reduction

Page 13: مقاله هندسه محاسباتی

y (i,t,P)با در نظر گرفتن سه تايی مرتب yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله

∁∶ 𝑄𝐺 → 𝑄𝑓 𝑎 , 𝑏

𝑎: 𝐼𝑓 → 𝐼𝐺 , ∀ x ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥)

∀ 𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝐺𝑟(𝑎, 𝑦) ≤ 𝜀 → 𝜀𝐹

𝑟(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝑐(𝜀)

𝐹 ≤𝐴𝑝

𝐺 باشد ما می نويسیم A-reduction يک yبه Sاگر

𝑖𝑓 𝐹 ≤𝐴𝑝

𝐺 𝑎𝑛𝑑 𝐺 ≤𝐴𝑝

𝐹 𝑡ℎ𝑒𝑛 𝐹 ≡𝐴𝑝

𝐺

Orponen ,Mamida {22}

نامیده شده است. olosiinly Flyinyslsl{ اين کاهش 16{ و }29البته در مقاالت }

:(PTAS presenting reduction) P-reduction

y (i,t,P)با در نظر گرفتن سه تايی مرتب yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله

∁∶ 𝑄𝐺 → 𝑄𝑓 𝑎 , 𝑏

𝑎: 𝐼𝑓 → 𝐼𝐺 , ∀ x ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥)

∀ 𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝐺𝑟(𝑎, 𝑦) ≤ 𝑐(𝜀) → 𝜀𝐹

𝑟(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝜀

𝐹 ≤𝑝𝑝

𝐺 باشد ما می نويسیم P-reduction يک yبه Sاگر

𝑖𝑓 𝐹 ≤𝑝𝑝

𝐺 𝑎𝑛𝑑 𝐺 ≤𝑝𝑝

𝐹 𝑡ℎ𝑒𝑛 𝐹 ≡𝑝𝑝

𝐺

Page 14: مقاله هندسه محاسباتی

:(Randomaized reduction)R-reduction

است که در آن از متغییر های تصادفی استفاده می N­olosiinlyاز چهار تايی مرتب نوع کاهش تنها يکاين

شود.

:(Linear reduction) L-reduction

برای اثبات کامل بودن sPyyPkPknsو NPePononionlssتوسط 1388يک چهارتايی است که در سال

.APNو ماکزيمم PNماکزيمم

:(Fully reduction) F-reduction

y (i,t,P)با در نظر گرفتن سه تايی مرتب yبه Sرا در نظر بگیريم از yو PNN ,Sاگر دو مساله

توابع قابل محاسبه در زمان چند جمله ای tو a

∁∶ 𝑄𝑓 × 𝐼𝑓 → 𝑄𝐺 𝑎 , 𝑏

𝑎: 𝐼𝑓 → 𝐼𝐺 , ∀ x ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝑏(𝑥, 𝑦) ∈ 𝑆𝑓(𝑥)

∀ 𝑥 ∈ 𝐼𝑓 , ∀ 𝑦 ∈ 𝑆𝐺(𝑎) , 𝜀𝐺𝑟(𝑎, 𝑦) ≤ 𝑐(𝜀, 𝑥) → 𝜀𝐹

𝑟(𝑥, 𝑏(𝑥, 𝑦)) ≤ 𝜀

𝑐 𝑡𝑖𝑚𝑒 𝑐𝑜𝑚𝑝𝑙𝑒𝑥𝑡𝑦 → 𝑝𝑙𝑜𝑦𝑛𝑜𝑚𝑎𝑙 (1𝜀

, |𝑥|)

∀ 𝑥 ∈ 𝐼𝑓 , 𝑐(𝜀, 𝑥) ≤1

𝑝1 (1𝜀

, |𝑥|) 𝑝 𝑖𝑠 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑎𝑙

𝑖𝑓 𝐹 ≤𝐹𝑝

𝐺 𝑎𝑛𝑑 𝐺 ≤𝐹𝑝

𝐹 𝑡ℎ𝑒𝑛 𝐹 ≡𝐹𝑝

𝐺

olosiinly eolslognyp nPinl ,A­olosiinly ,olosiinly PlyilysioPiinglعالوه بر اين

نمونه های ديگری از کاهش ها می باشند که دارای خاصیت هم ارزی olosiinly eolslognp Aiosiisolو

هستند.

Page 15: مقاله هندسه محاسباتی

استفاده میکنیم. yاز روی الگوريتم تخمین مساله Sما از اين کاهش ها برای ساختن الگوريتم تخمین مساله

کالس های تخمین شامل دسته مسالی هستند که میشود برخی از آنها را در حدود يک ثابت تخمین زد يا به

ر اين کالس ها و پیدا کردن سخت عبارت بهتر مسالی که قابل تخمین با هر ثابتی می باشند , هدف گشتن د

{21{}16{}22{}4}ترين مساله ای است که بتوان ساير مسال موجود در کالس را به آن کاهش داد.

مطرح میکنند چون از سايرين مهمتر میباشند. P-reduction معموال مسائل سخت و کامل را با

باشد و گونه تصمم گیری PNNاز نوع S{ نشان دادند که اگر مساله 24در مقاله } nldyslyو Gray

در زمان چند جمله ای حل نمود. Nslsolباشد نمی شود آن را با الگوريتم PNiloeloliآن

NPr وiloPy {25 تمامی مسائل }SNAeA ويژگی به نام را باN­snoeolylss مشخص و توصیف کرده

پرداخته اند. PN­iloeolilylssو N­snoeolylssانددر اين مقاله اين دو به بحث در مورد رابطه بین

وجود دارد که: qمیگويند اگر يک چند جمله ای مانند e­snoeolرا PNNدر Sمساله

𝑞: 𝑁 × 𝑁 → 𝑁 ∀ 𝑘 ∈ 𝑁 {𝑥 ∈ 𝐼𝑓: 𝑜𝑝𝑡𝑓(𝑥) ≤ 𝑘}

قابل تشخیص در زمان

𝑞(|𝑥|, 𝑘)

است اگر و فقط اگر NAeAيک عضو PNNدر Sاله ن دادند که مس{ نشا26اين دو همچنین در مقاله ديگر }

شرايط زير برقرار باشد.

1 S ساده باشد

2 ∃ 𝑄(𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡) ∈ 𝑁 , ∃ 𝑏: 𝐼𝑓 × 𝑍+ → 𝑁 , ∀ 𝑥 ∈ 𝐼𝑓 , ℎ ∈ 𝑍+ − {1}

9 1 ≤𝑂𝑝𝑡𝑓(𝑥)

ℎ− 𝑏(𝑥, ℎ) ≤ 𝑄 𝑖𝑓 𝑜𝑝𝑡𝑓 = 𝑀𝑎𝑥

4 1 ≤ 𝑏(𝑥, ℎ) −𝑂𝑝𝑡𝑓(𝑥)

ℎ≤ 𝑄 𝑖𝑓 𝑜𝑝𝑡𝑓 = 𝑀𝑖𝑛

باشد. البته اين دو در NAeA­iloeloliهنوز هیچ مساله بهینه سازی طبیعی نشان داده نشده است که

osiinlyS­ol{ نشان دادند که مساله ماکزيمم مجموعه وزندار با کران کوچک تحت 16مقاله }

Page 16: مقاله هندسه محاسباتی

است. PTAScomplete

:Apx کالس

کالس دسته مسائلی است که به صورت تخمینی کراندار شده اند و می توان آن ها را با يک ثابت تخمین

مجموعه ای از عبارات منفصل و پیدا کردن قانون درستی که بیش sPi iPAزد.نمونه ای از مسائل اين کالس

{27} ¾ترين تعداد عبارات را داراست اين تخمین در زمان ثابت

se9 iPA پیدا کردن بزرگترين تعداد زوج مجموعه منفصل در زمان 9سته از مجموعه هايی به سايز يک د

{28تخمین زده میشود } 9ثابت

pise يک مجموعه نقاط در صفحه داريم هدف پیدا کردن کوتاه ترين توری است که همه نقاط را ببیند اين

{23تخمین میزند} 2/9مساله را در زمان

e ,eNXiloeloliده است که ماکزيمم مجموعه وزندار و کراندار تحت کاهش همچنین نشان داده ش

می باشد.

:PNNکالس

بزرگترين کالسی است که شامل تمامی مسائل بهینه سازی است که می شود در زمان غیر قطعی چند جمله ای

را میشود در زمان چند جمله ای حل نمود و نیازی به PNNهر مساله N =PNحل شود اگر ثابت شود که

تخمین نیست.

𝑃𝑂 ⊆ 𝐹𝑃𝑇𝐴𝑆 ⊆ 𝑃𝑇𝐴𝑆 ⊆ 𝐴𝑃𝑋 ⊆ 𝑁𝑃𝑂

نمونه مسائل تطابق و بسته بندی که با الگوريتم تقريبی قابل حل هستند

1 Maximum tree dimensional matching

2 Maximum tree set packing

9 Maximum K-set packing

4 Maximum K-dimension matching

Page 17: مقاله هندسه محاسباتی

5 Maximum triangle packing 6 Maximum H-matching 7 Maximum m common sub graph

انواع مساله فروشنده دوره گرد:

1 Simple Tsp

2 Tsp with triangle inequality

9 Approximation algorithm by Christofides

4 Tsp withdistancesoneandtwo

5 2-dimensional Euclidean Tsp

لیست مسائل بهینه سازی:

تئوری گراف

طراحی شبکه

مجموعه ها و قسمت بندی

ذخیره سازی و بازيابی

ترتیب گذاری و بازيابی

ترتیب گذاری و برنامه ريزی

برنامه نويسی رياضی

منطق

تئوری اتامات ها و زبان

Page 18: مقاله هندسه محاسباتی

مراجع:

1-Introduction to algorithms , MIT press, 1331, chapter 96-97 , Thomas H.cormen

& Charles E.Leiserson & Ronald L.Rivest

2-In introduction to optimization ,Decision support and search methodologis ,

Burke and Kendall (Eds) , Kluwer, 2115 ,chapter 18 , Carla p.Gomes & Ryan William

9- D. Bruschi, D. Joseph, and P. Young. A structural overview of NP

optimization problems. In Proc. Optimal Algorithms, pages 215–291.

Springer-Verlag, 1383. Lecture Notes in Computer Science 411.

4- C. H. Papadimitriou and M. Yannakakis. Optimization, approxima-

tion, and complexity classes. Journal of Computer and System Sciences,

49:425–441, 1331.

5- S. Arora, C. Lund, R. Motwani, M. Sudan, and M. Szegedy. Proof verifi-

cation and hardness of approximation problems. In Proc. of 99rd Annual

IEEE Sympos. on Foundations of Computer Science, pages 14–29, 1332.

Page 19: مقاله هندسه محاسباتی

6- M. Serna and P. Spirakis. The approximability of problems complete for

p. In Proc. Optimal Algorithms, pages 139–214. Springer-Verlag, 1383.

Lecture Notes in Computer Science 411.

7- S. K. Sahni. Algorithms for scheduling independent tasks. Journal of the

ACM, 29(1):116–127, 1376.

8- M. Serna. Approximating linear programming is log-space complete for

P. Information Processing Letters, 97:299–296, 1331.

3- J. G. Peters and L. Rudolph. Parallel approximation schemes for subset

sum and knapsack problems. Acta Informatica, 24:417–492, 1387.

11- X. Yao. Finding approximate solutions to NP-hard problems by neural

networks is hard. Information Processing Letters, 41:39–38, 1332.

11- D. S. Johnson, C. H. Papadimitriou, and M. Yannakakis. How easy is

local search? Journal of Computer and System Sciences, 97:73–111, 1388.

Page 20: مقاله هندسه محاسباتی

12- D. S. Johnson. Local optimization and the traveling salesman problem.

In Proc. ICALP-31, pages 446–461. Springer-Verlag, 1331. Lecture Notes

in Computer Science 449.

19- M. W. Krentel. Structure in locally optimal solutions. In Proc.of91th

Annual IEEE Sympos. on Foundations of Computer Science, pages 216–

221, 1383.

14- M. Yannakakis. The analysis of local search problems and their heuristics.

In Proc. 7th Annual Symposium on Theoretical Aspects of Computer Sci-

ence, pages 238–911. Springer-Verlag, 1331. Lecture Notes in Computer

Science 415.

15- D. S. Johnson. Approximation algorithms for combinatorial problems.

Journal of Computer and System Sciences, 3:256–278, 1374.

16- P. Crescenzi and A. Panconesi. Completeness in approximation classes.

Inform. and Comput., 39(2):241–262, 1331.

17- M. R. Garey and D. S. Johnson. Computers and Intractability: a guide

to the theory of NP-completeness. W. H. Freeman and Company, San

Page 21: مقاله هندسه محاسباتی

Francisco, 1373.

18-B. S. Baker. Approximation algorithms for NP-complete problems on

planar graphs. In Proc. of 24th Annual IEEE Sympos. on Foundations

of Computer Science, pages 265–279, 1389.

13- O. H. Ibarra and C. E. Kim. Fast approximation for the knapsack and

sum of subset problems. Journal of the ACM, 22(4):469–468, 1375.

21- P. Berman and G. Schnitger. On the complexity of approximating the

independent set problem. In Proc. 6th Annual Symposium on Theoreti-

cal Aspects of Computer Science, pages 256–268. Springer-Verlag, 1383.

Lecture Notes in Computer Science 943.

21-M. W. Krentel. The complexity of optimization problems. Journal of

Computer and System Sciences, 96:431–513, 1388.

22- P. Orponen and H. Mannila. On approximation preserving reductions:

Complete problems and robust measures. Technical Report C-1387-28,

Department of Computer Science, University of Helsinki, 1387.

Page 22: مقاله هندسه محاسباتی

29-A. Panconesi and D. Ranjan. Quantifiers and approximation. In Proc.

Twenty second Annual ACM symp. on Theory of Comp., pages 446–456.

ACM, 1331.

24- M. R. Garey and D. S. Johnson. Strong NP completeness results: Mo-

tivations, examples and implications. Journal of the ACM, 25:433–518,

1378.

25- G. Ausiello, A. Marchetti-Spaccamela, and M. Protasi. Toward a unified

approach for the classification of NP-complete optimization problems.

Theoretical Computer Science, 12:89–36, 1381.

26- A. Paz and S. Moran. Non deterministic polynomial optimization prob-

lems and their approximations. Theoretical Computer Science, 15:251–

277, 1381.

27- M. Yannakakis. On the approximation of maximum satisfiability. In

Proc. Third Annual ACM-SIAM Symp. on Discrete Algorithms, pages

Page 23: مقاله هندسه محاسباتی

28- V. Kann. Maximum bounded 9-dimensional matching is MAX SNP-

complete. Information Processing Letters, 97:27–95, 1331.

23- N. Christofides. Worst-case analysis of a new heuristic for the travel-

ling salesman problem. Technical report, Graduate School of Industrial

Administration, Carnegie-Mellon University, Pittsburgh, 1376.