Tıkanıklık oyunlarında alt modül özelliği?


15

Let bir olmak -çalıcılar ve -elemanları tıkanıklık oyun .Gnm

Bir denge , SUP (e) \ üçgenq <sup_1 (e), sup_2 (e), \ ldots, sup_n (e)> ile belirtine

SUP(e)≜<sup1(e),sup2(e),,supn(e)>

Nerede supi(e) desteğini içeren i 'inci oyuncunun oyun e (stratejilerinin kümesi i pozitif olasılık ile oynamak).

Ayrıca, söylüyorlar SUP(e)SUP(e) IFF i[n]:supi(e)supi(e) , ki her oyuncu olan e alt kümesinde randomizes onun eylem e ' oynamayı seçebileceği eylemlerden e.

Son bir tanım, oyuncuların maliyetlerinin toplamı olarak tanımlanan SC (e) sosyal maliyetidir SC(e).

Let e,e için iki (karışık) dengeleri olabilir G .

Mu

SUP(e)SUP(e)
anlamına
SC(e)SC(e)
?


Bunu mu demek istedin: SC(e)SC(e) ? Sezgisel olarak, daha az element etrafında yoğunlaşan denge oyununun, her elementin daha fazla tıkanıklığa yol açacağını düşünebilirsiniz.
Ubiquitous

@Ubiquitous - Bence tam tersi. Her oyuncu daha az eleman üzerinde yoğunlaşır, yani her elemanı daha az oyuncu kullanır. Her oyuncunun artık bir eleman alt kümesi seçmesi ve bu hala bir denge olması , toplumun ondan kazandığı anlamına gelebilir (aksi takdirde, oyuncunun daha fazla eleman kullanmaya geri dönme olasılığı yüksektir).
RB

Maliyet fonksiyonuna (gecikme) bağlıdır. Söz konusu oyun tam olarak belirtilmedi, çünkü ödemeler (maliyetler) mevcut değil.
Sander Heinsalu

Yanıtlar:


2

Bu öneri genel olarak doğru değil . ve durumunda bunun doğru olduğu gösterilebilir . Burada ve olduğunda bir sayaç örneği sergiliyorum .m = 2 n = 3 m = 2n=2m=2n=3m=2

Kısa bir yorum. Soruyu kelimelerle yeniden ifade edebiliriz: "daha rastgele" ( karşı ) bir Nash dengesi daha az verimli midir? Sezgisel olarak, daha karışık stratejiler oynandıkça, gerçekleşen sonuç daha rastgele olur ve ajanlar arasındaki koordinasyon eksikliği nedeniyle çok verimsiz olabilir. Temsilciler saf stratejiler oynadığında Nash dengesini düşündüğümüzde koordinasyon sorununu azalttığımızı düşünebiliriz. ve olduğunda göstereceğim gibi, öneri yanlışsa bu sezgi geçerli değildir . eeem = 2n=3m=2

ve iki olası eylemi belirtin . Gecikme fonksiyonları şu şekilde tanımlanır: , , ve , , . Bu, aracıları (sırasıyla ) oynadığında , getirisini (sırasıyla ) . Gecikme fonksiyonları arttığı sürece bu (simetrik) bir tıkanıklık oyunudur.B d A ( 1 ) = 5 d A ( 2 ) = 7 d A ( 3 ) = 10 d B ( 1 ) = 1 d B ( 2 ) = 6 d B ( 3 ) = 7 x A B - d A ( x ) - D B ( x )ABdA(1)=5dA(2)=7dA(3)=10dB(1)=1dB(2)=6dB(3)=7xbirB-dbir(x)-dB(x)

Tanımlama 1 madde oynar dengede olarak ve 2 maddeler oyun . Tanımla 1 ajan her zaman oynar dengede olarak ve 2 diğerleri oynar olasılığı ile ve olasılık ile . özelliğini karşılar .AebirE ' B bir μ = 2 / 3 B 1 - μ = 1 / 3'ün s u s ( E ) s u s ( e ' )Be'Bbirμ=2/3B1-μ=1/3sup(e)sup(e')

İlk olarak, bir Nash dengesi olduğunu gösteriyoruz. Oynar ajan seçerken onun iki diğer oyuncuların strateji verilen ödeme maksimize edilir daha seçerek daha , (yani ). Eğer (yani ) ise oynayan her iki ajan da optimum şekilde . bu nedenle Nash dengesidir ve sosyal maliyeti .AebirB d A ( 1 ) < d B ( 3 ) 5 < 7 B d B ( 2 ) < d A ( 2 ) 6 < 7 e d A ( 1 ) + 2 d B ( 2 ) = 17 = 153birBdbir(1)<dB(3)5<7BdB(2)<dbir(2)6<7edbir(1)+2dB(2)=17=1539

İkincisi, nin bir Nash dengesi olduğunu gösteriyoruz. Bir yandan, oynadığı ajan o oynuyor daha iyi ise diğer iki karma stratejiyi oynarken onu ödeme maksimize edilir den , yani , bu doğru. Öte yandan, karma stratejiyi oynayan ajanların her biri, ise veya seçimi arasında kayıtsızdır. yani . B B A ( 1 - μ ) 2 d B ( 3 ) + 2 μ ( 1 - μ ) d B ( 2 ) + μ 2 d B ( 1 ) < ( 1 - μ ) 2 d A ( 1 ) + 2 μ ( 1 - μ ) d A ( 2e'BBbir1

(1-μ)2dB(3)+2μ(1-μ)dB(2)+μ2dB(1)<(1-μ)2dbir(1)+2μ(1-μ)dbir(2)+μ2dbir(3)
ABμdA(2)+(1-μ)dA(1)=μdB(2)+(1-μ)dB(3)19195+497+4910<197+496+491birB
μdbir(2)+(1-μ)dbir(1)=μdB(2)+(1-μ)dB(3)
193=193e'o zaman bir Nash dengesidir ve sosyal maliyeti eşittir .
(1-μ)2[3dB(3)]+2μ(1-μ)[dbir(1)+2dB(2)]+μ2[2dbir(2)+dB(1)]
1921+4917+4915=1499

Son olarak, yerine . Karma strateji Nash dengesi, saf strateji olandan daha düşük bir sosyal maliyetle sonuçlanır.S C ( e ) > S C ( e )sup(e)sup(e')SC(e)>SC(e')

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.