Oyunlar neden pencere boyutunu otomatik olarak ayarlamak yerine ekran çözünürlüğünü istiyor?


32

Bana öyle geliyor ki, herhangi bir ekran çözünürlüğünde çalıştırılabilen esnek veya duyarlı UI düzenini bir 3d veya 2d ekran üzerinde uygulamanın daha mantıklı, yeniden kullanılabilir ve kullanıcı dostu olacağını düşünüyorum.

Bazı modern oyunlar ekran çözünürlüğünü otomatik olarak algılar ve oyunu buna göre ayarlar, ancak çözünürlüğü değiştirme seçeneği ayarlarda kalır.

Bu seçenek neden orada?

Tahminime göre, bu eski makinelere daha az grafik göstererek ve sadece ekran boyunca esneterek performansı artırmanın bir yolunu sağlamanın bir yoludur, ancak kesinlikle performansı arttırmanın daha iyi yolları vardır (örneğin farklı doku ve model nitelikleri seçme) .


1
Burada söylenenlere ek olarak, bazı oyunların “en güvenli” olarak en düşük çözünürlüklerden birini seçtiğini düşünüyorum: neredeyse tüm donanım yapılandırmaları bunu destekleyecektir, böylece oyunlar çökmeden başlayabilir ve ardından kullanıcı oyundaki çözünürlüğü değiştirebilir .
MicroVirus,

@MicroVirus Bundan çok ikinci, güvenli ve başlatma modundan başlamak çok değişken bir pleform için iyi bir plan.
Vality

4
Bana 3d veya 2d ekran üzerinde esnek, duyarlı UI düzenini uygulamanın daha mantıklı, yeniden kullanılabilir ve kullanıcı dostu olacağını düşünüyorum ” - Size öyle geliyor, ama pratikte bunu yapmak daha kolay ve ucuz.
Süper best

@Superbest: bir karşı olarak, Warcraft Dünya açık bir "sabit boyutlu mantıksal kullanıcı arayüzünde" (ish) için. Kullanıcı Arabirimi 768 "ölçeklenmiş piksel" yüksek ve boyuta uygun bir genişliktir: wowwiki.com/UI_coordinates (genellikle 1024x768, 960x768 veya 1229x768)
Mooing Duck

Belki de bir oyunun dakikada yüksek işlem gerektirmediği durumlarda hassas bir UI düzeni. Bazı WarCraft ve StarCraft oyuncularının sabit bir düzeni tercih ettiklerini biliyorum, böylece kas hafızasından faydalanabilirler.
Sun

Yanıtlar:


51

Bu, kullanıcının oyunun kalitesini ve performansını seçmesini sağlar. Bazıları düşük çözünürlükte yüksek kaliteli grafik ayarlarını tercih ederken, diğerleri bunun tersini yapar. Bazı bilgisayarlar her şeyde maksimum ayarları yapabilir, bazıları yapamaz.

Homojen donanıma sahip cihazlar (PlayStation, Xbox, iPhone ...) bu nedenle genellikle grafik ayarları sunmaz.


4
Bazı oyunların performansının yüksek oranda ekran çözünürlüğüne bağlı olduğunu belirtmek gerekir. Durumun böyle olup olmadığını görmek için performansınız düşükse oyununuzun resmini düşürmeyi deneyin.
user1306322

1
Ayrıca, azalan çözünürlüğün, yetersiz GPU doldurma oranı ve gölgelendirici veriminin bir sonucu olarak ortaya çıkan performans darboğazlarını gidereceğini de belirtmek gerekir. Gölgelendirici kalitesi her zaman çözünürlüğe bağlı değildir, ancak ortamdaki tıkanma, kenar yumuşatma ve diğer kenar algılama işlemleri için iyi olabilir!
Gusdor

29

Doğru ekran çözünürlüğünü tamamen güvenilir bir şekilde saptamanın bir yolu yoktur.

Bir yaklaşım, kullanıcının masaüstü çözünürlüğünde basitçe bırakmaktır. Masaüstünü daha büyük görünmesini sağlamak için masaüstünü daha düşük çözünürlükte çalıştırmayı tercih eden, ancak yine de küçük metnin ve ayrıntıların daha az ve daha az olduğu yerel çözünürlükteki oyunları tercih eden birkaç kişiyi (bazıları görme engelli) bildiğim için bu can sıkıcı bir durum. kritik.

Başka bir yaklaşım, monitörün desteklenen modlar listesine başvurmaktır. Bu da benzer şekilde güvenilmez: Bazı monitörler mod listesi sağlamıyor veya yanlış veriyor. Bazıları, performans elde ederken çılgınca aşağı örnekleme yapabildikleri doğal olandan daha yüksek çözünürlükler sağlıyor ...

Bir şekilde, sorunuz bir oyunun sağladığı herhangi bir ayar için geçerlidir. "Neden onlar için neyin iyi olduğunu tahmin edebildiğimde kullanıcıya sormalıyım?" Donanımlarını algıladığımda neden kalite ayarları hakkında soruyorum? Oyunun neyle en iyi göründüğünü bilirsem neden FOV hakkında soruyorum? Bilgisayarları kullanabiliyorsa, neden kullanıcıların AA kullanmasına izin vermeliyim? Bu daha genel soru, iki yönlü gerçek cevabı vurgulamaktadır:

Tahminleriniz bazen yanlıştır , çünkü iyi bir tahmin yapmak için her zaman doğru donanım bilgisine sahip olmazsınız. Bir kullanıcının grafik kartı tıkalı ve bilgisayarın belirli bir çözünürlükte çökmesine neden olacak ve devre dışı bırakmalarına izin vermezseniz ne olur? Oyununuz artık onlar için işe yaramaz. Ayrıca, kullanıcılar seçimleri sever . Belki de birisi, "yanlış" olsa bile, yerel olmayan bir özünürlükte bulanık bir görünüme sahip olmayı tercih ediyor. Belki de birçok çözünürlüğü destekleyen bir CRT monitöre sahipler ve optimum olanı en yüksek değil veya daha düşük bir çözünürlükte daha iyi yenileme oranları elde ediyorlar.

Aslında doğru bir yargıç olamaz kullanıcı ne istediğini bilgisayardan bilgilere dayanarak, ne siz doğru yargılayabilir en iyi sonucu vereceğini . En iyisi karar vermesidir (kendi bilgisayarını bilen).

(Not: Sadece PC'yi burada ele aldım. Konsollar farklı bir hikaye, ancak zaten başkaları tarafından ele alındı.)


17
+1; this particularly annoys me in games which do not give me a gamma slider (or at least a brightness setting). It's great that you found a look that you think makes your game look best on your monitors, but your monitor is not my monitor, and I @%&$ing hate dark environments where I can't see. I don't care if the black-on-black is "the point" of your stealth level, I want to see what I'm doing.
Brian S

1
"what if a users graphics card is bugged causing the computer to crash at a certain resolution and you will not let them disable it" ah, the good old days with D2 and the barbarian's battle cry that always crashed my computer :)
person27

You can pretty reliably detect native resolution, the resolution of the desktop is a good indicator. Virtually everyone runs that at native res, and it is at least a good starting point. However that doesn't mean you shouldn't offer the option to change it. For my current project, full screen will only work at native (desktop) resolution, and if people want to lower it for whatever reason, then either go windowed mode, or it would change the back render target size and just let the graphics card stretch it.
Programmdude

2
I had a recent experience beta-testing a game which I will not name as it's still unreleased, which in lieu of proper graphics settings auto-detected the user's screen resolution. It ended up so badly that it rendered the game completely unplayable for a lot of testers, and the workaround that the devs suggested was to change the monitor's screen resolution or refresh rate, and even that didn't work for everyone. Thankfully, this auto-detection is only part of the beta and the final game is presumed to have screen resolution options.
BoltClock

@BoltClock I understand that feeling entirely, my own monitor (A fairly high end Dell ultrasharp) reports a bogus list of modes, if software just looks for the highest one and displays it either I get weird graphics artifacts or it will not display at all.
Vality

7

There are a VAST number of reasons to allow the user to control the settings for their game.

  • MANY people have 2 (or more) monitors these days. The user should be able to determine which one to play the game on.
  • There are thousands of different devices a user could be using, and no way to reliably tell what setting would be optimal for every one.
  • Some users may prefer less than "optimal" settings for reasons ranging from better game performance, to poor eyesight (lower resolution = bigger text!).
  • Some users may prefer to play the game windowed, so they can have their chat boxes, walkthroughs, music player, or other programs visible at the same time as the game.

That said, many games DO auto-detect, and then set the initial settings to whatever it thinks is the best your machine can handle.


1
Excluding windowed mode, are there any games that let you choose which monitor to run on? I've been multi-monitor for a number of years and don't ever recall a full screen game giving the the option to run on something other than my primary display.
Dan Neely

I can't recall specifics, but I've had at least a few games take over my secondary monitor, and I've occasionally had games that changed my monitors settings ... If I've got the resolution on my monitor other than the default ... well there's probably a reason.
aslum

2
I've seen quite a few games with this as an option, usually called 'display adaptor' in the menu. EVE Online is one example.
Ben

5

That's because the cost and effect of texture quality, geometry detail and screen resolution are very hardware-dependent.

The texture quality usually does not have much impact on the speed of the rendering pipeline, but only when they are read from GPU memory. When not all textures fit into the GPU memory, they need to be read from normal RAM or even worse from the hard drive cache, which affects performance negatively. Reducing geometry* and omitting expensive effects** won't help much. But when the execution speed of the rendering pipeline is the bottleneck, reducing texture resolution won't help much either.

Vertex shaders are usually unaffected by the output resolution. The only way to reduce the load on them is to reduce quality and quantity of the 3d models in the scene.

But any pixel shaders still scale linearly with the number of pixels on the screen. Reducing the screen resolution is still an important tool to improve performance. Having half the horizontal- and vertical resolution means you have just a quarter of the calls to the pixel shaders.

In contrary to the older CRT displays, modern LCD or plasma screens have a native pixel-resolution. When they are fed with a video stream in a different resolution, they need to interpolate. Some interpolate much better than others which means that running them on a lower resolution doesn't reduce the picture quality a lot while other monitors really look bad when not run on their native solution (the first LCD screen I owned used nearest-neighbor interpolation, which looked horrible. With my current screens, it's hard to tell when they don't run on the correct resolution).

The game engine can not know how well the monitor of the user interpolates, so it's better to leave the choice to either reduce texture and geometry detail or reduce the screen resolution to the user.

*) OK, reducing geometry might help a bit because vertices also consume GPU memory.

**) unless, of course, omitting these effects means that some textures are no longer required


1
Just to nitpick: CRTs have a "dot pitch" which means that they really DO have a native resolution. The phosphors in a CRT have a decay time which means a CRT has an ideal refresh rate as well.
Zan Lynx

@ZanLynx But as far as I can tell, it was never possible to get logical scanlines to align perfectly with CRTs' physical shadow-mask elements the way one can with an LCD.
Damian Yerrick

2

Not only the predefined resolutions settings make it possible to react with performance in some way, but creating a universal approach, which fits all kinds of resolutions, ratios and dpis is just way much harder to create.

If you create only few different resolutions, then it is user worry to choose best looking for him (especially when his resolution/ratio is unusual). If you make one universal design, you are responsible for making the game looking perfect on all the devices (could be especially hard on mobiles nowadays, espiecialy not on iOS, but on the other platforms with a huge variety of devices).


2

Additional reason: Changing environments.

1080 is now standard, but wasn't 5 years ago. 4k is entering the picture and how long until 6k/8k/1080k (or whatever) enters the picture? What about gaming on an 8 year old computer that tops out at 1280x720? 1024x768? 640x400?

My monitor supports 4k native, but It'd choke on the bandwidth required and max out at 30fps. Let me switch to 1080 (or lower) so that the game runs at 60fps and the text/hud/etc isn't microscopic.

(Additionally: Give me windowed / maximized windowed as well please so I can tab around easily lol)


3
1080k... That's 1 million times the amount of pixels in a 1080p display. That's 2 trillion pixels, would require at least 8TB of VRAM and requires around 4000 terabits/s to drive. I would really like to see such a display, and the amount of power it would consume...
Panda Pajama

0

My guess is that this is one way to provide older machines with a way to improve performance by rendering less graphics and just stretching them across the screen, but surely there are better ways of improving performance (choosing different texture and model qualities, for example).

That's not so simple. A game can run slow on my machine because it's stuck on fragment processing (perhaps lots of particle effects like smoke). Reducing model quality wouldn't take much load from here, and neither would reducing texture quality. On the other hand, decreasing the resolution reduces the load dramatically here (a switch from 1920x1080 to 1366x768 cuts the number of pixels to process by half).

And if my screen happens to be big - like a TV (like my current setup - I pretend my PC is a bigger xbox) - then, in a given viewing distance, bigger resolution doesn't give me much. So I have a good reason to turn the resolution down and perhaps even use the extra processing power to have more detailed lighting or shadows.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.