Aşağıda, sonsuz bantlı bir Turing makinesi ile çalıştığımızı varsayalım.
Birine zaman karmaşıklığı kavramını ve bir örneğin giriş boyutuna göre neden ölçüldüğünü açıklarken, aşağıdaki iddiada karşılaştım:
[..] Örneğin, iki tamsayıyı 100000 bit ile çarpmak için, örneğin iki tamsayıyı 3 bit ile çarpmaktan daha fazla adıma ihtiyacınız olması doğaldır.
İddia ikna edici, ancak bir şekilde el sallıyor. Karşılaştığım tüm algoritmalarda, giriş boyutu büyüdükçe daha fazla adım gerekir. Daha kesin bir ifadeyle, zaman karmaşıklığı girdi boyutunun monoton olarak artan bir fonksiyonudur .
Zaman karmaşıklığının girdi boyutunda her zaman artan bir işlev olduğu bir durum mu? Öyleyse, neden böyle? El sallamanın ötesinde bir kanıt var mı ?