Birçok problem için, en iyi asimtotik karmaşıklığa sahip algoritmanın, büyük O gösterimi ile gizlenen çok büyük bir sabit faktörü vardır. Bu, matris çarpımı, tamsayı çarpımı (özellikle, Harvey ve van der Hoeven'in son O (n log n) tamsayısı çarpma algoritması, düşük derinlikli sıralama ağları ve grafik küçükleri bulma, birkaç yapmak için oluşur. Bu tür algoritmalara bazen Galaktik algoritmalar denir.
Genel sıralama ve tamsayı ekleme gibi diğer algoritmalar için algoritmaların en uygun asimptotik karmaşıklık ve küçük sabit faktörlerle bilindiğini unutmayın.
Eski algoritmaları ikinci algoritmalardan teorik bir perspektiften ayırmak için hangi araştırmalar yapılmıştır?
Gizli sabitlerin genellikle farklı hesaplama modelleri arasındaki ayrımı gizlememesinin farkındayım. Bununla birlikte, çok çeşitli farklı modeller altında, bu Galaktik algoritmaların, örneğin bir milyar büyüklüğündeki girdiler için asimptotik olarak daha kötü algoritmalardan daha yavaş olacağından eminim. Bazı durumlarda ayrım ince değildir. Titiz mi yapıldı?
Örneğin, çok basit bir ISA'ya sahip bir von Neumann makinesi gibi çok basit bir hesaplama modeli icat edebilir ve daha sonra algoritmaları uygulayabilir ve çalışma sürelerini açık sabitlerle bağlayabilir. Bu çeşitli algoritmalar için yapıldı mı?