Titizlik anlayışı için lider


41

MathOverflow'ta Timothy Gowers, "Titizliği göstermenin önemli olduğunu gösterme " başlıklı bir soru sordu . Tartışmanın çoğu, CSTheory'deki insanların muhtemelen ikna edilmelerine gerek duymadıkları ispatın önemini gösteren vakalar hakkındaydı. Tecrübelerime göre, teorik bilgisayar bilimlerinde kanıtların sürekli matematiğin birçok bölümünden daha titiz olması gerekir, çünkü sezgilerimiz çoğu zaman ayrı yapılar için yanlış olduğu ve uygulamalar oluşturma dürtüsünün daha ayrıntılı argümanları teşvik ettiği için ortaya çıkar. Bir matematikçi, varoluş kanıtıyla tatmin edici olabilir, ancak teorik bir bilgisayar bilimcisi genellikle yapıcı bir kanıt bulmaya çalışır. Lovász Local Lemma güzel bir örnektir [1].

Bu yüzden bilmek istiyorum

Teorik bilgisayar bilimlerinde, gerçek olduğuna inanılan bir ifadenin kesin bir kanıtının altında yatan sorunun doğasına dair yeni bir kavrayışa yol açtığı belirli örnekler var mı?

Doğrudan algoritmalardan ve karmaşıklık teorisinden olmayan yeni bir örnek, kanıt teorik sentez , ön ve son koşullardan doğru ve verimli algoritmaların otomatik olarak türetilmesidir [2].


Düzenle:Aklıma gelen cevap Scott ve Matus'unki gibi. Kaveh’in önerdiği gibi, bu, insanların ispatlamak istediği (ancak “fizik”, “el yıkama” veya “sezgisel” argümanlar tarafından beklenmeyen bir durum değildi), “temelde problem” in kanıtı ve sonuçları olan üçlü bir şeydir. beklenmeyen kanıtı takip etti (belki de beklenmeyen yeni fikirler gerektirmesi veya doğal olarak bir algoritmaya yol açması ya da alan hakkında düşünme biçimimizi değiştirmesi için bir kanıt oluşturmak). Kanıtlar geliştirilirken geliştirilen teknikler, teorik bilgisayar biliminin yapı taşlarıdır; bu nedenle bu biraz öznel sorunun değerini korumak için Scott tarafından sağlanan kişisel deneyime veya referanslarla desteklenen bir argümana odaklanmaya değer olacaktır. matus'un yaptığı gibi. Üstelik ben ' m bir şeyin kalifiye olup olmadığına dair tartışmalardan kaçınmaya çalışılması; Maalesef, sorunun niteliği özünde problemli olabilir.

Karmaşıklıkta “şaşırtıcı” sonuçlarla ilgili bir sorumuz var: Karmaşıklıkta Şaşırtıcı Sonuçlar (Karmaşıklık Blog Listesinde Değil), bu yüzden ideal olarak kesin bir kanıtlamanın değerine odaklanan cevapları arıyorum , mutlaka atılımın büyüklüğünü değil.


2
Bunu her gün görmüyor / yapmıyor muyuz?
Dave Clarke

Tam olarak "temel problem" ile ne kastedilmektedir? Sadece belirli bir ifadeden daha derin bir problemin olduğu problemleri mi söylemek istiyorsun? Bir algoritmanın varlığının yapıcı kanıtını içeren herhangi bir problemi düşünüyordum (örneğin, PRIMES'in P olduğunu belirleyen AKS ilkellik testi), sıkı bir kanıtla "yeni bir kavrayışa" yol açardı, Bir problemin içindeki daha küçük ifadeler hakkında, mantıklı olmaz.
Philip White,

Sadece sorunuzu anladığımdan emin olmak için, S ifadesinin doğru olduğu bilinen / inanılan üçlü (S ifadesi, kanıt P, içgörü I) mi istiyorsunuz, ancak birileri geldiğinde yeni bir içgörü kazanıyoruz (I) S için yeni kanıt P ile?
Kaveh

[devam] Örneğin, HBÖ davasında, HBÖ (S) için yapıcı olmayan kanıtlarımız vardı , ancak yeni kurucu kanıt arXive (P) bize yeni bir içgörü kazandırdı (I).
Kaveh

Hmm ... Peki ya belirli algoritmalar ile başlayıp sonra bunları genelleştirmek için veri noktaları olarak kullanmak? Mesela insanlar birkaç açgözlü algoritmalar tasarlarlar ve sonunda alan optimal altyapıya sahip bir problem nosyonu geliştirir.
Aaron Sterling,

Yanıtlar:


34

András, muhtemelen bildiğiniz gibi, neden bahsettiğiniz hakkında bir çok örnek var, nereden başlayacağınızı bilmek neredeyse imkansız! Bununla birlikte, eğer insanlar kendi denizaltılarında geniş çapta inanılan bir kanıdının ispatı yeni anlayışlara yol açtığında kendi deneyimlerinden örnekler verirse, bu sorunun gerçekten iyi bir soru olabileceğini düşünüyorum .

Ben bir lisans öğrencisiyken, ele aldığım ilk gerçek TCS problemi şuydu: Bon Boolean değişkenlerinin YA VEYA değerlerini değerlendirmek için en hızlı kuantum algoritması nedir? Bana çok acı vericiydi ve konuştuğum herkes yapabileceğinin en iyisi, Grover'in algoritmasını tekrarlı olarak hem OR hem de AND'lere uygulamak olacağıydı. Bu bir O (logn log (n)) üst sınırı verdi. (Aslında log faktörünü tıraş edebilirsiniz, ancak şimdilik bunu görmezden gelelim.)

Yine de, büyük hayal kırıklığım için önemsiz Ω (n 1/4 ) değerinden daha düşük bir sınır olduğunu kanıtlayamadım . "Fiziğe gitme" ve "cevabı el sıkma" hiç bu kadar çekici görünmedi! :-D

Fakat birkaç ay sonra, Andris Ambainis , asıl uygulaması ilk önce AND ( forn) VEYA'lara bağlı bir alt sınır olan kuantum karşıt yöntemiyle ortaya çıktı . Bu sonucu kanıtlamak için, Andris bir kuantum algoritmasını farklı girdilerin üst üste bindirilmesini beslemeyi hayal etti ; Daha sonra girdiler ve algoritma arasındaki dolaştırmanın algoritmayı yapılan her sorguda nasıl arttığını araştırdı. Bu yaklaşımın, "dağınık", simetrik olmayan problemler için bile kuantum sorgu karmaşıklığını, kuantum algoritmasının hesaplamaya çalıştığı f fonksiyonunun sadece çok genel birleştirme özelliklerini kullanarak nasıl azalttığını gösterdi.

Sinir bozucu bir sorunun kuantum sorgu karmaşıklığının, herkesin beklediği gibi olmadığını onaylamaktan çok uzak, bu tekniklerin, Shor ve Grover'in algoritmalarından bu yana kuantum hesaplama teorisindeki en büyük gelişmelerden birini temsil ettiği ortaya çıktı. O zamandan beri düzinelerce diğer kuantum alt sınırı kanıtlamak için kullanılmışlardı ve hatta yeni klasik alt sınırlar elde etmek için bile geri çevrildiler .

Tabii ki, bu "matematik ve TCS'nin harika dünyasında başka bir gün". Herkes X'in “zaten doğru” olduğunu bilse bile, X'in ispatlanması sık sık X'in ötesinde uygulanacak yeni tekniklerin icat edilmesini ve özellikle de doğru cevabın bir öncül tarafından daha az belirgin olduğu sorunlara ihtiyaç duyar .


27

Paralel tekrarlama bölgemden güzel bir örnek:

Lxq1q2a1a2a1a2q1,q2xLxLs

s1s=1015kq1(1),,q1(k)q2(1),,q2(k)a1(1),,a1(k)a1(1),,a1(k)k

skksΩ(k/log|Σ|)Σ

Σk

Sonra, mümkün olan uzantılar var: Anup Rao, orijinal ispat sistemi bir {\ em projeksiyon oyunu} olduğunda, yani, ilk atasözünün cevabının en fazla kabul edilebilir cevabını belirlediğini göstermek üzere analizi uyarladı. ikinci atasözü, alfabeye hiçbir şekilde bağlı değildir ve üs içindeki sabit geliştirilebilir. Bu önemlidir, çünkü yaklaşık sonuç sonuçlarının sertliği projeksiyon oyunlarına dayanır ve benzersiz oyunlar projeksiyon oyunlarının özel bir halidir. Ayrıca, genişleticilerdeki oyunlarda (Ricky Rosen ve Ran Raz) ve daha pek çok şeyde kantitatif iyileştirmeler var.

O zaman çok geniş kapsamlı sonuçlar var. Sadece birkaç örnek: Raz'ın kâğıtlarından gelen bilgi teorik bir lemi, diğer birçok bağlamda (kriptografide, örnekleme ve arama eşdeğerinde, vb.) Kullanıldı. Holenstein'ın kullandığı “bağıntılı örnekleme” tekniği birçok başka çalışmada (iletişim karmaşıklığında, PCP'de vb.) Uygulandı.


3
Bu güzel bir örnek!
Suresh Venkat

20

Doğru olduğuna inanılan ifadeleri ispatlamak için başka bir iyi titizlik örneği (ve yeni teknikler) gerekli: düzeltilmiş analiz. İki vaka:

  • Simpleks algoritması
  • K-aracı algoritması

kO(nckd)n


13

Bence aşağıdaki örnek, aradığınız türden sonuçları olan, en azından LLL örneğinizin ruhunu takip edersem, çok fazla araştırmaya yol açtığını düşünüyorum.

Robert E. Schapire. Zayıf öğrenilebilirliğin gücü. Makine Öğrenmesi, 5 (2): 197-227, 1990.

ϵ>0,δ>01δϵϵδδδγ

Her neyse, Schapire'nin gazetesinden sonra işler çok ilginç hale geldi. Onun çözümü, asıl sınıftaki hipotezler karşısında çoğunluğun çoğunu üretti. Sonra geldi:

Yoav Freund. Zayıf bir öğrenme algoritmasını çoğunluğa göre arttırmak. Bilgi ve Hesaplama, 121 (2): 256--285, 1995.

Bu yazıda Schapire'ın sonucunun bir "kanıtı" vardı, ancak şimdi inşa edilmiş hipotez sadece tek bir çoğunluğu kullandı. Bu çizgiler boyunca, ikisi daha sonra AdaBoost adı verilen başka bir reproof üretti:

Yoav Freund ve Robert E. Schapire. Çevrimiçi öğrenmenin karar-teorik bir genellemesi ve güçlendirilmesi için bir uygulama. Bilgisayar ve Sistem Bilimleri Dergisi, 55 (1): 119-139, 1997.

Zayıf / güçlü öğrenme sorusu temel olarak teorik bir kaygı olarak başlamıştır, ancak bu 'yeniden yapılanma' dizisi, makine öğrenmesinde en etkili sonuçlardan biri olan güzel bir algoritma ile sonuçlanmıştır. Burada her türlü teğet patlayabilirim ama kendimi kısıtlayacağım. TCS bağlamında, bu sonuçlar (1) çarpımsal ağırlık algoritmaları ve (2) sert çekirdekli küme sonuçları bağlamında çok fazla hayat solur. Yaklaşık (1), AdaBoost'un Warmuth / Littlestone (Freund bir Warmuth öğrencisi) adlı çarpımsal ağırlıkların / winnow eserinin bir örneği olarak görülebileceğini açıklığa kavuşturmak isterim, ancak destekleme alanında birçok yeni fikir var. Sonuçlar. Hakkında (2), ben

Tarihsel doğruluk için, alıntılarımdaki tarihlerin bazılarının bekleyebileceği bir şey olmadığını da söylemeliyim, çünkü bunlardan birkaçı için daha önceki konferans versiyonları vardı.

Sorunuzun niteliğine geri dönün. Buradaki 'titizliğin' kilit değeri, hipotez sınıfının birisinin öğrenmesi (orijinal hipotez sınıfına göre ağırlıklı çoğunluklar) ve bunları bulmak için etkili algoritmalar sağlamasıydı.


12

Bu örnek Dana ve Scott'un cevaplarının çizgileri boyunca.

ndd2n1d2n1/(d1)2n1/(d1)1n1/(d1)d12n1/(d1)2n1/(d1)d2O(n1/(d1))

dAC0


11

Rasborov ve Rudich'in "Doğal Kanıtlar" adlı makalesi , acı veren açık ifadenin ( P "NP olduğunu kanıtlamak gerçekten zor ) kesin bir kanıtıdır .


2
“P ≠ NP” nin “doğal kanıtların muhtemelen P ≠ NP'yi kanıtlamayacağına” eşdeğer olmadığını kanıtlamak gerçekten zor. Relativization ve Algebrization gibi başka engeller de var. Aslında, çok daha fazla sayıda engel olabilir.
Muhammed El-Türkistan

7
Görecelilik sadece "P ≠ NP'yi kanıtlamak zor". Cebirleştirme daha sonra geldi, ancak “ P ≠ NP'yi kanıtlamak gerçekten çok zor ” biçiminde resmileştirildi . (Ha ha sadece ciddi.)
Jeffε

6

Bazı algoritmik problemlerin üssel bir adım atması veya tüm olasılıklar üzerinde kapsamlı bir araştırma gerektirdiği fikri, 50'li yıllardan beri ve belki de daha önce ortaya çıktı. (Tabii ki, bilgisayarların her şeyi yapabildiği rekabet eden saf fikir de yaygındı.) Cook ve Levin’in ana atılımı bu fikri titizlikle ele almaktı. Bu, elbette, her şeyi değiştirdi.

Güncelleme: Türkistan'ın güzel cevabı gibi cevabımın “kavrayışa neden olan titizlik” sorusunun başlığını ele aldığını ancak belki de “bir teorinin kesin kanıtı” olan belirli bir ifadenin olmadığını anladım .


0

Alan Turing, Turing makinelerini kullanarak algoritma kavramını (etkili hesaplanabilirlik) resmileştirdi. Bu yeni biçimciliği, Halting sorununun tespit edilemez olduğunu ispatlamak için kullandı (yani, Halting sorunu herhangi bir algoritmayla çözülemez). Bu Hilbert 10. sorunun imkansızlığını kanıtlayan uzun bir araştırma programına yol açtı. 1970 yılında Matiyasevich, bir tamsayı Diophantine denkleminin bir tamsayı çözümü olup olmadığına karar verebilecek bir algoritma olmadığını kanıtladı.


1
@Kaveh, MRDP Nedir?
Mohammad Al-Turkistany

1
Tekrarlamalı olarak numaralandırılabilir (RE) kümeleri (Halting sorunu gibi) hesaplanamaz. Matiyasevich, özyinelemeli sayılardaki herhangi bir setin Diophantine olduğunu kanıtladı. Bu hemen Hilbert'in 10. sorununun imkansızlığı anlamına geliyor.
Mohammad Al-Turkistany

1
@Kaveh, Neden ilk cevabı "zorlu" testlere tabi tutmadın? Bildiğim kadarıyla, Doğal kanıt, P-NP'yi kanıtlamamızı engelleyen tek engel değil.
Mohammad Al-Turkistany

1
PNPPNP

Bence güzel bir cevap.
Gil Kalai
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.