«lg.learning» etiketlenmiş sorular

Makine öğrenme ve öğrenme teorisi: PAC öğrenme, algoritmik öğrenme teorisi ve Bayesci çıkarım ve grafik modellerin hesaplamalı yönleri.

1
Artık sonlu durum otomatlarını en aza indirme
Artık sonlu durum otomatları ([DLT02] 'de tanımlanan RFSA'lar), DFA'larla ortak bazı hoş özelliklere sahip NFA'lardır. Özellikle, her normal dil için her zaman standart bir minimum boyutlu RFSA vardır ve RFSA'daki her durum tarafından tanınan dil, tıpkı bir DFA'da olduğu gibi artıktır. Bununla birlikte, asgari DFA devletleri tüm artıklarla bir bijeksiyon …



5
boyutsuz veriler için kümeleme algoritması
Binlerce noktadan oluşan bir veri kümesine ve iki nokta arasındaki mesafeyi ölçmenin bir aracına sahibim, ancak veri noktalarının boyutu yok. Bu veri kümesinde küme merkezleri bulmak için bir algoritma istiyorum. verinin boyutları olmadığı için, bir küme merkezinin birkaç veri noktasından ve bir toleranstan oluşabileceğini ve kümedeki üyeliğin, bir veri noktasının …

2
SQ-öğrenmenin hesaplamalı sorgu karmaşıklığı
PAC öğrenimi için, hesaplamaya bağlı olmayan bir öğrenicinin bilgi teorik öğrenmesi için gereken örnek karmaşıklığı ile bir polinomun ihtiyaç duyduğu örnek karmaşıklığı arasında polinom boşlukları bulunan doğal konsept sınıflarının (örneğin karar listelerinin alt kümeleri) olduğu bilinmektedir. zaman öğrenen. (bkz. örneğin http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE veya http://portal.acm.org/citation.cfm?id=301437 ) Bununla birlikte, bu sonuçlar belirli örneklerde …

1
verildiğinde
İşte cuntaları öğrenmeye benzer bir lezzet ile ilgili bir sorun: Girdi: Bir üyelik kâhin, yani verilen bir kâhin , döndüren bir işlevidir .f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}xxxf(x)f(x)f(x) Hedef: Bir subcube bulun ait hacmi ile öyle ki . Böyle bir alt küpün var olduğunu varsayıyoruz.SSS{0,1}n{0,1}n\{0,1\}^n|S|=2n−k|S|=2n−k|S|=2^{n-k}|Ex∈Sf(x)|≥0.1|Ex∈Sf(x)|≥0.1\left|\mathbb{E}_{x \in S} f(x) \right| \ge 0.1 zamanında …

1
Gürültülü Eşlik (LWE) alt sınırları / sertlik sonuçları
Bazı bilgiler: Hatalarla Öğrenme (LWE) sorunu için "daha az bilinen" düşük sınırlar (veya sertlik sonuçları) ve halkalar üzerinde Hatalarla Öğrenme gibi genellemeleri bulmakla ilgileniyorum. Spesifik tanımlar, vb. İçin, Regev'in güzel bir araştırması: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf (R) LWE tarzı varsayımın standart tipi (belki de kuantum) (belki de ideal) kafeslerdeki En Kısa Vektör Problemine …

1
Üyelik sorgusunda ve karşı örnek modelinde öğrenme için daha düşük sınırlar
Dana Angluin ( 1987 ; pdf ) üyelik sorguları ve teori sorguları (önerilen işleve karşı örnekler) içeren bir öğrenme modeli tanımlar. En az devlet DFA'sı ile temsil edilen normal bir dilin, üyelik sorguları ve en fazla teori sorgusu ( ) ile polinom zamanında (önerilen işlevlerin DFA'lar olduğu) öğrenilebilir olduğunu gösterir …

2
Gürültülü PAC'de Parite dışında fakat SQ'da olmayan hipotez sınıfları var mı?
Angluin ve Laird ('88) "rasgele sınıflandırma gürültülü PAC" (veya gürültülü PAC) modelinde rasgele bozulmuş verilerle öğrenmeyi resmileştirdi . Bu model, benzer öğrenme PAC olasılığı ile, bağımsız bir şekilde, rastgele, bozuk (ters çevrilmiş) vardır öğrenen verilen örneklerin etiket dışında .η&lt;1/2η&lt;1/2\eta < 1/2 Gürültülü PAC modelinde öğrenilebilir olanı karakterize etmeye yardımcı olmak …

2
Ayrılabilir veriler için K-araçları dışındaki kümeleme formalizasyonları
Gerçek dünya verileri bazen doğal sayıda kümeye sahiptir (bazı sihirli k'lardan daha az bir kümeye kümelemeye çalışmak, kümelenme maliyetinde önemli bir artışa neden olur). Bugün Dr. Adam Meyerson'ın verdiği bir konferansa katıldım ve bu tür verileri "ayrılabilir veri" olarak adlandırdı. K-araçları dışında, verilerdeki doğal ayrılabilirliği kullanacak olan kümeleme algoritmalarına (yaklaşımlar …

3
“Taciturn” kehanetleriyle öğrenme
Sorum biraz genel, bu yüzden bunu haklı çıkarmak için güzel bir hikaye hazırlıyorum. Gerçekçi değilse benimle ayı ;-) Hikaye Büyük bir şirketteki bilgisayar güvenliği departmanı başkanı Bay X biraz paranoyandı: kimlik veya bilgi hırsızlığı riskini en aza indirmek için tüm çalışanların ayda bir kez şifrelerini değiştirmelerini istiyor. Dahası, çalışanların güvenli …



1
Eşlik öğrenme sorusu
Bir bit kümesi üzerinden bir işlev sınıfı tanımlayalım . Birbirinden "makul" farklı iki p , q dağılımını düzeltin (isterseniz, varyasyon mesafesi en az ϵ veya benzer bir şeydir).nnnp , qp,qp, qεϵ\epsilon Şimdi bu sınıftaki her fonksiyonu bir k indeksi S koleksiyonu ile tanımlanır ve aşağıdaki gibi değerlendirilir: Seçilen bitlerin paritesi …

2
Hesaplamalı Öğrenme Teorisine giriş kaynakları
Son zamanlarda iyi sayıda CoLT makalesi okuyorum. Her ne kadar münferit belgelerle mücadele etmememe rağmen (en azından diğer teori kağıtları ile mücadele ettiğimden daha fazla değil), bir bütün olarak alanı iyi bir şekilde kavradığımı düşünmüyorum. Lisansüstü düzeyde CoLT tanıtımı için standart bir metin, anket veya ders notu var mı? Temel …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.