«data-warehouse» etiketlenmiş sorular

Özellikle toplu olarak raporlama için optimize edilmiş bir veritabanı sistemi. Genellikle, ancak her zaman bir yıldız şeması kullanılarak uygulanmaz.

5
Veri ambarında çoktan çoğa ilişki kurmanın bazı yolları nelerdir?
Veri Ambarı modellemesinin (Star, Snowflake) baskın topolojileri akılda bir-çok ilişkilerle tasarlanmıştır. Sorgu okunabilirliği, performansı ve yapısı, bu modelleme şemalarında çoktan çoğa ilişkiyle karşılaştığında ciddi şekilde düşer. Bir veri ambarındaki boyutlar arasında veya olgu tablosu ile bir boyut deposu arasında bir çoktan çoğa ilişki kurmanın bazı yolları nelerdir ve gerekli ayrıntı …


3
Kümelenmiş sütun deposu dizinleri ve yabancı anahtarlar
Ben bir veri ambarı dizinleri kullanarak performans ayarlama. SQL Server 2014 için oldukça yeniyim.Microsoft aşağıdakileri açıklar: "Kümelenmiş sütun deposu dizinini, büyük veri ambarı olgu tablolarını saklama standardı olarak görüyoruz ve çoğu veri ambarı senaryosunda kullanılmasını bekliyoruz. Kümelenmiş sütun deposu dizini güncellenebilir olduğundan, iş yükünüz çok sayıda ekleme, güncelleme, ve silme …

1
Yavaş Değişen Boyutlar için SQL Server 2016 sistem sürümündeki geçici tabloları kullanarak stratejileri sorgulama
Bir kullanırken sistem sürümü belirlenmiş zamansal tablo (SQL Server 2016 yılında yeni), bu özellik büyük bir ilişkisel veri ambarında Boyutları değiştirme yavaşça işlemek için kullanılan sorgu yazma ve performans etkileri nelerdir? Örneğin, Customerbir Postal Codesütun ile 100.000 satırlık bir boyutum ve yabancı anahtar sütunlu Salesbir milyar dolarlık bir olgu tablosum …


3
Farklılıklar için iki benzer Postgres veritabanını karşılaştırın
Bazen halka açık veri kümelerini Postgres dB'leri biçiminde indiriyorum. Bu veri kümeleri, zaman içinde depo sahibi tarafından güncellenir / değiştirilir / genişletilir. OLD ve YENİ Postgres veritabanı arasındaki farkları gösterebilen bir Postgres komutu veya aracı (ideal olarak FOSS) var mı? (Çalışma varsayımı, girdilerin% 95'inin değişmediği ve tabloların ve ilişkilerin de …

2
Yıldız şeması veri ambarındaki dinamik alanlar için EAV'ye alternatif
API istekleri günlüğünü depolamak için büyük bir veri deposunda dinamik alanları ve değerleri desteklemem gerekiyor, kullanıcı durumum tüm API istekleri sorgu dizesini saklamalı ve gelecekte onlara karşı sorgulama yapabilmem (yani yalnızca depolama, bu yüzden onlar için damla kullanamam) Örneğin http://example.com/?action=test&foo=abc&bar=def... Tüm field => valueeşlemeleri saklamam gerekiyor (action => test), (foo …

2
ETL: 200 tablodan ayıklama - SSIS veri akışı veya özel T-SQL?
Analizime dayanarak, veri ambarımız için eksiksiz bir boyutsal model 200'den fazla kaynak tablodan çıkarılmasını gerektirecektir. Bu tablolardan bazıları artımlı bir yükün parçası olarak çıkarılacak ve diğerleri tam yük olacaktır. Not etmek gerekirse, hepsi aynı şemaya sahip yaklaşık 225 kaynak veritabanına sahibiz. Gördüğüm kadarıyla, OLE DB kaynağı ve OLE DB hedefi …

1
Bir veri ambarı senaryosunda “otomatik güncelleme istatistikleri” ni devre dışı bırakmalı mıyım?
SQL Server'da 200 GB veri ambarım var. Bazı sorgular için gerçekten yavaş yürütme süreleri yaşıyorum; örneğin . deleteile basit bir sorgu için 12 saat inner join. Yürütme planları ile biraz araştırma yaptıktan sonra, WITH FULLSCANseçeneği kullanarak sorguda yer alan 2 tablonun istatistiklerini güncelledim . Sorgu şimdi bir saniyeden daha kısa …

2
Veri martında / depoda saat dilimlerini işleme
Bir veri martının / deposunun yapı taşlarını tasarlamaya başlıyoruz ve tüm zaman dilimlerini destekleyebilmemiz gerekiyor (müşterilerimiz dünyanın her yerinden). Çevrimiçi (ve kitaplarda) tartışma okumaktan, ortak bir çözüm, ayrı bir tarih ve saat boyutunun yanı sıra olgu tablolarında bir zaman damgasına sahip olmak gibi görünüyor. Ancak, yanıtlamakta zorlandığım soru, tarih ve …

2
SQL Server veri sıkıştırması salt okunur veritabanları için kategorik olarak iyi mi?
Okuduğum bazı SQL Server veri sıkıştırma literatüründe, yazma maliyetinin normalde gerekenin yaklaşık dört katına çıktığı belirtiliyor. Ayrıca, bunun veri sıkıştırmanın birincil dezavantajı olduğu ve salt okunur bir arşiv veritabanı için performansın (birkaç istisna hariç)% 100 doldurulmuş sayfaların veri sıkıştırması kullanılarak artırılacağını ima ettiği görülmektedir. Yukarıdaki ifadeler doğru mu? Veri sıkıştırma …

2
Yüksek hacimli işlemler ve Veri ambarı için PostgreSQL
PostgreSQL için oldukça yeniyim, daha önce hiç kullanmadan büyük bir dağıtım yapmadım. Ancak, kurumsal çözümlerde iyi bir deneyime sahibim ve PostgreSQL kullanarak öğrendiklerimin bazılarını uygulamaya çalışıyorum. Çok sayıda veri ve trafiği işleyecek boyutta bir sitem var. Altyapı, EC2 örnekleri ve EBS hacimleri kullanılarak amazon (AWS) kullanılarak oluşturulacaktır. Tasarım, analiz ve …

1
Herhangi bir sorgu için kullanılabilen paralellik derecesini (DOP) sınırlayın
Oracle Exadata'da (11gR2), nispeten kaslı bir veritabanımız var. cpu_count 24 parallel_server_instances 2'dir parallel_threads_per_cpu 2'dir Oracle Enterprise Manager'da (OEM) gözlem yaparak, seri olarak yürütülen sorgular nedeniyle performansın korkunç olduğunu belirledik. Bunu çözmek için tüm tablolar, somutlaştırılmış görünümler ve indeksler paralellikten faydalanmak üzere değiştirildi. Örneğin: ALTER TABLE SOME_TABLE PARALLEL (DEGREE DEFAULT INSTANCES …

2
Birçok zaman dilimindeki verilere karşı raporlama için Veri Ambarı tasarımı
Birçok zaman dilimi için verilere karşı raporlamayı destekleyecek bir veri ambarı tasarımını optimize etmeye çalışıyoruz. Örneğin, bir saatlik etkinlik (milyonlarca satır) için, günün saatine göre gruplandırılmış etkinliği göstermesi gereken bir raporumuz olabilir. Ve elbette günün o saati, verilen zaman dilimi için "yerel" saat olmalıdır. UTC'yi ve bir yerel saati desteklediğimizde …

2
100 TeraBytes Kapasite Veritabanı - Kaynaklar ve Zaman Tahminleri
100 TB raporlama veritabanı kurulumu için 'zarfın arkası' hesaplaması üzerinde çalışıyorum. Buradaki uzmanlardan düşünceler arıyorum. Önerilen ortam: Depolama Kapasitesi ~ 100 TB Tablolar ~ 200, 1 GB ile 5 TB arasında değişen boyutlar. ortalama boyut 100GB-200GB arasında olabilir ETL - işler 10 milyondan 500 bayta kadar birleştirme anahtarları ile 10 …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.