Apache Kafka'yı, yüksek hacimli verileri işleyebilen ve mesajları bir uç noktadan diğerine geçirmenizi sağlayan, dağıtılmış ve sağlam bir kuyruk olarak kullanırsınız.
Fırtına bir kuyruk değil. Gerçek zamanlı işleme yeteneklerini dağıtan bir sistemdir, yani gerçek zamanlı veriler üzerinde her türlü manipülasyonu paralel olarak yürütebilirsiniz.
Bu araçların ortak akışı (bildiğim kadarıyla) aşağıdaki gibidir:
gerçek zamanlı sistem -> Kafka -> Storm -> NoSql -> BI (isteğe bağlı)
Böylece yüksek hacimli verileri işleyen gerçek zamanlı uygulamanız, bunları Kafka kuyruğuna gönderir. Storm, verileri kafka'dan alır ve gerekli bazı işlemleri uygular. Bu noktada, genellikle bu verilerden bazı faydalar elde etmeyi seversiniz, bu nedenle onu ek BI hesaplamaları için bazı Nosql db'ye gönderirsiniz veya bu NoSql'yi başka herhangi bir sistemden kolayca sorgulayabilirsiniz.