Hem PyTorch hem Tensorflow Fold , girdi verilerinin tek tip uzunluk veya boyutlara sahip olmadığı durumlarla (yani dinamik grafiklerin yararlı veya gerekli olduğu durumlar) başa çıkacak derin öğrenme çerçeveleridir.
Nasıl dayandıklarını, dayandıkları paradigmalar (örneğin, dinamik gruplama) ve bunların anlamları, her birinde uygulanamayan / uygulanamayan şeyler, zayıflıklar / güçler vb.
Dinamik hesaplama grafiklerini keşfetmeye başlamak için bunlardan birini seçmek için bu bilgiyi kullanmayı amaçlıyorum, ancak aklımda belirli bir görev yok.
Not 1: DyNet veya Chainer gibi diğer dinamik hesaplama grafik çerçeveleri de karşılaştırmaya açıktır, ancak PyTorch ve Tensorflow Fold'a odaklanmak istiyorum, çünkü en çok kullanılanları olduklarını düşünüyorum.
Not 2: Bu hackernews iş parçacığını PyTorch'ta bazı seyrek bilgilerle buldum ama çok fazla değil.
Not 3: Nasıl karşılaştırıldıkları hakkında bazı bilgiler içeren Tensorflow Fold ile ilgili başka bir hackernews dizisi .
Not 4: İlgili Reddit ipliği .
Not 5: Tensorflow Fold'un github'unda önemli bir sınırlama belirleyen ilgili hata : değerlendirme sırasında koşullu dallanma yapmanın imkansızlığı.
Not 6: Pytorch forumunda kullanılan algoritmalara göre değişken uzunluktaki girişler hakkında tartışma (örn. Dinamik gruplama).