Veri analizi amacıyla, bunları etkili bir şekilde diziler, muhtemelen çok boyutlu olarak düşünebilirsiniz. Böylece skaler, vektörler, matrisler ve tüm yüksek dereceli dizileri içerirler.
Kesin matematiksel tanım daha karmaşıktır. Temel olarak, tensörlerin çok hatlı fonksiyonları doğrusal fonksiyonlara dönüştürmesi düşünülmektedir. Bkz. (1) veya (2) . (Çok satırlı işlevler, bileşenlerinin her birinde doğrusal olan işlevlerdir, bir örnek, sütun vektörlerinin bir işlevi olarak kabul edilen belirleyicidir.)
Tensörleri tanımlayan bu matematiksel özelliğin bir sonucu, tensörlerin bir koordinat sisteminden diğerine dönüşümleri kodlayan Jacobian'lara göre hoş bir şekilde dönüşmesidir. Bu yüzden tensörün tanımını fizikte "koordinatların değişmesi altında belirli bir şekilde dönüşen bir nesne" olarak görür. Bkz Bu videoyu örneğin, ya bu bir .
Yeterince "güzel" nesnelerle uğraşıyorsak (var olmak istediğimiz ve iyi tanımladığımız türevlerin hepsi), o zaman tensörler hakkında tüm bu düşünce biçimleri aslında eşdeğerdir. Bahsettiğim tensörleri (çok boyutlu diziler) düşünmenin ilk yolunun kovaryant ve kontravaryant tensörler arasındaki farkı göz ardı ettiğini unutmayın. (Ayırım, katsayılarının altta yatan vektör uzayının temelinde, yani satır ve sütun vektörleri arasında, esasen satır ve sütun vektörleri arasında nasıl değiştiği ile ilgilidir.) Bu diğer StackExchange sorularına bakın: (1) (2) (3) (4)
Sinir ağlarına tensör uygulamalarını inceleyen araştırmacılar tarafından kullanılan bir kitap için (örneğin İsrail'deki Technion'da) Wolfgang Hackbusch'un Tensör Uzayları ve Sayısal Hesaplama vardır . Daha sonraki bölümlerin bazıları ileri matematik kullanıyor gibi görünse de henüz okumadım.