Birçok öğrenme algoritması ya özellik başına tek bir ağırlık öğrenir ya da örnekler arasındaki mesafeleri kullanır. İlki, açıklanması kolay olan lojistik regresyon gibi doğrusal modeller için geçerlidir.
"İngiltere", "Fransız" ve "ABD" değerlerine sahip, yalnızca tek bir kategorik özellik olan "milliyet" içeren bir veri kümeniz olduğunu varsayalım. Genelliği kaybetmeden, bunların 0, 1 ve 2 olarak kodlandığını varsayın. Daha sonra, bu özellik için doğrusal bir sınıflandırıcıda w × x + b> 0 kısıtlamasına dayalı bir tür karar verecek olan bir w ağırlığınız olduğunu varsayın. veya eşdeğer olarak w × x <b.
Şimdi sorun, w ağırlığının üç yollu bir seçimi kodlayamamasıdır. W × x'in üç olası değeri 0, w ve 2 × w'dir. Ya bu üçü aynı karara götürür (hepsi <b veya ≥b) ya da "İngiltere" ve "Fransız" aynı karara götürür veya "Fransız" ve "ABD" aynı kararı verir. Modelin, "İngiltere" ve "ABD" nin aynı etiket olması gerektiğini, "Fransız" ın tuhaf olduğunu öğrenmesine imkan yok.
Tek sıcak kodlama ile, özellik alanını etkili bir şekilde üç özelliğe genişletmiş olursunuz, bu özelliklerin her biri kendi ağırlıklarını alır, böylece karar işlevi artık w [UK] x [UK] + w [FR] x [FR] + w [US] x [US] <b, burada tüm x'ler boole'lerdir. Bu alanda, böyle bir doğrusal fonksiyon olasılıkların herhangi bir toplamını / ayrışmasını ifade edebilir (örneğin, İngilizce konuşan biri için bir öngörü olabilecek "İngiltere veya ABD").
Benzer şekilde, numuneler arasındaki standart mesafe ölçütlerine (k-en yakın komşular gibi) dayalı herhangi bir öğrencinin tek sıcak kodlama olmadan kafası karışacaktır. Naif kodlama ve Öklid mesafesi ile Fransız ve ABD arasındaki mesafe 1'dir. ABD ile İngiltere arasındaki mesafe 2'dir. Ancak tek sıcak kodlamada [1, 0, 0], [0, 1 arasındaki ikili mesafeler , 0] ve [0, 0, 1] 'in tümü √2'ye eşittir.
Bu, tüm öğrenme algoritmaları için geçerli değildir; Karar ağaçları ve rastgele ormanlar gibi türetilmiş modeller, yeterince derinse, kategorik değişkenleri tek sıcak kodlama olmadan işleyebilir.