C # 'da bir dizenin kodlamasını belirleme


127

Bir dizenin C # kodlamasını belirlemenin herhangi bir yolu var mı?

Diyelim ki bir dosya adı dizgim var, ancak Unicode UTF-16'da mı yoksa sistem varsayılan kodlamasında mı kodlandığını bilmiyorum, nasıl öğrenebilirim?


Unicode'da "kodlayamazsınız". Ve hepsini otomatik kodlamasını belirlemek için bir yolu yoktur herhangi başka bir ön bilgi olmaksızın, verilen dize.
Nicolas Dumazet

5
belki daha net olması için: Eğer kodlamak (UTF-bir "kodlama" şeması kullanan bir karakter kümesi bayt dizeleri içine Unicode kod noktaları , izo- ... vb, big5, Shift-JIS) ve deşifre a gelen bayt dizeleri karakter Unicode olarak ayarlandı. Unicode'da bytestrings'i kodlamazsınız. Unicode'u bytestrings'de çözemezsiniz.
Nicolas Dumazet

13
@NicDunZ - kodlamanın kendisi (özellikle UTF-16) genellikle "Unicode" olarak da adlandırılır. Doğru ya da yanlış, hayat budur. NET'te bile, Encoding.Unicode'a bakın - yani UTF-16.
Marc Gravell

2
pekala, .NET'in bu kadar yanıltıcı olduğunu bilmiyordum. Bu öğrenmek için korkunç bir alışkanlık gibi görünüyor. Ve üzgünüm @krebstar, niyetim bu değildi (hala düzenlediğiniz sorunun eskisinden çok daha anlamlı olduğunu düşünüyorum)
Nicolas Dumazet 22.09.09

1
@Nicdumz # 1: Hangi kodlamanın kullanılacağını olasılığa dayalı olarak belirlemenin bir yolu var. Bunun için IE'nin (ve şimdi de Görünüm - Karakter Kodlama - Otomatik Algılama ile FF'nin) ne yaptığına bakın: bir kodlamayı dener ve muhtemelen "iyi yazılmış <buraya bir dil adı koyun>" olup olmadığına bakın veya değiştirin ve tekrar deneyin . Hadi, bu eğlenceli olabilir!
SnippyHolloW

Yanıtlar:


31

Utf8Checker'a bakın, bunu tamamen yönetilen kodda yapan basit bir sınıftır. http://utf8checker.codeplex.com

Dikkat: daha önce belirtildiği gibi "kodlamayı belirle" yalnızca bayt akışları için anlamlıdır. Bir dizeniz varsa, dizeyi ilk etapta almak için kodlamayı zaten bilen veya tahmin eden biri tarafından zaten kodlanmıştır.


Dizesi basitçe 8 bit Kodlama ile yapılan yanlış bir kod çözme ve sen Kodlama bunun kodunu kullanılan varsa, olabilir , genellikle de, herhangi bir yolsuzluk olmadan geri bayt olsun.
Nyerguds

57

Aşağıdaki kod aşağıdaki özelliklere sahiptir:

  1. UTF-7, UTF-8/16 / 32'nin tespiti veya tespiti teşebbüs (bom, bom yok, küçük ve büyük endian)
  2. Unicode kodlama bulunmazsa yerel varsayılan kod sayfasına geri döner.
  3. Malzeme Listesi / imza eksik olan unicode dosyalarını algılar (yüksek olasılıkla)
  4. Kodlamayı belirlemeye yardımcı olmak için dosya içinde karakter kümesi = xyz ve kodlama = xyz arar.
  5. İşlemeyi kaydetmek için dosyanın 'tadına bakabilirsiniz' (tanımlanabilir bayt sayısı).
  6. Kodlanan ve kodu çözülen metin dosyası döndürülür.
  7. Verimlilik için tamamen bayt tabanlı çözüm

Başkalarının da söylediği gibi, hiçbir çözüm mükemmel olamaz (ve dünya çapında kullanımda olan çeşitli 8-bit genişletilmiş ASCII kodlamaları arasında kesinlikle kolayca ayrım yapılamaz), ancak özellikle geliştirici de kullanıcıya sunarsa 'yeterince iyi' elde edebiliriz burada gösterildiği gibi alternatif kodlamaların bir listesi: Her dilin en yaygın kodlaması nedir?

Kodlamaların tam listesi kullanılarak bulunabilir. Encoding.GetEncodings();

// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little
// & big endian), and local default codepage, and potentially other codepages.
// 'taster' = number of bytes to check of the file (to save processing). Higher
// value is slower, but more reliable (especially UTF-8 with special characters
// later on may appear to be ASCII initially). If taster = 0, then taster
// becomes the length of the file (for maximum reliability). 'text' is simply
// the string with the discovered encoding applied to the file.
public Encoding detectTextEncoding(string filename, out String text, int taster = 1000)
{
    byte[] b = File.ReadAllBytes(filename);

    //////////////// First check the low hanging fruit by checking if a
    //////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)
    if (b.Length >= 4 && b[0] == 0x00 && b[1] == 0x00 && b[2] == 0xFE && b[3] == 0xFF) { text = Encoding.GetEncoding("utf-32BE").GetString(b, 4, b.Length - 4); return Encoding.GetEncoding("utf-32BE"); }  // UTF-32, big-endian 
    else if (b.Length >= 4 && b[0] == 0xFF && b[1] == 0xFE && b[2] == 0x00 && b[3] == 0x00) { text = Encoding.UTF32.GetString(b, 4, b.Length - 4); return Encoding.UTF32; }    // UTF-32, little-endian
    else if (b.Length >= 2 && b[0] == 0xFE && b[1] == 0xFF) { text = Encoding.BigEndianUnicode.GetString(b, 2, b.Length - 2); return Encoding.BigEndianUnicode; }     // UTF-16, big-endian
    else if (b.Length >= 2 && b[0] == 0xFF && b[1] == 0xFE) { text = Encoding.Unicode.GetString(b, 2, b.Length - 2); return Encoding.Unicode; }              // UTF-16, little-endian
    else if (b.Length >= 3 && b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF) { text = Encoding.UTF8.GetString(b, 3, b.Length - 3); return Encoding.UTF8; } // UTF-8
    else if (b.Length >= 3 && b[0] == 0x2b && b[1] == 0x2f && b[2] == 0x76) { text = Encoding.UTF7.GetString(b,3,b.Length-3); return Encoding.UTF7; } // UTF-7


    //////////// If the code reaches here, no BOM/signature was found, so now
    //////////// we need to 'taste' the file to see if can manually discover
    //////////// the encoding. A high taster value is desired for UTF-8
    if (taster == 0 || taster > b.Length) taster = b.Length;    // Taster size can't be bigger than the filesize obviously.


    // Some text files are encoded in UTF8, but have no BOM/signature. Hence
    // the below manually checks for a UTF8 pattern. This code is based off
    // the top answer at: /programming/6555015/check-for-invalid-utf8
    // For our purposes, an unnecessarily strict (and terser/slower)
    // implementation is shown at: /programming/1031645/how-to-detect-utf-8-in-plain-c
    // For the below, false positives should be exceedingly rare (and would
    // be either slightly malformed UTF-8 (which would suit our purposes
    // anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).
    int i = 0;
    bool utf8 = false;
    while (i < taster - 4)
    {
        if (b[i] <= 0x7F) { i += 1; continue; }     // If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.
        if (b[i] >= 0xC2 && b[i] <= 0xDF && b[i + 1] >= 0x80 && b[i + 1] < 0xC0) { i += 2; utf8 = true; continue; }
        if (b[i] >= 0xE0 && b[i] <= 0xF0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0) { i += 3; utf8 = true; continue; }
        if (b[i] >= 0xF0 && b[i] <= 0xF4 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0 && b[i + 3] >= 0x80 && b[i + 3] < 0xC0) { i += 4; utf8 = true; continue; }
        utf8 = false; break;
    }
    if (utf8 == true) {
        text = Encoding.UTF8.GetString(b);
        return Encoding.UTF8;
    }


    // The next check is a heuristic attempt to detect UTF-16 without a BOM.
    // We simply look for zeroes in odd or even byte places, and if a certain
    // threshold is reached, the code is 'probably' UF-16.          
    double threshold = 0.1; // proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%
    int count = 0;
    for (int n = 0; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.BigEndianUnicode.GetString(b); return Encoding.BigEndianUnicode; }
    count = 0;
    for (int n = 1; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.Unicode.GetString(b); return Encoding.Unicode; } // (little-endian)


    // Finally, a long shot - let's see if we can find "charset=xyz" or
    // "encoding=xyz" to identify the encoding:
    for (int n = 0; n < taster-9; n++)
    {
        if (
            ((b[n + 0] == 'c' || b[n + 0] == 'C') && (b[n + 1] == 'h' || b[n + 1] == 'H') && (b[n + 2] == 'a' || b[n + 2] == 'A') && (b[n + 3] == 'r' || b[n + 3] == 'R') && (b[n + 4] == 's' || b[n + 4] == 'S') && (b[n + 5] == 'e' || b[n + 5] == 'E') && (b[n + 6] == 't' || b[n + 6] == 'T') && (b[n + 7] == '=')) ||
            ((b[n + 0] == 'e' || b[n + 0] == 'E') && (b[n + 1] == 'n' || b[n + 1] == 'N') && (b[n + 2] == 'c' || b[n + 2] == 'C') && (b[n + 3] == 'o' || b[n + 3] == 'O') && (b[n + 4] == 'd' || b[n + 4] == 'D') && (b[n + 5] == 'i' || b[n + 5] == 'I') && (b[n + 6] == 'n' || b[n + 6] == 'N') && (b[n + 7] == 'g' || b[n + 7] == 'G') && (b[n + 8] == '='))
            )
        {
            if (b[n + 0] == 'c' || b[n + 0] == 'C') n += 8; else n += 9;
            if (b[n] == '"' || b[n] == '\'') n++;
            int oldn = n;
            while (n < taster && (b[n] == '_' || b[n] == '-' || (b[n] >= '0' && b[n] <= '9') || (b[n] >= 'a' && b[n] <= 'z') || (b[n] >= 'A' && b[n] <= 'Z')))
            { n++; }
            byte[] nb = new byte[n-oldn];
            Array.Copy(b, oldn, nb, 0, n-oldn);
            try {
                string internalEnc = Encoding.ASCII.GetString(nb);
                text = Encoding.GetEncoding(internalEnc).GetString(b);
                return Encoding.GetEncoding(internalEnc);
            }
            catch { break; }    // If C# doesn't recognize the name of the encoding, break.
        }
    }


    // If all else fails, the encoding is probably (though certainly not
    // definitely) the user's local codepage! One might present to the user a
    // list of alternative encodings as shown here: /programming/8509339/what-is-the-most-common-encoding-of-each-language
    // A full list can be found using Encoding.GetEncodings();
    text = Encoding.Default.GetString(b);
    return Encoding.Default;
}

Bu Kiril (ve muhtemelen diğer tüm) .eml dosyaları için
işe yarar

UTF-7 aslında bu kadar saf bir şekilde çözülemez; tam başlangıcı daha uzundur ve ilk karakterin iki bitini içerir. .Net sisteminin UTF7'nin başlangıç ​​sistemi için hiçbir desteği yok gibi görünüyor.
Nyerguds

Kontrol ettiğim diğer yöntemlerden hiçbiri işe yaramadığında benim için çalıştı! Teşekkürler Dan.
Tejasvi Hegde

Çözümünüz için teşekkürler. Tamamen farklı kaynaklardan gelen dosyalardaki kodlamayı belirlemek için kullanıyorum. Yine de bulduğum şey, çok düşük bir çeşni değeri kullanırsam, sonucun yanlış olabileceğidir. (örneğin, kod bir UTF8 dosyası için Encoding.Default'u döndürüyordu, tadımcı olarak b.Length / 10 kullanmama rağmen.) Bu yüzden merak ettim, b.Length'den daha küçük bir tadımcı kullanmanın argümanı nedir? Görünüşe göre Encoding.Default'un ancak ve ancak tüm dosyayı taramışsam kabul edilebilir olduğu sonucuna varabilirim.
Sean

@Sean: Hızın doğruluktan daha önemli olduğu durumlar için, özellikle onlarca veya yüzlerce megabayt boyutundaki dosyalar için. Deneyimlerime göre, düşük bir çeşni değeri bile zamanın ~% 99,9'u kadar doğru sonuçlar verebilir. Deneyiminiz farklılık gösterebilir.
Dan W

33

Dizenin nereden geldiğine bağlıdır. Bir .NET dizesi Unicode'dur (UTF-16). Diyelim ki bir veritabanındaki verileri bir bayt dizisine okursanız, bunun farklı olmasının tek yolu.

Bu CodeProject makalesi ilginç olabilir: Gelen ve giden metin için Kodlamayı Algıla

Jon Skeet'in C # ve .NET'teki Dizeleri , .NET dizelerinin mükemmel bir açıklamasıdır.


Unicode olmayan bir C ++ uygulamasından geldi .. CodeProject makalesi biraz fazla karmaşık görünüyor, ancak yapmak istediğimi yapıyor gibi görünüyor .. Teşekkürler ..
krebstar

18

Bunun biraz geç olduğunu biliyorum - ama net olmak gerekirse:

Bir dizge gerçekten kodlamaya sahip değildir ... .NET'te bir dizge bir char nesneleri koleksiyonudur. Esasen, eğer bu bir dizeyse, zaten kodu çözülmüştür.

Bununla birlikte, baytlardan oluşan bir dosyanın içeriğini okuyorsanız ve bunu bir dizeye dönüştürmek istiyorsanız, o zaman dosyanın kodlaması kullanılmalıdır.

.NET, ASCII, UTF7, UTF8, UTF32 ve daha fazlası için kodlama ve kod çözme sınıflarını içerir.

Bu kodlamaların çoğu, hangi kodlama türünün kullanıldığını ayırt etmek için kullanılabilecek belirli bayt sırası işaretleri içerir.

.NET sınıfı System.IO.StreamReader, bu bayt sırası işaretlerini okuyarak bir akış içinde kullanılan kodlamayı belirleyebilir;

İşte bir örnek:

    /// <summary>
    /// return the detected encoding and the contents of the file.
    /// </summary>
    /// <param name="fileName"></param>
    /// <param name="contents"></param>
    /// <returns></returns>
    public static Encoding DetectEncoding(String fileName, out String contents)
    {
        // open the file with the stream-reader:
        using (StreamReader reader = new StreamReader(fileName, true))
        {
            // read the contents of the file into a string
            contents = reader.ReadToEnd();

            // return the encoding.
            return reader.CurrentEncoding;
        }
    }

3
Bu, BOM olmadan UTF 16'yı tespit etmek için çalışmaz. Herhangi bir unicode kodlamayı algılayamazsa, kullanıcının yerel varsayılan kod sayfasına da geri dönmeyecektir. İkincisini Encoding.Defaultbir StreamReader parametresi olarak ekleyerek düzeltebilirsiniz , ancak daha sonra kod, BOM olmadan UTF8'i algılamaz.
Dan W

1
@DanW: BOM'suz UTF-16 gerçekten hiç yapıldı mı? Bunu asla kullanmam; hemen hemen her şeye açılmanın bir felaket olacağı kesindir.
Nyerguds

11

Başka bir seçenek, çok geç geliyor, üzgünüm:

http://www.architectshack.com/TextFileEncodingDetector.ashx

Yalnızca bu küçük C # sınıfı, varsa BOMS kullanır, aksi takdirde olası unicode kodlamalarını otomatik olarak algılamaya çalışır ve Unicode kodlamalarının hiçbiri mümkün veya olası değilse geri döner.

Yukarıda atıfta bulunulan UTF8Checker benzer bir şey yapıyor gibi görünüyor, ancak bunun kapsam olarak biraz daha geniş olduğunu düşünüyorum - yalnızca UTF8 yerine, bir BOM eksik olabilecek diğer olası Unicode kodlamalarını (UTF-16 LE veya BE) de kontrol ediyor.

Umarım bu birine yardımcı olur!


Oldukça güzel kod, kodlama algılama sorunumu çözdü :)
CARLOS LOTH

9

SimpleHelpers.FileEncoding Nuget paketi sarar Mozilla Evrensel Karakter Dedektörü C # portunu ölü basit API içine:

var encoding = FileEncoding.DetectFileEncoding(txtFile);

bu daha yukarıda olmalı, çok basit bir çözüm sağlıyor: bırakın işi başkaları yapsın: D
buddybubble

Bu kütüphane GPL'dir
A br

Bu mu? Bir MIT lisansı görüyorum ve biri MPL olan üç lisanslı bir bileşen (UDE) kullanıyor. UDE'nin tescilli bir ürün için sorunlu olup olmadığını belirlemeye çalışıyorum, bu yüzden daha fazla bilgiye sahipseniz, çok memnun oluruz.
Simon Woods

5

Benim çözümüm, bazı geri dönüşlerle yerleşik maddeler kullanmaktır.

Stratejiyi bir yanıttan stackoverflow'daki benzer başka bir soruya seçtim ama şimdi bulamıyorum.

İlk olarak StreamReader'daki yerleşik mantığı kullanarak BOM'u kontrol eder, BOM varsa, kodlama bundan başka bir şey olacaktır Encoding.Defaultve bu sonuca güvenmeliyiz.

Değilse, bayt dizisinin geçerli UTF-8 dizisi olup olmadığını kontrol eder. eğer öyleyse, kodlama olarak UTF-8'i tahmin edecek ve değilse, yine, varsayılan ASCII kodlaması sonuç olacaktır.

static Encoding getEncoding(string path) {
    var stream = new FileStream(path, FileMode.Open);
    var reader = new StreamReader(stream, Encoding.Default, true);
    reader.Read();

    if (reader.CurrentEncoding != Encoding.Default) {
        reader.Close();
        return reader.CurrentEncoding;
    }

    stream.Position = 0;

    reader = new StreamReader(stream, new UTF8Encoding(false, true));
    try {
        reader.ReadToEnd();
        reader.Close();
        return Encoding.UTF8;
    }
    catch (Exception) {
        reader.Close();
        return Encoding.Default;
    }
}

3

Not: Bu, UTF-8 kodlamasının dahili olarak nasıl çalıştığını görmek için bir deneydi. Vilicvane tarafından sunulan çözümUTF8Encoding , kod çözme başarısızlığına bir istisna atmak için başlatılmış bir nesneyi kullanmak için çok daha basittir ve temelde aynı şeyi yapar.


UTF-8 ve Windows-1252 arasında ayrım yapmak için bu kod parçasını yazdım. Her şeyi belleğe yüklediği ve tamamen taradığı için devasa metin dosyaları için kullanılmamalıdır. Bunu .srt altyazı dosyaları için kullandım, sadece onları yüklendikleri kodlamaya geri kaydedebilmek için.

İşleve ref olarak verilen kodlama, dosyanın geçerli UTF-8 olarak algılanmaması durumunda kullanılacak 8 bitlik geri dönüş kodlaması olmalıdır; genellikle Windows sistemlerinde bu Windows-1252 olacaktır. Bu, gerçek geçerli ascii aralıklarını kontrol etmek gibi bir şey yapmaz ve bayt sırası işaretinde bile UTF-16'yı algılamaz.

Bitsel algılamanın arkasındaki teori burada bulunabilir: https://ianthehenry.com/2015/1/17/decoding-utf-8/

Temel olarak, ilk baytın bit aralığı, ondan kaçının UTF-8 varlığının parçası olduğunu belirler. Ondan sonraki bu baytlar her zaman aynı bit aralığındadır.

/// <summary>
/// Reads a text file, and detects whether its encoding is valid UTF-8 or ascii.
/// If not, decodes the text using the given fallback encoding.
/// Bit-wise mechanism for detecting valid UTF-8 based on
/// https://ianthehenry.com/2015/1/17/decoding-utf-8/
/// </summary>
/// <param name="docBytes">The bytes read from the file.</param>
/// <param name="encoding">The default encoding to use as fallback if the text is detected not to be pure ascii or UTF-8 compliant. This ref parameter is changed to the detected encoding.</param>
/// <returns>The contents of the read file, as String.</returns>
public static String ReadFileAndGetEncoding(Byte[] docBytes, ref Encoding encoding)
{
    if (encoding == null)
        encoding = Encoding.GetEncoding(1252);
    Int32 len = docBytes.Length;
    // byte order mark for utf-8. Easiest way of detecting encoding.
    if (len > 3 && docBytes[0] == 0xEF && docBytes[1] == 0xBB && docBytes[2] == 0xBF)
    {
        encoding = new UTF8Encoding(true);
        // Note that even when initialising an encoding to have
        // a BOM, it does not cut it off the front of the input.
        return encoding.GetString(docBytes, 3, len - 3);
    }
    Boolean isPureAscii = true;
    Boolean isUtf8Valid = true;
    for (Int32 i = 0; i < len; ++i)
    {
        Int32 skip = TestUtf8(docBytes, i);
        if (skip == 0)
            continue;
        if (isPureAscii)
            isPureAscii = false;
        if (skip < 0)
        {
            isUtf8Valid = false;
            // if invalid utf8 is detected, there's no sense in going on.
            break;
        }
        i += skip;
    }
    if (isPureAscii)
        encoding = new ASCIIEncoding(); // pure 7-bit ascii.
    else if (isUtf8Valid)
        encoding = new UTF8Encoding(false);
    // else, retain given encoding. This should be an 8-bit encoding like Windows-1252.
    return encoding.GetString(docBytes);
}

/// <summary>
/// Tests if the bytes following the given offset are UTF-8 valid, and
/// returns the amount of bytes to skip ahead to do the next read if it is.
/// If the text is not UTF-8 valid it returns -1.
/// </summary>
/// <param name="binFile">Byte array to test</param>
/// <param name="offset">Offset in the byte array to test.</param>
/// <returns>The amount of bytes to skip ahead for the next read, or -1 if the byte sequence wasn't valid UTF-8</returns>
public static Int32 TestUtf8(Byte[] binFile, Int32 offset)
{
    // 7 bytes (so 6 added bytes) is the maximum the UTF-8 design could support,
    // but in reality it only goes up to 3, meaning the full amount is 4.
    const Int32 maxUtf8Length = 4;
    Byte current = binFile[offset];
    if ((current & 0x80) == 0)
        return 0; // valid 7-bit ascii. Added length is 0 bytes.
    Int32 len = binFile.Length;
    for (Int32 addedlength = 1; addedlength < maxUtf8Length; ++addedlength)
    {
        Int32 fullmask = 0x80;
        Int32 testmask = 0;
        // This code adds shifted bits to get the desired full mask.
        // If the full mask is [111]0 0000, then test mask will be [110]0 0000. Since this is
        // effectively always the previous step in the iteration I just store it each time.
        for (Int32 i = 0; i <= addedlength; ++i)
        {
            testmask = fullmask;
            fullmask += (0x80 >> (i+1));
        }
        // figure out bit masks from level
        if ((current & fullmask) == testmask)
        {
            if (offset + addedlength >= len)
                return -1;
            // Lookahead. Pattern of any following bytes is always 10xxxxxx
            for (Int32 i = 1; i <= addedlength; ++i)
            {
                if ((binFile[offset + i] & 0xC0) != 0x80)
                    return -1;
            }
            return addedlength;
        }
    }
    // Value is greater than the maximum allowed for utf8. Deemed invalid.
    return -1;
}

Ayrıca elsesonrasında son bir ifade yoktur if ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... }. Ben varsayalım elsedurumda geçersiz utf8 olacaktır: isUtf8Valid = false;. Yapar mısın?
Hal

@hal Ah, doğru ... O zamandan beri kendi kodumu 3'e kadar çıkan bir döngü kullanan, ancak teknik olarak daha fazla döngü yapmak için değiştirilebilen daha genel (ve daha gelişmiş) bir sistemle güncelledim (teknik özellikler bu konuda biraz belirsiz ; UTF-8'i 6 bayta kadar genişletmek mümkün sanırım, ancak mevcut uygulamalarda sadece 3 kullanılıyor) bu yüzden bu kodu güncellemedim.
Nyerguds

@hal Yeni çözümüme güncelledi. İlke aynı kalır, ancak bit maskeleri, tümü açıkça kodda yazılmak yerine bir döngüde oluşturulur ve kontrol edilir.
Nyerguds

1

GitHub'da yeni kitaplık buldum: CharsetDetector / UTF-bilinmiyor

C #'da karakter kümesi algılayıcı derlemesi - .NET Core 2-3, .NET standardı 1-2 ve .NET 4+

aynı zamanda diğer depolara dayanan Mozilla Universal Charset Detector'ın bir portu .

CharsetDetector / UTF-unknown adlı bir sınıf var CharsetDetector.

CharsetDetector bazı statik kodlama algılama yöntemlerini içerir:

  • CharsetDetector.DetectFromFile()
  • CharsetDetector.DetectFromStream()
  • CharsetDetector.DetectFromBytes()

sınıf tespit sonucudur DetectionResultözelliği vardır Detectedsınıfın örneğidir DetectionDetailnitelikler aşağıda ile:

  • EncodingName
  • Encoding
  • Confidence

aşağıda kullanımı göstermek için bir örnek verilmiştir:

// Program.cs
using System;
using System.Text;
using UtfUnknown;

namespace ConsoleExample
{
    public class Program
    {
        public static void Main(string[] args)
        {
            string filename = @"E:\new-file.txt";
            DetectDemo(filename);
        }

        /// <summary>
        /// Command line example: detect the encoding of the given file.
        /// </summary>
        /// <param name="filename">a filename</param>
        public static void DetectDemo(string filename)
        {
            // Detect from File
            DetectionResult result = CharsetDetector.DetectFromFile(filename);
            // Get the best Detection
            DetectionDetail resultDetected = result.Detected;

            // detected result may be null.
            if (resultDetected != null)
            {
                // Get the alias of the found encoding
                string encodingName = resultDetected.EncodingName;
                // Get the System.Text.Encoding of the found encoding (can be null if not available)
                Encoding encoding = resultDetected.Encoding;
                // Get the confidence of the found encoding (between 0 and 1)
                float confidence = resultDetected.Confidence;

                if (encoding != null)
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"EncodingWebName: {encoding.WebName}{Environment.NewLine}Confidence: {confidence}");
                }
                else
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"(Encoding is null){Environment.NewLine}EncodingName: {encodingName}{Environment.NewLine}Confidence: {confidence}");
                }
            }
            else
            {
                Console.WriteLine($"Detection failed: {filename}");
            }
        }
    }
}

örnek sonuç ekran görüntüsü: görüntü açıklamasını buraya girin

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.