Ben bir "tokenizer", "ayrıştırıcı" ve "lexer" ne olduğunu ve birbirleri ile nasıl açık bir tanımını arıyorum (örneğin, bir ayrıştırıcı bir tokenizer kullanır veya tam tersi)? Veri beyanı ve tanımları ayıklamak için c / h kaynak dosyaları üzerinden gidecek bir program oluşturmak gerekir.
Örnekler arıyordum ve bazı bilgiler bulabilirim, ancak gramer kuralları, ayrıştırma ağaçları ve soyut sözdizimi ağacı gibi temel kavramları ve birbirleriyle nasıl ilişki kurduklarını gerçekten kavramak için uğraşıyorum. Sonunda bu kavramların gerçek bir programda saklanması gerekir, ancak 1) neye benziyorlar, 2) ortak uygulamalar var.
Lex ve Yacc gibi bu konular ve programlar hakkında Wikipedia'ya bakıyordum, ancak hiçbir zaman bir derleyici sınıfından (EE major) geçmedim, neler olduğunu tam olarak anlamakta zorlanıyorum.