Merge: lib/github: implements caching to maximize rate limit.
[nit.git] / src / parser / lexer_work.nit
index 2d93018..b933208 100644 (file)
@@ -80,8 +80,9 @@ end
 # It is better user with the Parser
 class Lexer
        super TablesCapable
+
        # Last peeked token
-       var token: nullable Token
+       var token: nullable Token = null
 
        # Lexer current state
        private var state: Int = 0
@@ -98,18 +99,12 @@ class Lexer
        # Current column in the input stream
        var pos: Int = 0
 
-       # Was the last character a cariage-return?
+       # Was the last character a carriage-return?
        var cr: Bool = false
 
        # Constante state values
        private fun state_initial: Int do return 0 end
 
-       # Create a new lexer for a stream (and a name)
-       init(file: SourceFile)
-       do
-               self.file = file
-       end
-
        # The last peeked token to chain them
        private var last_token: nullable Token = null