]> granicus.if.org Git - python/commitdiff
Issue #25977: Fix typos in Lib/tokenize.py
authorBerker Peksag <berker.peksag@gmail.com>
Tue, 29 Dec 2015 23:41:58 +0000 (01:41 +0200)
committerBerker Peksag <berker.peksag@gmail.com>
Tue, 29 Dec 2015 23:41:58 +0000 (01:41 +0200)
Patch by John Walker.

Lib/tokenize.py

index 65d06e53f3bdc370b22234aea5a72532035ba124..9fd676c5b24b36ff8eadbfdc1b6e4c296af86940 100644 (file)
@@ -328,8 +328,8 @@ def untokenize(iterable):
     Round-trip invariant for full input:
         Untokenized source will match input source exactly
 
-    Round-trip invariant for limited intput:
-        # Output bytes will tokenize the back to the input
+    Round-trip invariant for limited input:
+        # Output bytes will tokenize back to the input
         t1 = [tok[:2] for tok in tokenize(f.readline)]
         newcode = untokenize(t1)
         readline = BytesIO(newcode).readline
@@ -465,10 +465,10 @@ def open(filename):
 
 def tokenize(readline):
     """
-    The tokenize() generator requires one argment, readline, which
+    The tokenize() generator requires one argument, readline, which
     must be a callable object which provides the same interface as the
     readline() method of built-in file objects.  Each call to the function
-    should return one line of input as bytes.  Alternately, readline
+    should return one line of input as bytes.  Alternatively, readline
     can be a callable function terminating with StopIteration:
         readline = open(myfile, 'rb').__next__  # Example of alternate readline