]> granicus.if.org Git - python/commitdiff
Issue #26127: Fix links in tokenize documentation
authorMartin Panter <vadmium+py@gmail.com>
Sat, 16 Jan 2016 04:32:52 +0000 (04:32 +0000)
committerMartin Panter <vadmium+py@gmail.com>
Sat, 16 Jan 2016 04:32:52 +0000 (04:32 +0000)
Doc/library/tokenize.rst

index 3f25a2cbc0c5c73388a82df9d2ef1e7d4f020c5f..f4e47834baa2e33c1cea37f402a59f5d233be1e8 100644 (file)
@@ -28,7 +28,7 @@ The primary entry point is a :term:`generator`:
 
    The :func:`generate_tokens` generator requires one argument, *readline*,
    which must be a callable object which provides the same interface as the
-   :meth:`readline` method of built-in file objects (see section
+   :meth:`~file.readline` method of built-in file objects (see section
    :ref:`bltin-file-objects`).  Each call to the function should return one line
    of input as a string. Alternately, *readline* may be a callable object that
    signals completion by raising :exc:`StopIteration`.
@@ -47,11 +47,11 @@ An older entry point is retained for backward compatibility:
 
 .. function:: tokenize(readline[, tokeneater])
 
-   The :func:`tokenize` function accepts two parameters: one representing the input
-   stream, and one providing an output mechanism for :func:`tokenize`.
+   The :func:`.tokenize` function accepts two parameters: one representing the input
+   stream, and one providing an output mechanism for :func:`.tokenize`.
 
    The first parameter, *readline*, must be a callable object which provides the
-   same interface as the :meth:`readline` method of built-in file objects (see
+   same interface as the :meth:`~file.readline` method of built-in file objects (see
    section :ref:`bltin-file-objects`).  Each call to the function should return one
    line of input as a string. Alternately, *readline* may be a callable object that
    signals completion by raising :exc:`StopIteration`.
@@ -65,7 +65,7 @@ An older entry point is retained for backward compatibility:
 
 All constants from the :mod:`token` module are also exported from
 :mod:`tokenize`, as are two additional token type values that might be passed to
-the *tokeneater* function by :func:`tokenize`:
+the *tokeneater* function by :func:`.tokenize`:
 
 
 .. data:: COMMENT