]> granicus.if.org Git - python/commitdiff
Use string methods where possible, and remove import string
authorNeal Norwitz <nnorwitz@gmail.com>
Fri, 31 May 2002 14:13:04 +0000 (14:13 +0000)
committerNeal Norwitz <nnorwitz@gmail.com>
Fri, 31 May 2002 14:13:04 +0000 (14:13 +0000)
Lib/ftplib.py
Lib/markupbase.py
Lib/tabnanny.py

index 2ccfbcbffc79ed60202ed9ca9b10152917f25a01..21b9e5295c20ad2cd2ccfb744029f2ba26e2e0da 100644 (file)
@@ -36,7 +36,6 @@ python ftplib.py -d localhost -l -p -l
 
 import os
 import sys
-import string
 
 # Import SOCKS module if it exists, else standard socket module socket
 try:
@@ -266,7 +265,7 @@ class FTP:
         if af == 0:
             raise error_proto, 'unsupported address family'
         fields = ['', `af`, host, `port`, '']
-        cmd = 'EPRT ' + string.joinfields(fields, '|')
+        cmd = 'EPRT ' + '|'.join(fields)
         return self.voidcmd(cmd)
 
     def makeport(self):
@@ -585,18 +584,18 @@ def parse229(resp, peer):
 
     if resp[:3] <> '229':
         raise error_reply, resp
-    left = string.find(resp, '(')
+    left = resp.find('(')
     if left < 0: raise error_proto, resp
-    right = string.find(resp, ')', left + 1)
+    right = resp.find(')', left + 1)
     if right < 0:
         raise error_proto, resp # should contain '(|||port|)'
     if resp[left + 1] <> resp[right - 1]:
         raise error_proto, resp
-    parts = string.split(resp[left + 1:right], resp[left+1])
+    parts = resp[left+1].split(resp[left + 1:right])
     if len(parts) <> 5:
         raise error_proto, resp
     host = peer[0]
-    port = string.atoi(parts[3])
+    port = int(parts[3])
     return host, port
 
 
index 57d3ae4b3ce110276a8bd2153f7be04be3a34f84..ae1986958e255182672bda1134533e4a49ec808d 100644 (file)
@@ -38,10 +38,10 @@ class ParserBase:
         if i >= j:
             return j
         rawdata = self.rawdata
-        nlines = string.count(rawdata, "\n", i, j)
+        nlines = rawdata.count("\n", i, j)
         if nlines:
             self.lineno = self.lineno + nlines
-            pos = string.rindex(rawdata, "\n", i, j) # Should not fail
+            pos = rawdata.rindex("\n", i, j) # Should not fail
             self.offset = j-(pos+1)
         else:
             self.offset = self.offset + j-i
@@ -176,7 +176,7 @@ class ParserBase:
         # style content model; just skip until '>'
         rawdata = self.rawdata
         if '>' in rawdata[j:]:
-            return string.find(rawdata, ">", j) + 1
+            return rawdata.find(">", j) + 1
         return -1
 
     # Internal -- scan past <!ATTLIST declarations
@@ -200,7 +200,7 @@ class ParserBase:
             if c == "(":
                 # an enumerated type; look for ')'
                 if ")" in rawdata[j:]:
-                    j = string.find(rawdata, ")", j) + 1
+                    j = rawdata.find(")", j) + 1
                 else:
                     return -1
                 while rawdata[j:j+1] in string.whitespace:
@@ -307,7 +307,7 @@ class ParserBase:
             name = s.strip()
             if (i + len(s)) == n:
                 return None, -1  # end of buffer
-            return string.lower(name), m.end()
+            return name.lower(), m.end()
         else:
             self.updatepos(declstartpos, i)
             self.error("expected name token")
index c9a1ccda49539c84a6affa28be958037ae0844e9..251df27567885476375e2912381dbf5740ff7192 100755 (executable)
@@ -261,12 +261,11 @@ class Whitespace:
         return a
 
 def format_witnesses(w):
-    import string
     firsts = map(lambda tup: str(tup[0]), w)
     prefix = "at tab size"
     if len(w) > 1:
         prefix = prefix + "s"
-    return prefix + " " + string.join(firsts, ', ')
+    return prefix + " " + ', '.join(firsts)
 
 def process_tokens(tokens):
     INDENT = tokenize.INDENT