/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Robert Collins
  • Date: 2007-03-06 12:28:18 UTC
  • mto: (2321.1.1 integration)
  • mto: This revision was merged to the branch mainline in revision 2322.
  • Revision ID: robertc@robertcollins.net-20070306122818-xk0lc3l01ecl6vbc
Get merge_nested finally working: change nested tree iterators to take file_ids, and ensure the right branch is connected to in the merge logic. May not be suitable for shared repositories yet.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
import errno
 
17
from cStringIO import StringIO
18
18
import os
19
19
import re
20
20
import stat
 
21
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
22
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
21
23
import sys
22
24
import time
23
 
import codecs
24
25
 
25
26
from bzrlib.lazy_import import lazy_import
26
27
lazy_import(globals(), """
 
28
import codecs
27
29
from datetime import datetime
28
 
import getpass
29
 
import ntpath
 
30
import errno
 
31
from ntpath import (abspath as _nt_abspath,
 
32
                    join as _nt_join,
 
33
                    normpath as _nt_normpath,
 
34
                    realpath as _nt_realpath,
 
35
                    splitdrive as _nt_splitdrive,
 
36
                    )
30
37
import posixpath
31
 
# We need to import both shutil and rmtree as we export the later on posix
32
 
# and need the former on windows
 
38
import sha
33
39
import shutil
34
 
from shutil import rmtree
35
 
import socket
36
 
import subprocess
37
 
# We need to import both tempfile and mkdtemp as we export the later on posix
38
 
# and need the former on windows
 
40
from shutil import (
 
41
    rmtree,
 
42
    )
39
43
import tempfile
40
 
from tempfile import mkdtemp
 
44
from tempfile import (
 
45
    mkdtemp,
 
46
    )
41
47
import unicodedata
42
48
 
43
49
from bzrlib import (
44
50
    cache_utf8,
45
51
    errors,
46
 
    trace,
47
52
    win32utils,
48
53
    )
49
54
""")
50
55
 
 
56
import bzrlib
51
57
from bzrlib.symbol_versioning import (
52
58
    deprecated_function,
53
 
    deprecated_in,
 
59
    zero_nine,
54
60
    )
55
 
 
56
 
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
57
 
# of 2.5
58
 
if sys.version_info < (2, 5):
59
 
    import md5 as _mod_md5
60
 
    md5 = _mod_md5.new
61
 
    import sha as _mod_sha
62
 
    sha = _mod_sha.new
63
 
else:
64
 
    from hashlib import (
65
 
        md5,
66
 
        sha1 as sha,
67
 
        )
68
 
 
69
 
 
70
 
import bzrlib
71
 
from bzrlib import symbol_versioning
72
 
 
73
 
 
74
 
# Cross platform wall-clock time functionality with decent resolution.
75
 
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
76
 
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
77
 
# synchronized with ``time.time()``, this is only meant to be used to find
78
 
# delta times by subtracting from another call to this function.
79
 
timer_func = time.time
80
 
if sys.platform == 'win32':
81
 
    timer_func = time.clock
 
61
from bzrlib.trace import mutter
 
62
 
82
63
 
83
64
# On win32, O_BINARY is used to indicate the file should
84
65
# be opened in binary mode, rather than text mode.
85
66
# On other platforms, O_BINARY doesn't exist, because
86
67
# they always open in binary mode, so it is okay to
87
 
# OR with 0 on those platforms.
88
 
# O_NOINHERIT and O_TEXT exists only on win32 too.
 
68
# OR with 0 on those platforms
89
69
O_BINARY = getattr(os, 'O_BINARY', 0)
90
 
O_TEXT = getattr(os, 'O_TEXT', 0)
91
 
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
92
 
 
93
 
 
94
 
def get_unicode_argv():
95
 
    try:
96
 
        user_encoding = get_user_encoding()
97
 
        return [a.decode(user_encoding) for a in sys.argv[1:]]
98
 
    except UnicodeDecodeError:
99
 
        raise errors.BzrError("Parameter %r encoding is unsupported by %s "
100
 
            "application locale." % (a, user_encoding))
101
70
 
102
71
 
103
72
def make_readonly(filename):
104
73
    """Make a filename read-only."""
105
 
    mod = os.lstat(filename).st_mode
106
 
    if not stat.S_ISLNK(mod):
107
 
        mod = mod & 0777555
108
 
        os.chmod(filename, mod)
 
74
    mod = os.stat(filename).st_mode
 
75
    mod = mod & 0777555
 
76
    os.chmod(filename, mod)
109
77
 
110
78
 
111
79
def make_writable(filename):
112
 
    mod = os.lstat(filename).st_mode
113
 
    if not stat.S_ISLNK(mod):
114
 
        mod = mod | 0200
115
 
        os.chmod(filename, mod)
116
 
 
117
 
 
118
 
def minimum_path_selection(paths):
119
 
    """Return the smallset subset of paths which are outside paths.
120
 
 
121
 
    :param paths: A container (and hence not None) of paths.
122
 
    :return: A set of paths sufficient to include everything in paths via
123
 
        is_inside, drawn from the paths parameter.
124
 
    """
125
 
    if len(paths) < 2:
126
 
        return set(paths)
127
 
 
128
 
    def sort_key(path):
129
 
        return path.split('/')
130
 
    sorted_paths = sorted(list(paths), key=sort_key)
131
 
 
132
 
    search_paths = [sorted_paths[0]]
133
 
    for path in sorted_paths[1:]:
134
 
        if not is_inside(search_paths[-1], path):
135
 
            # This path is unique, add it
136
 
            search_paths.append(path)
137
 
 
138
 
    return set(search_paths)
 
80
    mod = os.stat(filename).st_mode
 
81
    mod = mod | 0200
 
82
    os.chmod(filename, mod)
139
83
 
140
84
 
141
85
_QUOTE_RE = None
150
94
    global _QUOTE_RE
151
95
    if _QUOTE_RE is None:
152
96
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
153
 
 
 
97
        
154
98
    if _QUOTE_RE.search(f):
155
99
        return '"' + f + '"'
156
100
    else:
159
103
 
160
104
_directory_kind = 'directory'
161
105
 
 
106
_formats = {
 
107
    stat.S_IFDIR:_directory_kind,
 
108
    stat.S_IFCHR:'chardev',
 
109
    stat.S_IFBLK:'block',
 
110
    stat.S_IFREG:'file',
 
111
    stat.S_IFIFO:'fifo',
 
112
    stat.S_IFLNK:'symlink',
 
113
    stat.S_IFSOCK:'socket',
 
114
}
 
115
 
 
116
 
 
117
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
 
118
    """Generate a file kind from a stat mode. This is used in walkdirs.
 
119
 
 
120
    Its performance is critical: Do not mutate without careful benchmarking.
 
121
    """
 
122
    try:
 
123
        return _formats[stat_mode & 0170000]
 
124
    except KeyError:
 
125
        return _unknown
 
126
 
 
127
 
 
128
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
 
129
    try:
 
130
        return _mapper(_lstat(f).st_mode)
 
131
    except OSError, e:
 
132
        if getattr(e, 'errno', None) == errno.ENOENT:
 
133
            raise errors.NoSuchFile(f)
 
134
        raise
 
135
 
 
136
 
162
137
def get_umask():
163
138
    """Return the current umask"""
164
139
    # Assume that people aren't messing with the umask while running
169
144
    return umask
170
145
 
171
146
 
172
 
_kind_marker_map = {
173
 
    "file": "",
174
 
    _directory_kind: "/",
175
 
    "symlink": "@",
176
 
    'tree-reference': '+',
177
 
}
178
 
 
179
 
 
180
147
def kind_marker(kind):
181
 
    try:
182
 
        return _kind_marker_map[kind]
183
 
    except KeyError:
184
 
        # Slightly faster than using .get(, '') when the common case is that
185
 
        # kind will be found
 
148
    if kind == 'file':
186
149
        return ''
187
 
 
 
150
    elif kind == _directory_kind:
 
151
        return '/'
 
152
    elif kind == 'symlink':
 
153
        return '@'
 
154
    else:
 
155
        raise errors.BzrError('invalid file kind %r' % kind)
188
156
 
189
157
lexists = getattr(os.path, 'lexists', None)
190
158
if lexists is None:
191
159
    def lexists(f):
192
160
        try:
193
 
            stat = getattr(os, 'lstat', os.stat)
194
 
            stat(f)
 
161
            if getattr(os, 'lstat') is not None:
 
162
                os.lstat(f)
 
163
            else:
 
164
                os.stat(f)
195
165
            return True
196
 
        except OSError, e:
 
166
        except OSError,e:
197
167
            if e.errno == errno.ENOENT:
198
168
                return False;
199
169
            else:
202
172
 
203
173
def fancy_rename(old, new, rename_func, unlink_func):
204
174
    """A fancy rename, when you don't have atomic rename.
205
 
 
 
175
    
206
176
    :param old: The old path, to rename from
207
177
    :param new: The new path, to rename to
208
178
    :param rename_func: The potentially non-atomic rename function
209
 
    :param unlink_func: A way to delete the target file if the full rename
210
 
        succeeds
 
179
    :param unlink_func: A way to delete the target file if the full rename succeeds
211
180
    """
 
181
 
212
182
    # sftp rename doesn't allow overwriting, so play tricks:
 
183
    import random
213
184
    base = os.path.basename(new)
214
185
    dirname = os.path.dirname(new)
215
 
    # callers use different encodings for the paths so the following MUST
216
 
    # respect that. We rely on python upcasting to unicode if new is unicode
217
 
    # and keeping a str if not.
218
 
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
219
 
                                      os.getpid(), rand_chars(10))
 
186
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
220
187
    tmp_name = pathjoin(dirname, tmp_name)
221
188
 
222
189
    # Rename the file out of the way, but keep track if it didn't exist
242
209
    else:
243
210
        file_existed = True
244
211
 
245
 
    failure_exc = None
246
212
    success = False
247
213
    try:
248
 
        try:
249
 
            # This may throw an exception, in which case success will
250
 
            # not be set.
251
 
            rename_func(old, new)
252
 
            success = True
253
 
        except (IOError, OSError), e:
254
 
            # source and target may be aliases of each other (e.g. on a
255
 
            # case-insensitive filesystem), so we may have accidentally renamed
256
 
            # source by when we tried to rename target
257
 
            failure_exc = sys.exc_info()
258
 
            if (file_existed and e.errno in (None, errno.ENOENT)
259
 
                and old.lower() == new.lower()):
260
 
                # source and target are the same file on a case-insensitive
261
 
                # filesystem, so we don't generate an exception
262
 
                failure_exc = None
 
214
        # This may throw an exception, in which case success will
 
215
        # not be set.
 
216
        rename_func(old, new)
 
217
        success = True
263
218
    finally:
264
219
        if file_existed:
265
220
            # If the file used to exist, rename it back into place
268
223
                unlink_func(tmp_name)
269
224
            else:
270
225
                rename_func(tmp_name, new)
271
 
    if failure_exc is not None:
272
 
        raise failure_exc[0], failure_exc[1], failure_exc[2]
273
226
 
274
227
 
275
228
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
298
251
    running python.exe under cmd.exe return capital C:\\
299
252
    running win32 python inside a cygwin shell returns lowercase c:\\
300
253
    """
301
 
    drive, path = ntpath.splitdrive(path)
 
254
    drive, path = _nt_splitdrive(path)
302
255
    return drive.upper() + path
303
256
 
304
257
 
305
258
def _win32_abspath(path):
306
 
    # Real ntpath.abspath doesn't have a problem with a unicode cwd
307
 
    return _win32_fixdrive(ntpath.abspath(unicode(path)).replace('\\', '/'))
 
259
    # Real _nt_abspath doesn't have a problem with a unicode cwd
 
260
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
308
261
 
309
262
 
310
263
def _win98_abspath(path):
321
274
    #   /path       => C:/path
322
275
    path = unicode(path)
323
276
    # check for absolute path
324
 
    drive = ntpath.splitdrive(path)[0]
 
277
    drive = _nt_splitdrive(path)[0]
325
278
    if drive == '' and path[:2] not in('//','\\\\'):
326
279
        cwd = os.getcwdu()
327
280
        # we cannot simply os.path.join cwd and path
328
281
        # because os.path.join('C:','/path') produce '/path'
329
282
        # and this is incorrect
330
283
        if path[:1] in ('/','\\'):
331
 
            cwd = ntpath.splitdrive(cwd)[0]
 
284
            cwd = _nt_splitdrive(cwd)[0]
332
285
            path = path[1:]
333
286
        path = cwd + '\\' + path
334
 
    return _win32_fixdrive(ntpath.normpath(path).replace('\\', '/'))
 
287
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
 
288
 
 
289
if win32utils.winver == 'Windows 98':
 
290
    _win32_abspath = _win98_abspath
335
291
 
336
292
 
337
293
def _win32_realpath(path):
338
 
    # Real ntpath.realpath doesn't have a problem with a unicode cwd
339
 
    return _win32_fixdrive(ntpath.realpath(unicode(path)).replace('\\', '/'))
 
294
    # Real _nt_realpath doesn't have a problem with a unicode cwd
 
295
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
340
296
 
341
297
 
342
298
def _win32_pathjoin(*args):
343
 
    return ntpath.join(*args).replace('\\', '/')
 
299
    return _nt_join(*args).replace('\\', '/')
344
300
 
345
301
 
346
302
def _win32_normpath(path):
347
 
    return _win32_fixdrive(ntpath.normpath(unicode(path)).replace('\\', '/'))
 
303
    return _win32_fixdrive(_nt_normpath(unicode(path)).replace('\\', '/'))
348
304
 
349
305
 
350
306
def _win32_getcwd():
359
315
    """We expect to be able to atomically replace 'new' with old.
360
316
 
361
317
    On win32, if new exists, it must be moved out of the way first,
362
 
    and then deleted.
 
318
    and then deleted. 
363
319
    """
364
320
    try:
365
321
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
366
322
    except OSError, e:
367
323
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
368
 
            # If we try to rename a non-existant file onto cwd, we get
369
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
324
            # If we try to rename a non-existant file onto cwd, we get 
 
325
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
370
326
            # if the old path doesn't exist, sometimes we get EACCES
371
327
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
372
328
            os.lstat(old)
374
330
 
375
331
 
376
332
def _mac_getcwd():
377
 
    return unicodedata.normalize('NFC', os.getcwdu())
 
333
    return unicodedata.normalize('NFKC', os.getcwdu())
378
334
 
379
335
 
380
336
# Default is to just use the python builtins, but these can be rebound on
389
345
basename = os.path.basename
390
346
split = os.path.split
391
347
splitext = os.path.splitext
392
 
# These were already lazily imported into local scope
 
348
# These were already imported into local scope
393
349
# mkdtemp = tempfile.mkdtemp
394
350
# rmtree = shutil.rmtree
395
 
lstat = os.lstat
396
 
fstat = os.fstat
397
 
 
398
 
def wrap_stat(st):
399
 
    return st
400
 
 
401
351
 
402
352
MIN_ABS_PATHLENGTH = 1
403
353
 
404
354
 
405
355
if sys.platform == 'win32':
406
 
    if win32utils.winver == 'Windows 98':
407
 
        abspath = _win98_abspath
408
 
    else:
409
 
        abspath = _win32_abspath
 
356
    abspath = _win32_abspath
410
357
    realpath = _win32_realpath
411
358
    pathjoin = _win32_pathjoin
412
359
    normpath = _win32_normpath
413
360
    getcwd = _win32_getcwd
414
361
    mkdtemp = _win32_mkdtemp
415
362
    rename = _win32_rename
416
 
    try:
417
 
        from bzrlib import _walkdirs_win32
418
 
    except ImportError:
419
 
        pass
420
 
    else:
421
 
        lstat = _walkdirs_win32.lstat
422
 
        fstat = _walkdirs_win32.fstat
423
 
        wrap_stat = _walkdirs_win32.wrap_stat
424
363
 
425
364
    MIN_ABS_PATHLENGTH = 3
426
365
 
440
379
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
441
380
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
442
381
        return shutil.rmtree(path, ignore_errors, onerror)
443
 
 
444
 
    f = win32utils.get_unicode_argv     # special function or None
445
 
    if f is not None:
446
 
        get_unicode_argv = f
447
 
 
448
382
elif sys.platform == 'darwin':
449
383
    getcwd = _mac_getcwd
450
384
 
451
385
 
452
 
def get_terminal_encoding(trace=False):
 
386
def get_terminal_encoding():
453
387
    """Find the best encoding for printing to the screen.
454
388
 
455
389
    This attempts to check both sys.stdout and sys.stdin to see
456
390
    what encoding they are in, and if that fails it falls back to
457
 
    osutils.get_user_encoding().
 
391
    bzrlib.user_encoding.
458
392
    The problem is that on Windows, locale.getpreferredencoding()
459
393
    is not the same encoding as that used by the console:
460
394
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
461
395
 
462
396
    On my standard US Windows XP, the preferred encoding is
463
397
    cp1252, but the console is cp437
464
 
 
465
 
    :param trace: If True trace the selected encoding via mutter().
466
398
    """
467
 
    from bzrlib.trace import mutter
468
399
    output_encoding = getattr(sys.stdout, 'encoding', None)
469
400
    if not output_encoding:
470
401
        input_encoding = getattr(sys.stdin, 'encoding', None)
471
402
        if not input_encoding:
472
 
            output_encoding = get_user_encoding()
473
 
            if trace:
474
 
                mutter('encoding stdout as osutils.get_user_encoding() %r',
475
 
                   output_encoding)
 
403
            output_encoding = bzrlib.user_encoding
 
404
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
476
405
        else:
477
406
            output_encoding = input_encoding
478
 
            if trace:
479
 
                mutter('encoding stdout as sys.stdin encoding %r',
480
 
                    output_encoding)
 
407
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
481
408
    else:
482
 
        if trace:
483
 
            mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
409
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
484
410
    if output_encoding == 'cp0':
485
411
        # invalid encoding (cp0 means 'no codepage' on Windows)
486
 
        output_encoding = get_user_encoding()
487
 
        if trace:
488
 
            mutter('cp0 is invalid encoding.'
489
 
               ' encoding stdout as osutils.get_user_encoding() %r',
490
 
               output_encoding)
 
412
        output_encoding = bzrlib.user_encoding
 
413
        mutter('cp0 is invalid encoding.'
 
414
               ' encoding stdout as bzrlib.user_encoding %r', output_encoding)
491
415
    # check encoding
492
416
    try:
493
417
        codecs.lookup(output_encoding)
495
419
        sys.stderr.write('bzr: warning:'
496
420
                         ' unknown terminal encoding %s.\n'
497
421
                         '  Using encoding %s instead.\n'
498
 
                         % (output_encoding, get_user_encoding())
 
422
                         % (output_encoding, bzrlib.user_encoding)
499
423
                        )
500
 
        output_encoding = get_user_encoding()
 
424
        output_encoding = bzrlib.user_encoding
501
425
 
502
426
    return output_encoding
503
427
 
514
438
        return pathjoin(F(p), e)
515
439
 
516
440
 
 
441
def backup_file(fn):
 
442
    """Copy a file to a backup.
 
443
 
 
444
    Backups are named in GNU-style, with a ~ suffix.
 
445
 
 
446
    If the file is already a backup, it's not copied.
 
447
    """
 
448
    if fn[-1] == '~':
 
449
        return
 
450
    bfn = fn + '~'
 
451
 
 
452
    if has_symlinks() and os.path.islink(fn):
 
453
        target = os.readlink(fn)
 
454
        os.symlink(target, bfn)
 
455
        return
 
456
    inf = file(fn, 'rb')
 
457
    try:
 
458
        content = inf.read()
 
459
    finally:
 
460
        inf.close()
 
461
    
 
462
    outf = file(bfn, 'wb')
 
463
    try:
 
464
        outf.write(content)
 
465
    finally:
 
466
        outf.close()
 
467
 
 
468
 
517
469
def isdir(f):
518
470
    """True if f is an accessible directory."""
519
471
    try:
520
 
        return stat.S_ISDIR(os.lstat(f)[stat.ST_MODE])
 
472
        return S_ISDIR(os.lstat(f)[ST_MODE])
521
473
    except OSError:
522
474
        return False
523
475
 
525
477
def isfile(f):
526
478
    """True if f is a regular file."""
527
479
    try:
528
 
        return stat.S_ISREG(os.lstat(f)[stat.ST_MODE])
 
480
        return S_ISREG(os.lstat(f)[ST_MODE])
529
481
    except OSError:
530
482
        return False
531
483
 
532
484
def islink(f):
533
485
    """True if f is a symlink."""
534
486
    try:
535
 
        return stat.S_ISLNK(os.lstat(f)[stat.ST_MODE])
 
487
        return S_ISLNK(os.lstat(f)[ST_MODE])
536
488
    except OSError:
537
489
        return False
538
490
 
539
491
def is_inside(dir, fname):
540
492
    """True if fname is inside dir.
541
 
 
 
493
    
542
494
    The parameters should typically be passed to osutils.normpath first, so
543
495
    that . and .. and repeated slashes are eliminated, and the separators
544
496
    are canonical for the platform.
545
 
 
546
 
    The empty string as a dir name is taken as top-of-tree and matches
 
497
    
 
498
    The empty string as a dir name is taken as top-of-tree and matches 
547
499
    everything.
548
500
    """
549
 
    # XXX: Most callers of this can actually do something smarter by
 
501
    # XXX: Most callers of this can actually do something smarter by 
550
502
    # looking at the inventory
551
503
    if dir == fname:
552
504
        return True
553
 
 
 
505
    
554
506
    if dir == '':
555
507
        return True
556
508
 
565
517
    for dirname in dir_list:
566
518
        if is_inside(dirname, fname):
567
519
            return True
568
 
    return False
 
520
    else:
 
521
        return False
569
522
 
570
523
 
571
524
def is_inside_or_parent_of_any(dir_list, fname):
573
526
    for dirname in dir_list:
574
527
        if is_inside(dirname, fname) or is_inside(fname, dirname):
575
528
            return True
576
 
    return False
577
 
 
578
 
 
579
 
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
580
 
             report_activity=None, direction='read'):
581
 
    """Copy contents of one file to another.
582
 
 
583
 
    The read_length can either be -1 to read to end-of-file (EOF) or
584
 
    it can specify the maximum number of bytes to read.
585
 
 
586
 
    The buff_size represents the maximum size for each read operation
587
 
    performed on from_file.
588
 
 
589
 
    :param report_activity: Call this as bytes are read, see
590
 
        Transport._report_activity
591
 
    :param direction: Will be passed to report_activity
592
 
 
593
 
    :return: The number of bytes copied.
594
 
    """
595
 
    length = 0
596
 
    if read_length >= 0:
597
 
        # read specified number of bytes
598
 
 
599
 
        while read_length > 0:
600
 
            num_bytes_to_read = min(read_length, buff_size)
601
 
 
602
 
            block = from_file.read(num_bytes_to_read)
603
 
            if not block:
604
 
                # EOF reached
605
 
                break
606
 
            if report_activity is not None:
607
 
                report_activity(len(block), direction)
608
 
            to_file.write(block)
609
 
 
610
 
            actual_bytes_read = len(block)
611
 
            read_length -= actual_bytes_read
612
 
            length += actual_bytes_read
613
529
    else:
614
 
        # read to EOF
615
 
        while True:
616
 
            block = from_file.read(buff_size)
617
 
            if not block:
618
 
                # EOF reached
619
 
                break
620
 
            if report_activity is not None:
621
 
                report_activity(len(block), direction)
622
 
            to_file.write(block)
623
 
            length += len(block)
624
 
    return length
625
 
 
626
 
 
627
 
def pump_string_file(bytes, file_handle, segment_size=None):
628
 
    """Write bytes to file_handle in many smaller writes.
629
 
 
630
 
    :param bytes: The string to write.
631
 
    :param file_handle: The file to write to.
632
 
    """
633
 
    # Write data in chunks rather than all at once, because very large
634
 
    # writes fail on some platforms (e.g. Windows with SMB  mounted
635
 
    # drives).
636
 
    if not segment_size:
637
 
        segment_size = 5242880 # 5MB
638
 
    segments = range(len(bytes) / segment_size + 1)
639
 
    write = file_handle.write
640
 
    for segment_index in segments:
641
 
        segment = buffer(bytes, segment_index * segment_size, segment_size)
642
 
        write(segment)
 
530
        return False
 
531
 
 
532
 
 
533
def pumpfile(fromfile, tofile):
 
534
    """Copy contents of one file to another."""
 
535
    BUFSIZE = 32768
 
536
    while True:
 
537
        b = fromfile.read(BUFSIZE)
 
538
        if not b:
 
539
            break
 
540
        tofile.write(b)
643
541
 
644
542
 
645
543
def file_iterator(input_file, readsize=32768):
651
549
 
652
550
 
653
551
def sha_file(f):
654
 
    """Calculate the hexdigest of an open file.
655
 
 
656
 
    The file cursor should be already at the start.
657
 
    """
658
 
    s = sha()
 
552
    if getattr(f, 'tell', None) is not None:
 
553
        assert f.tell() == 0
 
554
    s = sha.new()
659
555
    BUFSIZE = 128<<10
660
556
    while True:
661
557
        b = f.read(BUFSIZE)
665
561
    return s.hexdigest()
666
562
 
667
563
 
668
 
def size_sha_file(f):
669
 
    """Calculate the size and hexdigest of an open file.
670
 
 
671
 
    The file cursor should be already at the start and
672
 
    the caller is responsible for closing the file afterwards.
673
 
    """
674
 
    size = 0
675
 
    s = sha()
676
 
    BUFSIZE = 128<<10
677
 
    while True:
678
 
        b = f.read(BUFSIZE)
679
 
        if not b:
680
 
            break
681
 
        size += len(b)
682
 
        s.update(b)
683
 
    return size, s.hexdigest()
684
 
 
685
 
 
686
 
def sha_file_by_name(fname):
687
 
    """Calculate the SHA1 of a file by reading the full text"""
688
 
    s = sha()
689
 
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
690
 
    try:
691
 
        while True:
692
 
            b = os.read(f, 1<<16)
693
 
            if not b:
694
 
                return s.hexdigest()
695
 
            s.update(b)
696
 
    finally:
697
 
        os.close(f)
698
 
 
699
 
 
700
 
def sha_strings(strings, _factory=sha):
 
564
 
 
565
def sha_strings(strings):
701
566
    """Return the sha-1 of concatenation of strings"""
702
 
    s = _factory()
 
567
    s = sha.new()
703
568
    map(s.update, strings)
704
569
    return s.hexdigest()
705
570
 
706
571
 
707
 
def sha_string(f, _factory=sha):
708
 
    return _factory(f).hexdigest()
 
572
def sha_string(f):
 
573
    s = sha.new()
 
574
    s.update(f)
 
575
    return s.hexdigest()
709
576
 
710
577
 
711
578
def fingerprint_file(f):
 
579
    s = sha.new()
712
580
    b = f.read()
713
 
    return {'size': len(b),
714
 
            'sha1': sha(b).hexdigest()}
 
581
    s.update(b)
 
582
    size = len(b)
 
583
    return {'size': size,
 
584
            'sha1': s.hexdigest()}
715
585
 
716
586
 
717
587
def compare_files(a, b):
733
603
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
734
604
    return offset.days * 86400 + offset.seconds
735
605
 
736
 
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
737
 
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
738
 
 
739
 
 
740
 
def format_date(t, offset=0, timezone='original', date_fmt=None,
 
606
    
 
607
def format_date(t, offset=0, timezone='original', date_fmt=None, 
741
608
                show_offset=True):
742
 
    """Return a formatted date string.
743
 
 
744
 
    :param t: Seconds since the epoch.
745
 
    :param offset: Timezone offset in seconds east of utc.
746
 
    :param timezone: How to display the time: 'utc', 'original' for the
747
 
         timezone specified by offset, or 'local' for the process's current
748
 
         timezone.
749
 
    :param date_fmt: strftime format.
750
 
    :param show_offset: Whether to append the timezone.
751
 
    """
752
 
    (date_fmt, tt, offset_str) = \
753
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
754
 
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
755
 
    date_str = time.strftime(date_fmt, tt)
756
 
    return date_str + offset_str
757
 
 
758
 
 
759
 
# Cache of formatted offset strings
760
 
_offset_cache = {}
761
 
 
762
 
 
763
 
def format_date_with_offset_in_original_timezone(t, offset=0,
764
 
    _cache=_offset_cache):
765
 
    """Return a formatted date string in the original timezone.
766
 
 
767
 
    This routine may be faster then format_date.
768
 
 
769
 
    :param t: Seconds since the epoch.
770
 
    :param offset: Timezone offset in seconds east of utc.
771
 
    """
772
 
    if offset is None:
773
 
        offset = 0
774
 
    tt = time.gmtime(t + offset)
775
 
    date_fmt = _default_format_by_weekday_num[tt[6]]
776
 
    date_str = time.strftime(date_fmt, tt)
777
 
    offset_str = _cache.get(offset, None)
778
 
    if offset_str is None:
779
 
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
780
 
        _cache[offset] = offset_str
781
 
    return date_str + offset_str
782
 
 
783
 
 
784
 
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
785
 
                      show_offset=True):
786
 
    """Return an unicode date string formatted according to the current locale.
787
 
 
788
 
    :param t: Seconds since the epoch.
789
 
    :param offset: Timezone offset in seconds east of utc.
790
 
    :param timezone: How to display the time: 'utc', 'original' for the
791
 
         timezone specified by offset, or 'local' for the process's current
792
 
         timezone.
793
 
    :param date_fmt: strftime format.
794
 
    :param show_offset: Whether to append the timezone.
795
 
    """
796
 
    (date_fmt, tt, offset_str) = \
797
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
798
 
    date_str = time.strftime(date_fmt, tt)
799
 
    if not isinstance(date_str, unicode):
800
 
        date_str = date_str.decode(get_user_encoding(), 'replace')
801
 
    return date_str + offset_str
802
 
 
803
 
 
804
 
def _format_date(t, offset, timezone, date_fmt, show_offset):
 
609
    ## TODO: Perhaps a global option to use either universal or local time?
 
610
    ## Or perhaps just let people set $TZ?
 
611
    assert isinstance(t, float)
 
612
    
805
613
    if timezone == 'utc':
806
614
        tt = time.gmtime(t)
807
615
        offset = 0
813
621
        tt = time.localtime(t)
814
622
        offset = local_time_offset(t)
815
623
    else:
816
 
        raise errors.UnsupportedTimezoneFormat(timezone)
 
624
        raise errors.BzrError("unsupported timezone format %r" % timezone,
 
625
                              ['options are "utc", "original", "local"'])
817
626
    if date_fmt is None:
818
627
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
819
628
    if show_offset:
820
629
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
821
630
    else:
822
631
        offset_str = ''
823
 
    return (date_fmt, tt, offset_str)
 
632
    return (time.strftime(date_fmt, tt) +  offset_str)
824
633
 
825
634
 
826
635
def compact_date(when):
827
636
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
828
 
 
 
637
    
829
638
 
830
639
def format_delta(delta):
831
640
    """Get a nice looking string for a time delta.
878
687
 
879
688
def filesize(f):
880
689
    """Return size of given open file."""
881
 
    return os.fstat(f.fileno())[stat.ST_SIZE]
 
690
    return os.fstat(f.fileno())[ST_SIZE]
882
691
 
883
692
 
884
693
# Define rand_bytes based on platform.
907
716
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
908
717
def rand_chars(num):
909
718
    """Return a random string of num alphanumeric characters
910
 
 
911
 
    The result only contains lowercase chars because it may be used on
 
719
    
 
720
    The result only contains lowercase chars because it may be used on 
912
721
    case-insensitive filesystems.
913
722
    """
914
723
    s = ''
922
731
 
923
732
def splitpath(p):
924
733
    """Turn string into list of parts."""
 
734
    assert isinstance(p, basestring)
 
735
 
925
736
    # split on either delimiter because people might use either on
926
737
    # Windows
927
738
    ps = re.split(r'[\\/]', p)
936
747
            rps.append(f)
937
748
    return rps
938
749
 
939
 
 
940
750
def joinpath(p):
 
751
    assert isinstance(p, (list, tuple))
941
752
    for f in p:
942
753
        if (f == '..') or (f is None) or (f == ''):
943
754
            raise errors.BzrError("sorry, %r not allowed in path" % f)
944
755
    return pathjoin(*p)
945
756
 
946
757
 
947
 
def parent_directories(filename):
948
 
    """Return the list of parent directories, deepest first.
949
 
 
950
 
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
951
 
    """
952
 
    parents = []
953
 
    parts = splitpath(dirname(filename))
954
 
    while parts:
955
 
        parents.append(joinpath(parts))
956
 
        parts.pop()
957
 
    return parents
958
 
 
959
 
 
960
 
_extension_load_failures = []
961
 
 
962
 
 
963
 
def failed_to_load_extension(exception):
964
 
    """Handle failing to load a binary extension.
965
 
 
966
 
    This should be called from the ImportError block guarding the attempt to
967
 
    import the native extension.  If this function returns, the pure-Python
968
 
    implementation should be loaded instead::
969
 
 
970
 
    >>> try:
971
 
    >>>     import bzrlib._fictional_extension_pyx
972
 
    >>> except ImportError, e:
973
 
    >>>     bzrlib.osutils.failed_to_load_extension(e)
974
 
    >>>     import bzrlib._fictional_extension_py
975
 
    """
976
 
    # NB: This docstring is just an example, not a doctest, because doctest
977
 
    # currently can't cope with the use of lazy imports in this namespace --
978
 
    # mbp 20090729
979
 
 
980
 
    # This currently doesn't report the failure at the time it occurs, because
981
 
    # they tend to happen very early in startup when we can't check config
982
 
    # files etc, and also we want to report all failures but not spam the user
983
 
    # with 10 warnings.
984
 
    exception_str = str(exception)
985
 
    if exception_str not in _extension_load_failures:
986
 
        trace.mutter("failed to load compiled extension: %s" % exception_str)
987
 
        _extension_load_failures.append(exception_str)
988
 
 
989
 
 
990
 
def report_extension_load_failures():
991
 
    if not _extension_load_failures:
992
 
        return
993
 
    from bzrlib.config import GlobalConfig
994
 
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
995
 
        return
996
 
    # the warnings framework should by default show this only once
997
 
    from bzrlib.trace import warning
998
 
    warning(
999
 
        "bzr: warning: some compiled extensions could not be loaded; "
1000
 
        "see <https://answers.launchpad.net/bzr/+faq/703>")
1001
 
    # we no longer show the specific missing extensions here, because it makes
1002
 
    # the message too long and scary - see
1003
 
    # https://bugs.launchpad.net/bzr/+bug/430529
1004
 
 
1005
 
 
1006
 
try:
1007
 
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
1008
 
except ImportError, e:
1009
 
    failed_to_load_extension(e)
1010
 
    from bzrlib._chunks_to_lines_py import chunks_to_lines
1011
 
 
 
758
@deprecated_function(zero_nine)
 
759
def appendpath(p1, p2):
 
760
    if p1 == '':
 
761
        return p2
 
762
    else:
 
763
        return pathjoin(p1, p2)
 
764
    
1012
765
 
1013
766
def split_lines(s):
1014
767
    """Split s into lines, but without removing the newline characters."""
1015
 
    # Trivially convert a fulltext into a 'chunked' representation, and let
1016
 
    # chunks_to_lines do the heavy lifting.
1017
 
    if isinstance(s, str):
1018
 
        # chunks_to_lines only supports 8-bit strings
1019
 
        return chunks_to_lines([s])
1020
 
    else:
1021
 
        return _split_lines(s)
1022
 
 
1023
 
 
1024
 
def _split_lines(s):
1025
 
    """Split s into lines, but without removing the newline characters.
1026
 
 
1027
 
    This supports Unicode or plain string objects.
1028
 
    """
1029
768
    lines = s.split('\n')
1030
769
    result = [line + '\n' for line in lines[:-1]]
1031
770
    if lines[-1]:
1049
788
            raise
1050
789
        shutil.copyfile(src, dest)
1051
790
 
1052
 
 
1053
 
def delete_any(path):
1054
 
    """Delete a file, symlink or directory.
1055
 
 
1056
 
    Will delete even if readonly.
1057
 
    """
 
791
def delete_any(full_path):
 
792
    """Delete a file or directory."""
1058
793
    try:
1059
 
       _delete_file_or_dir(path)
1060
 
    except (OSError, IOError), e:
1061
 
        if e.errno in (errno.EPERM, errno.EACCES):
1062
 
            # make writable and try again
1063
 
            try:
1064
 
                make_writable(path)
1065
 
            except (OSError, IOError):
1066
 
                pass
1067
 
            _delete_file_or_dir(path)
1068
 
        else:
 
794
        os.unlink(full_path)
 
795
    except OSError, e:
 
796
    # We may be renaming a dangling inventory id
 
797
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
1069
798
            raise
1070
 
 
1071
 
 
1072
 
def _delete_file_or_dir(path):
1073
 
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
1074
 
    # Forgiveness than Permission (EAFP) because:
1075
 
    # - root can damage a solaris file system by using unlink,
1076
 
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
1077
 
    #   EACCES, OSX: EPERM) when invoked on a directory.
1078
 
    if isdir(path): # Takes care of symlinks
1079
 
        os.rmdir(path)
1080
 
    else:
1081
 
        os.unlink(path)
 
799
        os.rmdir(full_path)
1082
800
 
1083
801
 
1084
802
def has_symlinks():
1086
804
        return True
1087
805
    else:
1088
806
        return False
1089
 
 
1090
 
 
1091
 
def has_hardlinks():
1092
 
    if getattr(os, 'link', None) is not None:
1093
 
        return True
1094
 
    else:
1095
 
        return False
1096
 
 
1097
 
 
1098
 
def host_os_dereferences_symlinks():
1099
 
    return (has_symlinks()
1100
 
            and sys.platform not in ('cygwin', 'win32'))
1101
 
 
1102
 
 
1103
 
def readlink(abspath):
1104
 
    """Return a string representing the path to which the symbolic link points.
1105
 
 
1106
 
    :param abspath: The link absolute unicode path.
1107
 
 
1108
 
    This his guaranteed to return the symbolic link in unicode in all python
1109
 
    versions.
1110
 
    """
1111
 
    link = abspath.encode(_fs_enc)
1112
 
    target = os.readlink(link)
1113
 
    target = target.decode(_fs_enc)
1114
 
    return target
1115
 
 
 
807
        
1116
808
 
1117
809
def contains_whitespace(s):
1118
810
    """True if there are any whitespace characters in s."""
1144
836
 
1145
837
 
1146
838
def relpath(base, path):
1147
 
    """Return path relative to base, or raise PathNotChild exception.
 
839
    """Return path relative to base, or raise exception.
1148
840
 
1149
841
    The path may be either an absolute path or a path relative to the
1150
842
    current working directory.
1152
844
    os.path.commonprefix (python2.4) has a bad bug that it works just
1153
845
    on string prefixes, assuming that '/u' is a prefix of '/u2'.  This
1154
846
    avoids that problem.
1155
 
 
1156
 
    NOTE: `base` should not have a trailing slash otherwise you'll get
1157
 
    PathNotChild exceptions regardless of `path`.
1158
847
    """
1159
848
 
1160
 
    if len(base) < MIN_ABS_PATHLENGTH:
1161
 
        # must have space for e.g. a drive letter
1162
 
        raise ValueError('%r is too short to calculate a relative path'
1163
 
            % (base,))
 
849
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
 
850
        ' exceed the platform minimum length (which is %d)' % 
 
851
        MIN_ABS_PATHLENGTH)
1164
852
 
1165
853
    rp = abspath(path)
1166
854
 
1167
855
    s = []
1168
856
    head = rp
1169
 
    while True:
1170
 
        if len(head) <= len(base) and head != base:
1171
 
            raise errors.PathNotChild(rp, base)
 
857
    while len(head) >= len(base):
1172
858
        if head == base:
1173
859
            break
1174
 
        head, tail = split(head)
 
860
        head, tail = os.path.split(head)
1175
861
        if tail:
1176
 
            s.append(tail)
 
862
            s.insert(0, tail)
 
863
    else:
 
864
        raise errors.PathNotChild(rp, base)
1177
865
 
1178
866
    if s:
1179
 
        return pathjoin(*reversed(s))
 
867
        return pathjoin(*s)
1180
868
    else:
1181
869
        return ''
1182
870
 
1183
871
 
1184
 
def _cicp_canonical_relpath(base, path):
1185
 
    """Return the canonical path relative to base.
1186
 
 
1187
 
    Like relpath, but on case-insensitive-case-preserving file-systems, this
1188
 
    will return the relpath as stored on the file-system rather than in the
1189
 
    case specified in the input string, for all existing portions of the path.
1190
 
 
1191
 
    This will cause O(N) behaviour if called for every path in a tree; if you
1192
 
    have a number of paths to convert, you should use canonical_relpaths().
1193
 
    """
1194
 
    # TODO: it should be possible to optimize this for Windows by using the
1195
 
    # win32 API FindFiles function to look for the specified name - but using
1196
 
    # os.listdir() still gives us the correct, platform agnostic semantics in
1197
 
    # the short term.
1198
 
 
1199
 
    rel = relpath(base, path)
1200
 
    # '.' will have been turned into ''
1201
 
    if not rel:
1202
 
        return rel
1203
 
 
1204
 
    abs_base = abspath(base)
1205
 
    current = abs_base
1206
 
    _listdir = os.listdir
1207
 
 
1208
 
    # use an explicit iterator so we can easily consume the rest on early exit.
1209
 
    bit_iter = iter(rel.split('/'))
1210
 
    for bit in bit_iter:
1211
 
        lbit = bit.lower()
1212
 
        try:
1213
 
            next_entries = _listdir(current)
1214
 
        except OSError: # enoent, eperm, etc
1215
 
            # We can't find this in the filesystem, so just append the
1216
 
            # remaining bits.
1217
 
            current = pathjoin(current, bit, *list(bit_iter))
1218
 
            break
1219
 
        for look in next_entries:
1220
 
            if lbit == look.lower():
1221
 
                current = pathjoin(current, look)
1222
 
                break
1223
 
        else:
1224
 
            # got to the end, nothing matched, so we just return the
1225
 
            # non-existing bits as they were specified (the filename may be
1226
 
            # the target of a move, for example).
1227
 
            current = pathjoin(current, bit, *list(bit_iter))
1228
 
            break
1229
 
    return current[len(abs_base):].lstrip('/')
1230
 
 
1231
 
# XXX - TODO - we need better detection/integration of case-insensitive
1232
 
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
1233
 
# filesystems), for example, so could probably benefit from the same basic
1234
 
# support there.  For now though, only Windows and OSX get that support, and
1235
 
# they get it for *all* file-systems!
1236
 
if sys.platform in ('win32', 'darwin'):
1237
 
    canonical_relpath = _cicp_canonical_relpath
1238
 
else:
1239
 
    canonical_relpath = relpath
1240
 
 
1241
 
def canonical_relpaths(base, paths):
1242
 
    """Create an iterable to canonicalize a sequence of relative paths.
1243
 
 
1244
 
    The intent is for this implementation to use a cache, vastly speeding
1245
 
    up multiple transformations in the same directory.
1246
 
    """
1247
 
    # but for now, we haven't optimized...
1248
 
    return [canonical_relpath(base, p) for p in paths]
1249
 
 
1250
 
 
1251
 
def decode_filename(filename):
1252
 
    """Decode the filename using the filesystem encoding
1253
 
 
1254
 
    If it is unicode, it is returned.
1255
 
    Otherwise it is decoded from the the filesystem's encoding. If decoding
1256
 
    fails, a errors.BadFilenameEncoding exception is raised.
1257
 
    """
1258
 
    if type(filename) is unicode:
1259
 
        return filename
1260
 
    try:
1261
 
        return filename.decode(_fs_enc)
1262
 
    except UnicodeDecodeError:
1263
 
        raise errors.BadFilenameEncoding(filename, _fs_enc)
1264
 
 
1265
 
 
1266
872
def safe_unicode(unicode_or_utf8_string):
1267
873
    """Coerce unicode_or_utf8_string into unicode.
1268
874
 
1269
875
    If it is unicode, it is returned.
1270
 
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
1271
 
    wrapped in a BzrBadParameterNotUnicode exception.
 
876
    Otherwise it is decoded from utf-8. If a decoding error
 
877
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
 
878
    as a BzrBadParameter exception.
1272
879
    """
1273
880
    if isinstance(unicode_or_utf8_string, unicode):
1274
881
        return unicode_or_utf8_string
1297
904
    return unicode_or_utf8_string.encode('utf-8')
1298
905
 
1299
906
 
1300
 
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
1301
 
                        ' Revision id generators should be creating utf8'
1302
 
                        ' revision ids.')
1303
 
 
1304
 
 
1305
 
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
907
def safe_revision_id(unicode_or_utf8_string):
1306
908
    """Revision ids should now be utf8, but at one point they were unicode.
1307
909
 
1308
 
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
1309
 
        utf8 or None).
1310
 
    :param warn: Functions that are sanitizing user data can set warn=False
1311
 
    :return: None or a utf8 revision id.
1312
 
    """
1313
 
    if (unicode_or_utf8_string is None
1314
 
        or unicode_or_utf8_string.__class__ == str):
1315
 
        return unicode_or_utf8_string
1316
 
    if warn:
1317
 
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
1318
 
                               stacklevel=2)
1319
 
    return cache_utf8.encode(unicode_or_utf8_string)
1320
 
 
1321
 
 
1322
 
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
1323
 
                    ' generators should be creating utf8 file ids.')
1324
 
 
1325
 
 
1326
 
def safe_file_id(unicode_or_utf8_string, warn=True):
1327
 
    """File ids should now be utf8, but at one point they were unicode.
1328
 
 
1329
910
    This is the same as safe_utf8, except it uses the cached encode functions
1330
911
    to save a little bit of performance.
1331
 
 
1332
 
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
1333
 
        utf8 or None).
1334
 
    :param warn: Functions that are sanitizing user data can set warn=False
1335
 
    :return: None or a utf8 file id.
1336
912
    """
1337
 
    if (unicode_or_utf8_string is None
1338
 
        or unicode_or_utf8_string.__class__ == str):
1339
 
        return unicode_or_utf8_string
1340
 
    if warn:
1341
 
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
1342
 
                               stacklevel=2)
 
913
    if unicode_or_utf8_string is None:
 
914
        return None
 
915
    if isinstance(unicode_or_utf8_string, str):
 
916
        # TODO: jam 20070209 Eventually just remove this check.
 
917
        try:
 
918
            utf8_str = cache_utf8.get_cached_utf8(unicode_or_utf8_string)
 
919
        except UnicodeDecodeError:
 
920
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
921
        return utf8_str
1343
922
    return cache_utf8.encode(unicode_or_utf8_string)
1344
923
 
1345
924
 
 
925
# TODO: jam 20070217 We start by just re-using safe_revision_id, but ultimately
 
926
#       we want to use a different dictionary cache, because trapping file ids
 
927
#       and revision ids in the same dict seemed to have a noticable effect on
 
928
#       performance.
 
929
safe_file_id = safe_revision_id
 
930
 
 
931
 
1346
932
_platform_normalizes_filenames = False
1347
933
if sys.platform == 'darwin':
1348
934
    _platform_normalizes_filenames = True
1351
937
def normalizes_filenames():
1352
938
    """Return True if this platform normalizes unicode filenames.
1353
939
 
1354
 
    Only Mac OSX.
 
940
    Mac OSX does, Windows/Linux do not.
1355
941
    """
1356
942
    return _platform_normalizes_filenames
1357
943
 
1361
947
 
1362
948
    On platforms where the system normalizes filenames (Mac OSX),
1363
949
    you can access a file by any path which will normalize correctly.
1364
 
    On platforms where the system does not normalize filenames
1365
 
    (everything else), you have to access a file by its exact path.
 
950
    On platforms where the system does not normalize filenames 
 
951
    (Windows, Linux), you have to access a file by its exact path.
1366
952
 
1367
 
    Internally, bzr only supports NFC normalization, since that is
 
953
    Internally, bzr only supports NFC/NFKC normalization, since that is 
1368
954
    the standard for XML documents.
1369
955
 
1370
956
    So return the normalized path, and a flag indicating if the file
1371
957
    can be accessed by that path.
1372
958
    """
1373
959
 
1374
 
    return unicodedata.normalize('NFC', unicode(path)), True
 
960
    return unicodedata.normalize('NFKC', unicode(path)), True
1375
961
 
1376
962
 
1377
963
def _inaccessible_normalized_filename(path):
1378
964
    __doc__ = _accessible_normalized_filename.__doc__
1379
965
 
1380
 
    normalized = unicodedata.normalize('NFC', unicode(path))
 
966
    normalized = unicodedata.normalize('NFKC', unicode(path))
1381
967
    return normalized, normalized == path
1382
968
 
1383
969
 
1387
973
    normalized_filename = _inaccessible_normalized_filename
1388
974
 
1389
975
 
1390
 
def set_signal_handler(signum, handler, restart_syscall=True):
1391
 
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
1392
 
    on platforms that support that.
1393
 
 
1394
 
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
1395
 
        automatically restart (by calling `signal.siginterrupt(signum,
1396
 
        False)`).  May be ignored if the feature is not available on this
1397
 
        platform or Python version.
1398
 
    """
1399
 
    try:
1400
 
        import signal
1401
 
        siginterrupt = signal.siginterrupt
1402
 
    except ImportError:
1403
 
        # This python implementation doesn't provide signal support, hence no
1404
 
        # handler exists
1405
 
        return None
1406
 
    except AttributeError:
1407
 
        # siginterrupt doesn't exist on this platform, or for this version
1408
 
        # of Python.
1409
 
        siginterrupt = lambda signum, flag: None
1410
 
    if restart_syscall:
1411
 
        def sig_handler(*args):
1412
 
            # Python resets the siginterrupt flag when a signal is
1413
 
            # received.  <http://bugs.python.org/issue8354>
1414
 
            # As a workaround for some cases, set it back the way we want it.
1415
 
            siginterrupt(signum, False)
1416
 
            # Now run the handler function passed to set_signal_handler.
1417
 
            handler(*args)
1418
 
    else:
1419
 
        sig_handler = handler
1420
 
    old_handler = signal.signal(signum, sig_handler)
1421
 
    if restart_syscall:
1422
 
        siginterrupt(signum, False)
1423
 
    return old_handler
1424
 
 
1425
 
 
1426
 
default_terminal_width = 80
1427
 
"""The default terminal width for ttys.
1428
 
 
1429
 
This is defined so that higher levels can share a common fallback value when
1430
 
terminal_width() returns None.
1431
 
"""
1432
 
 
1433
 
# Keep some state so that terminal_width can detect if _terminal_size has
1434
 
# returned a different size since the process started.  See docstring and
1435
 
# comments of terminal_width for details.
1436
 
# _terminal_size_state has 3 possible values: no_data, unchanged, and changed.
1437
 
_terminal_size_state = 'no_data'
1438
 
_first_terminal_size = None
1439
 
 
1440
976
def terminal_width():
1441
 
    """Return terminal width.
1442
 
 
1443
 
    None is returned if the width can't established precisely.
1444
 
 
1445
 
    The rules are:
1446
 
    - if BZR_COLUMNS is set, returns its value
1447
 
    - if there is no controlling terminal, returns None
1448
 
    - query the OS, if the queried size has changed since the last query,
1449
 
      return its value,
1450
 
    - if COLUMNS is set, returns its value,
1451
 
    - if the OS has a value (even though it's never changed), return its value.
1452
 
 
1453
 
    From there, we need to query the OS to get the size of the controlling
1454
 
    terminal.
1455
 
 
1456
 
    On Unices we query the OS by:
1457
 
    - get termios.TIOCGWINSZ
1458
 
    - if an error occurs or a negative value is obtained, returns None
1459
 
 
1460
 
    On Windows we query the OS by:
1461
 
    - win32utils.get_console_size() decides,
1462
 
    - returns None on error (provided default value)
1463
 
    """
1464
 
    # Note to implementors: if changing the rules for determining the width,
1465
 
    # make sure you've considered the behaviour in these cases:
1466
 
    #  - M-x shell in emacs, where $COLUMNS is set and TIOCGWINSZ returns 0,0.
1467
 
    #  - bzr log | less, in bash, where $COLUMNS not set and TIOCGWINSZ returns
1468
 
    #    0,0.
1469
 
    #  - (add more interesting cases here, if you find any)
1470
 
    # Some programs implement "Use $COLUMNS (if set) until SIGWINCH occurs",
1471
 
    # but we don't want to register a signal handler because it is impossible
1472
 
    # to do so without risking EINTR errors in Python <= 2.6.5 (see
1473
 
    # <http://bugs.python.org/issue8354>).  Instead we check TIOCGWINSZ every
1474
 
    # time so we can notice if the reported size has changed, which should have
1475
 
    # a similar effect.
1476
 
 
1477
 
    # If BZR_COLUMNS is set, take it, user is always right
1478
 
    # Except if they specified 0 in which case, impose no limit here
1479
 
    try:
1480
 
        width = int(os.environ['BZR_COLUMNS'])
1481
 
    except (KeyError, ValueError):
1482
 
        width = None
1483
 
    if width is not None:
1484
 
        if width > 0:
1485
 
            return width
1486
 
        else:
1487
 
            return None
1488
 
 
1489
 
    isatty = getattr(sys.stdout, 'isatty', None)
1490
 
    if isatty is None or not isatty():
1491
 
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
1492
 
        return None
1493
 
 
1494
 
    # Query the OS
1495
 
    width, height = os_size = _terminal_size(None, None)
1496
 
    global _first_terminal_size, _terminal_size_state
1497
 
    if _terminal_size_state == 'no_data':
1498
 
        _first_terminal_size = os_size
1499
 
        _terminal_size_state = 'unchanged'
1500
 
    elif (_terminal_size_state == 'unchanged' and
1501
 
          _first_terminal_size != os_size):
1502
 
        _terminal_size_state = 'changed'
1503
 
 
1504
 
    # If the OS claims to know how wide the terminal is, and this value has
1505
 
    # ever changed, use that.
1506
 
    if _terminal_size_state == 'changed':
1507
 
        if width is not None and width > 0:
1508
 
            return width
1509
 
 
1510
 
    # If COLUMNS is set, use it.
1511
 
    try:
1512
 
        return int(os.environ['COLUMNS'])
1513
 
    except (KeyError, ValueError):
1514
 
        pass
1515
 
 
1516
 
    # Finally, use an unchanged size from the OS, if we have one.
1517
 
    if _terminal_size_state == 'unchanged':
1518
 
        if width is not None and width > 0:
1519
 
            return width
1520
 
 
1521
 
    # The width could not be determined.
1522
 
    return None
1523
 
 
1524
 
 
1525
 
def _win32_terminal_size(width, height):
1526
 
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
1527
 
    return width, height
1528
 
 
1529
 
 
1530
 
def _ioctl_terminal_size(width, height):
 
977
    """Return estimated terminal width."""
 
978
    if sys.platform == 'win32':
 
979
        return win32utils.get_console_size()[0]
 
980
    width = 0
1531
981
    try:
1532
982
        import struct, fcntl, termios
1533
983
        s = struct.pack('HHHH', 0, 0, 0, 0)
1534
984
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
1535
 
        height, width = struct.unpack('HHHH', x)[0:2]
1536
 
    except (IOError, AttributeError):
 
985
        width = struct.unpack('HHHH', x)[1]
 
986
    except IOError:
1537
987
        pass
1538
 
    return width, height
1539
 
 
1540
 
_terminal_size = None
1541
 
"""Returns the terminal size as (width, height).
1542
 
 
1543
 
:param width: Default value for width.
1544
 
:param height: Default value for height.
1545
 
 
1546
 
This is defined specifically for each OS and query the size of the controlling
1547
 
terminal. If any error occurs, the provided default values should be returned.
1548
 
"""
1549
 
if sys.platform == 'win32':
1550
 
    _terminal_size = _win32_terminal_size
1551
 
else:
1552
 
    _terminal_size = _ioctl_terminal_size
 
988
    if width <= 0:
 
989
        try:
 
990
            width = int(os.environ['COLUMNS'])
 
991
        except:
 
992
            pass
 
993
    if width <= 0:
 
994
        width = 80
 
995
 
 
996
    return width
1553
997
 
1554
998
 
1555
999
def supports_executable():
1583
1027
            del os.environ[env_variable]
1584
1028
    else:
1585
1029
        if isinstance(value, unicode):
1586
 
            value = value.encode(get_user_encoding())
 
1030
            value = value.encode(bzrlib.user_encoding)
1587
1031
        os.environ[env_variable] = value
1588
1032
    return orig_val
1589
1033
 
1592
1036
 
1593
1037
 
1594
1038
def check_legal_path(path):
1595
 
    """Check whether the supplied path is legal.
 
1039
    """Check whether the supplied path is legal.  
1596
1040
    This is only required on Windows, so we don't test on other platforms
1597
1041
    right now.
1598
1042
    """
1602
1046
        raise errors.IllegalPath(path)
1603
1047
 
1604
1048
 
1605
 
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
1606
 
 
1607
 
def _is_error_enotdir(e):
1608
 
    """Check if this exception represents ENOTDIR.
1609
 
 
1610
 
    Unfortunately, python is very inconsistent about the exception
1611
 
    here. The cases are:
1612
 
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
1613
 
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
1614
 
         which is the windows error code.
1615
 
      3) Windows, Python2.5 uses errno == EINVAL and
1616
 
         winerror == ERROR_DIRECTORY
1617
 
 
1618
 
    :param e: An Exception object (expected to be OSError with an errno
1619
 
        attribute, but we should be able to cope with anything)
1620
 
    :return: True if this represents an ENOTDIR error. False otherwise.
1621
 
    """
1622
 
    en = getattr(e, 'errno', None)
1623
 
    if (en == errno.ENOTDIR
1624
 
        or (sys.platform == 'win32'
1625
 
            and (en == _WIN32_ERROR_DIRECTORY
1626
 
                 or (en == errno.EINVAL
1627
 
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
1628
 
        ))):
1629
 
        return True
1630
 
    return False
1631
 
 
1632
 
 
1633
1049
def walkdirs(top, prefix=""):
1634
1050
    """Yield data about all the directories in a tree.
1635
 
 
 
1051
    
1636
1052
    This yields all the data about the contents of a directory at a time.
1637
1053
    After each directory has been yielded, if the caller has mutated the list
1638
1054
    to exclude some directories, they are then not descended into.
1639
 
 
 
1055
    
1640
1056
    The data yielded is of the form:
1641
1057
    ((directory-relpath, directory-path-from-top),
1642
 
    [(relpath, basename, kind, lstat, path-from-top), ...]),
 
1058
    [(directory-relpath, basename, kind, lstat, path-from-top), ...]),
1643
1059
     - directory-relpath is the relative path of the directory being returned
1644
1060
       with respect to top. prefix is prepended to this.
1645
 
     - directory-path-from-root is the path including top for this directory.
 
1061
     - directory-path-from-root is the path including top for this directory. 
1646
1062
       It is suitable for use with os functions.
1647
1063
     - relpath is the relative path within the subtree being walked.
1648
1064
     - basename is the basename of the path
1650
1066
       present within the tree - but it may be recorded as versioned. See
1651
1067
       versioned_kind.
1652
1068
     - lstat is the stat data *if* the file was statted.
1653
 
     - planned, not implemented:
 
1069
     - planned, not implemented: 
1654
1070
       path_from_tree_root is the path from the root of the tree.
1655
1071
 
1656
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
1072
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
1657
1073
        allows one to walk a subtree but get paths that are relative to a tree
1658
1074
        rooted higher up.
1659
1075
    :return: an iterator over the dirs.
1660
1076
    """
1661
1077
    #TODO there is a bit of a smell where the results of the directory-
1662
 
    # summary in this, and the path from the root, may not agree
 
1078
    # summary in this, and the path from the root, may not agree 
1663
1079
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
1664
1080
    # potentially confusing output. We should make this more robust - but
1665
1081
    # not at a speed cost. RBC 20060731
1666
1082
    _lstat = os.lstat
1667
1083
    _directory = _directory_kind
1668
1084
    _listdir = os.listdir
1669
 
    _kind_from_mode = file_kind_from_stat_mode
 
1085
    _kind_from_mode = _formats.get
1670
1086
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
1671
1087
    while pending:
1672
1088
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1679
1095
 
1680
1096
        dirblock = []
1681
1097
        append = dirblock.append
1682
 
        try:
1683
 
            names = sorted(map(decode_filename, _listdir(top)))
1684
 
        except OSError, e:
1685
 
            if not _is_error_enotdir(e):
1686
 
                raise
1687
 
        else:
1688
 
            for name in names:
1689
 
                abspath = top_slash + name
1690
 
                statvalue = _lstat(abspath)
1691
 
                kind = _kind_from_mode(statvalue.st_mode)
1692
 
                append((relprefix + name, name, kind, statvalue, abspath))
 
1098
        for name in sorted(_listdir(top)):
 
1099
            abspath = top_slash + name
 
1100
            statvalue = _lstat(abspath)
 
1101
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
 
1102
            append((relprefix + name, name, kind, statvalue, abspath))
1693
1103
        yield (relroot, top), dirblock
1694
1104
 
1695
1105
        # push the user specified dirs from dirblock
1696
1106
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1697
1107
 
1698
1108
 
1699
 
class DirReader(object):
1700
 
    """An interface for reading directories."""
1701
 
 
1702
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1703
 
        """Converts top and prefix to a starting dir entry
1704
 
 
1705
 
        :param top: A utf8 path
1706
 
        :param prefix: An optional utf8 path to prefix output relative paths
1707
 
            with.
1708
 
        :return: A tuple starting with prefix, and ending with the native
1709
 
            encoding of top.
1710
 
        """
1711
 
        raise NotImplementedError(self.top_prefix_to_starting_dir)
1712
 
 
1713
 
    def read_dir(self, prefix, top):
1714
 
        """Read a specific dir.
1715
 
 
1716
 
        :param prefix: A utf8 prefix to be preprended to the path basenames.
1717
 
        :param top: A natively encoded path to read.
1718
 
        :return: A list of the directories contents. Each item contains:
1719
 
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
1720
 
        """
1721
 
        raise NotImplementedError(self.read_dir)
1722
 
 
1723
 
 
1724
 
_selected_dir_reader = None
1725
 
 
1726
 
 
1727
1109
def _walkdirs_utf8(top, prefix=""):
1728
1110
    """Yield data about all the directories in a tree.
1729
1111
 
1738
1120
        path-from-top might be unicode or utf8, but it is the correct path to
1739
1121
        pass to os functions to affect the file in question. (such as os.lstat)
1740
1122
    """
1741
 
    global _selected_dir_reader
1742
 
    if _selected_dir_reader is None:
1743
 
        fs_encoding = _fs_enc.upper()
1744
 
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
1745
 
            # Win98 doesn't have unicode apis like FindFirstFileW
1746
 
            # TODO: We possibly could support Win98 by falling back to the
1747
 
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
1748
 
            #       but that gets a bit tricky, and requires custom compiling
1749
 
            #       for win98 anyway.
1750
 
            try:
1751
 
                from bzrlib._walkdirs_win32 import Win32ReadDir
1752
 
                _selected_dir_reader = Win32ReadDir()
1753
 
            except ImportError:
1754
 
                pass
1755
 
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
1756
 
            # ANSI_X3.4-1968 is a form of ASCII
1757
 
            try:
1758
 
                from bzrlib._readdir_pyx import UTF8DirReader
1759
 
                _selected_dir_reader = UTF8DirReader()
1760
 
            except ImportError, e:
1761
 
                failed_to_load_extension(e)
1762
 
                pass
1763
 
 
1764
 
    if _selected_dir_reader is None:
1765
 
        # Fallback to the python version
1766
 
        _selected_dir_reader = UnicodeDirReader()
 
1123
    fs_encoding = sys.getfilesystemencoding()
 
1124
    if (sys.platform == 'win32' or
 
1125
        fs_encoding not in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968')): # ascii
 
1126
        return _walkdirs_unicode_to_utf8(top, prefix=prefix)
 
1127
    else:
 
1128
        return _walkdirs_fs_utf8(top, prefix=prefix)
 
1129
 
 
1130
 
 
1131
def _walkdirs_fs_utf8(top, prefix=""):
 
1132
    """See _walkdirs_utf8.
 
1133
 
 
1134
    This sub-function is called when we know the filesystem is already in utf8
 
1135
    encoding. So we don't need to transcode filenames.
 
1136
    """
 
1137
    _lstat = os.lstat
 
1138
    _directory = _directory_kind
 
1139
    _listdir = os.listdir
 
1140
    _kind_from_mode = _formats.get
1767
1141
 
1768
1142
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1769
1143
    # But we don't actually uses 1-3 in pending, so set them to None
1770
 
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
1771
 
    read_dir = _selected_dir_reader.read_dir
1772
 
    _directory = _directory_kind
 
1144
    pending = [(safe_utf8(prefix), None, None, None, safe_utf8(top))]
1773
1145
    while pending:
1774
 
        relroot, _, _, _, top = pending[-1].pop()
1775
 
        if not pending[-1]:
1776
 
            pending.pop()
1777
 
        dirblock = sorted(read_dir(relroot, top))
 
1146
        relroot, _, _, _, top = pending.pop()
 
1147
        if relroot:
 
1148
            relprefix = relroot + '/'
 
1149
        else:
 
1150
            relprefix = ''
 
1151
        top_slash = top + '/'
 
1152
 
 
1153
        dirblock = []
 
1154
        append = dirblock.append
 
1155
        for name in sorted(_listdir(top)):
 
1156
            abspath = top_slash + name
 
1157
            statvalue = _lstat(abspath)
 
1158
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
 
1159
            append((relprefix + name, name, kind, statvalue, abspath))
1778
1160
        yield (relroot, top), dirblock
 
1161
 
1779
1162
        # push the user specified dirs from dirblock
1780
 
        next = [d for d in reversed(dirblock) if d[2] == _directory]
1781
 
        if next:
1782
 
            pending.append(next)
1783
 
 
1784
 
 
1785
 
class UnicodeDirReader(DirReader):
1786
 
    """A dir reader for non-utf8 file systems, which transcodes."""
1787
 
 
1788
 
    __slots__ = ['_utf8_encode']
1789
 
 
1790
 
    def __init__(self):
1791
 
        self._utf8_encode = codecs.getencoder('utf8')
1792
 
 
1793
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1794
 
        """See DirReader.top_prefix_to_starting_dir."""
1795
 
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
1796
 
 
1797
 
    def read_dir(self, prefix, top):
1798
 
        """Read a single directory from a non-utf8 file system.
1799
 
 
1800
 
        top, and the abspath element in the output are unicode, all other paths
1801
 
        are utf8. Local disk IO is done via unicode calls to listdir etc.
1802
 
 
1803
 
        This is currently the fallback code path when the filesystem encoding is
1804
 
        not UTF-8. It may be better to implement an alternative so that we can
1805
 
        safely handle paths that are not properly decodable in the current
1806
 
        encoding.
1807
 
 
1808
 
        See DirReader.read_dir for details.
1809
 
        """
1810
 
        _utf8_encode = self._utf8_encode
1811
 
        _lstat = os.lstat
1812
 
        _listdir = os.listdir
1813
 
        _kind_from_mode = file_kind_from_stat_mode
1814
 
 
1815
 
        if prefix:
1816
 
            relprefix = prefix + '/'
 
1163
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1164
 
 
1165
 
 
1166
def _walkdirs_unicode_to_utf8(top, prefix=""):
 
1167
    """See _walkdirs_utf8
 
1168
 
 
1169
    Because Win32 has a Unicode api, all of the 'path-from-top' entries will be
 
1170
    Unicode paths.
 
1171
    This is currently the fallback code path when the filesystem encoding is
 
1172
    not UTF-8. It may be better to implement an alternative so that we can
 
1173
    safely handle paths that are not properly decodable in the current
 
1174
    encoding.
 
1175
    """
 
1176
    _utf8_encode = codecs.getencoder('utf8')
 
1177
    _lstat = os.lstat
 
1178
    _directory = _directory_kind
 
1179
    _listdir = os.listdir
 
1180
    _kind_from_mode = _formats.get
 
1181
 
 
1182
    pending = [(safe_utf8(prefix), None, None, None, safe_unicode(top))]
 
1183
    while pending:
 
1184
        relroot, _, _, _, top = pending.pop()
 
1185
        if relroot:
 
1186
            relprefix = relroot + '/'
1817
1187
        else:
1818
1188
            relprefix = ''
1819
1189
        top_slash = top + u'/'
1821
1191
        dirblock = []
1822
1192
        append = dirblock.append
1823
1193
        for name in sorted(_listdir(top)):
1824
 
            try:
1825
 
                name_utf8 = _utf8_encode(name)[0]
1826
 
            except UnicodeDecodeError:
1827
 
                raise errors.BadFilenameEncoding(
1828
 
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1194
            name_utf8 = _utf8_encode(name)[0]
1829
1195
            abspath = top_slash + name
1830
1196
            statvalue = _lstat(abspath)
1831
 
            kind = _kind_from_mode(statvalue.st_mode)
 
1197
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
1832
1198
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
1833
 
        return dirblock
 
1199
        yield (relroot, top), dirblock
 
1200
 
 
1201
        # push the user specified dirs from dirblock
 
1202
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1834
1203
 
1835
1204
 
1836
1205
def copy_tree(from_path, to_path, handlers={}):
1837
1206
    """Copy all of the entries in from_path into to_path.
1838
1207
 
1839
 
    :param from_path: The base directory to copy.
 
1208
    :param from_path: The base directory to copy. 
1840
1209
    :param to_path: The target directory. If it does not exist, it will
1841
1210
        be created.
1842
1211
    :param handlers: A dictionary of functions, which takes a source and
1875
1244
            real_handlers[kind](abspath, relpath)
1876
1245
 
1877
1246
 
1878
 
def copy_ownership_from_path(dst, src=None):
1879
 
    """Copy usr/grp ownership from src file/dir to dst file/dir.
1880
 
 
1881
 
    If src is None, the containing directory is used as source. If chown
1882
 
    fails, the error is ignored and a warning is printed.
1883
 
    """
1884
 
    chown = getattr(os, 'chown', None)
1885
 
    if chown is None:
1886
 
        return
1887
 
 
1888
 
    if src == None:
1889
 
        src = os.path.dirname(dst)
1890
 
        if src == '':
1891
 
            src = '.'
1892
 
 
1893
 
    try:
1894
 
        s = os.stat(src)
1895
 
        chown(dst, s.st_uid, s.st_gid)
1896
 
    except OSError, e:
1897
 
        trace.warning(
1898
 
            'Unable to copy ownership from "%s" to "%s". '
1899
 
            'You may want to set it manually.', src, dst)
1900
 
        trace.log_exception_quietly()
1901
 
 
1902
 
 
1903
1247
def path_prefix_key(path):
1904
1248
    """Generate a prefix-order path key for path.
1905
1249
 
1936
1280
        return _cached_user_encoding
1937
1281
 
1938
1282
    if sys.platform == 'darwin':
1939
 
        # python locale.getpreferredencoding() always return
1940
 
        # 'mac-roman' on darwin. That's a lie.
 
1283
        # work around egregious python 2.4 bug
1941
1284
        sys.platform = 'posix'
1942
1285
        try:
1943
 
            if os.environ.get('LANG', None) is None:
1944
 
                # If LANG is not set, we end up with 'ascii', which is bad
1945
 
                # ('mac-roman' is more than ascii), so we set a default which
1946
 
                # will give us UTF-8 (which appears to work in all cases on
1947
 
                # OSX). Users are still free to override LANG of course, as
1948
 
                # long as it give us something meaningful. This work-around
1949
 
                # *may* not be needed with python 3k and/or OSX 10.5, but will
1950
 
                # work with them too -- vila 20080908
1951
 
                os.environ['LANG'] = 'en_US.UTF-8'
1952
1286
            import locale
1953
1287
        finally:
1954
1288
            sys.platform = 'darwin'
1969
1303
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
1970
1304
    # treat that as ASCII, and not support printing unicode characters to the
1971
1305
    # console.
1972
 
    #
1973
 
    # For python scripts run under vim, we get '', so also treat that as ASCII
1974
 
    if user_encoding in (None, 'cp0', ''):
 
1306
    if user_encoding in (None, 'cp0'):
1975
1307
        user_encoding = 'ascii'
1976
1308
    else:
1977
1309
        # check encoding
1991
1323
    return user_encoding
1992
1324
 
1993
1325
 
1994
 
def get_diff_header_encoding():
1995
 
    return get_terminal_encoding()
1996
 
 
1997
 
 
1998
 
def get_host_name():
1999
 
    """Return the current unicode host name.
2000
 
 
2001
 
    This is meant to be used in place of socket.gethostname() because that
2002
 
    behaves inconsistently on different platforms.
2003
 
    """
2004
 
    if sys.platform == "win32":
2005
 
        import win32utils
2006
 
        return win32utils.get_host_name()
2007
 
    else:
2008
 
        import socket
2009
 
        return socket.gethostname().decode(get_user_encoding())
2010
 
 
2011
 
 
2012
 
# We must not read/write any more than 64k at a time from/to a socket so we
2013
 
# don't risk "no buffer space available" errors on some platforms.  Windows in
2014
 
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
2015
 
# data at once.
2016
 
MAX_SOCKET_CHUNK = 64 * 1024
2017
 
 
2018
 
_end_of_stream_errors = [errno.ECONNRESET]
2019
 
for _eno in ['WSAECONNRESET', 'WSAECONNABORTED']:
2020
 
    _eno = getattr(errno, _eno, None)
2021
 
    if _eno is not None:
2022
 
        _end_of_stream_errors.append(_eno)
2023
 
del _eno
2024
 
 
2025
 
 
2026
 
def read_bytes_from_socket(sock, report_activity=None,
2027
 
        max_read_size=MAX_SOCKET_CHUNK):
2028
 
    """Read up to max_read_size of bytes from sock and notify of progress.
2029
 
 
2030
 
    Translates "Connection reset by peer" into file-like EOF (return an
2031
 
    empty string rather than raise an error), and repeats the recv if
2032
 
    interrupted by a signal.
2033
 
    """
2034
 
    while 1:
2035
 
        try:
2036
 
            bytes = sock.recv(max_read_size)
2037
 
        except socket.error, e:
2038
 
            eno = e.args[0]
2039
 
            if eno in _end_of_stream_errors:
2040
 
                # The connection was closed by the other side.  Callers expect
2041
 
                # an empty string to signal end-of-stream.
2042
 
                return ""
2043
 
            elif eno == errno.EINTR:
2044
 
                # Retry the interrupted recv.
2045
 
                continue
2046
 
            raise
2047
 
        else:
2048
 
            if report_activity is not None:
2049
 
                report_activity(len(bytes), 'read')
2050
 
            return bytes
2051
 
 
2052
 
 
2053
 
def recv_all(socket, count):
 
1326
def recv_all(socket, bytes):
2054
1327
    """Receive an exact number of bytes.
2055
1328
 
2056
1329
    Regular Socket.recv() may return less than the requested number of bytes,
2057
 
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
1330
    dependning on what's in the OS buffer.  MSG_WAITALL is not available
2058
1331
    on all platforms, but this should work everywhere.  This will return
2059
1332
    less than the requested amount if the remote end closes.
2060
1333
 
2061
1334
    This isn't optimized and is intended mostly for use in testing.
2062
1335
    """
2063
1336
    b = ''
2064
 
    while len(b) < count:
2065
 
        new = read_bytes_from_socket(socket, None, count - len(b))
 
1337
    while len(b) < bytes:
 
1338
        new = socket.recv(bytes - len(b))
2066
1339
        if new == '':
2067
1340
            break # eof
2068
1341
        b += new
2069
1342
    return b
2070
1343
 
2071
 
 
2072
 
def send_all(sock, bytes, report_activity=None):
2073
 
    """Send all bytes on a socket.
2074
 
 
2075
 
    Breaks large blocks in smaller chunks to avoid buffering limitations on
2076
 
    some platforms, and catches EINTR which may be thrown if the send is
2077
 
    interrupted by a signal.
2078
 
 
2079
 
    This is preferred to socket.sendall(), because it avoids portability bugs
2080
 
    and provides activity reporting.
2081
 
 
2082
 
    :param report_activity: Call this as bytes are read, see
2083
 
        Transport._report_activity
2084
 
    """
2085
 
    sent_total = 0
2086
 
    byte_count = len(bytes)
2087
 
    while sent_total < byte_count:
2088
 
        try:
2089
 
            sent = sock.send(buffer(bytes, sent_total, MAX_SOCKET_CHUNK))
2090
 
        except socket.error, e:
2091
 
            if e.args[0] != errno.EINTR:
2092
 
                raise
2093
 
        else:
2094
 
            sent_total += sent
2095
 
            report_activity(sent, 'write')
2096
 
 
2097
 
 
2098
 
def connect_socket(address):
2099
 
    # Slight variation of the socket.create_connection() function (provided by
2100
 
    # python-2.6) that can fail if getaddrinfo returns an empty list. We also
2101
 
    # provide it for previous python versions. Also, we don't use the timeout
2102
 
    # parameter (provided by the python implementation) so we don't implement
2103
 
    # it either).
2104
 
    err = socket.error('getaddrinfo returns an empty list')
2105
 
    host, port = address
2106
 
    for res in socket.getaddrinfo(host, port, 0, socket.SOCK_STREAM):
2107
 
        af, socktype, proto, canonname, sa = res
2108
 
        sock = None
2109
 
        try:
2110
 
            sock = socket.socket(af, socktype, proto)
2111
 
            sock.connect(sa)
2112
 
            return sock
2113
 
 
2114
 
        except socket.error, err:
2115
 
            # 'err' is now the most recent error
2116
 
            if sock is not None:
2117
 
                sock.close()
2118
 
    raise err
2119
 
 
2120
 
 
2121
1344
def dereference_path(path):
2122
1345
    """Determine the real path to a file.
2123
1346
 
2130
1353
    # The pathjoin for '.' is a workaround for Python bug #1213894.
2131
1354
    # (initial path components aren't dereferenced)
2132
1355
    return pathjoin(realpath(pathjoin('.', parent)), base)
2133
 
 
2134
 
 
2135
 
def supports_mapi():
2136
 
    """Return True if we can use MAPI to launch a mail client."""
2137
 
    return sys.platform == "win32"
2138
 
 
2139
 
 
2140
 
def resource_string(package, resource_name):
2141
 
    """Load a resource from a package and return it as a string.
2142
 
 
2143
 
    Note: Only packages that start with bzrlib are currently supported.
2144
 
 
2145
 
    This is designed to be a lightweight implementation of resource
2146
 
    loading in a way which is API compatible with the same API from
2147
 
    pkg_resources. See
2148
 
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
2149
 
    If and when pkg_resources becomes a standard library, this routine
2150
 
    can delegate to it.
2151
 
    """
2152
 
    # Check package name is within bzrlib
2153
 
    if package == "bzrlib":
2154
 
        resource_relpath = resource_name
2155
 
    elif package.startswith("bzrlib."):
2156
 
        package = package[len("bzrlib."):].replace('.', os.sep)
2157
 
        resource_relpath = pathjoin(package, resource_name)
2158
 
    else:
2159
 
        raise errors.BzrError('resource package %s not in bzrlib' % package)
2160
 
 
2161
 
    # Map the resource to a file and read its contents
2162
 
    base = dirname(bzrlib.__file__)
2163
 
    if getattr(sys, 'frozen', None):    # bzr.exe
2164
 
        base = abspath(pathjoin(base, '..', '..'))
2165
 
    f = file(pathjoin(base, resource_relpath), "rU")
2166
 
    try:
2167
 
        return f.read()
2168
 
    finally:
2169
 
        f.close()
2170
 
 
2171
 
def file_kind_from_stat_mode_thunk(mode):
2172
 
    global file_kind_from_stat_mode
2173
 
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
2174
 
        try:
2175
 
            from bzrlib._readdir_pyx import UTF8DirReader
2176
 
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
2177
 
        except ImportError, e:
2178
 
            # This is one time where we won't warn that an extension failed to
2179
 
            # load. The extension is never available on Windows anyway.
2180
 
            from bzrlib._readdir_py import (
2181
 
                _kind_from_mode as file_kind_from_stat_mode
2182
 
                )
2183
 
    return file_kind_from_stat_mode(mode)
2184
 
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
2185
 
 
2186
 
 
2187
 
def file_kind(f, _lstat=os.lstat):
2188
 
    try:
2189
 
        return file_kind_from_stat_mode(_lstat(f).st_mode)
2190
 
    except OSError, e:
2191
 
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
2192
 
            raise errors.NoSuchFile(f)
2193
 
        raise
2194
 
 
2195
 
 
2196
 
def until_no_eintr(f, *a, **kw):
2197
 
    """Run f(*a, **kw), retrying if an EINTR error occurs.
2198
 
 
2199
 
    WARNING: you must be certain that it is safe to retry the call repeatedly
2200
 
    if EINTR does occur.  This is typically only true for low-level operations
2201
 
    like os.read.  If in any doubt, don't use this.
2202
 
 
2203
 
    Keep in mind that this is not a complete solution to EINTR.  There is
2204
 
    probably code in the Python standard library and other dependencies that
2205
 
    may encounter EINTR if a signal arrives (and there is signal handler for
2206
 
    that signal).  So this function can reduce the impact for IO that bzrlib
2207
 
    directly controls, but it is not a complete solution.
2208
 
    """
2209
 
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
2210
 
    while True:
2211
 
        try:
2212
 
            return f(*a, **kw)
2213
 
        except (IOError, OSError), e:
2214
 
            if e.errno == errno.EINTR:
2215
 
                continue
2216
 
            raise
2217
 
 
2218
 
 
2219
 
@deprecated_function(deprecated_in((2, 2, 0)))
2220
 
def re_compile_checked(re_string, flags=0, where=""):
2221
 
    """Return a compiled re, or raise a sensible error.
2222
 
 
2223
 
    This should only be used when compiling user-supplied REs.
2224
 
 
2225
 
    :param re_string: Text form of regular expression.
2226
 
    :param flags: eg re.IGNORECASE
2227
 
    :param where: Message explaining to the user the context where
2228
 
        it occurred, eg 'log search filter'.
2229
 
    """
2230
 
    # from https://bugs.launchpad.net/bzr/+bug/251352
2231
 
    try:
2232
 
        re_obj = re.compile(re_string, flags)
2233
 
        re_obj.search("")
2234
 
        return re_obj
2235
 
    except errors.InvalidPattern, e:
2236
 
        if where:
2237
 
            where = ' in ' + where
2238
 
        # despite the name 'error' is a type
2239
 
        raise errors.BzrCommandError('Invalid regular expression%s: %s'
2240
 
            % (where, e.msg))
2241
 
 
2242
 
 
2243
 
if sys.platform == "win32":
2244
 
    import msvcrt
2245
 
    def getchar():
2246
 
        return msvcrt.getch()
2247
 
else:
2248
 
    import tty
2249
 
    import termios
2250
 
    def getchar():
2251
 
        fd = sys.stdin.fileno()
2252
 
        settings = termios.tcgetattr(fd)
2253
 
        try:
2254
 
            tty.setraw(fd)
2255
 
            ch = sys.stdin.read(1)
2256
 
        finally:
2257
 
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
2258
 
        return ch
2259
 
 
2260
 
if sys.platform == 'linux2':
2261
 
    def _local_concurrency():
2262
 
        try:
2263
 
            return os.sysconf('SC_NPROCESSORS_ONLN')
2264
 
        except (ValueError, OSError, AttributeError):
2265
 
            return None
2266
 
elif sys.platform == 'darwin':
2267
 
    def _local_concurrency():
2268
 
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
2269
 
                                stdout=subprocess.PIPE).communicate()[0]
2270
 
elif "bsd" in sys.platform:
2271
 
    def _local_concurrency():
2272
 
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
2273
 
                                stdout=subprocess.PIPE).communicate()[0]
2274
 
elif sys.platform == 'sunos5':
2275
 
    def _local_concurrency():
2276
 
        return subprocess.Popen(['psrinfo', '-p',],
2277
 
                                stdout=subprocess.PIPE).communicate()[0]
2278
 
elif sys.platform == "win32":
2279
 
    def _local_concurrency():
2280
 
        # This appears to return the number of cores.
2281
 
        return os.environ.get('NUMBER_OF_PROCESSORS')
2282
 
else:
2283
 
    def _local_concurrency():
2284
 
        # Who knows ?
2285
 
        return None
2286
 
 
2287
 
 
2288
 
_cached_local_concurrency = None
2289
 
 
2290
 
def local_concurrency(use_cache=True):
2291
 
    """Return how many processes can be run concurrently.
2292
 
 
2293
 
    Rely on platform specific implementations and default to 1 (one) if
2294
 
    anything goes wrong.
2295
 
    """
2296
 
    global _cached_local_concurrency
2297
 
 
2298
 
    if _cached_local_concurrency is not None and use_cache:
2299
 
        return _cached_local_concurrency
2300
 
 
2301
 
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
2302
 
    if concurrency is None:
2303
 
        try:
2304
 
            import multiprocessing
2305
 
        except ImportError:
2306
 
            # multiprocessing is only available on Python >= 2.6
2307
 
            try:
2308
 
                concurrency = _local_concurrency()
2309
 
            except (OSError, IOError):
2310
 
                pass
2311
 
        else:
2312
 
            concurrency = multiprocessing.cpu_count()
2313
 
    try:
2314
 
        concurrency = int(concurrency)
2315
 
    except (TypeError, ValueError):
2316
 
        concurrency = 1
2317
 
    if use_cache:
2318
 
        _cached_concurrency = concurrency
2319
 
    return concurrency
2320
 
 
2321
 
 
2322
 
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
2323
 
    """A stream writer that doesn't decode str arguments."""
2324
 
 
2325
 
    def __init__(self, encode, stream, errors='strict'):
2326
 
        codecs.StreamWriter.__init__(self, stream, errors)
2327
 
        self.encode = encode
2328
 
 
2329
 
    def write(self, object):
2330
 
        if type(object) is str:
2331
 
            self.stream.write(object)
2332
 
        else:
2333
 
            data, _ = self.encode(object, self.errors)
2334
 
            self.stream.write(data)
2335
 
 
2336
 
if sys.platform == 'win32':
2337
 
    def open_file(filename, mode='r', bufsize=-1):
2338
 
        """This function is used to override the ``open`` builtin.
2339
 
 
2340
 
        But it uses O_NOINHERIT flag so the file handle is not inherited by
2341
 
        child processes.  Deleting or renaming a closed file opened with this
2342
 
        function is not blocking child processes.
2343
 
        """
2344
 
        writing = 'w' in mode
2345
 
        appending = 'a' in mode
2346
 
        updating = '+' in mode
2347
 
        binary = 'b' in mode
2348
 
 
2349
 
        flags = O_NOINHERIT
2350
 
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
2351
 
        # for flags for each modes.
2352
 
        if binary:
2353
 
            flags |= O_BINARY
2354
 
        else:
2355
 
            flags |= O_TEXT
2356
 
 
2357
 
        if writing:
2358
 
            if updating:
2359
 
                flags |= os.O_RDWR
2360
 
            else:
2361
 
                flags |= os.O_WRONLY
2362
 
            flags |= os.O_CREAT | os.O_TRUNC
2363
 
        elif appending:
2364
 
            if updating:
2365
 
                flags |= os.O_RDWR
2366
 
            else:
2367
 
                flags |= os.O_WRONLY
2368
 
            flags |= os.O_CREAT | os.O_APPEND
2369
 
        else: #reading
2370
 
            if updating:
2371
 
                flags |= os.O_RDWR
2372
 
            else:
2373
 
                flags |= os.O_RDONLY
2374
 
 
2375
 
        return os.fdopen(os.open(filename, flags), mode, bufsize)
2376
 
else:
2377
 
    open_file = open
2378
 
 
2379
 
 
2380
 
def getuser_unicode():
2381
 
    """Return the username as unicode.
2382
 
    """
2383
 
    try:
2384
 
        user_encoding = get_user_encoding()
2385
 
        username = getpass.getuser().decode(user_encoding)
2386
 
    except UnicodeDecodeError:
2387
 
        raise errors.BzrError("Can't decode username as %s." % \
2388
 
                user_encoding)
2389
 
    return username
2390
 
 
2391
 
 
2392
 
def available_backup_name(base, exists):
2393
 
    """Find a non-existing backup file name.
2394
 
 
2395
 
    This will *not* create anything, this only return a 'free' entry.  This
2396
 
    should be used for checking names in a directory below a locked
2397
 
    tree/branch/repo to avoid race conditions. This is LBYL (Look Before You
2398
 
    Leap) and generally discouraged.
2399
 
 
2400
 
    :param base: The base name.
2401
 
 
2402
 
    :param exists: A callable returning True if the path parameter exists.
2403
 
    """
2404
 
    counter = 1
2405
 
    name = "%s.~%d~" % (base, counter)
2406
 
    while exists(name):
2407
 
        counter += 1
2408
 
        name = "%s.~%d~" % (base, counter)
2409
 
    return name
2410
 
 
2411
 
 
2412
 
def set_fd_cloexec(fd):
2413
 
    """Set a Unix file descriptor's FD_CLOEXEC flag.  Do nothing if platform
2414
 
    support for this is not available.
2415
 
    """
2416
 
    try:
2417
 
        import fcntl
2418
 
        old = fcntl.fcntl(fd, fcntl.F_GETFD)
2419
 
        fcntl.fcntl(fd, fcntl.F_SETFD, old | fcntl.FD_CLOEXEC)
2420
 
    except (ImportError, AttributeError):
2421
 
        # Either the fcntl module or specific constants are not present
2422
 
        pass
2423
 
 
2424
 
 
2425
 
def find_executable_on_path(name):
2426
 
    """Finds an executable on the PATH.
2427
 
    
2428
 
    On Windows, this will try to append each extension in the PATHEXT
2429
 
    environment variable to the name, if it cannot be found with the name
2430
 
    as given.
2431
 
    
2432
 
    :param name: The base name of the executable.
2433
 
    :return: The path to the executable found or None.
2434
 
    """
2435
 
    path = os.environ.get('PATH')
2436
 
    if path is None:
2437
 
        return None
2438
 
    path = path.split(os.pathsep)
2439
 
    if sys.platform == 'win32':
2440
 
        exts = os.environ.get('PATHEXT', '').split(os.pathsep)
2441
 
        exts = [ext.lower() for ext in exts]
2442
 
        base, ext = os.path.splitext(name)
2443
 
        if ext != '':
2444
 
            if ext.lower() not in exts:
2445
 
                return None
2446
 
            name = base
2447
 
            exts = [ext]
2448
 
    else:
2449
 
        exts = ['']
2450
 
    for ext in exts:
2451
 
        for d in path:
2452
 
            f = os.path.join(d, name) + ext
2453
 
            if os.access(f, os.X_OK):
2454
 
                return f
2455
 
    return None