/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: John Arbash Meinel
  • Author(s): Mark Hammond
  • Date: 2008-09-09 17:02:21 UTC
  • mto: This revision was merged to the branch mainline in revision 3697.
  • Revision ID: john@arbash-meinel.com-20080909170221-svim3jw2mrz0amp3
An updated transparent icon for bzr.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
from __future__ import absolute_import
18
 
 
19
 
import errno
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
16
 
 
17
from cStringIO import StringIO
20
18
import os
21
19
import re
22
20
import stat
 
21
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
22
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
23
23
import sys
24
24
import time
 
25
 
 
26
from bzrlib.lazy_import import lazy_import
 
27
lazy_import(globals(), """
25
28
import codecs
26
 
 
27
 
from .lazy_import import lazy_import
28
 
lazy_import(globals(), """
29
29
from datetime import datetime
30
 
import getpass
31
 
import locale
32
 
import ntpath
 
30
import errno
 
31
from ntpath import (abspath as _nt_abspath,
 
32
                    join as _nt_join,
 
33
                    normpath as _nt_normpath,
 
34
                    realpath as _nt_realpath,
 
35
                    splitdrive as _nt_splitdrive,
 
36
                    )
33
37
import posixpath
34
 
import select
35
 
# We need to import both shutil and rmtree as we export the later on posix
36
 
# and need the former on windows
 
38
import sha
37
39
import shutil
38
 
from shutil import rmtree
39
 
import socket
40
 
import subprocess
41
 
# We need to import both tempfile and mkdtemp as we export the later on posix
42
 
# and need the former on windows
 
40
from shutil import (
 
41
    rmtree,
 
42
    )
43
43
import tempfile
44
 
from tempfile import mkdtemp
 
44
from tempfile import (
 
45
    mkdtemp,
 
46
    )
45
47
import unicodedata
46
48
 
47
 
from breezy import (
48
 
    config,
49
 
    trace,
 
49
from bzrlib import (
 
50
    cache_utf8,
 
51
    errors,
50
52
    win32utils,
51
53
    )
52
 
from breezy.i18n import gettext
53
54
""")
54
55
 
55
 
from .sixish import (
56
 
    PY3,
57
 
    text_type,
58
 
    )
59
 
 
60
 
from hashlib import (
61
 
    md5,
62
 
    sha1 as sha,
63
 
    )
64
 
 
65
 
 
66
 
import breezy
67
 
from . import (
68
 
    _fs_enc,
69
 
    errors,
70
 
    )
71
 
 
72
 
 
73
 
# Cross platform wall-clock time functionality with decent resolution.
74
 
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
75
 
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
76
 
# synchronized with ``time.time()``, this is only meant to be used to find
77
 
# delta times by subtracting from another call to this function.
78
 
timer_func = time.time
79
 
if sys.platform == 'win32':
80
 
    timer_func = time.clock
 
56
 
 
57
import bzrlib
 
58
from bzrlib import symbol_versioning
 
59
from bzrlib.symbol_versioning import (
 
60
    deprecated_function,
 
61
    )
 
62
from bzrlib.trace import mutter
 
63
 
81
64
 
82
65
# On win32, O_BINARY is used to indicate the file should
83
66
# be opened in binary mode, rather than text mode.
84
67
# On other platforms, O_BINARY doesn't exist, because
85
68
# they always open in binary mode, so it is okay to
86
 
# OR with 0 on those platforms.
87
 
# O_NOINHERIT and O_TEXT exists only on win32 too.
 
69
# OR with 0 on those platforms
88
70
O_BINARY = getattr(os, 'O_BINARY', 0)
89
 
O_TEXT = getattr(os, 'O_TEXT', 0)
90
 
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
91
 
 
92
 
 
93
 
class UnsupportedTimezoneFormat(errors.BzrError):
94
 
 
95
 
    _fmt = ('Unsupported timezone format "%(timezone)s", '
96
 
            'options are "utc", "original", "local".')
97
 
 
98
 
    def __init__(self, timezone):
99
 
        self.timezone = timezone
100
 
 
101
 
 
102
 
def get_unicode_argv():
103
 
    if PY3:
104
 
        return sys.argv[1:]
105
 
    try:
106
 
        user_encoding = get_user_encoding()
107
 
        return [a.decode(user_encoding) for a in sys.argv[1:]]
108
 
    except UnicodeDecodeError:
109
 
        raise errors.BzrError(gettext("Parameter {0!r} encoding is unsupported by {1} "
110
 
            "application locale.").format(a, user_encoding))
111
71
 
112
72
 
113
73
def make_readonly(filename):
114
74
    """Make a filename read-only."""
115
75
    mod = os.lstat(filename).st_mode
116
76
    if not stat.S_ISLNK(mod):
117
 
        mod = mod & 0o777555
118
 
        chmod_if_possible(filename, mod)
 
77
        mod = mod & 0777555
 
78
        os.chmod(filename, mod)
119
79
 
120
80
 
121
81
def make_writable(filename):
122
82
    mod = os.lstat(filename).st_mode
123
83
    if not stat.S_ISLNK(mod):
124
 
        mod = mod | 0o200
125
 
        chmod_if_possible(filename, mod)
126
 
 
127
 
 
128
 
def chmod_if_possible(filename, mode):
129
 
    # Set file mode if that can be safely done.
130
 
    # Sometimes even on unix the filesystem won't allow it - see
131
 
    # https://bugs.launchpad.net/bzr/+bug/606537
132
 
    try:
133
 
        # It is probably faster to just do the chmod, rather than
134
 
        # doing a stat, and then trying to compare
135
 
        os.chmod(filename, mode)
136
 
    except (IOError, OSError) as e:
137
 
        # Permission/access denied seems to commonly happen on smbfs; there's
138
 
        # probably no point warning about it.
139
 
        # <https://bugs.launchpad.net/bzr/+bug/606537>
140
 
        if getattr(e, 'errno') in (errno.EPERM, errno.EACCES):
141
 
            trace.mutter("ignore error on chmod of %r: %r" % (
142
 
                filename, e))
143
 
            return
144
 
        raise
 
84
        mod = mod | 0200
 
85
        os.chmod(filename, mod)
145
86
 
146
87
 
147
88
def minimum_path_selection(paths):
149
90
 
150
91
    :param paths: A container (and hence not None) of paths.
151
92
    :return: A set of paths sufficient to include everything in paths via
152
 
        is_inside, drawn from the paths parameter.
 
93
        is_inside_any, drawn from the paths parameter.
153
94
    """
154
 
    if len(paths) < 2:
155
 
        return set(paths)
156
 
 
157
 
    def sort_key(path):
158
 
        return path.split('/')
159
 
    sorted_paths = sorted(list(paths), key=sort_key)
160
 
 
161
 
    search_paths = [sorted_paths[0]]
162
 
    for path in sorted_paths[1:]:
163
 
        if not is_inside(search_paths[-1], path):
164
 
            # This path is unique, add it
165
 
            search_paths.append(path)
166
 
 
167
 
    return set(search_paths)
 
95
    search_paths = set()
 
96
    paths = set(paths)
 
97
    for path in paths:
 
98
        other_paths = paths.difference([path])
 
99
        if not is_inside_any(other_paths, path):
 
100
            # this is a top level path, we must check it.
 
101
            search_paths.add(path)
 
102
    return search_paths
168
103
 
169
104
 
170
105
_QUOTE_RE = None
179
114
    global _QUOTE_RE
180
115
    if _QUOTE_RE is None:
181
116
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
182
 
 
 
117
        
183
118
    if _QUOTE_RE.search(f):
184
119
        return '"' + f + '"'
185
120
    else:
188
123
 
189
124
_directory_kind = 'directory'
190
125
 
 
126
_formats = {
 
127
    stat.S_IFDIR:_directory_kind,
 
128
    stat.S_IFCHR:'chardev',
 
129
    stat.S_IFBLK:'block',
 
130
    stat.S_IFREG:'file',
 
131
    stat.S_IFIFO:'fifo',
 
132
    stat.S_IFLNK:'symlink',
 
133
    stat.S_IFSOCK:'socket',
 
134
}
 
135
 
 
136
 
 
137
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
 
138
    """Generate a file kind from a stat mode. This is used in walkdirs.
 
139
 
 
140
    Its performance is critical: Do not mutate without careful benchmarking.
 
141
    """
 
142
    try:
 
143
        return _formats[stat_mode & 0170000]
 
144
    except KeyError:
 
145
        return _unknown
 
146
 
 
147
 
 
148
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
 
149
    try:
 
150
        return _mapper(_lstat(f).st_mode)
 
151
    except OSError, e:
 
152
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
153
            raise errors.NoSuchFile(f)
 
154
        raise
 
155
 
 
156
 
191
157
def get_umask():
192
158
    """Return the current umask"""
193
159
    # Assume that people aren't messing with the umask while running
210
176
    try:
211
177
        return _kind_marker_map[kind]
212
178
    except KeyError:
213
 
        # Slightly faster than using .get(, '') when the common case is that
214
 
        # kind will be found
215
 
        return ''
 
179
        raise errors.BzrError('invalid file kind %r' % kind)
216
180
 
217
181
 
218
182
lexists = getattr(os.path, 'lexists', None)
222
186
            stat = getattr(os, 'lstat', os.stat)
223
187
            stat(f)
224
188
            return True
225
 
        except OSError as e:
 
189
        except OSError, e:
226
190
            if e.errno == errno.ENOENT:
227
191
                return False;
228
192
            else:
229
 
                raise errors.BzrError(gettext("lstat/stat of ({0!r}): {1!r}").format(f, e))
 
193
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
230
194
 
231
195
 
232
196
def fancy_rename(old, new, rename_func, unlink_func):
233
197
    """A fancy rename, when you don't have atomic rename.
234
 
 
 
198
    
235
199
    :param old: The old path, to rename from
236
200
    :param new: The new path, to rename to
237
201
    :param rename_func: The potentially non-atomic rename function
238
 
    :param unlink_func: A way to delete the target file if the full rename
239
 
        succeeds
 
202
    :param unlink_func: A way to delete the target file if the full rename succeeds
240
203
    """
 
204
 
241
205
    # sftp rename doesn't allow overwriting, so play tricks:
 
206
    import random
242
207
    base = os.path.basename(new)
243
208
    dirname = os.path.dirname(new)
244
 
    # callers use different encodings for the paths so the following MUST
245
 
    # respect that. We rely on python upcasting to unicode if new is unicode
246
 
    # and keeping a str if not.
247
 
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
248
 
                                      os.getpid(), rand_chars(10))
 
209
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
249
210
    tmp_name = pathjoin(dirname, tmp_name)
250
211
 
251
212
    # Rename the file out of the way, but keep track if it didn't exist
256
217
    file_existed = False
257
218
    try:
258
219
        rename_func(new, tmp_name)
259
 
    except (errors.NoSuchFile,) as e:
 
220
    except (errors.NoSuchFile,), e:
260
221
        pass
261
 
    except IOError as e:
 
222
    except IOError, e:
262
223
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
263
224
        # function raises an IOError with errno is None when a rename fails.
264
225
        # This then gets caught here.
265
226
        if e.errno not in (None, errno.ENOENT, errno.ENOTDIR):
266
227
            raise
267
 
    except Exception as e:
 
228
    except Exception, e:
268
229
        if (getattr(e, 'errno', None) is None
269
230
            or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
270
231
            raise
273
234
 
274
235
    success = False
275
236
    try:
276
 
        # This may throw an exception, in which case success will
277
 
        # not be set.
278
 
        rename_func(old, new)
279
 
        success = True
280
 
    except (IOError, OSError) as e:
281
 
        # source and target may be aliases of each other (e.g. on a
282
 
        # case-insensitive filesystem), so we may have accidentally renamed
283
 
        # source by when we tried to rename target
284
 
        if (file_existed and e.errno in (None, errno.ENOENT)
285
 
            and old.lower() == new.lower()):
286
 
            # source and target are the same file on a case-insensitive
287
 
            # filesystem, so we don't generate an exception
288
 
            pass
289
 
        else:
290
 
            raise
 
237
        try:
 
238
            # This may throw an exception, in which case success will
 
239
            # not be set.
 
240
            rename_func(old, new)
 
241
            success = True
 
242
        except (IOError, OSError), e:
 
243
            # source and target may be aliases of each other (e.g. on a
 
244
            # case-insensitive filesystem), so we may have accidentally renamed
 
245
            # source by when we tried to rename target
 
246
            if not (file_existed and e.errno in (None, errno.ENOENT)):
 
247
                raise
291
248
    finally:
292
249
        if file_existed:
293
250
            # If the file used to exist, rename it back into place
302
259
# choke on a Unicode string containing a relative path if
303
260
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
304
261
# string.
 
262
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
305
263
def _posix_abspath(path):
306
264
    # jam 20060426 rather than encoding to fsencoding
307
265
    # copy posixpath.abspath, but use os.getcwdu instead
308
266
    if not posixpath.isabs(path):
309
267
        path = posixpath.join(getcwd(), path)
310
 
    return _posix_normpath(path)
 
268
    return posixpath.normpath(path)
311
269
 
312
270
 
313
271
def _posix_realpath(path):
314
272
    return posixpath.realpath(path.encode(_fs_enc)).decode(_fs_enc)
315
273
 
316
274
 
317
 
def _posix_normpath(path):
318
 
    path = posixpath.normpath(path)
319
 
    # Bug 861008: posixpath.normpath() returns a path normalized according to
320
 
    # the POSIX standard, which stipulates (for compatibility reasons) that two
321
 
    # leading slashes must not be simplified to one, and only if there are 3 or
322
 
    # more should they be simplified as one. So we treat the leading 2 slashes
323
 
    # as a special case here by simply removing the first slash, as we consider
324
 
    # that breaking POSIX compatibility for this obscure feature is acceptable.
325
 
    # This is not a paranoid precaution, as we notably get paths like this when
326
 
    # the repo is hosted at the root of the filesystem, i.e. in "/".    
327
 
    if path.startswith('//'):
328
 
        path = path[1:]
329
 
    return path
330
 
 
331
 
 
332
 
def _posix_path_from_environ(key):
333
 
    """Get unicode path from `key` in environment or None if not present
334
 
 
335
 
    Note that posix systems use arbitrary byte strings for filesystem objects,
336
 
    so a path that raises BadFilenameEncoding here may still be accessible.
337
 
    """
338
 
    val = os.environ.get(key, None)
339
 
    if PY3 or val is None:
340
 
        return val
341
 
    try:
342
 
        return val.decode(_fs_enc)
343
 
    except UnicodeDecodeError:
344
 
        # GZ 2011-12-12:Ideally want to include `key` in the exception message
345
 
        raise errors.BadFilenameEncoding(val, _fs_enc)
346
 
 
347
 
 
348
 
def _posix_get_home_dir():
349
 
    """Get the home directory of the current user as a unicode path"""
350
 
    path = posixpath.expanduser("~")
351
 
    try:
352
 
        return path.decode(_fs_enc)
353
 
    except AttributeError:
354
 
        return path
355
 
    except UnicodeDecodeError:
356
 
        raise errors.BadFilenameEncoding(path, _fs_enc)
357
 
 
358
 
 
359
 
def _posix_getuser_unicode():
360
 
    """Get username from environment or password database as unicode"""
361
 
    name = getpass.getuser()
362
 
    if PY3:
363
 
        return name
364
 
    user_encoding = get_user_encoding()
365
 
    try:
366
 
        return name.decode(user_encoding)
367
 
    except UnicodeDecodeError:
368
 
        raise errors.BzrError("Encoding of username %r is unsupported by %s "
369
 
            "application locale." % (name, user_encoding))
370
 
 
371
 
 
372
275
def _win32_fixdrive(path):
373
276
    """Force drive letters to be consistent.
374
277
 
378
281
    running python.exe under cmd.exe return capital C:\\
379
282
    running win32 python inside a cygwin shell returns lowercase c:\\
380
283
    """
381
 
    drive, path = ntpath.splitdrive(path)
 
284
    drive, path = _nt_splitdrive(path)
382
285
    return drive.upper() + path
383
286
 
384
287
 
385
288
def _win32_abspath(path):
386
 
    # Real ntpath.abspath doesn't have a problem with a unicode cwd
387
 
    return _win32_fixdrive(ntpath.abspath(path).replace('\\', '/'))
 
289
    # Real _nt_abspath doesn't have a problem with a unicode cwd
 
290
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
 
291
 
 
292
 
 
293
def _win98_abspath(path):
 
294
    """Return the absolute version of a path.
 
295
    Windows 98 safe implementation (python reimplementation
 
296
    of Win32 API function GetFullPathNameW)
 
297
    """
 
298
    # Corner cases:
 
299
    #   C:\path     => C:/path
 
300
    #   C:/path     => C:/path
 
301
    #   \\HOST\path => //HOST/path
 
302
    #   //HOST/path => //HOST/path
 
303
    #   path        => C:/cwd/path
 
304
    #   /path       => C:/path
 
305
    path = unicode(path)
 
306
    # check for absolute path
 
307
    drive = _nt_splitdrive(path)[0]
 
308
    if drive == '' and path[:2] not in('//','\\\\'):
 
309
        cwd = os.getcwdu()
 
310
        # we cannot simply os.path.join cwd and path
 
311
        # because os.path.join('C:','/path') produce '/path'
 
312
        # and this is incorrect
 
313
        if path[:1] in ('/','\\'):
 
314
            cwd = _nt_splitdrive(cwd)[0]
 
315
            path = path[1:]
 
316
        path = cwd + '\\' + path
 
317
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
 
318
 
 
319
if win32utils.winver == 'Windows 98':
 
320
    _win32_abspath = _win98_abspath
388
321
 
389
322
 
390
323
def _win32_realpath(path):
391
 
    # Real ntpath.realpath doesn't have a problem with a unicode cwd
392
 
    return _win32_fixdrive(ntpath.realpath(path).replace('\\', '/'))
 
324
    # Real _nt_realpath doesn't have a problem with a unicode cwd
 
325
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
393
326
 
394
327
 
395
328
def _win32_pathjoin(*args):
396
 
    return ntpath.join(*args).replace('\\', '/')
 
329
    return _nt_join(*args).replace('\\', '/')
397
330
 
398
331
 
399
332
def _win32_normpath(path):
400
 
    return _win32_fixdrive(ntpath.normpath(path).replace('\\', '/'))
 
333
    return _win32_fixdrive(_nt_normpath(unicode(path)).replace('\\', '/'))
401
334
 
402
335
 
403
336
def _win32_getcwd():
404
 
    return _win32_fixdrive(_getcwd().replace('\\', '/'))
 
337
    return _win32_fixdrive(os.getcwdu().replace('\\', '/'))
405
338
 
406
339
 
407
340
def _win32_mkdtemp(*args, **kwargs):
412
345
    """We expect to be able to atomically replace 'new' with old.
413
346
 
414
347
    On win32, if new exists, it must be moved out of the way first,
415
 
    and then deleted.
 
348
    and then deleted. 
416
349
    """
417
350
    try:
418
351
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
419
 
    except OSError as e:
 
352
    except OSError, e:
420
353
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
421
 
            # If we try to rename a non-existant file onto cwd, we get
422
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
354
            # If we try to rename a non-existant file onto cwd, we get 
 
355
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
423
356
            # if the old path doesn't exist, sometimes we get EACCES
424
357
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
425
358
            os.lstat(old)
427
360
 
428
361
 
429
362
def _mac_getcwd():
430
 
    return unicodedata.normalize('NFC', _getcwd())
431
 
 
432
 
 
433
 
def _rename_wrap_exception(rename_func):
434
 
    """Adds extra information to any exceptions that come from rename().
435
 
 
436
 
    The exception has an updated message and 'old_filename' and 'new_filename'
437
 
    attributes.
438
 
    """
439
 
 
440
 
    def _rename_wrapper(old, new):
441
 
        try:
442
 
            rename_func(old, new)
443
 
        except OSError as e:
444
 
            detailed_error = OSError(e.errno, e.strerror +
445
 
                                " [occurred when renaming '%s' to '%s']" %
446
 
                                (old, new))
447
 
            detailed_error.old_filename = old
448
 
            detailed_error.new_filename = new
449
 
            raise detailed_error
450
 
 
451
 
    return _rename_wrapper
452
 
 
453
 
 
454
 
if sys.version_info > (3,):
455
 
    _getcwd = os.getcwd
456
 
else:
457
 
    _getcwd = os.getcwdu
458
 
 
459
 
 
460
 
# Default rename wraps os.rename()
461
 
rename = _rename_wrap_exception(os.rename)
 
363
    return unicodedata.normalize('NFC', os.getcwdu())
 
364
 
462
365
 
463
366
# Default is to just use the python builtins, but these can be rebound on
464
367
# particular platforms.
465
368
abspath = _posix_abspath
466
369
realpath = _posix_realpath
467
370
pathjoin = os.path.join
468
 
normpath = _posix_normpath
469
 
path_from_environ = _posix_path_from_environ
470
 
_get_home_dir = _posix_get_home_dir
471
 
getuser_unicode = _posix_getuser_unicode
472
 
getcwd = _getcwd
 
371
normpath = os.path.normpath
 
372
getcwd = os.getcwdu
 
373
rename = os.rename
473
374
dirname = os.path.dirname
474
375
basename = os.path.basename
475
376
split = os.path.split
476
377
splitext = os.path.splitext
477
 
# These were already lazily imported into local scope
 
378
# These were already imported into local scope
478
379
# mkdtemp = tempfile.mkdtemp
479
380
# rmtree = shutil.rmtree
480
 
lstat = os.lstat
481
 
fstat = os.fstat
482
 
 
483
 
def wrap_stat(st):
484
 
    return st
485
 
 
486
381
 
487
382
MIN_ABS_PATHLENGTH = 1
488
383
 
494
389
    normpath = _win32_normpath
495
390
    getcwd = _win32_getcwd
496
391
    mkdtemp = _win32_mkdtemp
497
 
    rename = _rename_wrap_exception(_win32_rename)
498
 
    try:
499
 
        from . import _walkdirs_win32
500
 
    except ImportError:
501
 
        pass
502
 
    else:
503
 
        lstat = _walkdirs_win32.lstat
504
 
        fstat = _walkdirs_win32.fstat
505
 
        wrap_stat = _walkdirs_win32.wrap_stat
 
392
    rename = _win32_rename
506
393
 
507
394
    MIN_ABS_PATHLENGTH = 3
508
395
 
522
409
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
523
410
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
524
411
        return shutil.rmtree(path, ignore_errors, onerror)
525
 
 
526
 
    f = win32utils.get_unicode_argv     # special function or None
527
 
    if f is not None:
528
 
        get_unicode_argv = f
529
 
    path_from_environ = win32utils.get_environ_unicode
530
 
    _get_home_dir = win32utils.get_home_location
531
 
    getuser_unicode = win32utils.get_user_name
532
 
 
533
412
elif sys.platform == 'darwin':
534
413
    getcwd = _mac_getcwd
535
414
 
536
415
 
537
 
def get_terminal_encoding(trace=False):
 
416
def get_terminal_encoding():
538
417
    """Find the best encoding for printing to the screen.
539
418
 
540
419
    This attempts to check both sys.stdout and sys.stdin to see
541
420
    what encoding they are in, and if that fails it falls back to
542
 
    osutils.get_user_encoding().
 
421
    bzrlib.user_encoding.
543
422
    The problem is that on Windows, locale.getpreferredencoding()
544
423
    is not the same encoding as that used by the console:
545
424
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
546
425
 
547
426
    On my standard US Windows XP, the preferred encoding is
548
427
    cp1252, but the console is cp437
549
 
 
550
 
    :param trace: If True trace the selected encoding via mutter().
551
428
    """
552
 
    from .trace import mutter
553
429
    output_encoding = getattr(sys.stdout, 'encoding', None)
554
430
    if not output_encoding:
555
431
        input_encoding = getattr(sys.stdin, 'encoding', None)
556
432
        if not input_encoding:
557
 
            output_encoding = get_user_encoding()
558
 
            if trace:
559
 
                mutter('encoding stdout as osutils.get_user_encoding() %r',
560
 
                   output_encoding)
 
433
            output_encoding = bzrlib.user_encoding
 
434
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
561
435
        else:
562
436
            output_encoding = input_encoding
563
 
            if trace:
564
 
                mutter('encoding stdout as sys.stdin encoding %r',
565
 
                    output_encoding)
 
437
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
566
438
    else:
567
 
        if trace:
568
 
            mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
439
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
569
440
    if output_encoding == 'cp0':
570
441
        # invalid encoding (cp0 means 'no codepage' on Windows)
571
 
        output_encoding = get_user_encoding()
572
 
        if trace:
573
 
            mutter('cp0 is invalid encoding.'
574
 
               ' encoding stdout as osutils.get_user_encoding() %r',
575
 
               output_encoding)
 
442
        output_encoding = bzrlib.user_encoding
 
443
        mutter('cp0 is invalid encoding.'
 
444
               ' encoding stdout as bzrlib.user_encoding %r', output_encoding)
576
445
    # check encoding
577
446
    try:
578
447
        codecs.lookup(output_encoding)
579
448
    except LookupError:
580
 
        sys.stderr.write('brz: warning:'
 
449
        sys.stderr.write('bzr: warning:'
581
450
                         ' unknown terminal encoding %s.\n'
582
451
                         '  Using encoding %s instead.\n'
583
 
                         % (output_encoding, get_user_encoding())
 
452
                         % (output_encoding, bzrlib.user_encoding)
584
453
                        )
585
 
        output_encoding = get_user_encoding()
 
454
        output_encoding = bzrlib.user_encoding
586
455
 
587
456
    return output_encoding
588
457
 
592
461
        F = realpath
593
462
    else:
594
463
        F = abspath
595
 
    [p, e] = os.path.split(f)
 
464
    [p,e] = os.path.split(f)
596
465
    if e == "" or e == "." or e == "..":
597
466
        return F(f)
598
467
    else:
602
471
def isdir(f):
603
472
    """True if f is an accessible directory."""
604
473
    try:
605
 
        return stat.S_ISDIR(os.lstat(f)[stat.ST_MODE])
 
474
        return S_ISDIR(os.lstat(f)[ST_MODE])
606
475
    except OSError:
607
476
        return False
608
477
 
610
479
def isfile(f):
611
480
    """True if f is a regular file."""
612
481
    try:
613
 
        return stat.S_ISREG(os.lstat(f)[stat.ST_MODE])
 
482
        return S_ISREG(os.lstat(f)[ST_MODE])
614
483
    except OSError:
615
484
        return False
616
485
 
617
486
def islink(f):
618
487
    """True if f is a symlink."""
619
488
    try:
620
 
        return stat.S_ISLNK(os.lstat(f)[stat.ST_MODE])
 
489
        return S_ISLNK(os.lstat(f)[ST_MODE])
621
490
    except OSError:
622
491
        return False
623
492
 
624
493
def is_inside(dir, fname):
625
494
    """True if fname is inside dir.
626
 
 
 
495
    
627
496
    The parameters should typically be passed to osutils.normpath first, so
628
497
    that . and .. and repeated slashes are eliminated, and the separators
629
498
    are canonical for the platform.
630
 
 
631
 
    The empty string as a dir name is taken as top-of-tree and matches
 
499
    
 
500
    The empty string as a dir name is taken as top-of-tree and matches 
632
501
    everything.
633
502
    """
634
 
    # XXX: Most callers of this can actually do something smarter by
 
503
    # XXX: Most callers of this can actually do something smarter by 
635
504
    # looking at the inventory
636
505
    if dir == fname:
637
506
        return True
638
 
 
 
507
    
639
508
    if dir == '':
640
509
        return True
641
510
 
642
 
    if not dir.endswith('/'):
 
511
    if dir[-1] != '/':
643
512
        dir += '/'
644
513
 
645
514
    return fname.startswith(dir)
661
530
    return False
662
531
 
663
532
 
664
 
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
665
 
             report_activity=None, direction='read'):
 
533
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768):
666
534
    """Copy contents of one file to another.
667
535
 
668
536
    The read_length can either be -1 to read to end-of-file (EOF) or
671
539
    The buff_size represents the maximum size for each read operation
672
540
    performed on from_file.
673
541
 
674
 
    :param report_activity: Call this as bytes are read, see
675
 
        Transport._report_activity
676
 
    :param direction: Will be passed to report_activity
677
 
 
678
542
    :return: The number of bytes copied.
679
543
    """
680
544
    length = 0
688
552
            if not block:
689
553
                # EOF reached
690
554
                break
691
 
            if report_activity is not None:
692
 
                report_activity(len(block), direction)
693
555
            to_file.write(block)
694
556
 
695
557
            actual_bytes_read = len(block)
702
564
            if not block:
703
565
                # EOF reached
704
566
                break
705
 
            if report_activity is not None:
706
 
                report_activity(len(block), direction)
707
567
            to_file.write(block)
708
568
            length += len(block)
709
569
    return length
720
580
    # drives).
721
581
    if not segment_size:
722
582
        segment_size = 5242880 # 5MB
723
 
    offsets = range(0, len(bytes), segment_size)
724
 
    view = memoryview(bytes)
 
583
    segments = range(len(bytes) / segment_size + 1)
725
584
    write = file_handle.write
726
 
    for offset in offsets:
727
 
        write(view[offset:offset+segment_size])
 
585
    for segment_index in segments:
 
586
        segment = buffer(bytes, segment_index * segment_size, segment_size)
 
587
        write(segment)
728
588
 
729
589
 
730
590
def file_iterator(input_file, readsize=32768):
735
595
        yield b
736
596
 
737
597
 
738
 
# GZ 2017-09-16: Makes sense in general for hexdigest() result to be text, but
739
 
# used as bytes through most interfaces so encode with this wrapper.
740
 
if PY3:
741
 
    def _hexdigest(hashobj):
742
 
        return hashobj.hexdigest().encode()
743
 
else:
744
 
    def _hexdigest(hashobj):
745
 
        return hashobj.hexdigest()
746
 
 
747
 
 
748
598
def sha_file(f):
749
599
    """Calculate the hexdigest of an open file.
750
600
 
751
601
    The file cursor should be already at the start.
752
602
    """
753
 
    s = sha()
754
 
    BUFSIZE = 128<<10
755
 
    while True:
756
 
        b = f.read(BUFSIZE)
757
 
        if not b:
758
 
            break
759
 
        s.update(b)
760
 
    return _hexdigest(s)
761
 
 
762
 
 
763
 
def size_sha_file(f):
764
 
    """Calculate the size and hexdigest of an open file.
765
 
 
766
 
    The file cursor should be already at the start and
767
 
    the caller is responsible for closing the file afterwards.
768
 
    """
769
 
    size = 0
770
 
    s = sha()
771
 
    BUFSIZE = 128<<10
772
 
    while True:
773
 
        b = f.read(BUFSIZE)
774
 
        if not b:
775
 
            break
776
 
        size += len(b)
777
 
        s.update(b)
778
 
    return size, _hexdigest(s)
 
603
    s = sha.new()
 
604
    BUFSIZE = 128<<10
 
605
    while True:
 
606
        b = f.read(BUFSIZE)
 
607
        if not b:
 
608
            break
 
609
        s.update(b)
 
610
    return s.hexdigest()
779
611
 
780
612
 
781
613
def sha_file_by_name(fname):
782
614
    """Calculate the SHA1 of a file by reading the full text"""
783
 
    s = sha()
784
 
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
 
615
    s = sha.new()
 
616
    f = os.open(fname, os.O_RDONLY | O_BINARY)
785
617
    try:
786
618
        while True:
787
619
            b = os.read(f, 1<<16)
788
620
            if not b:
789
 
                return _hexdigest(s)
 
621
                return s.hexdigest()
790
622
            s.update(b)
791
623
    finally:
792
624
        os.close(f)
793
625
 
794
626
 
795
 
def sha_strings(strings, _factory=sha):
 
627
def sha_strings(strings, _factory=sha.new):
796
628
    """Return the sha-1 of concatenation of strings"""
797
629
    s = _factory()
798
 
    for string in strings:
799
 
        s.update(string)
800
 
    return _hexdigest(s)
801
 
 
802
 
 
803
 
def sha_string(f, _factory=sha):
804
 
    # GZ 2017-09-16: Dodgy if factory is ever not sha, probably shouldn't be.
805
 
    return _hexdigest(_factory(f))
 
630
    map(s.update, strings)
 
631
    return s.hexdigest()
 
632
 
 
633
 
 
634
def sha_string(f, _factory=sha.new):
 
635
    return _factory(f).hexdigest()
806
636
 
807
637
 
808
638
def fingerprint_file(f):
809
639
    b = f.read()
810
640
    return {'size': len(b),
811
 
            'sha1': _hexdigest(sha(b))}
 
641
            'sha1': sha.new(b).hexdigest()}
812
642
 
813
643
 
814
644
def compare_files(a, b):
819
649
        bi = b.read(BUFSIZE)
820
650
        if ai != bi:
821
651
            return False
822
 
        if not ai:
 
652
        if ai == '':
823
653
            return True
824
654
 
825
655
 
831
661
    return offset.days * 86400 + offset.seconds
832
662
 
833
663
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
834
 
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
835
 
 
836
 
 
 
664
    
837
665
def format_date(t, offset=0, timezone='original', date_fmt=None,
838
666
                show_offset=True):
839
667
    """Return a formatted date string.
843
671
    :param timezone: How to display the time: 'utc', 'original' for the
844
672
         timezone specified by offset, or 'local' for the process's current
845
673
         timezone.
846
 
    :param date_fmt: strftime format.
847
 
    :param show_offset: Whether to append the timezone.
848
 
    """
849
 
    (date_fmt, tt, offset_str) = \
850
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
851
 
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
852
 
    date_str = time.strftime(date_fmt, tt)
853
 
    return date_str + offset_str
854
 
 
855
 
 
856
 
# Cache of formatted offset strings
857
 
_offset_cache = {}
858
 
 
859
 
 
860
 
def format_date_with_offset_in_original_timezone(t, offset=0,
861
 
    _cache=_offset_cache):
862
 
    """Return a formatted date string in the original timezone.
863
 
 
864
 
    This routine may be faster then format_date.
865
 
 
866
 
    :param t: Seconds since the epoch.
867
 
    :param offset: Timezone offset in seconds east of utc.
868
 
    """
869
 
    if offset is None:
870
 
        offset = 0
871
 
    tt = time.gmtime(t + offset)
872
 
    date_fmt = _default_format_by_weekday_num[tt[6]]
873
 
    date_str = time.strftime(date_fmt, tt)
874
 
    offset_str = _cache.get(offset, None)
875
 
    if offset_str is None:
876
 
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
877
 
        _cache[offset] = offset_str
878
 
    return date_str + offset_str
879
 
 
880
 
 
881
 
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
882
 
                      show_offset=True):
883
 
    """Return an unicode date string formatted according to the current locale.
884
 
 
885
 
    :param t: Seconds since the epoch.
886
 
    :param offset: Timezone offset in seconds east of utc.
887
 
    :param timezone: How to display the time: 'utc', 'original' for the
888
 
         timezone specified by offset, or 'local' for the process's current
889
 
         timezone.
890
 
    :param date_fmt: strftime format.
891
 
    :param show_offset: Whether to append the timezone.
892
 
    """
893
 
    (date_fmt, tt, offset_str) = \
894
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
895
 
    date_str = time.strftime(date_fmt, tt)
896
 
    if not isinstance(date_str, text_type):
897
 
        date_str = date_str.decode(get_user_encoding(), 'replace')
898
 
    return date_str + offset_str
899
 
 
900
 
 
901
 
def _format_date(t, offset, timezone, date_fmt, show_offset):
 
674
    :param show_offset: Whether to append the timezone.
 
675
    :param date_fmt: strftime format.
 
676
    """
902
677
    if timezone == 'utc':
903
678
        tt = time.gmtime(t)
904
679
        offset = 0
910
685
        tt = time.localtime(t)
911
686
        offset = local_time_offset(t)
912
687
    else:
913
 
        raise UnsupportedTimezoneFormat(timezone)
 
688
        raise errors.UnsupportedTimezoneFormat(timezone)
914
689
    if date_fmt is None:
915
690
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
916
691
    if show_offset:
917
692
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
918
693
    else:
919
694
        offset_str = ''
920
 
    return (date_fmt, tt, offset_str)
 
695
    # day of week depends on locale, so we do this ourself
 
696
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
697
    return (time.strftime(date_fmt, tt) +  offset_str)
921
698
 
922
699
 
923
700
def compact_date(when):
924
701
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
925
 
 
 
702
    
926
703
 
927
704
def format_delta(delta):
928
705
    """Get a nice looking string for a time delta.
975
752
 
976
753
def filesize(f):
977
754
    """Return size of given open file."""
978
 
    return os.fstat(f.fileno())[stat.ST_SIZE]
979
 
 
980
 
 
981
 
# Alias os.urandom to support platforms (which?) without /dev/urandom and 
982
 
# override if it doesn't work. Avoid checking on windows where there is
983
 
# significant initialisation cost that can be avoided for some bzr calls.
984
 
 
985
 
rand_bytes = os.urandom
986
 
 
987
 
if rand_bytes.__module__ != "nt":
 
755
    return os.fstat(f.fileno())[ST_SIZE]
 
756
 
 
757
 
 
758
# Define rand_bytes based on platform.
 
759
try:
 
760
    # Python 2.4 and later have os.urandom,
 
761
    # but it doesn't work on some arches
 
762
    os.urandom(1)
 
763
    rand_bytes = os.urandom
 
764
except (NotImplementedError, AttributeError):
 
765
    # If python doesn't have os.urandom, or it doesn't work,
 
766
    # then try to first pull random data from /dev/urandom
988
767
    try:
989
 
        rand_bytes(1)
990
 
    except NotImplementedError:
 
768
        rand_bytes = file('/dev/urandom', 'rb').read
 
769
    # Otherwise, use this hack as a last resort
 
770
    except (IOError, OSError):
991
771
        # not well seeded, but better than nothing
992
772
        def rand_bytes(n):
993
773
            import random
1001
781
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
1002
782
def rand_chars(num):
1003
783
    """Return a random string of num alphanumeric characters
1004
 
 
1005
 
    The result only contains lowercase chars because it may be used on
 
784
    
 
785
    The result only contains lowercase chars because it may be used on 
1006
786
    case-insensitive filesystems.
1007
787
    """
1008
788
    s = ''
1009
789
    for raw_byte in rand_bytes(num):
1010
 
        if not PY3:
1011
 
            s += ALNUM[ord(raw_byte) % 36]
1012
 
        else:
1013
 
            s += ALNUM[raw_byte % 36]
 
790
        s += ALNUM[ord(raw_byte) % 36]
1014
791
    return s
1015
792
 
1016
793
 
1026
803
    rps = []
1027
804
    for f in ps:
1028
805
        if f == '..':
1029
 
            raise errors.BzrError(gettext("sorry, %r not allowed in path") % f)
 
806
            raise errors.BzrError("sorry, %r not allowed in path" % f)
1030
807
        elif (f == '.') or (f == ''):
1031
808
            pass
1032
809
        else:
1033
810
            rps.append(f)
1034
811
    return rps
1035
812
 
1036
 
 
1037
813
def joinpath(p):
1038
814
    for f in p:
1039
815
        if (f == '..') or (f is None) or (f == ''):
1040
 
            raise errors.BzrError(gettext("sorry, %r not allowed in path") % f)
 
816
            raise errors.BzrError("sorry, %r not allowed in path" % f)
1041
817
    return pathjoin(*p)
1042
818
 
1043
819
 
1044
 
def parent_directories(filename):
1045
 
    """Return the list of parent directories, deepest first.
1046
 
 
1047
 
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
1048
 
    """
1049
 
    parents = []
1050
 
    parts = splitpath(dirname(filename))
1051
 
    while parts:
1052
 
        parents.append(joinpath(parts))
1053
 
        parts.pop()
1054
 
    return parents
1055
 
 
1056
 
 
1057
 
_extension_load_failures = []
1058
 
 
1059
 
 
1060
 
def failed_to_load_extension(exception):
1061
 
    """Handle failing to load a binary extension.
1062
 
 
1063
 
    This should be called from the ImportError block guarding the attempt to
1064
 
    import the native extension.  If this function returns, the pure-Python
1065
 
    implementation should be loaded instead::
1066
 
 
1067
 
    >>> try:
1068
 
    >>>     import breezy._fictional_extension_pyx
1069
 
    >>> except ImportError, e:
1070
 
    >>>     breezy.osutils.failed_to_load_extension(e)
1071
 
    >>>     import breezy._fictional_extension_py
1072
 
    """
1073
 
    # NB: This docstring is just an example, not a doctest, because doctest
1074
 
    # currently can't cope with the use of lazy imports in this namespace --
1075
 
    # mbp 20090729
1076
 
 
1077
 
    # This currently doesn't report the failure at the time it occurs, because
1078
 
    # they tend to happen very early in startup when we can't check config
1079
 
    # files etc, and also we want to report all failures but not spam the user
1080
 
    # with 10 warnings.
1081
 
    exception_str = str(exception)
1082
 
    if exception_str not in _extension_load_failures:
1083
 
        trace.mutter("failed to load compiled extension: %s" % exception_str)
1084
 
        _extension_load_failures.append(exception_str)
1085
 
 
1086
 
 
1087
 
def report_extension_load_failures():
1088
 
    if not _extension_load_failures:
1089
 
        return
1090
 
    if config.GlobalConfig().suppress_warning('missing_extensions'):
1091
 
        return
1092
 
    # the warnings framework should by default show this only once
1093
 
    from .trace import warning
1094
 
    warning(
1095
 
        "brz: warning: some compiled extensions could not be loaded; "
1096
 
        "see ``brz help missing-extensions``")
1097
 
    # we no longer show the specific missing extensions here, because it makes
1098
 
    # the message too long and scary - see
1099
 
    # https://bugs.launchpad.net/bzr/+bug/430529
1100
 
 
1101
 
 
1102
 
try:
1103
 
    from ._chunks_to_lines_pyx import chunks_to_lines
1104
 
except ImportError as e:
1105
 
    failed_to_load_extension(e)
1106
 
    from ._chunks_to_lines_py import chunks_to_lines
1107
 
 
1108
 
 
1109
820
def split_lines(s):
1110
821
    """Split s into lines, but without removing the newline characters."""
1111
 
    # Trivially convert a fulltext into a 'chunked' representation, and let
1112
 
    # chunks_to_lines do the heavy lifting.
1113
 
    if isinstance(s, str):
1114
 
        # chunks_to_lines only supports 8-bit strings
1115
 
        return chunks_to_lines([s])
1116
 
    else:
1117
 
        return _split_lines(s)
1118
 
 
1119
 
 
1120
 
def _split_lines(s):
1121
 
    """Split s into lines, but without removing the newline characters.
1122
 
 
1123
 
    This supports Unicode or plain string objects.
1124
 
    """
1125
 
    nl = b'\n' if isinstance(s, bytes) else u'\n'
1126
 
    lines = s.split(nl)
1127
 
    result = [line + nl for line in lines[:-1]]
 
822
    lines = s.split('\n')
 
823
    result = [line + '\n' for line in lines[:-1]]
1128
824
    if lines[-1]:
1129
825
        result.append(lines[-1])
1130
826
    return result
1141
837
        return
1142
838
    try:
1143
839
        os.link(src, dest)
1144
 
    except (OSError, IOError) as e:
 
840
    except (OSError, IOError), e:
1145
841
        if e.errno != errno.EXDEV:
1146
842
            raise
1147
843
        shutil.copyfile(src, dest)
1148
844
 
1149
845
 
 
846
# Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
847
# Forgiveness than Permission (EAFP) because:
 
848
# - root can damage a solaris file system by using unlink,
 
849
# - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
850
#   EACCES, OSX: EPERM) when invoked on a directory.
1150
851
def delete_any(path):
1151
 
    """Delete a file, symlink or directory.
1152
 
 
1153
 
    Will delete even if readonly.
1154
 
    """
1155
 
    try:
1156
 
       _delete_file_or_dir(path)
1157
 
    except (OSError, IOError) as e:
1158
 
        if e.errno in (errno.EPERM, errno.EACCES):
1159
 
            # make writable and try again
1160
 
            try:
1161
 
                make_writable(path)
1162
 
            except (OSError, IOError):
1163
 
                pass
1164
 
            _delete_file_or_dir(path)
1165
 
        else:
1166
 
            raise
1167
 
 
1168
 
 
1169
 
def _delete_file_or_dir(path):
1170
 
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
1171
 
    # Forgiveness than Permission (EAFP) because:
1172
 
    # - root can damage a solaris file system by using unlink,
1173
 
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
1174
 
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
852
    """Delete a file or directory."""
1175
853
    if isdir(path): # Takes care of symlinks
1176
854
        os.rmdir(path)
1177
855
    else:
1197
875
            and sys.platform not in ('cygwin', 'win32'))
1198
876
 
1199
877
 
1200
 
def readlink(abspath):
1201
 
    """Return a string representing the path to which the symbolic link points.
1202
 
 
1203
 
    :param abspath: The link absolute unicode path.
1204
 
 
1205
 
    This his guaranteed to return the symbolic link in unicode in all python
1206
 
    versions.
1207
 
    """
1208
 
    link = abspath.encode(_fs_enc)
1209
 
    target = os.readlink(link)
1210
 
    target = target.decode(_fs_enc)
1211
 
    return target
1212
 
 
1213
 
 
1214
878
def contains_whitespace(s):
1215
879
    """True if there are any whitespace characters in s."""
1216
880
    # string.whitespace can include '\xa0' in certain locales, because it is
1220
884
    #    separators
1221
885
    # 3) '\xa0' isn't unicode safe since it is >128.
1222
886
 
1223
 
    if isinstance(s, str):
1224
 
        ws = ' \t\n\r\v\f'
1225
 
    else:
1226
 
        ws = (b' ', b'\t', b'\n', b'\r', b'\v', b'\f')
1227
 
    for ch in ws:
 
887
    # This should *not* be a unicode set of characters in case the source
 
888
    # string is not a Unicode string. We can auto-up-cast the characters since
 
889
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
890
    # is utf-8
 
891
    for ch in ' \t\n\r\v\f':
1228
892
        if ch in s:
1229
893
            return True
1230
894
    else:
1241
905
 
1242
906
 
1243
907
def relpath(base, path):
1244
 
    """Return path relative to base, or raise PathNotChild exception.
 
908
    """Return path relative to base, or raise exception.
1245
909
 
1246
910
    The path may be either an absolute path or a path relative to the
1247
911
    current working directory.
1249
913
    os.path.commonprefix (python2.4) has a bad bug that it works just
1250
914
    on string prefixes, assuming that '/u' is a prefix of '/u2'.  This
1251
915
    avoids that problem.
1252
 
 
1253
 
    NOTE: `base` should not have a trailing slash otherwise you'll get
1254
 
    PathNotChild exceptions regardless of `path`.
1255
916
    """
1256
917
 
1257
918
    if len(base) < MIN_ABS_PATHLENGTH:
1258
919
        # must have space for e.g. a drive letter
1259
 
        raise ValueError(gettext('%r is too short to calculate a relative path')
 
920
        raise ValueError('%r is too short to calculate a relative path'
1260
921
            % (base,))
1261
922
 
1262
923
    rp = abspath(path)
1263
924
 
1264
925
    s = []
1265
926
    head = rp
1266
 
    while True:
1267
 
        if len(head) <= len(base) and head != base:
1268
 
            raise errors.PathNotChild(rp, base)
 
927
    while len(head) >= len(base):
1269
928
        if head == base:
1270
929
            break
1271
 
        head, tail = split(head)
 
930
        head, tail = os.path.split(head)
1272
931
        if tail:
1273
 
            s.append(tail)
 
932
            s.insert(0, tail)
 
933
    else:
 
934
        raise errors.PathNotChild(rp, base)
1274
935
 
1275
936
    if s:
1276
 
        return pathjoin(*reversed(s))
 
937
        return pathjoin(*s)
1277
938
    else:
1278
939
        return ''
1279
940
 
1280
941
 
1281
 
def _cicp_canonical_relpath(base, path):
1282
 
    """Return the canonical path relative to base.
1283
 
 
1284
 
    Like relpath, but on case-insensitive-case-preserving file-systems, this
1285
 
    will return the relpath as stored on the file-system rather than in the
1286
 
    case specified in the input string, for all existing portions of the path.
1287
 
 
1288
 
    This will cause O(N) behaviour if called for every path in a tree; if you
1289
 
    have a number of paths to convert, you should use canonical_relpaths().
1290
 
    """
1291
 
    # TODO: it should be possible to optimize this for Windows by using the
1292
 
    # win32 API FindFiles function to look for the specified name - but using
1293
 
    # os.listdir() still gives us the correct, platform agnostic semantics in
1294
 
    # the short term.
1295
 
 
1296
 
    rel = relpath(base, path)
1297
 
    # '.' will have been turned into ''
1298
 
    if not rel:
1299
 
        return rel
1300
 
 
1301
 
    abs_base = abspath(base)
1302
 
    current = abs_base
1303
 
    _listdir = os.listdir
1304
 
 
1305
 
    # use an explicit iterator so we can easily consume the rest on early exit.
1306
 
    bit_iter = iter(rel.split('/'))
1307
 
    for bit in bit_iter:
1308
 
        lbit = bit.lower()
1309
 
        try:
1310
 
            next_entries = _listdir(current)
1311
 
        except OSError: # enoent, eperm, etc
1312
 
            # We can't find this in the filesystem, so just append the
1313
 
            # remaining bits.
1314
 
            current = pathjoin(current, bit, *list(bit_iter))
1315
 
            break
1316
 
        for look in next_entries:
1317
 
            if lbit == look.lower():
1318
 
                current = pathjoin(current, look)
1319
 
                break
1320
 
        else:
1321
 
            # got to the end, nothing matched, so we just return the
1322
 
            # non-existing bits as they were specified (the filename may be
1323
 
            # the target of a move, for example).
1324
 
            current = pathjoin(current, bit, *list(bit_iter))
1325
 
            break
1326
 
    return current[len(abs_base):].lstrip('/')
1327
 
 
1328
 
# XXX - TODO - we need better detection/integration of case-insensitive
1329
 
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
1330
 
# filesystems), for example, so could probably benefit from the same basic
1331
 
# support there.  For now though, only Windows and OSX get that support, and
1332
 
# they get it for *all* file-systems!
1333
 
if sys.platform in ('win32', 'darwin'):
1334
 
    canonical_relpath = _cicp_canonical_relpath
1335
 
else:
1336
 
    canonical_relpath = relpath
1337
 
 
1338
 
def canonical_relpaths(base, paths):
1339
 
    """Create an iterable to canonicalize a sequence of relative paths.
1340
 
 
1341
 
    The intent is for this implementation to use a cache, vastly speeding
1342
 
    up multiple transformations in the same directory.
1343
 
    """
1344
 
    # but for now, we haven't optimized...
1345
 
    return [canonical_relpath(base, p) for p in paths]
1346
 
 
1347
 
 
1348
 
def decode_filename(filename):
1349
 
    """Decode the filename using the filesystem encoding
1350
 
 
1351
 
    If it is unicode, it is returned.
1352
 
    Otherwise it is decoded from the the filesystem's encoding. If decoding
1353
 
    fails, a errors.BadFilenameEncoding exception is raised.
1354
 
    """
1355
 
    if isinstance(filename, text_type):
1356
 
        return filename
1357
 
    try:
1358
 
        return filename.decode(_fs_enc)
1359
 
    except UnicodeDecodeError:
1360
 
        raise errors.BadFilenameEncoding(filename, _fs_enc)
1361
 
 
1362
 
 
1363
942
def safe_unicode(unicode_or_utf8_string):
1364
943
    """Coerce unicode_or_utf8_string into unicode.
1365
944
 
1366
945
    If it is unicode, it is returned.
1367
 
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
1368
 
    wrapped in a BzrBadParameterNotUnicode exception.
 
946
    Otherwise it is decoded from utf-8. If a decoding error
 
947
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
 
948
    as a BzrBadParameter exception.
1369
949
    """
1370
 
    if isinstance(unicode_or_utf8_string, text_type):
 
950
    if isinstance(unicode_or_utf8_string, unicode):
1371
951
        return unicode_or_utf8_string
1372
952
    try:
1373
953
        return unicode_or_utf8_string.decode('utf8')
1381
961
    If it is a str, it is returned.
1382
962
    If it is Unicode, it is encoded into a utf-8 string.
1383
963
    """
1384
 
    if isinstance(unicode_or_utf8_string, bytes):
 
964
    if isinstance(unicode_or_utf8_string, str):
1385
965
        # TODO: jam 20070209 This is overkill, and probably has an impact on
1386
966
        #       performance if we are dealing with lots of apis that want a
1387
967
        #       utf-8 revision id
1394
974
    return unicode_or_utf8_string.encode('utf-8')
1395
975
 
1396
976
 
1397
 
def safe_revision_id(unicode_or_utf8_string):
 
977
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
978
                        ' Revision id generators should be creating utf8'
 
979
                        ' revision ids.')
 
980
 
 
981
 
 
982
def safe_revision_id(unicode_or_utf8_string, warn=True):
1398
983
    """Revision ids should now be utf8, but at one point they were unicode.
1399
984
 
1400
985
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
1401
986
        utf8 or None).
 
987
    :param warn: Functions that are sanitizing user data can set warn=False
1402
988
    :return: None or a utf8 revision id.
1403
989
    """
1404
990
    if (unicode_or_utf8_string is None
1405
 
        or unicode_or_utf8_string.__class__ == bytes):
 
991
        or unicode_or_utf8_string.__class__ == str):
1406
992
        return unicode_or_utf8_string
1407
 
    raise TypeError('Unicode revision ids are no longer supported. '
1408
 
                    'Revision id generators should be creating utf8 revision '
1409
 
                    'ids.')
1410
 
 
1411
 
 
1412
 
def safe_file_id(unicode_or_utf8_string):
 
993
    if warn:
 
994
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
995
                               stacklevel=2)
 
996
    return cache_utf8.encode(unicode_or_utf8_string)
 
997
 
 
998
 
 
999
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
1000
                    ' generators should be creating utf8 file ids.')
 
1001
 
 
1002
 
 
1003
def safe_file_id(unicode_or_utf8_string, warn=True):
1413
1004
    """File ids should now be utf8, but at one point they were unicode.
1414
1005
 
1415
1006
    This is the same as safe_utf8, except it uses the cached encode functions
1417
1008
 
1418
1009
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
1419
1010
        utf8 or None).
 
1011
    :param warn: Functions that are sanitizing user data can set warn=False
1420
1012
    :return: None or a utf8 file id.
1421
1013
    """
1422
1014
    if (unicode_or_utf8_string is None
1423
 
        or unicode_or_utf8_string.__class__ == bytes):
 
1015
        or unicode_or_utf8_string.__class__ == str):
1424
1016
        return unicode_or_utf8_string
1425
 
    raise TypeError('Unicode file ids are no longer supported. '
1426
 
                    'File id generators should be creating utf8 file ids.')
 
1017
    if warn:
 
1018
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
1019
                               stacklevel=2)
 
1020
    return cache_utf8.encode(unicode_or_utf8_string)
1427
1021
 
1428
1022
 
1429
1023
_platform_normalizes_filenames = False
1434
1028
def normalizes_filenames():
1435
1029
    """Return True if this platform normalizes unicode filenames.
1436
1030
 
1437
 
    Only Mac OSX.
 
1031
    Mac OSX does, Windows/Linux do not.
1438
1032
    """
1439
1033
    return _platform_normalizes_filenames
1440
1034
 
1444
1038
 
1445
1039
    On platforms where the system normalizes filenames (Mac OSX),
1446
1040
    you can access a file by any path which will normalize correctly.
1447
 
    On platforms where the system does not normalize filenames
1448
 
    (everything else), you have to access a file by its exact path.
 
1041
    On platforms where the system does not normalize filenames 
 
1042
    (Windows, Linux), you have to access a file by its exact path.
1449
1043
 
1450
 
    Internally, bzr only supports NFC normalization, since that is
 
1044
    Internally, bzr only supports NFC normalization, since that is 
1451
1045
    the standard for XML documents.
1452
1046
 
1453
1047
    So return the normalized path, and a flag indicating if the file
1454
1048
    can be accessed by that path.
1455
1049
    """
1456
1050
 
1457
 
    if isinstance(path, bytes):
1458
 
        path = path.decode(sys.getfilesystemencoding())
1459
 
    return unicodedata.normalize('NFC', path), True
 
1051
    return unicodedata.normalize('NFC', unicode(path)), True
1460
1052
 
1461
1053
 
1462
1054
def _inaccessible_normalized_filename(path):
1463
1055
    __doc__ = _accessible_normalized_filename.__doc__
1464
1056
 
1465
 
    if isinstance(path, bytes):
1466
 
        path = path.decode(sys.getfilesystemencoding())
1467
 
    normalized = unicodedata.normalize('NFC', path)
 
1057
    normalized = unicodedata.normalize('NFC', unicode(path))
1468
1058
    return normalized, normalized == path
1469
1059
 
1470
1060
 
1474
1064
    normalized_filename = _inaccessible_normalized_filename
1475
1065
 
1476
1066
 
1477
 
def set_signal_handler(signum, handler, restart_syscall=True):
1478
 
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
1479
 
    on platforms that support that.
1480
 
 
1481
 
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
1482
 
        automatically restart (by calling `signal.siginterrupt(signum,
1483
 
        False)`).  May be ignored if the feature is not available on this
1484
 
        platform or Python version.
1485
 
    """
1486
 
    try:
1487
 
        import signal
1488
 
        siginterrupt = signal.siginterrupt
1489
 
    except ImportError:
1490
 
        # This python implementation doesn't provide signal support, hence no
1491
 
        # handler exists
1492
 
        return None
1493
 
    except AttributeError:
1494
 
        # siginterrupt doesn't exist on this platform, or for this version
1495
 
        # of Python.
1496
 
        siginterrupt = lambda signum, flag: None
1497
 
    if restart_syscall:
1498
 
        def sig_handler(*args):
1499
 
            # Python resets the siginterrupt flag when a signal is
1500
 
            # received.  <http://bugs.python.org/issue8354>
1501
 
            # As a workaround for some cases, set it back the way we want it.
1502
 
            siginterrupt(signum, False)
1503
 
            # Now run the handler function passed to set_signal_handler.
1504
 
            handler(*args)
1505
 
    else:
1506
 
        sig_handler = handler
1507
 
    old_handler = signal.signal(signum, sig_handler)
1508
 
    if restart_syscall:
1509
 
        siginterrupt(signum, False)
1510
 
    return old_handler
1511
 
 
1512
 
 
1513
 
default_terminal_width = 80
1514
 
"""The default terminal width for ttys.
1515
 
 
1516
 
This is defined so that higher levels can share a common fallback value when
1517
 
terminal_width() returns None.
1518
 
"""
1519
 
 
1520
 
# Keep some state so that terminal_width can detect if _terminal_size has
1521
 
# returned a different size since the process started.  See docstring and
1522
 
# comments of terminal_width for details.
1523
 
# _terminal_size_state has 3 possible values: no_data, unchanged, and changed.
1524
 
_terminal_size_state = 'no_data'
1525
 
_first_terminal_size = None
1526
 
 
1527
1067
def terminal_width():
1528
 
    """Return terminal width.
1529
 
 
1530
 
    None is returned if the width can't established precisely.
1531
 
 
1532
 
    The rules are:
1533
 
    - if BRZ_COLUMNS is set, returns its value
1534
 
    - if there is no controlling terminal, returns None
1535
 
    - query the OS, if the queried size has changed since the last query,
1536
 
      return its value,
1537
 
    - if COLUMNS is set, returns its value,
1538
 
    - if the OS has a value (even though it's never changed), return its value.
1539
 
 
1540
 
    From there, we need to query the OS to get the size of the controlling
1541
 
    terminal.
1542
 
 
1543
 
    On Unices we query the OS by:
1544
 
    - get termios.TIOCGWINSZ
1545
 
    - if an error occurs or a negative value is obtained, returns None
1546
 
 
1547
 
    On Windows we query the OS by:
1548
 
    - win32utils.get_console_size() decides,
1549
 
    - returns None on error (provided default value)
1550
 
    """
1551
 
    # Note to implementors: if changing the rules for determining the width,
1552
 
    # make sure you've considered the behaviour in these cases:
1553
 
    #  - M-x shell in emacs, where $COLUMNS is set and TIOCGWINSZ returns 0,0.
1554
 
    #  - brz log | less, in bash, where $COLUMNS not set and TIOCGWINSZ returns
1555
 
    #    0,0.
1556
 
    #  - (add more interesting cases here, if you find any)
1557
 
    # Some programs implement "Use $COLUMNS (if set) until SIGWINCH occurs",
1558
 
    # but we don't want to register a signal handler because it is impossible
1559
 
    # to do so without risking EINTR errors in Python <= 2.6.5 (see
1560
 
    # <http://bugs.python.org/issue8354>).  Instead we check TIOCGWINSZ every
1561
 
    # time so we can notice if the reported size has changed, which should have
1562
 
    # a similar effect.
1563
 
 
1564
 
    # If BRZ_COLUMNS is set, take it, user is always right
1565
 
    # Except if they specified 0 in which case, impose no limit here
1566
 
    try:
1567
 
        width = int(os.environ['BRZ_COLUMNS'])
1568
 
    except (KeyError, ValueError):
1569
 
        width = None
1570
 
    if width is not None:
1571
 
        if width > 0:
1572
 
            return width
1573
 
        else:
1574
 
            return None
1575
 
 
1576
 
    isatty = getattr(sys.stdout, 'isatty', None)
1577
 
    if isatty is None or not isatty():
1578
 
        # Don't guess, setting BRZ_COLUMNS is the recommended way to override.
1579
 
        return None
1580
 
 
1581
 
    # Query the OS
1582
 
    width, height = os_size = _terminal_size(None, None)
1583
 
    global _first_terminal_size, _terminal_size_state
1584
 
    if _terminal_size_state == 'no_data':
1585
 
        _first_terminal_size = os_size
1586
 
        _terminal_size_state = 'unchanged'
1587
 
    elif (_terminal_size_state == 'unchanged' and
1588
 
          _first_terminal_size != os_size):
1589
 
        _terminal_size_state = 'changed'
1590
 
 
1591
 
    # If the OS claims to know how wide the terminal is, and this value has
1592
 
    # ever changed, use that.
1593
 
    if _terminal_size_state == 'changed':
1594
 
        if width is not None and width > 0:
1595
 
            return width
1596
 
 
1597
 
    # If COLUMNS is set, use it.
1598
 
    try:
1599
 
        return int(os.environ['COLUMNS'])
1600
 
    except (KeyError, ValueError):
1601
 
        pass
1602
 
 
1603
 
    # Finally, use an unchanged size from the OS, if we have one.
1604
 
    if _terminal_size_state == 'unchanged':
1605
 
        if width is not None and width > 0:
1606
 
            return width
1607
 
 
1608
 
    # The width could not be determined.
1609
 
    return None
1610
 
 
1611
 
 
1612
 
def _win32_terminal_size(width, height):
1613
 
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
1614
 
    return width, height
1615
 
 
1616
 
 
1617
 
def _ioctl_terminal_size(width, height):
 
1068
    """Return estimated terminal width."""
 
1069
    if sys.platform == 'win32':
 
1070
        return win32utils.get_console_size()[0]
 
1071
    width = 0
1618
1072
    try:
1619
1073
        import struct, fcntl, termios
1620
1074
        s = struct.pack('HHHH', 0, 0, 0, 0)
1621
1075
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
1622
 
        height, width = struct.unpack('HHHH', x)[0:2]
1623
 
    except (IOError, AttributeError):
 
1076
        width = struct.unpack('HHHH', x)[1]
 
1077
    except IOError:
1624
1078
        pass
1625
 
    return width, height
1626
 
 
1627
 
_terminal_size = None
1628
 
"""Returns the terminal size as (width, height).
1629
 
 
1630
 
:param width: Default value for width.
1631
 
:param height: Default value for height.
1632
 
 
1633
 
This is defined specifically for each OS and query the size of the controlling
1634
 
terminal. If any error occurs, the provided default values should be returned.
1635
 
"""
1636
 
if sys.platform == 'win32':
1637
 
    _terminal_size = _win32_terminal_size
1638
 
else:
1639
 
    _terminal_size = _ioctl_terminal_size
 
1079
    if width <= 0:
 
1080
        try:
 
1081
            width = int(os.environ['COLUMNS'])
 
1082
        except:
 
1083
            pass
 
1084
    if width <= 0:
 
1085
        width = 80
 
1086
 
 
1087
    return width
1640
1088
 
1641
1089
 
1642
1090
def supports_executable():
1669
1117
        if orig_val is not None:
1670
1118
            del os.environ[env_variable]
1671
1119
    else:
1672
 
        if not PY3 and isinstance(value, text_type):
1673
 
            value = value.encode(get_user_encoding())
 
1120
        if isinstance(value, unicode):
 
1121
            value = value.encode(bzrlib.user_encoding)
1674
1122
        os.environ[env_variable] = value
1675
1123
    return orig_val
1676
1124
 
1679
1127
 
1680
1128
 
1681
1129
def check_legal_path(path):
1682
 
    """Check whether the supplied path is legal.
 
1130
    """Check whether the supplied path is legal.  
1683
1131
    This is only required on Windows, so we don't test on other platforms
1684
1132
    right now.
1685
1133
    """
1719
1167
 
1720
1168
def walkdirs(top, prefix=""):
1721
1169
    """Yield data about all the directories in a tree.
1722
 
 
 
1170
    
1723
1171
    This yields all the data about the contents of a directory at a time.
1724
1172
    After each directory has been yielded, if the caller has mutated the list
1725
1173
    to exclude some directories, they are then not descended into.
1726
 
 
 
1174
    
1727
1175
    The data yielded is of the form:
1728
1176
    ((directory-relpath, directory-path-from-top),
1729
1177
    [(relpath, basename, kind, lstat, path-from-top), ...]),
1730
1178
     - directory-relpath is the relative path of the directory being returned
1731
1179
       with respect to top. prefix is prepended to this.
1732
 
     - directory-path-from-root is the path including top for this directory.
 
1180
     - directory-path-from-root is the path including top for this directory. 
1733
1181
       It is suitable for use with os functions.
1734
1182
     - relpath is the relative path within the subtree being walked.
1735
1183
     - basename is the basename of the path
1737
1185
       present within the tree - but it may be recorded as versioned. See
1738
1186
       versioned_kind.
1739
1187
     - lstat is the stat data *if* the file was statted.
1740
 
     - planned, not implemented:
 
1188
     - planned, not implemented: 
1741
1189
       path_from_tree_root is the path from the root of the tree.
1742
1190
 
1743
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
1191
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
1744
1192
        allows one to walk a subtree but get paths that are relative to a tree
1745
1193
        rooted higher up.
1746
1194
    :return: an iterator over the dirs.
1747
1195
    """
1748
1196
    #TODO there is a bit of a smell where the results of the directory-
1749
 
    # summary in this, and the path from the root, may not agree
 
1197
    # summary in this, and the path from the root, may not agree 
1750
1198
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
1751
1199
    # potentially confusing output. We should make this more robust - but
1752
1200
    # not at a speed cost. RBC 20060731
1753
1201
    _lstat = os.lstat
1754
1202
    _directory = _directory_kind
1755
1203
    _listdir = os.listdir
1756
 
    _kind_from_mode = file_kind_from_stat_mode
 
1204
    _kind_from_mode = _formats.get
1757
1205
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
1758
1206
    while pending:
1759
1207
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1767
1215
        dirblock = []
1768
1216
        append = dirblock.append
1769
1217
        try:
1770
 
            names = sorted(map(decode_filename, _listdir(top)))
1771
 
        except OSError as e:
 
1218
            names = sorted(_listdir(top))
 
1219
        except OSError, e:
1772
1220
            if not _is_error_enotdir(e):
1773
1221
                raise
1774
1222
        else:
1775
1223
            for name in names:
1776
1224
                abspath = top_slash + name
1777
1225
                statvalue = _lstat(abspath)
1778
 
                kind = _kind_from_mode(statvalue.st_mode)
 
1226
                kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
1779
1227
                append((relprefix + name, name, kind, statvalue, abspath))
1780
1228
        yield (relroot, top), dirblock
1781
1229
 
1783
1231
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1784
1232
 
1785
1233
 
1786
 
class DirReader(object):
1787
 
    """An interface for reading directories."""
1788
 
 
1789
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1790
 
        """Converts top and prefix to a starting dir entry
1791
 
 
1792
 
        :param top: A utf8 path
1793
 
        :param prefix: An optional utf8 path to prefix output relative paths
1794
 
            with.
1795
 
        :return: A tuple starting with prefix, and ending with the native
1796
 
            encoding of top.
1797
 
        """
1798
 
        raise NotImplementedError(self.top_prefix_to_starting_dir)
1799
 
 
1800
 
    def read_dir(self, prefix, top):
1801
 
        """Read a specific dir.
1802
 
 
1803
 
        :param prefix: A utf8 prefix to be preprended to the path basenames.
1804
 
        :param top: A natively encoded path to read.
1805
 
        :return: A list of the directories contents. Each item contains:
1806
 
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
1807
 
        """
1808
 
        raise NotImplementedError(self.read_dir)
1809
 
 
1810
 
 
1811
 
_selected_dir_reader = None
1812
 
 
 
1234
_real_walkdirs_utf8 = None
1813
1235
 
1814
1236
def _walkdirs_utf8(top, prefix=""):
1815
1237
    """Yield data about all the directories in a tree.
1825
1247
        path-from-top might be unicode or utf8, but it is the correct path to
1826
1248
        pass to os functions to affect the file in question. (such as os.lstat)
1827
1249
    """
1828
 
    global _selected_dir_reader
1829
 
    if _selected_dir_reader is None:
1830
 
        if sys.platform == "win32":
 
1250
    global _real_walkdirs_utf8
 
1251
    if _real_walkdirs_utf8 is None:
 
1252
        fs_encoding = _fs_enc.upper()
 
1253
        if win32utils.winver == 'Windows NT':
 
1254
            # Win98 doesn't have unicode apis like FindFirstFileW
 
1255
            # TODO: We possibly could support Win98 by falling back to the
 
1256
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
 
1257
            #       but that gets a bit tricky, and requires custom compiling
 
1258
            #       for win98 anyway.
1831
1259
            try:
1832
 
                from ._walkdirs_win32 import Win32ReadDir
1833
 
                _selected_dir_reader = Win32ReadDir()
 
1260
                from bzrlib._walkdirs_win32 import _walkdirs_utf8_win32_find_file
1834
1261
            except ImportError:
1835
 
                pass
1836
 
        elif _fs_enc in ('utf-8', 'ascii'):
1837
 
            try:
1838
 
                from ._readdir_pyx import UTF8DirReader
1839
 
                _selected_dir_reader = UTF8DirReader()
1840
 
            except ImportError as e:
1841
 
                failed_to_load_extension(e)
1842
 
                pass
1843
 
 
1844
 
    if _selected_dir_reader is None:
1845
 
        # Fallback to the python version
1846
 
        _selected_dir_reader = UnicodeDirReader()
 
1262
                _real_walkdirs_utf8 = _walkdirs_unicode_to_utf8
 
1263
            else:
 
1264
                _real_walkdirs_utf8 = _walkdirs_utf8_win32_find_file
 
1265
        elif fs_encoding not in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
 
1266
            # ANSI_X3.4-1968 is a form of ASCII
 
1267
            _real_walkdirs_utf8 = _walkdirs_unicode_to_utf8
 
1268
        else:
 
1269
            _real_walkdirs_utf8 = _walkdirs_fs_utf8
 
1270
    return _real_walkdirs_utf8(top, prefix=prefix)
 
1271
 
 
1272
 
 
1273
def _walkdirs_fs_utf8(top, prefix=""):
 
1274
    """See _walkdirs_utf8.
 
1275
 
 
1276
    This sub-function is called when we know the filesystem is already in utf8
 
1277
    encoding. So we don't need to transcode filenames.
 
1278
    """
 
1279
    _lstat = os.lstat
 
1280
    _directory = _directory_kind
 
1281
    # Use C accelerated directory listing.
 
1282
    _listdir = _read_dir
 
1283
    _kind_from_mode = _formats.get
1847
1284
 
1848
1285
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1849
1286
    # But we don't actually uses 1-3 in pending, so set them to None
1850
 
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
1851
 
    read_dir = _selected_dir_reader.read_dir
1852
 
    _directory = _directory_kind
 
1287
    pending = [(safe_utf8(prefix), None, None, None, safe_utf8(top))]
1853
1288
    while pending:
1854
 
        relroot, _, _, _, top = pending[-1].pop()
1855
 
        if not pending[-1]:
1856
 
            pending.pop()
1857
 
        dirblock = sorted(read_dir(relroot, top))
1858
 
        yield (relroot, top), dirblock
1859
 
        # push the user specified dirs from dirblock
1860
 
        next = [d for d in reversed(dirblock) if d[2] == _directory]
1861
 
        if next:
1862
 
            pending.append(next)
1863
 
 
1864
 
 
1865
 
class UnicodeDirReader(DirReader):
1866
 
    """A dir reader for non-utf8 file systems, which transcodes."""
1867
 
 
1868
 
    __slots__ = ['_utf8_encode']
1869
 
 
1870
 
    def __init__(self):
1871
 
        self._utf8_encode = codecs.getencoder('utf8')
1872
 
 
1873
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1874
 
        """See DirReader.top_prefix_to_starting_dir."""
1875
 
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
1876
 
 
1877
 
    def read_dir(self, prefix, top):
1878
 
        """Read a single directory from a non-utf8 file system.
1879
 
 
1880
 
        top, and the abspath element in the output are unicode, all other paths
1881
 
        are utf8. Local disk IO is done via unicode calls to listdir etc.
1882
 
 
1883
 
        This is currently the fallback code path when the filesystem encoding is
1884
 
        not UTF-8. It may be better to implement an alternative so that we can
1885
 
        safely handle paths that are not properly decodable in the current
1886
 
        encoding.
1887
 
 
1888
 
        See DirReader.read_dir for details.
1889
 
        """
1890
 
        _utf8_encode = self._utf8_encode
1891
 
        _lstat = os.lstat
1892
 
        _listdir = os.listdir
1893
 
        _kind_from_mode = file_kind_from_stat_mode
1894
 
 
1895
 
        if prefix:
1896
 
            relprefix = prefix + b'/'
 
1289
        relroot, _, _, _, top = pending.pop()
 
1290
        if relroot:
 
1291
            relprefix = relroot + '/'
1897
1292
        else:
1898
 
            relprefix = b''
 
1293
            relprefix = ''
1899
1294
        top_slash = top + '/'
1900
1295
 
1901
1296
        dirblock = []
1902
1297
        append = dirblock.append
 
1298
        # read_dir supplies in should-stat order.
 
1299
        for _, name in sorted(_listdir(top)):
 
1300
            abspath = top_slash + name
 
1301
            statvalue = _lstat(abspath)
 
1302
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
 
1303
            append((relprefix + name, name, kind, statvalue, abspath))
 
1304
        dirblock.sort()
 
1305
        yield (relroot, top), dirblock
 
1306
 
 
1307
        # push the user specified dirs from dirblock
 
1308
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1309
 
 
1310
 
 
1311
def _walkdirs_unicode_to_utf8(top, prefix=""):
 
1312
    """See _walkdirs_utf8
 
1313
 
 
1314
    Because Win32 has a Unicode api, all of the 'path-from-top' entries will be
 
1315
    Unicode paths.
 
1316
    This is currently the fallback code path when the filesystem encoding is
 
1317
    not UTF-8. It may be better to implement an alternative so that we can
 
1318
    safely handle paths that are not properly decodable in the current
 
1319
    encoding.
 
1320
    """
 
1321
    _utf8_encode = codecs.getencoder('utf8')
 
1322
    _lstat = os.lstat
 
1323
    _directory = _directory_kind
 
1324
    _listdir = os.listdir
 
1325
    _kind_from_mode = _formats.get
 
1326
 
 
1327
    pending = [(safe_utf8(prefix), None, None, None, safe_unicode(top))]
 
1328
    while pending:
 
1329
        relroot, _, _, _, top = pending.pop()
 
1330
        if relroot:
 
1331
            relprefix = relroot + '/'
 
1332
        else:
 
1333
            relprefix = ''
 
1334
        top_slash = top + u'/'
 
1335
 
 
1336
        dirblock = []
 
1337
        append = dirblock.append
1903
1338
        for name in sorted(_listdir(top)):
1904
 
            try:
1905
 
                name_utf8 = _utf8_encode(name)[0]
1906
 
            except UnicodeDecodeError:
1907
 
                raise errors.BadFilenameEncoding(
1908
 
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1339
            name_utf8 = _utf8_encode(name)[0]
1909
1340
            abspath = top_slash + name
1910
1341
            statvalue = _lstat(abspath)
1911
 
            kind = _kind_from_mode(statvalue.st_mode)
 
1342
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
1912
1343
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
1913
 
        return dirblock
 
1344
        yield (relroot, top), dirblock
 
1345
 
 
1346
        # push the user specified dirs from dirblock
 
1347
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1914
1348
 
1915
1349
 
1916
1350
def copy_tree(from_path, to_path, handlers={}):
1917
1351
    """Copy all of the entries in from_path into to_path.
1918
1352
 
1919
 
    :param from_path: The base directory to copy.
 
1353
    :param from_path: The base directory to copy. 
1920
1354
    :param to_path: The target directory. If it does not exist, it will
1921
1355
        be created.
1922
1356
    :param handlers: A dictionary of functions, which takes a source and
1941
1375
        link_to = os.readlink(source)
1942
1376
        os.symlink(link_to, dest)
1943
1377
 
1944
 
    real_handlers = {'file': shutil.copy2,
1945
 
                     'symlink': copy_link,
1946
 
                     'directory': copy_dir,
 
1378
    real_handlers = {'file':shutil.copy2,
 
1379
                     'symlink':copy_link,
 
1380
                     'directory':copy_dir,
1947
1381
                    }
1948
1382
    real_handlers.update(handlers)
1949
1383
 
1955
1389
            real_handlers[kind](abspath, relpath)
1956
1390
 
1957
1391
 
1958
 
def copy_ownership_from_path(dst, src=None):
1959
 
    """Copy usr/grp ownership from src file/dir to dst file/dir.
1960
 
 
1961
 
    If src is None, the containing directory is used as source. If chown
1962
 
    fails, the error is ignored and a warning is printed.
1963
 
    """
1964
 
    chown = getattr(os, 'chown', None)
1965
 
    if chown is None:
1966
 
        return
1967
 
 
1968
 
    if src == None:
1969
 
        src = os.path.dirname(dst)
1970
 
        if src == '':
1971
 
            src = '.'
1972
 
 
1973
 
    try:
1974
 
        s = os.stat(src)
1975
 
        chown(dst, s.st_uid, s.st_gid)
1976
 
    except OSError as e:
1977
 
        trace.warning(
1978
 
            'Unable to copy ownership from "%s" to "%s". '
1979
 
            'You may want to set it manually.', src, dst)
1980
 
        trace.log_exception_quietly()
1981
 
 
1982
 
 
1983
1392
def path_prefix_key(path):
1984
1393
    """Generate a prefix-order path key for path.
1985
1394
 
1986
1395
    This can be used to sort paths in the same way that walkdirs does.
1987
1396
    """
1988
 
    return (dirname(path), path)
 
1397
    return (dirname(path) , path)
1989
1398
 
1990
1399
 
1991
1400
def compare_paths_prefix_order(path_a, path_b):
1998
1407
_cached_user_encoding = None
1999
1408
 
2000
1409
 
2001
 
def get_user_encoding():
 
1410
def get_user_encoding(use_cache=True):
2002
1411
    """Find out what the preferred user encoding is.
2003
1412
 
2004
1413
    This is generally the encoding that is used for command line parameters
2005
1414
    and file contents. This may be different from the terminal encoding
2006
1415
    or the filesystem encoding.
2007
1416
 
 
1417
    :param  use_cache:  Enable cache for detected encoding.
 
1418
                        (This parameter is turned on by default,
 
1419
                        and required only for selftesting)
 
1420
 
2008
1421
    :return: A string defining the preferred user encoding
2009
1422
    """
2010
1423
    global _cached_user_encoding
2011
 
    if _cached_user_encoding is not None:
 
1424
    if _cached_user_encoding is not None and use_cache:
2012
1425
        return _cached_user_encoding
2013
1426
 
2014
 
    if os.name == 'posix' and getattr(locale, 'CODESET', None) is not None:
2015
 
        # Use the existing locale settings and call nl_langinfo directly
2016
 
        # rather than going through getpreferredencoding. This avoids
2017
 
        # <http://bugs.python.org/issue6202> on OSX Python 2.6 and the
2018
 
        # possibility of the setlocale call throwing an error.
2019
 
        user_encoding = locale.nl_langinfo(locale.CODESET)
 
1427
    if sys.platform == 'darwin':
 
1428
        # work around egregious python 2.4 bug
 
1429
        sys.platform = 'posix'
 
1430
        try:
 
1431
            import locale
 
1432
        finally:
 
1433
            sys.platform = 'darwin'
2020
1434
    else:
2021
 
        # GZ 2011-12-19: On windows could call GetACP directly instead.
2022
 
        user_encoding = locale.getpreferredencoding(False)
 
1435
        import locale
2023
1436
 
2024
1437
    try:
2025
 
        user_encoding = codecs.lookup(user_encoding).name
2026
 
    except LookupError:
2027
 
        if user_encoding not in ("", "cp0"):
2028
 
            sys.stderr.write('brz: warning:'
 
1438
        user_encoding = locale.getpreferredencoding()
 
1439
    except locale.Error, e:
 
1440
        sys.stderr.write('bzr: warning: %s\n'
 
1441
                         '  Could not determine what text encoding to use.\n'
 
1442
                         '  This error usually means your Python interpreter\n'
 
1443
                         '  doesn\'t support the locale set by $LANG (%s)\n'
 
1444
                         "  Continuing with ascii encoding.\n"
 
1445
                         % (e, os.environ.get('LANG')))
 
1446
        user_encoding = 'ascii'
 
1447
 
 
1448
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
 
1449
    # treat that as ASCII, and not support printing unicode characters to the
 
1450
    # console.
 
1451
    #
 
1452
    # For python scripts run under vim, we get '', so also treat that as ASCII
 
1453
    if user_encoding in (None, 'cp0', ''):
 
1454
        user_encoding = 'ascii'
 
1455
    else:
 
1456
        # check encoding
 
1457
        try:
 
1458
            codecs.lookup(user_encoding)
 
1459
        except LookupError:
 
1460
            sys.stderr.write('bzr: warning:'
2029
1461
                             ' unknown encoding %s.'
2030
1462
                             ' Continuing with ascii encoding.\n'
2031
1463
                             % user_encoding
2032
1464
                            )
2033
 
        user_encoding = 'ascii'
2034
 
    else:
2035
 
        # Get 'ascii' when setlocale has not been called or LANG=C or unset.
2036
 
        if user_encoding == 'ascii':
2037
 
            if sys.platform == 'darwin':
2038
 
                # OSX is special-cased in Python to have a UTF-8 filesystem
2039
 
                # encoding and previously had LANG set here if not present.
2040
 
                user_encoding = 'utf-8'
2041
 
            # GZ 2011-12-19: Maybe UTF-8 should be the default in this case
2042
 
            #                for some other posix platforms as well.
2043
 
 
2044
 
    _cached_user_encoding = user_encoding
 
1465
            user_encoding = 'ascii'
 
1466
 
 
1467
    if use_cache:
 
1468
        _cached_user_encoding = user_encoding
 
1469
 
2045
1470
    return user_encoding
2046
1471
 
2047
1472
 
2048
 
def get_diff_header_encoding():
2049
 
    return get_terminal_encoding()
2050
 
 
2051
 
 
2052
1473
def get_host_name():
2053
1474
    """Return the current unicode host name.
2054
1475
 
2056
1477
    behaves inconsistently on different platforms.
2057
1478
    """
2058
1479
    if sys.platform == "win32":
 
1480
        import win32utils
2059
1481
        return win32utils.get_host_name()
2060
1482
    else:
2061
1483
        import socket
2062
 
        if PY3:
2063
 
            return socket.gethostname()
2064
1484
        return socket.gethostname().decode(get_user_encoding())
2065
1485
 
2066
1486
 
2067
 
# We must not read/write any more than 64k at a time from/to a socket so we
2068
 
# don't risk "no buffer space available" errors on some platforms.  Windows in
2069
 
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
2070
 
# data at once.
2071
 
MAX_SOCKET_CHUNK = 64 * 1024
2072
 
 
2073
 
_end_of_stream_errors = [errno.ECONNRESET, errno.EPIPE, errno.EINVAL]
2074
 
for _eno in ['WSAECONNRESET', 'WSAECONNABORTED']:
2075
 
    _eno = getattr(errno, _eno, None)
2076
 
    if _eno is not None:
2077
 
        _end_of_stream_errors.append(_eno)
2078
 
del _eno
2079
 
 
2080
 
 
2081
 
def read_bytes_from_socket(sock, report_activity=None,
2082
 
        max_read_size=MAX_SOCKET_CHUNK):
2083
 
    """Read up to max_read_size of bytes from sock and notify of progress.
2084
 
 
2085
 
    Translates "Connection reset by peer" into file-like EOF (return an
2086
 
    empty string rather than raise an error), and repeats the recv if
2087
 
    interrupted by a signal.
2088
 
    """
2089
 
    while True:
2090
 
        try:
2091
 
            data = sock.recv(max_read_size)
2092
 
        except socket.error as e:
2093
 
            eno = e.args[0]
2094
 
            if eno in _end_of_stream_errors:
2095
 
                # The connection was closed by the other side.  Callers expect
2096
 
                # an empty string to signal end-of-stream.
2097
 
                return b""
2098
 
            elif eno == errno.EINTR:
2099
 
                # Retry the interrupted recv.
2100
 
                continue
2101
 
            raise
2102
 
        else:
2103
 
            if report_activity is not None:
2104
 
                report_activity(len(data), 'read')
2105
 
            return data
2106
 
 
2107
 
 
2108
 
def recv_all(socket, count):
 
1487
def recv_all(socket, bytes):
2109
1488
    """Receive an exact number of bytes.
2110
1489
 
2111
1490
    Regular Socket.recv() may return less than the requested number of bytes,
2112
 
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
1491
    dependning on what's in the OS buffer.  MSG_WAITALL is not available
2113
1492
    on all platforms, but this should work everywhere.  This will return
2114
1493
    less than the requested amount if the remote end closes.
2115
1494
 
2116
1495
    This isn't optimized and is intended mostly for use in testing.
2117
1496
    """
2118
 
    b = b''
2119
 
    while len(b) < count:
2120
 
        new = read_bytes_from_socket(socket, None, count - len(b))
2121
 
        if new == b'':
 
1497
    b = ''
 
1498
    while len(b) < bytes:
 
1499
        new = socket.recv(bytes - len(b))
 
1500
        if new == '':
2122
1501
            break # eof
2123
1502
        b += new
2124
1503
    return b
2125
1504
 
2126
1505
 
2127
 
def send_all(sock, bytes, report_activity=None):
 
1506
def send_all(socket, bytes):
2128
1507
    """Send all bytes on a socket.
2129
1508
 
2130
 
    Breaks large blocks in smaller chunks to avoid buffering limitations on
2131
 
    some platforms, and catches EINTR which may be thrown if the send is
2132
 
    interrupted by a signal.
2133
 
 
2134
 
    This is preferred to socket.sendall(), because it avoids portability bugs
2135
 
    and provides activity reporting.
2136
 
 
2137
 
    :param report_activity: Call this as bytes are read, see
2138
 
        Transport._report_activity
 
1509
    Regular socket.sendall() can give socket error 10053 on Windows.  This
 
1510
    implementation sends no more than 64k at a time, which avoids this problem.
2139
1511
    """
2140
 
    sent_total = 0
2141
 
    byte_count = len(bytes)
2142
 
    view = memoryview(bytes)
2143
 
    while sent_total < byte_count:
2144
 
        try:
2145
 
            sent = sock.send(view[sent_total:sent_total+MAX_SOCKET_CHUNK])
2146
 
        except (socket.error, IOError) as e:
2147
 
            if e.args[0] in _end_of_stream_errors:
2148
 
                raise errors.ConnectionReset(
2149
 
                    "Error trying to write to socket", e)
2150
 
            if e.args[0] != errno.EINTR:
2151
 
                raise
2152
 
        else:
2153
 
            if sent == 0:
2154
 
                raise errors.ConnectionReset('Sending to %s returned 0 bytes'
2155
 
                                             % (sock,))
2156
 
            sent_total += sent
2157
 
            if report_activity is not None:
2158
 
                report_activity(sent, 'write')
2159
 
 
2160
 
 
2161
 
def connect_socket(address):
2162
 
    # Slight variation of the socket.create_connection() function (provided by
2163
 
    # python-2.6) that can fail if getaddrinfo returns an empty list. We also
2164
 
    # provide it for previous python versions. Also, we don't use the timeout
2165
 
    # parameter (provided by the python implementation) so we don't implement
2166
 
    # it either).
2167
 
    err = socket.error('getaddrinfo returns an empty list')
2168
 
    host, port = address
2169
 
    for res in socket.getaddrinfo(host, port, 0, socket.SOCK_STREAM):
2170
 
        af, socktype, proto, canonname, sa = res
2171
 
        sock = None
2172
 
        try:
2173
 
            sock = socket.socket(af, socktype, proto)
2174
 
            sock.connect(sa)
2175
 
            return sock
2176
 
 
2177
 
        except socket.error as e:
2178
 
            err = e
2179
 
            # 'err' is now the most recent error
2180
 
            if sock is not None:
2181
 
                sock.close()
2182
 
    raise err
 
1512
    chunk_size = 2**16
 
1513
    for pos in xrange(0, len(bytes), chunk_size):
 
1514
        socket.sendall(bytes[pos:pos+chunk_size])
2183
1515
 
2184
1516
 
2185
1517
def dereference_path(path):
2204
1536
def resource_string(package, resource_name):
2205
1537
    """Load a resource from a package and return it as a string.
2206
1538
 
2207
 
    Note: Only packages that start with breezy are currently supported.
 
1539
    Note: Only packages that start with bzrlib are currently supported.
2208
1540
 
2209
1541
    This is designed to be a lightweight implementation of resource
2210
1542
    loading in a way which is API compatible with the same API from
2213
1545
    If and when pkg_resources becomes a standard library, this routine
2214
1546
    can delegate to it.
2215
1547
    """
2216
 
    # Check package name is within breezy
2217
 
    if package == "breezy":
 
1548
    # Check package name is within bzrlib
 
1549
    if package == "bzrlib":
2218
1550
        resource_relpath = resource_name
2219
 
    elif package.startswith("breezy."):
2220
 
        package = package[len("breezy."):].replace('.', os.sep)
 
1551
    elif package.startswith("bzrlib."):
 
1552
        package = package[len("bzrlib."):].replace('.', os.sep)
2221
1553
        resource_relpath = pathjoin(package, resource_name)
2222
1554
    else:
2223
 
        raise errors.BzrError('resource package %s not in breezy' % package)
 
1555
        raise errors.BzrError('resource package %s not in bzrlib' % package)
2224
1556
 
2225
1557
    # Map the resource to a file and read its contents
2226
 
    base = dirname(breezy.__file__)
 
1558
    base = dirname(bzrlib.__file__)
2227
1559
    if getattr(sys, 'frozen', None):    # bzr.exe
2228
1560
        base = abspath(pathjoin(base, '..', '..'))
2229
 
    with open(pathjoin(base, resource_relpath), "rU") as f:
2230
 
        return f.read()
2231
 
 
2232
 
def file_kind_from_stat_mode_thunk(mode):
2233
 
    global file_kind_from_stat_mode
2234
 
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
2235
 
        try:
2236
 
            from ._readdir_pyx import UTF8DirReader
2237
 
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
2238
 
        except ImportError as e:
2239
 
            # This is one time where we won't warn that an extension failed to
2240
 
            # load. The extension is never available on Windows anyway.
2241
 
            from ._readdir_py import (
2242
 
                _kind_from_mode as file_kind_from_stat_mode
2243
 
                )
2244
 
    return file_kind_from_stat_mode(mode)
2245
 
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
2246
 
 
2247
 
def file_stat(f, _lstat=os.lstat):
2248
 
    try:
2249
 
        # XXX cache?
2250
 
        return _lstat(f)
2251
 
    except OSError as e:
2252
 
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
2253
 
            raise errors.NoSuchFile(f)
2254
 
        raise
2255
 
 
2256
 
def file_kind(f, _lstat=os.lstat):
2257
 
    stat_value = file_stat(f, _lstat)
2258
 
    return file_kind_from_stat_mode(stat_value.st_mode)
2259
 
 
2260
 
def until_no_eintr(f, *a, **kw):
2261
 
    """Run f(*a, **kw), retrying if an EINTR error occurs.
2262
 
 
2263
 
    WARNING: you must be certain that it is safe to retry the call repeatedly
2264
 
    if EINTR does occur.  This is typically only true for low-level operations
2265
 
    like os.read.  If in any doubt, don't use this.
2266
 
 
2267
 
    Keep in mind that this is not a complete solution to EINTR.  There is
2268
 
    probably code in the Python standard library and other dependencies that
2269
 
    may encounter EINTR if a signal arrives (and there is signal handler for
2270
 
    that signal).  So this function can reduce the impact for IO that breezy
2271
 
    directly controls, but it is not a complete solution.
2272
 
    """
2273
 
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
2274
 
    while True:
2275
 
        try:
2276
 
            return f(*a, **kw)
2277
 
        except (IOError, OSError) as e:
2278
 
            if e.errno == errno.EINTR:
2279
 
                continue
2280
 
            raise
2281
 
 
2282
 
 
2283
 
if sys.platform == "win32":
2284
 
    def getchar():
2285
 
        import msvcrt
2286
 
        return msvcrt.getch()
2287
 
else:
2288
 
    def getchar():
2289
 
        import tty
2290
 
        import termios
2291
 
        fd = sys.stdin.fileno()
2292
 
        settings = termios.tcgetattr(fd)
2293
 
        try:
2294
 
            tty.setraw(fd)
2295
 
            ch = sys.stdin.read(1)
2296
 
        finally:
2297
 
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
2298
 
        return ch
2299
 
 
2300
 
if sys.platform.startswith('linux'):
2301
 
    def _local_concurrency():
2302
 
        try:
2303
 
            return os.sysconf('SC_NPROCESSORS_ONLN')
2304
 
        except (ValueError, OSError, AttributeError):
2305
 
            return None
2306
 
elif sys.platform == 'darwin':
2307
 
    def _local_concurrency():
2308
 
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
2309
 
                                stdout=subprocess.PIPE).communicate()[0]
2310
 
elif "bsd" in sys.platform:
2311
 
    def _local_concurrency():
2312
 
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
2313
 
                                stdout=subprocess.PIPE).communicate()[0]
2314
 
elif sys.platform == 'sunos5':
2315
 
    def _local_concurrency():
2316
 
        return subprocess.Popen(['psrinfo', '-p',],
2317
 
                                stdout=subprocess.PIPE).communicate()[0]
2318
 
elif sys.platform == "win32":
2319
 
    def _local_concurrency():
2320
 
        # This appears to return the number of cores.
2321
 
        return os.environ.get('NUMBER_OF_PROCESSORS')
2322
 
else:
2323
 
    def _local_concurrency():
2324
 
        # Who knows ?
2325
 
        return None
2326
 
 
2327
 
 
2328
 
_cached_local_concurrency = None
2329
 
 
2330
 
def local_concurrency(use_cache=True):
2331
 
    """Return how many processes can be run concurrently.
2332
 
 
2333
 
    Rely on platform specific implementations and default to 1 (one) if
2334
 
    anything goes wrong.
2335
 
    """
2336
 
    global _cached_local_concurrency
2337
 
 
2338
 
    if _cached_local_concurrency is not None and use_cache:
2339
 
        return _cached_local_concurrency
2340
 
 
2341
 
    concurrency = os.environ.get('BRZ_CONCURRENCY', None)
2342
 
    if concurrency is None:
2343
 
        import multiprocessing
2344
 
        try:
2345
 
            concurrency = multiprocessing.cpu_count()
2346
 
        except NotImplementedError:
2347
 
            # multiprocessing.cpu_count() isn't implemented on all platforms
2348
 
            try:
2349
 
                concurrency = _local_concurrency()
2350
 
            except (OSError, IOError):
2351
 
                pass
2352
 
    try:
2353
 
        concurrency = int(concurrency)
2354
 
    except (TypeError, ValueError):
2355
 
        concurrency = 1
2356
 
    if use_cache:
2357
 
        _cached_concurrency = concurrency
2358
 
    return concurrency
2359
 
 
2360
 
 
2361
 
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
2362
 
    """A stream writer that doesn't decode str arguments."""
2363
 
 
2364
 
    def __init__(self, encode, stream, errors='strict'):
2365
 
        codecs.StreamWriter.__init__(self, stream, errors)
2366
 
        self.encode = encode
2367
 
 
2368
 
    def write(self, object):
2369
 
        if isinstance(object, str):
2370
 
            self.stream.write(object)
2371
 
        else:
2372
 
            data, _ = self.encode(object, self.errors)
2373
 
            self.stream.write(data)
2374
 
 
2375
 
if sys.platform == 'win32':
2376
 
    def open_file(filename, mode='r', bufsize=-1):
2377
 
        """This function is used to override the ``open`` builtin.
2378
 
 
2379
 
        But it uses O_NOINHERIT flag so the file handle is not inherited by
2380
 
        child processes.  Deleting or renaming a closed file opened with this
2381
 
        function is not blocking child processes.
2382
 
        """
2383
 
        writing = 'w' in mode
2384
 
        appending = 'a' in mode
2385
 
        updating = '+' in mode
2386
 
        binary = 'b' in mode
2387
 
 
2388
 
        flags = O_NOINHERIT
2389
 
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
2390
 
        # for flags for each modes.
2391
 
        if binary:
2392
 
            flags |= O_BINARY
2393
 
        else:
2394
 
            flags |= O_TEXT
2395
 
 
2396
 
        if writing:
2397
 
            if updating:
2398
 
                flags |= os.O_RDWR
2399
 
            else:
2400
 
                flags |= os.O_WRONLY
2401
 
            flags |= os.O_CREAT | os.O_TRUNC
2402
 
        elif appending:
2403
 
            if updating:
2404
 
                flags |= os.O_RDWR
2405
 
            else:
2406
 
                flags |= os.O_WRONLY
2407
 
            flags |= os.O_CREAT | os.O_APPEND
2408
 
        else: #reading
2409
 
            if updating:
2410
 
                flags |= os.O_RDWR
2411
 
            else:
2412
 
                flags |= os.O_RDONLY
2413
 
 
2414
 
        return os.fdopen(os.open(filename, flags), mode, bufsize)
2415
 
else:
2416
 
    open_file = open
2417
 
 
2418
 
 
2419
 
def available_backup_name(base, exists):
2420
 
    """Find a non-existing backup file name.
2421
 
 
2422
 
    This will *not* create anything, this only return a 'free' entry.  This
2423
 
    should be used for checking names in a directory below a locked
2424
 
    tree/branch/repo to avoid race conditions. This is LBYL (Look Before You
2425
 
    Leap) and generally discouraged.
2426
 
 
2427
 
    :param base: The base name.
2428
 
 
2429
 
    :param exists: A callable returning True if the path parameter exists.
2430
 
    """
2431
 
    counter = 1
2432
 
    name = "%s.~%d~" % (base, counter)
2433
 
    while exists(name):
2434
 
        counter += 1
2435
 
        name = "%s.~%d~" % (base, counter)
2436
 
    return name
2437
 
 
2438
 
 
2439
 
def set_fd_cloexec(fd):
2440
 
    """Set a Unix file descriptor's FD_CLOEXEC flag.  Do nothing if platform
2441
 
    support for this is not available.
2442
 
    """
2443
 
    try:
2444
 
        import fcntl
2445
 
        old = fcntl.fcntl(fd, fcntl.F_GETFD)
2446
 
        fcntl.fcntl(fd, fcntl.F_SETFD, old | fcntl.FD_CLOEXEC)
2447
 
    except (ImportError, AttributeError):
2448
 
        # Either the fcntl module or specific constants are not present
2449
 
        pass
2450
 
 
2451
 
 
2452
 
def find_executable_on_path(name):
2453
 
    """Finds an executable on the PATH.
2454
 
    
2455
 
    On Windows, this will try to append each extension in the PATHEXT
2456
 
    environment variable to the name, if it cannot be found with the name
2457
 
    as given.
2458
 
    
2459
 
    :param name: The base name of the executable.
2460
 
    :return: The path to the executable found or None.
2461
 
    """
2462
 
    if sys.platform == 'win32':
2463
 
        exts = os.environ.get('PATHEXT', '').split(os.pathsep)
2464
 
        exts = [ext.lower() for ext in exts]
2465
 
        base, ext = os.path.splitext(name)
2466
 
        if ext != '':
2467
 
            if ext.lower() not in exts:
2468
 
                return None
2469
 
            name = base
2470
 
            exts = [ext]
2471
 
    else:
2472
 
        exts = ['']
2473
 
    path = os.environ.get('PATH')
2474
 
    if path is not None:
2475
 
        path = path.split(os.pathsep)
2476
 
        for ext in exts:
2477
 
            for d in path:
2478
 
                f = os.path.join(d, name) + ext
2479
 
                if os.access(f, os.X_OK):
2480
 
                    return f
2481
 
    if sys.platform == 'win32':
2482
 
        app_path = win32utils.get_app_path(name)
2483
 
        if app_path != name:
2484
 
            return app_path
2485
 
    return None
2486
 
 
2487
 
 
2488
 
def _posix_is_local_pid_dead(pid):
2489
 
    """True if pid doesn't correspond to live process on this machine"""
2490
 
    try:
2491
 
        # Special meaning of unix kill: just check if it's there.
2492
 
        os.kill(pid, 0)
2493
 
    except OSError as e:
2494
 
        if e.errno == errno.ESRCH:
2495
 
            # On this machine, and really not found: as sure as we can be
2496
 
            # that it's dead.
2497
 
            return True
2498
 
        elif e.errno == errno.EPERM:
2499
 
            # exists, though not ours
2500
 
            return False
2501
 
        else:
2502
 
            mutter("os.kill(%d, 0) failed: %s" % (pid, e))
2503
 
            # Don't really know.
2504
 
            return False
2505
 
    else:
2506
 
        # Exists and our process: not dead.
2507
 
        return False
2508
 
 
2509
 
if sys.platform == "win32":
2510
 
    is_local_pid_dead = win32utils.is_local_pid_dead
2511
 
else:
2512
 
    is_local_pid_dead = _posix_is_local_pid_dead
2513
 
 
2514
 
_maybe_ignored = ['EAGAIN', 'EINTR', 'ENOTSUP', 'EOPNOTSUPP', 'EACCES']
2515
 
_fdatasync_ignored = [getattr(errno, name) for name in _maybe_ignored
2516
 
                      if getattr(errno, name, None) is not None]
2517
 
 
2518
 
 
2519
 
def fdatasync(fileno):
2520
 
    """Flush file contents to disk if possible.
2521
 
    
2522
 
    :param fileno: Integer OS file handle.
2523
 
    :raises TransportNotPossible: If flushing to disk is not possible.
2524
 
    """
2525
 
    fn = getattr(os, 'fdatasync', getattr(os, 'fsync', None))
2526
 
    if fn is not None:
2527
 
        try:
2528
 
            fn(fileno)
2529
 
        except IOError as e:
2530
 
            # See bug #1075108, on some platforms fdatasync exists, but can
2531
 
            # raise ENOTSUP. However, we are calling fdatasync to be helpful
2532
 
            # and reduce the chance of corruption-on-powerloss situations. It
2533
 
            # is not a mandatory call, so it is ok to suppress failures.
2534
 
            trace.mutter("ignoring error calling fdatasync: %s" % (e,))
2535
 
            if getattr(e, 'errno', None) not in _fdatasync_ignored:
2536
 
                raise
2537
 
 
2538
 
 
2539
 
def ensure_empty_directory_exists(path, exception_class):
2540
 
    """Make sure a local directory exists and is empty.
2541
 
    
2542
 
    If it does not exist, it is created.  If it exists and is not empty, an
2543
 
    instance of exception_class is raised.
2544
 
    """
2545
 
    try:
2546
 
        os.mkdir(path)
2547
 
    except OSError as e:
2548
 
        if e.errno != errno.EEXIST:
2549
 
            raise
2550
 
        if os.listdir(path) != []:
2551
 
            raise exception_class(path)
2552
 
 
2553
 
 
2554
 
def is_environment_error(evalue):
2555
 
    """True if exception instance is due to a process environment issue
2556
 
 
2557
 
    This includes OSError and IOError, but also other errors that come from
2558
 
    the operating system or core libraries but are not subclasses of those.
2559
 
    """
2560
 
    if isinstance(evalue, (EnvironmentError, select.error)):
2561
 
        return True
2562
 
    if sys.platform == "win32" and win32utils._is_pywintypes_error(evalue):
2563
 
        return True
2564
 
    return False
 
1561
    filename = pathjoin(base, resource_relpath)
 
1562
    return open(filename, 'rU').read()
 
1563
 
 
1564
 
 
1565
try:
 
1566
    from bzrlib._readdir_pyx import read_dir as _read_dir
 
1567
except ImportError:
 
1568
    from bzrlib._readdir_py import read_dir as _read_dir