/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Robert Collins
  • Date: 2007-04-19 02:27:44 UTC
  • mto: This revision was merged to the branch mainline in revision 2426.
  • Revision ID: robertc@robertcollins.net-20070419022744-pfdqz42kp1wizh43
``make docs`` now creates a man page at ``man1/bzr.1`` fixing bug 107388.
(Robert Collins)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
import errno
 
17
from cStringIO import StringIO
18
18
import os
19
19
import re
20
20
import stat
 
21
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
22
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
21
23
import sys
22
24
import time
 
25
 
 
26
from bzrlib.lazy_import import lazy_import
 
27
lazy_import(globals(), """
23
28
import codecs
24
 
 
25
 
from .lazy_import import lazy_import
26
 
lazy_import(globals(), """
27
29
from datetime import datetime
28
 
import getpass
29
 
import locale
30
 
import ntpath
 
30
import errno
 
31
from ntpath import (abspath as _nt_abspath,
 
32
                    join as _nt_join,
 
33
                    normpath as _nt_normpath,
 
34
                    realpath as _nt_realpath,
 
35
                    splitdrive as _nt_splitdrive,
 
36
                    )
31
37
import posixpath
32
 
import select
33
 
# We need to import both shutil and rmtree as we export the later on posix
34
 
# and need the former on windows
 
38
import sha
35
39
import shutil
36
 
from shutil import rmtree
37
 
import socket
38
 
import subprocess
39
 
# We need to import both tempfile and mkdtemp as we export the later on posix
40
 
# and need the former on windows
 
40
from shutil import (
 
41
    rmtree,
 
42
    )
41
43
import tempfile
42
 
from tempfile import mkdtemp
 
44
from tempfile import (
 
45
    mkdtemp,
 
46
    )
43
47
import unicodedata
44
48
 
45
 
from breezy import (
46
 
    config,
47
 
    trace,
 
49
from bzrlib import (
 
50
    cache_utf8,
 
51
    errors,
48
52
    win32utils,
49
53
    )
50
 
from breezy.i18n import gettext
51
54
""")
52
55
 
53
 
from hashlib import (
54
 
    md5,
55
 
    sha1 as sha,
56
 
    )
57
 
 
58
 
 
59
 
import breezy
60
 
from . import (
61
 
    _fs_enc,
62
 
    errors,
63
 
    )
 
56
import bzrlib
 
57
from bzrlib import symbol_versioning
 
58
from bzrlib.symbol_versioning import (
 
59
    deprecated_function,
 
60
    zero_nine,
 
61
    )
 
62
from bzrlib.trace import mutter
64
63
 
65
64
 
66
65
# On win32, O_BINARY is used to indicate the file should
67
66
# be opened in binary mode, rather than text mode.
68
67
# On other platforms, O_BINARY doesn't exist, because
69
68
# they always open in binary mode, so it is okay to
70
 
# OR with 0 on those platforms.
71
 
# O_NOINHERIT and O_TEXT exists only on win32 too.
 
69
# OR with 0 on those platforms
72
70
O_BINARY = getattr(os, 'O_BINARY', 0)
73
 
O_TEXT = getattr(os, 'O_TEXT', 0)
74
 
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
75
 
 
76
 
 
77
 
class UnsupportedTimezoneFormat(errors.BzrError):
78
 
 
79
 
    _fmt = ('Unsupported timezone format "%(timezone)s", '
80
 
            'options are "utc", "original", "local".')
81
 
 
82
 
    def __init__(self, timezone):
83
 
        self.timezone = timezone
84
71
 
85
72
 
86
73
def make_readonly(filename):
87
74
    """Make a filename read-only."""
88
 
    mod = os.lstat(filename).st_mode
89
 
    if not stat.S_ISLNK(mod):
90
 
        mod = mod & 0o777555
91
 
        chmod_if_possible(filename, mod)
 
75
    mod = os.stat(filename).st_mode
 
76
    mod = mod & 0777555
 
77
    os.chmod(filename, mod)
92
78
 
93
79
 
94
80
def make_writable(filename):
95
 
    mod = os.lstat(filename).st_mode
96
 
    if not stat.S_ISLNK(mod):
97
 
        mod = mod | 0o200
98
 
        chmod_if_possible(filename, mod)
99
 
 
100
 
 
101
 
def chmod_if_possible(filename, mode):
102
 
    # Set file mode if that can be safely done.
103
 
    # Sometimes even on unix the filesystem won't allow it - see
104
 
    # https://bugs.launchpad.net/bzr/+bug/606537
105
 
    try:
106
 
        # It is probably faster to just do the chmod, rather than
107
 
        # doing a stat, and then trying to compare
108
 
        os.chmod(filename, mode)
109
 
    except (IOError, OSError) as e:
110
 
        # Permission/access denied seems to commonly happen on smbfs; there's
111
 
        # probably no point warning about it.
112
 
        # <https://bugs.launchpad.net/bzr/+bug/606537>
113
 
        if getattr(e, 'errno') in (errno.EPERM, errno.EACCES):
114
 
            trace.mutter("ignore error on chmod of %r: %r" % (
115
 
                filename, e))
116
 
            return
117
 
        raise
118
 
 
119
 
 
120
 
def minimum_path_selection(paths):
121
 
    """Return the smallset subset of paths which are outside paths.
122
 
 
123
 
    :param paths: A container (and hence not None) of paths.
124
 
    :return: A set of paths sufficient to include everything in paths via
125
 
        is_inside, drawn from the paths parameter.
126
 
    """
127
 
    if len(paths) < 2:
128
 
        return set(paths)
129
 
 
130
 
    def sort_key(path):
131
 
        if isinstance(path, bytes):
132
 
            return path.split(b'/')
133
 
        else:
134
 
            return path.split('/')
135
 
    sorted_paths = sorted(list(paths), key=sort_key)
136
 
 
137
 
    search_paths = [sorted_paths[0]]
138
 
    for path in sorted_paths[1:]:
139
 
        if not is_inside(search_paths[-1], path):
140
 
            # This path is unique, add it
141
 
            search_paths.append(path)
142
 
 
143
 
    return set(search_paths)
 
81
    mod = os.stat(filename).st_mode
 
82
    mod = mod | 0200
 
83
    os.chmod(filename, mod)
144
84
 
145
85
 
146
86
_QUOTE_RE = None
155
95
    global _QUOTE_RE
156
96
    if _QUOTE_RE is None:
157
97
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
158
 
 
 
98
        
159
99
    if _QUOTE_RE.search(f):
160
100
        return '"' + f + '"'
161
101
    else:
164
104
 
165
105
_directory_kind = 'directory'
166
106
 
 
107
_formats = {
 
108
    stat.S_IFDIR:_directory_kind,
 
109
    stat.S_IFCHR:'chardev',
 
110
    stat.S_IFBLK:'block',
 
111
    stat.S_IFREG:'file',
 
112
    stat.S_IFIFO:'fifo',
 
113
    stat.S_IFLNK:'symlink',
 
114
    stat.S_IFSOCK:'socket',
 
115
}
 
116
 
 
117
 
 
118
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
 
119
    """Generate a file kind from a stat mode. This is used in walkdirs.
 
120
 
 
121
    Its performance is critical: Do not mutate without careful benchmarking.
 
122
    """
 
123
    try:
 
124
        return _formats[stat_mode & 0170000]
 
125
    except KeyError:
 
126
        return _unknown
 
127
 
 
128
 
 
129
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
 
130
    try:
 
131
        return _mapper(_lstat(f).st_mode)
 
132
    except OSError, e:
 
133
        if getattr(e, 'errno', None) == errno.ENOENT:
 
134
            raise errors.NoSuchFile(f)
 
135
        raise
 
136
 
167
137
 
168
138
def get_umask():
169
139
    """Return the current umask"""
187
157
    try:
188
158
        return _kind_marker_map[kind]
189
159
    except KeyError:
190
 
        # Slightly faster than using .get(, '') when the common case is that
191
 
        # kind will be found
192
 
        return ''
 
160
        raise errors.BzrError('invalid file kind %r' % kind)
193
161
 
194
162
 
195
163
lexists = getattr(os.path, 'lexists', None)
199
167
            stat = getattr(os, 'lstat', os.stat)
200
168
            stat(f)
201
169
            return True
202
 
        except OSError as e:
 
170
        except OSError, e:
203
171
            if e.errno == errno.ENOENT:
204
 
                return False
 
172
                return False;
205
173
            else:
206
 
                raise errors.BzrError(
207
 
                    gettext("lstat/stat of ({0!r}): {1!r}").format(f, e))
 
174
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
208
175
 
209
176
 
210
177
def fancy_rename(old, new, rename_func, unlink_func):
211
178
    """A fancy rename, when you don't have atomic rename.
212
 
 
 
179
    
213
180
    :param old: The old path, to rename from
214
181
    :param new: The new path, to rename to
215
182
    :param rename_func: The potentially non-atomic rename function
216
 
    :param unlink_func: A way to delete the target file if the full rename
217
 
        succeeds
 
183
    :param unlink_func: A way to delete the target file if the full rename succeeds
218
184
    """
 
185
 
219
186
    # sftp rename doesn't allow overwriting, so play tricks:
 
187
    import random
220
188
    base = os.path.basename(new)
221
189
    dirname = os.path.dirname(new)
222
 
    # callers use different encodings for the paths so the following MUST
223
 
    # respect that. We rely on python upcasting to unicode if new is unicode
224
 
    # and keeping a str if not.
225
 
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
226
 
                                      os.getpid(), rand_chars(10))
 
190
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
227
191
    tmp_name = pathjoin(dirname, tmp_name)
228
192
 
229
193
    # Rename the file out of the way, but keep track if it didn't exist
234
198
    file_existed = False
235
199
    try:
236
200
        rename_func(new, tmp_name)
237
 
    except (errors.NoSuchFile,):
 
201
    except (errors.NoSuchFile,), e:
238
202
        pass
239
 
    except IOError as e:
 
203
    except IOError, e:
240
204
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
241
205
        # function raises an IOError with errno is None when a rename fails.
242
206
        # This then gets caught here.
243
207
        if e.errno not in (None, errno.ENOENT, errno.ENOTDIR):
244
208
            raise
245
 
    except Exception as e:
 
209
    except Exception, e:
246
210
        if (getattr(e, 'errno', None) is None
247
 
                or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
 
211
            or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
248
212
            raise
249
213
    else:
250
214
        file_existed = True
255
219
        # not be set.
256
220
        rename_func(old, new)
257
221
        success = True
258
 
    except (IOError, OSError) as e:
259
 
        # source and target may be aliases of each other (e.g. on a
260
 
        # case-insensitive filesystem), so we may have accidentally renamed
261
 
        # source by when we tried to rename target
262
 
        if (file_existed and e.errno in (None, errno.ENOENT)
263
 
                and old.lower() == new.lower()):
264
 
            # source and target are the same file on a case-insensitive
265
 
            # filesystem, so we don't generate an exception
266
 
            pass
267
 
        else:
268
 
            raise
269
222
    finally:
270
223
        if file_existed:
271
224
            # If the file used to exist, rename it back into place
280
233
# choke on a Unicode string containing a relative path if
281
234
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
282
235
# string.
 
236
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
283
237
def _posix_abspath(path):
284
238
    # jam 20060426 rather than encoding to fsencoding
285
239
    # copy posixpath.abspath, but use os.getcwdu instead
286
240
    if not posixpath.isabs(path):
287
241
        path = posixpath.join(getcwd(), path)
288
 
    return _posix_normpath(path)
 
242
    return posixpath.normpath(path)
289
243
 
290
244
 
291
245
def _posix_realpath(path):
292
246
    return posixpath.realpath(path.encode(_fs_enc)).decode(_fs_enc)
293
247
 
294
248
 
295
 
def _posix_normpath(path):
296
 
    path = posixpath.normpath(path)
297
 
    # Bug 861008: posixpath.normpath() returns a path normalized according to
298
 
    # the POSIX standard, which stipulates (for compatibility reasons) that two
299
 
    # leading slashes must not be simplified to one, and only if there are 3 or
300
 
    # more should they be simplified as one. So we treat the leading 2 slashes
301
 
    # as a special case here by simply removing the first slash, as we consider
302
 
    # that breaking POSIX compatibility for this obscure feature is acceptable.
303
 
    # This is not a paranoid precaution, as we notably get paths like this when
304
 
    # the repo is hosted at the root of the filesystem, i.e. in "/".
305
 
    if path.startswith('//'):
306
 
        path = path[1:]
307
 
    return path
308
 
 
309
 
 
310
 
def _posix_get_home_dir():
311
 
    """Get the home directory of the current user as a unicode path"""
312
 
    path = posixpath.expanduser("~")
313
 
    try:
314
 
        return path.decode(_fs_enc)
315
 
    except AttributeError:
316
 
        return path
317
 
    except UnicodeDecodeError:
318
 
        raise errors.BadFilenameEncoding(path, _fs_enc)
319
 
 
320
 
 
321
 
def _posix_getuser_unicode():
322
 
    """Get username from environment or password database as unicode"""
323
 
    return getpass.getuser()
324
 
 
325
 
 
326
249
def _win32_fixdrive(path):
327
250
    """Force drive letters to be consistent.
328
251
 
332
255
    running python.exe under cmd.exe return capital C:\\
333
256
    running win32 python inside a cygwin shell returns lowercase c:\\
334
257
    """
335
 
    drive, path = ntpath.splitdrive(path)
 
258
    drive, path = _nt_splitdrive(path)
336
259
    return drive.upper() + path
337
260
 
338
261
 
339
262
def _win32_abspath(path):
340
 
    # Real ntpath.abspath doesn't have a problem with a unicode cwd
341
 
    return _win32_fixdrive(ntpath.abspath(path).replace('\\', '/'))
 
263
    # Real _nt_abspath doesn't have a problem with a unicode cwd
 
264
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
 
265
 
 
266
 
 
267
def _win98_abspath(path):
 
268
    """Return the absolute version of a path.
 
269
    Windows 98 safe implementation (python reimplementation
 
270
    of Win32 API function GetFullPathNameW)
 
271
    """
 
272
    # Corner cases:
 
273
    #   C:\path     => C:/path
 
274
    #   C:/path     => C:/path
 
275
    #   \\HOST\path => //HOST/path
 
276
    #   //HOST/path => //HOST/path
 
277
    #   path        => C:/cwd/path
 
278
    #   /path       => C:/path
 
279
    path = unicode(path)
 
280
    # check for absolute path
 
281
    drive = _nt_splitdrive(path)[0]
 
282
    if drive == '' and path[:2] not in('//','\\\\'):
 
283
        cwd = os.getcwdu()
 
284
        # we cannot simply os.path.join cwd and path
 
285
        # because os.path.join('C:','/path') produce '/path'
 
286
        # and this is incorrect
 
287
        if path[:1] in ('/','\\'):
 
288
            cwd = _nt_splitdrive(cwd)[0]
 
289
            path = path[1:]
 
290
        path = cwd + '\\' + path
 
291
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
 
292
 
 
293
if win32utils.winver == 'Windows 98':
 
294
    _win32_abspath = _win98_abspath
342
295
 
343
296
 
344
297
def _win32_realpath(path):
345
 
    # Real ntpath.realpath doesn't have a problem with a unicode cwd
346
 
    return _win32_fixdrive(ntpath.realpath(path).replace('\\', '/'))
 
298
    # Real _nt_realpath doesn't have a problem with a unicode cwd
 
299
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
347
300
 
348
301
 
349
302
def _win32_pathjoin(*args):
350
 
    return ntpath.join(*args).replace('\\', '/')
 
303
    return _nt_join(*args).replace('\\', '/')
351
304
 
352
305
 
353
306
def _win32_normpath(path):
354
 
    return _win32_fixdrive(ntpath.normpath(path).replace('\\', '/'))
 
307
    return _win32_fixdrive(_nt_normpath(unicode(path)).replace('\\', '/'))
355
308
 
356
309
 
357
310
def _win32_getcwd():
358
 
    return _win32_fixdrive(_getcwd().replace('\\', '/'))
 
311
    return _win32_fixdrive(os.getcwdu().replace('\\', '/'))
359
312
 
360
313
 
361
314
def _win32_mkdtemp(*args, **kwargs):
366
319
    """We expect to be able to atomically replace 'new' with old.
367
320
 
368
321
    On win32, if new exists, it must be moved out of the way first,
369
 
    and then deleted.
 
322
    and then deleted. 
370
323
    """
371
324
    try:
372
325
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
373
 
    except OSError as e:
 
326
    except OSError, e:
374
327
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
375
 
            # If we try to rename a non-existant file onto cwd, we get
376
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
328
            # If we try to rename a non-existant file onto cwd, we get 
 
329
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
377
330
            # if the old path doesn't exist, sometimes we get EACCES
378
331
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
379
332
            os.lstat(old)
381
334
 
382
335
 
383
336
def _mac_getcwd():
384
 
    return unicodedata.normalize('NFC', _getcwd())
385
 
 
386
 
 
387
 
def _rename_wrap_exception(rename_func):
388
 
    """Adds extra information to any exceptions that come from rename().
389
 
 
390
 
    The exception has an updated message and 'old_filename' and 'new_filename'
391
 
    attributes.
392
 
    """
393
 
 
394
 
    def _rename_wrapper(old, new):
395
 
        try:
396
 
            rename_func(old, new)
397
 
        except OSError as e:
398
 
            detailed_error = OSError(e.errno, e.strerror +
399
 
                                     " [occurred when renaming '%s' to '%s']" %
400
 
                                     (old, new))
401
 
            detailed_error.old_filename = old
402
 
            detailed_error.new_filename = new
403
 
            raise detailed_error
404
 
 
405
 
    return _rename_wrapper
406
 
 
407
 
 
408
 
_getcwd = os.getcwd
409
 
 
410
 
 
411
 
# Default rename wraps os.rename()
412
 
rename = _rename_wrap_exception(os.rename)
 
337
    return unicodedata.normalize('NFKC', os.getcwdu())
 
338
 
413
339
 
414
340
# Default is to just use the python builtins, but these can be rebound on
415
341
# particular platforms.
416
342
abspath = _posix_abspath
417
343
realpath = _posix_realpath
418
344
pathjoin = os.path.join
419
 
normpath = _posix_normpath
420
 
_get_home_dir = _posix_get_home_dir
421
 
getuser_unicode = _posix_getuser_unicode
422
 
getcwd = _getcwd
 
345
normpath = os.path.normpath
 
346
getcwd = os.getcwdu
 
347
rename = os.rename
423
348
dirname = os.path.dirname
424
349
basename = os.path.basename
425
350
split = os.path.split
426
351
splitext = os.path.splitext
427
 
# These were already lazily imported into local scope
 
352
# These were already imported into local scope
428
353
# mkdtemp = tempfile.mkdtemp
429
354
# rmtree = shutil.rmtree
430
 
lstat = os.lstat
431
 
fstat = os.fstat
432
 
 
433
 
 
434
 
def wrap_stat(st):
435
 
    return st
436
 
 
437
355
 
438
356
MIN_ABS_PATHLENGTH = 1
439
357
 
445
363
    normpath = _win32_normpath
446
364
    getcwd = _win32_getcwd
447
365
    mkdtemp = _win32_mkdtemp
448
 
    rename = _rename_wrap_exception(_win32_rename)
449
 
    try:
450
 
        from . import _walkdirs_win32
451
 
    except ImportError:
452
 
        pass
453
 
    else:
454
 
        lstat = _walkdirs_win32.lstat
455
 
        fstat = _walkdirs_win32.fstat
456
 
        wrap_stat = _walkdirs_win32.wrap_stat
 
366
    rename = _win32_rename
457
367
 
458
368
    MIN_ABS_PATHLENGTH = 3
459
369
 
463
373
        """
464
374
        exception = excinfo[1]
465
375
        if function in (os.remove, os.rmdir) \
466
 
                and isinstance(exception, OSError) \
467
 
                and exception.errno == errno.EACCES:
 
376
            and isinstance(exception, OSError) \
 
377
            and exception.errno == errno.EACCES:
468
378
            make_writable(path)
469
379
            function(path)
470
380
        else:
473
383
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
474
384
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
475
385
        return shutil.rmtree(path, ignore_errors, onerror)
476
 
 
477
 
    _get_home_dir = win32utils.get_home_location
478
 
    getuser_unicode = win32utils.get_user_name
479
 
 
480
386
elif sys.platform == 'darwin':
481
387
    getcwd = _mac_getcwd
482
388
 
483
389
 
484
 
def get_terminal_encoding(trace=False):
 
390
def get_terminal_encoding():
485
391
    """Find the best encoding for printing to the screen.
486
392
 
487
393
    This attempts to check both sys.stdout and sys.stdin to see
488
394
    what encoding they are in, and if that fails it falls back to
489
 
    osutils.get_user_encoding().
 
395
    bzrlib.user_encoding.
490
396
    The problem is that on Windows, locale.getpreferredencoding()
491
397
    is not the same encoding as that used by the console:
492
398
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
493
399
 
494
400
    On my standard US Windows XP, the preferred encoding is
495
401
    cp1252, but the console is cp437
496
 
 
497
 
    :param trace: If True trace the selected encoding via mutter().
498
402
    """
499
 
    from .trace import mutter
500
403
    output_encoding = getattr(sys.stdout, 'encoding', None)
501
404
    if not output_encoding:
502
405
        input_encoding = getattr(sys.stdin, 'encoding', None)
503
406
        if not input_encoding:
504
 
            output_encoding = get_user_encoding()
505
 
            if trace:
506
 
                mutter('encoding stdout as osutils.get_user_encoding() %r',
507
 
                       output_encoding)
 
407
            output_encoding = bzrlib.user_encoding
 
408
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
508
409
        else:
509
410
            output_encoding = input_encoding
510
 
            if trace:
511
 
                mutter('encoding stdout as sys.stdin encoding %r',
512
 
                       output_encoding)
 
411
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
513
412
    else:
514
 
        if trace:
515
 
            mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
413
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
516
414
    if output_encoding == 'cp0':
517
415
        # invalid encoding (cp0 means 'no codepage' on Windows)
518
 
        output_encoding = get_user_encoding()
519
 
        if trace:
520
 
            mutter('cp0 is invalid encoding.'
521
 
                   ' encoding stdout as osutils.get_user_encoding() %r',
522
 
                   output_encoding)
 
416
        output_encoding = bzrlib.user_encoding
 
417
        mutter('cp0 is invalid encoding.'
 
418
               ' encoding stdout as bzrlib.user_encoding %r', output_encoding)
523
419
    # check encoding
524
420
    try:
525
421
        codecs.lookup(output_encoding)
526
422
    except LookupError:
527
 
        sys.stderr.write('brz: warning:'
 
423
        sys.stderr.write('bzr: warning:'
528
424
                         ' unknown terminal encoding %s.\n'
529
425
                         '  Using encoding %s instead.\n'
530
 
                         % (output_encoding, get_user_encoding())
531
 
                         )
532
 
        output_encoding = get_user_encoding()
 
426
                         % (output_encoding, bzrlib.user_encoding)
 
427
                        )
 
428
        output_encoding = bzrlib.user_encoding
533
429
 
534
430
    return output_encoding
535
431
 
539
435
        F = realpath
540
436
    else:
541
437
        F = abspath
542
 
    [p, e] = os.path.split(f)
 
438
    [p,e] = os.path.split(f)
543
439
    if e == "" or e == "." or e == "..":
544
440
        return F(f)
545
441
    else:
546
442
        return pathjoin(F(p), e)
547
443
 
548
444
 
 
445
def backup_file(fn):
 
446
    """Copy a file to a backup.
 
447
 
 
448
    Backups are named in GNU-style, with a ~ suffix.
 
449
 
 
450
    If the file is already a backup, it's not copied.
 
451
    """
 
452
    if fn[-1] == '~':
 
453
        return
 
454
    bfn = fn + '~'
 
455
 
 
456
    if has_symlinks() and os.path.islink(fn):
 
457
        target = os.readlink(fn)
 
458
        os.symlink(target, bfn)
 
459
        return
 
460
    inf = file(fn, 'rb')
 
461
    try:
 
462
        content = inf.read()
 
463
    finally:
 
464
        inf.close()
 
465
    
 
466
    outf = file(bfn, 'wb')
 
467
    try:
 
468
        outf.write(content)
 
469
    finally:
 
470
        outf.close()
 
471
 
 
472
 
549
473
def isdir(f):
550
474
    """True if f is an accessible directory."""
551
475
    try:
552
 
        return stat.S_ISDIR(os.lstat(f)[stat.ST_MODE])
 
476
        return S_ISDIR(os.lstat(f)[ST_MODE])
553
477
    except OSError:
554
478
        return False
555
479
 
557
481
def isfile(f):
558
482
    """True if f is a regular file."""
559
483
    try:
560
 
        return stat.S_ISREG(os.lstat(f)[stat.ST_MODE])
 
484
        return S_ISREG(os.lstat(f)[ST_MODE])
561
485
    except OSError:
562
486
        return False
563
487
 
564
 
 
565
488
def islink(f):
566
489
    """True if f is a symlink."""
567
490
    try:
568
 
        return stat.S_ISLNK(os.lstat(f)[stat.ST_MODE])
 
491
        return S_ISLNK(os.lstat(f)[ST_MODE])
569
492
    except OSError:
570
493
        return False
571
494
 
572
 
 
573
495
def is_inside(dir, fname):
574
496
    """True if fname is inside dir.
575
 
 
 
497
    
576
498
    The parameters should typically be passed to osutils.normpath first, so
577
499
    that . and .. and repeated slashes are eliminated, and the separators
578
500
    are canonical for the platform.
579
 
 
580
 
    The empty string as a dir name is taken as top-of-tree and matches
 
501
    
 
502
    The empty string as a dir name is taken as top-of-tree and matches 
581
503
    everything.
582
504
    """
583
 
    # XXX: Most callers of this can actually do something smarter by
 
505
    # XXX: Most callers of this can actually do something smarter by 
584
506
    # looking at the inventory
585
507
    if dir == fname:
586
508
        return True
587
 
 
588
 
    if dir in ('', b''):
 
509
    
 
510
    if dir == '':
589
511
        return True
590
512
 
591
 
    if isinstance(dir, bytes):
592
 
        if not dir.endswith(b'/'):
593
 
            dir += b'/'
594
 
    else:
595
 
        if not dir.endswith('/'):
596
 
            dir += '/'
 
513
    if dir[-1] != '/':
 
514
        dir += '/'
597
515
 
598
516
    return fname.startswith(dir)
599
517
 
614
532
    return False
615
533
 
616
534
 
617
 
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
618
 
             report_activity=None, direction='read'):
619
 
    """Copy contents of one file to another.
620
 
 
621
 
    The read_length can either be -1 to read to end-of-file (EOF) or
622
 
    it can specify the maximum number of bytes to read.
623
 
 
624
 
    The buff_size represents the maximum size for each read operation
625
 
    performed on from_file.
626
 
 
627
 
    :param report_activity: Call this as bytes are read, see
628
 
        Transport._report_activity
629
 
    :param direction: Will be passed to report_activity
630
 
 
631
 
    :return: The number of bytes copied.
632
 
    """
633
 
    length = 0
634
 
    if read_length >= 0:
635
 
        # read specified number of bytes
636
 
 
637
 
        while read_length > 0:
638
 
            num_bytes_to_read = min(read_length, buff_size)
639
 
 
640
 
            block = from_file.read(num_bytes_to_read)
641
 
            if not block:
642
 
                # EOF reached
643
 
                break
644
 
            if report_activity is not None:
645
 
                report_activity(len(block), direction)
646
 
            to_file.write(block)
647
 
 
648
 
            actual_bytes_read = len(block)
649
 
            read_length -= actual_bytes_read
650
 
            length += actual_bytes_read
651
 
    else:
652
 
        # read to EOF
653
 
        while True:
654
 
            block = from_file.read(buff_size)
655
 
            if not block:
656
 
                # EOF reached
657
 
                break
658
 
            if report_activity is not None:
659
 
                report_activity(len(block), direction)
660
 
            to_file.write(block)
661
 
            length += len(block)
662
 
    return length
663
 
 
664
 
 
665
 
def pump_string_file(bytes, file_handle, segment_size=None):
666
 
    """Write bytes to file_handle in many smaller writes.
667
 
 
668
 
    :param bytes: The string to write.
669
 
    :param file_handle: The file to write to.
670
 
    """
671
 
    # Write data in chunks rather than all at once, because very large
672
 
    # writes fail on some platforms (e.g. Windows with SMB  mounted
673
 
    # drives).
674
 
    if not segment_size:
675
 
        segment_size = 5242880  # 5MB
676
 
    offsets = range(0, len(bytes), segment_size)
677
 
    view = memoryview(bytes)
678
 
    write = file_handle.write
679
 
    for offset in offsets:
680
 
        write(view[offset:offset + segment_size])
 
535
def pumpfile(fromfile, tofile):
 
536
    """Copy contents of one file to another."""
 
537
    BUFSIZE = 32768
 
538
    while True:
 
539
        b = fromfile.read(BUFSIZE)
 
540
        if not b:
 
541
            break
 
542
        tofile.write(b)
681
543
 
682
544
 
683
545
def file_iterator(input_file, readsize=32768):
688
550
        yield b
689
551
 
690
552
 
691
 
# GZ 2017-09-16: Makes sense in general for hexdigest() result to be text, but
692
 
# used as bytes through most interfaces so encode with this wrapper.
693
 
def _hexdigest(hashobj):
694
 
    return hashobj.hexdigest().encode()
695
 
 
696
 
 
697
553
def sha_file(f):
698
 
    """Calculate the hexdigest of an open file.
699
 
 
700
 
    The file cursor should be already at the start.
701
 
    """
702
 
    s = sha()
703
 
    BUFSIZE = 128 << 10
704
 
    while True:
705
 
        b = f.read(BUFSIZE)
706
 
        if not b:
707
 
            break
708
 
        s.update(b)
709
 
    return _hexdigest(s)
710
 
 
711
 
 
712
 
def size_sha_file(f):
713
 
    """Calculate the size and hexdigest of an open file.
714
 
 
715
 
    The file cursor should be already at the start and
716
 
    the caller is responsible for closing the file afterwards.
717
 
    """
718
 
    size = 0
719
 
    s = sha()
720
 
    BUFSIZE = 128 << 10
721
 
    while True:
722
 
        b = f.read(BUFSIZE)
723
 
        if not b:
724
 
            break
725
 
        size += len(b)
726
 
        s.update(b)
727
 
    return size, _hexdigest(s)
728
 
 
729
 
 
730
 
def sha_file_by_name(fname):
731
 
    """Calculate the SHA1 of a file by reading the full text"""
732
 
    s = sha()
733
 
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
734
 
    try:
735
 
        while True:
736
 
            b = os.read(f, 1 << 16)
737
 
            if not b:
738
 
                return _hexdigest(s)
739
 
            s.update(b)
740
 
    finally:
741
 
        os.close(f)
742
 
 
743
 
 
744
 
def sha_strings(strings, _factory=sha):
 
554
    if getattr(f, 'tell', None) is not None:
 
555
        assert f.tell() == 0
 
556
    s = sha.new()
 
557
    BUFSIZE = 128<<10
 
558
    while True:
 
559
        b = f.read(BUFSIZE)
 
560
        if not b:
 
561
            break
 
562
        s.update(b)
 
563
    return s.hexdigest()
 
564
 
 
565
 
 
566
 
 
567
def sha_strings(strings):
745
568
    """Return the sha-1 of concatenation of strings"""
746
 
    s = _factory()
747
 
    for string in strings:
748
 
        s.update(string)
749
 
    return _hexdigest(s)
750
 
 
751
 
 
752
 
def sha_string(f, _factory=sha):
753
 
    # GZ 2017-09-16: Dodgy if factory is ever not sha, probably shouldn't be.
754
 
    return _hexdigest(_factory(f))
 
569
    s = sha.new()
 
570
    map(s.update, strings)
 
571
    return s.hexdigest()
 
572
 
 
573
 
 
574
def sha_string(f):
 
575
    s = sha.new()
 
576
    s.update(f)
 
577
    return s.hexdigest()
755
578
 
756
579
 
757
580
def fingerprint_file(f):
 
581
    s = sha.new()
758
582
    b = f.read()
759
 
    return {'size': len(b),
760
 
            'sha1': _hexdigest(sha(b))}
 
583
    s.update(b)
 
584
    size = len(b)
 
585
    return {'size': size,
 
586
            'sha1': s.hexdigest()}
761
587
 
762
588
 
763
589
def compare_files(a, b):
768
594
        bi = b.read(BUFSIZE)
769
595
        if ai != bi:
770
596
            return False
771
 
        if not ai:
 
597
        if ai == '':
772
598
            return True
773
599
 
774
600
 
779
605
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
780
606
    return offset.days * 86400 + offset.seconds
781
607
 
782
 
 
783
 
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
784
 
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
785
 
 
786
 
 
787
 
def format_date(t, offset=0, timezone='original', date_fmt=None,
 
608
    
 
609
def format_date(t, offset=0, timezone='original', date_fmt=None, 
788
610
                show_offset=True):
789
 
    """Return a formatted date string.
790
 
 
791
 
    :param t: Seconds since the epoch.
792
 
    :param offset: Timezone offset in seconds east of utc.
793
 
    :param timezone: How to display the time: 'utc', 'original' for the
794
 
         timezone specified by offset, or 'local' for the process's current
795
 
         timezone.
796
 
    :param date_fmt: strftime format.
797
 
    :param show_offset: Whether to append the timezone.
798
 
    """
799
 
    (date_fmt, tt, offset_str) = \
800
 
        _format_date(t, offset, timezone, date_fmt, show_offset)
801
 
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
802
 
    date_str = time.strftime(date_fmt, tt)
803
 
    return date_str + offset_str
804
 
 
805
 
 
806
 
# Cache of formatted offset strings
807
 
_offset_cache = {}
808
 
 
809
 
 
810
 
def format_date_with_offset_in_original_timezone(t, offset=0,
811
 
                                                 _cache=_offset_cache):
812
 
    """Return a formatted date string in the original timezone.
813
 
 
814
 
    This routine may be faster then format_date.
815
 
 
816
 
    :param t: Seconds since the epoch.
817
 
    :param offset: Timezone offset in seconds east of utc.
818
 
    """
819
 
    if offset is None:
820
 
        offset = 0
821
 
    tt = time.gmtime(t + offset)
822
 
    date_fmt = _default_format_by_weekday_num[tt[6]]
823
 
    date_str = time.strftime(date_fmt, tt)
824
 
    offset_str = _cache.get(offset, None)
825
 
    if offset_str is None:
826
 
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
827
 
        _cache[offset] = offset_str
828
 
    return date_str + offset_str
829
 
 
830
 
 
831
 
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
832
 
                      show_offset=True):
833
 
    """Return an unicode date string formatted according to the current locale.
834
 
 
835
 
    :param t: Seconds since the epoch.
836
 
    :param offset: Timezone offset in seconds east of utc.
837
 
    :param timezone: How to display the time: 'utc', 'original' for the
838
 
         timezone specified by offset, or 'local' for the process's current
839
 
         timezone.
840
 
    :param date_fmt: strftime format.
841
 
    :param show_offset: Whether to append the timezone.
842
 
    """
843
 
    (date_fmt, tt, offset_str) = \
844
 
        _format_date(t, offset, timezone, date_fmt, show_offset)
845
 
    date_str = time.strftime(date_fmt, tt)
846
 
    if not isinstance(date_str, str):
847
 
        date_str = date_str.decode(get_user_encoding(), 'replace')
848
 
    return date_str + offset_str
849
 
 
850
 
 
851
 
def _format_date(t, offset, timezone, date_fmt, show_offset):
 
611
    ## TODO: Perhaps a global option to use either universal or local time?
 
612
    ## Or perhaps just let people set $TZ?
 
613
    assert isinstance(t, float)
 
614
    
852
615
    if timezone == 'utc':
853
616
        tt = time.gmtime(t)
854
617
        offset = 0
860
623
        tt = time.localtime(t)
861
624
        offset = local_time_offset(t)
862
625
    else:
863
 
        raise UnsupportedTimezoneFormat(timezone)
 
626
        raise errors.BzrError("unsupported timezone format %r" % timezone,
 
627
                              ['options are "utc", "original", "local"'])
864
628
    if date_fmt is None:
865
629
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
866
630
    if show_offset:
867
631
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
868
632
    else:
869
633
        offset_str = ''
870
 
    return (date_fmt, tt, offset_str)
 
634
    return (time.strftime(date_fmt, tt) +  offset_str)
871
635
 
872
636
 
873
637
def compact_date(when):
874
638
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
875
 
 
 
639
    
876
640
 
877
641
def format_delta(delta):
878
642
    """Get a nice looking string for a time delta.
890
654
        delta = -delta
891
655
 
892
656
    seconds = delta
893
 
    if seconds < 90:  # print seconds up to 90 seconds
 
657
    if seconds < 90: # print seconds up to 90 seconds
894
658
        if seconds == 1:
895
659
            return '%d second %s' % (seconds, direction,)
896
660
        else:
902
666
        plural_seconds = ''
903
667
    else:
904
668
        plural_seconds = 's'
905
 
    if minutes < 90:  # print minutes, seconds up to 90 minutes
 
669
    if minutes < 90: # print minutes, seconds up to 90 minutes
906
670
        if minutes == 1:
907
671
            return '%d minute, %d second%s %s' % (
908
 
                minutes, seconds, plural_seconds, direction)
 
672
                    minutes, seconds, plural_seconds, direction)
909
673
        else:
910
674
            return '%d minutes, %d second%s %s' % (
911
 
                minutes, seconds, plural_seconds, direction)
 
675
                    minutes, seconds, plural_seconds, direction)
912
676
 
913
677
    hours = int(minutes / 60)
914
678
    minutes -= 60 * hours
923
687
    return '%d hours, %d minute%s %s' % (hours, minutes,
924
688
                                         plural_minutes, direction)
925
689
 
926
 
 
927
690
def filesize(f):
928
691
    """Return size of given open file."""
929
 
    return os.fstat(f.fileno())[stat.ST_SIZE]
930
 
 
931
 
 
932
 
# Alias os.urandom to support platforms (which?) without /dev/urandom and
933
 
# override if it doesn't work. Avoid checking on windows where there is
934
 
# significant initialisation cost that can be avoided for some bzr calls.
935
 
 
936
 
rand_bytes = os.urandom
937
 
 
938
 
if rand_bytes.__module__ != "nt":
 
692
    return os.fstat(f.fileno())[ST_SIZE]
 
693
 
 
694
 
 
695
# Define rand_bytes based on platform.
 
696
try:
 
697
    # Python 2.4 and later have os.urandom,
 
698
    # but it doesn't work on some arches
 
699
    os.urandom(1)
 
700
    rand_bytes = os.urandom
 
701
except (NotImplementedError, AttributeError):
 
702
    # If python doesn't have os.urandom, or it doesn't work,
 
703
    # then try to first pull random data from /dev/urandom
939
704
    try:
940
 
        rand_bytes(1)
941
 
    except NotImplementedError:
 
705
        rand_bytes = file('/dev/urandom', 'rb').read
 
706
    # Otherwise, use this hack as a last resort
 
707
    except (IOError, OSError):
942
708
        # not well seeded, but better than nothing
943
709
        def rand_bytes(n):
944
710
            import random
950
716
 
951
717
 
952
718
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
953
 
 
954
 
 
955
719
def rand_chars(num):
956
720
    """Return a random string of num alphanumeric characters
957
 
 
958
 
    The result only contains lowercase chars because it may be used on
 
721
    
 
722
    The result only contains lowercase chars because it may be used on 
959
723
    case-insensitive filesystems.
960
724
    """
961
725
    s = ''
962
726
    for raw_byte in rand_bytes(num):
963
 
        s += ALNUM[raw_byte % 36]
 
727
        s += ALNUM[ord(raw_byte) % 36]
964
728
    return s
965
729
 
966
730
 
967
 
# TODO: We could later have path objects that remember their list
968
 
# decomposition (might be too tricksy though.)
 
731
## TODO: We could later have path objects that remember their list
 
732
## decomposition (might be too tricksy though.)
969
733
 
970
734
def splitpath(p):
971
735
    """Turn string into list of parts."""
972
 
    use_bytes = isinstance(p, bytes)
973
 
    if os.path.sep == '\\':
974
 
        # split on either delimiter because people might use either on
975
 
        # Windows
976
 
        if use_bytes:
977
 
            ps = re.split(b'[\\\\/]', p)
978
 
        else:
979
 
            ps = re.split(r'[\\/]', p)
980
 
    else:
981
 
        if use_bytes:
982
 
            ps = p.split(b'/')
983
 
        else:
984
 
            ps = p.split('/')
 
736
    assert isinstance(p, basestring)
985
737
 
986
 
    if use_bytes:
987
 
        parent_dir = b'..'
988
 
        current_empty_dir = (b'.', b'')
989
 
    else:
990
 
        parent_dir = '..'
991
 
        current_empty_dir = ('.', '')
 
738
    # split on either delimiter because people might use either on
 
739
    # Windows
 
740
    ps = re.split(r'[\\/]', p)
992
741
 
993
742
    rps = []
994
743
    for f in ps:
995
 
        if f == parent_dir:
996
 
            raise errors.BzrError(gettext("sorry, %r not allowed in path") % f)
997
 
        elif f in current_empty_dir:
 
744
        if f == '..':
 
745
            raise errors.BzrError("sorry, %r not allowed in path" % f)
 
746
        elif (f == '.') or (f == ''):
998
747
            pass
999
748
        else:
1000
749
            rps.append(f)
1001
750
    return rps
1002
751
 
1003
 
 
1004
752
def joinpath(p):
 
753
    assert isinstance(p, (list, tuple))
1005
754
    for f in p:
1006
755
        if (f == '..') or (f is None) or (f == ''):
1007
 
            raise errors.BzrError(gettext("sorry, %r not allowed in path") % f)
 
756
            raise errors.BzrError("sorry, %r not allowed in path" % f)
1008
757
    return pathjoin(*p)
1009
758
 
1010
759
 
1011
 
def parent_directories(filename):
1012
 
    """Return the list of parent directories, deepest first.
1013
 
 
1014
 
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
1015
 
    """
1016
 
    parents = []
1017
 
    parts = splitpath(dirname(filename))
1018
 
    while parts:
1019
 
        parents.append(joinpath(parts))
1020
 
        parts.pop()
1021
 
    return parents
1022
 
 
1023
 
 
1024
 
_extension_load_failures = []
1025
 
 
1026
 
 
1027
 
def failed_to_load_extension(exception):
1028
 
    """Handle failing to load a binary extension.
1029
 
 
1030
 
    This should be called from the ImportError block guarding the attempt to
1031
 
    import the native extension.  If this function returns, the pure-Python
1032
 
    implementation should be loaded instead::
1033
 
 
1034
 
    >>> try:
1035
 
    >>>     import breezy._fictional_extension_pyx
1036
 
    >>> except ImportError, e:
1037
 
    >>>     breezy.osutils.failed_to_load_extension(e)
1038
 
    >>>     import breezy._fictional_extension_py
1039
 
    """
1040
 
    # NB: This docstring is just an example, not a doctest, because doctest
1041
 
    # currently can't cope with the use of lazy imports in this namespace --
1042
 
    # mbp 20090729
1043
 
 
1044
 
    # This currently doesn't report the failure at the time it occurs, because
1045
 
    # they tend to happen very early in startup when we can't check config
1046
 
    # files etc, and also we want to report all failures but not spam the user
1047
 
    # with 10 warnings.
1048
 
    exception_str = str(exception)
1049
 
    if exception_str not in _extension_load_failures:
1050
 
        trace.mutter("failed to load compiled extension: %s" % exception_str)
1051
 
        _extension_load_failures.append(exception_str)
1052
 
 
1053
 
 
1054
 
def report_extension_load_failures():
1055
 
    if not _extension_load_failures:
1056
 
        return
1057
 
    if config.GlobalConfig().suppress_warning('missing_extensions'):
1058
 
        return
1059
 
    # the warnings framework should by default show this only once
1060
 
    from .trace import warning
1061
 
    warning(
1062
 
        "brz: warning: some compiled extensions could not be loaded; "
1063
 
        "see ``brz help missing-extensions``")
1064
 
    # we no longer show the specific missing extensions here, because it makes
1065
 
    # the message too long and scary - see
1066
 
    # https://bugs.launchpad.net/bzr/+bug/430529
1067
 
 
1068
 
 
1069
 
try:
1070
 
    from ._chunks_to_lines_pyx import chunks_to_lines
1071
 
except ImportError as e:
1072
 
    failed_to_load_extension(e)
1073
 
    from ._chunks_to_lines_py import chunks_to_lines
1074
 
 
 
760
@deprecated_function(zero_nine)
 
761
def appendpath(p1, p2):
 
762
    if p1 == '':
 
763
        return p2
 
764
    else:
 
765
        return pathjoin(p1, p2)
 
766
    
1075
767
 
1076
768
def split_lines(s):
1077
769
    """Split s into lines, but without removing the newline characters."""
1078
 
    # Trivially convert a fulltext into a 'chunked' representation, and let
1079
 
    # chunks_to_lines do the heavy lifting.
1080
 
    if isinstance(s, bytes):
1081
 
        # chunks_to_lines only supports 8-bit strings
1082
 
        return chunks_to_lines([s])
1083
 
    else:
1084
 
        return _split_lines(s)
1085
 
 
1086
 
 
1087
 
def _split_lines(s):
1088
 
    """Split s into lines, but without removing the newline characters.
1089
 
 
1090
 
    This supports Unicode or plain string objects.
1091
 
    """
1092
 
    nl = b'\n' if isinstance(s, bytes) else u'\n'
1093
 
    lines = s.split(nl)
1094
 
    result = [line + nl for line in lines[:-1]]
 
770
    lines = s.split('\n')
 
771
    result = [line + '\n' for line in lines[:-1]]
1095
772
    if lines[-1]:
1096
773
        result.append(lines[-1])
1097
774
    return result
1108
785
        return
1109
786
    try:
1110
787
        os.link(src, dest)
1111
 
    except (OSError, IOError) as e:
 
788
    except (OSError, IOError), e:
1112
789
        if e.errno != errno.EXDEV:
1113
790
            raise
1114
791
        shutil.copyfile(src, dest)
1115
792
 
1116
 
 
1117
 
def delete_any(path):
1118
 
    """Delete a file, symlink or directory.
1119
 
 
1120
 
    Will delete even if readonly.
1121
 
    """
 
793
def delete_any(full_path):
 
794
    """Delete a file or directory."""
1122
795
    try:
1123
 
        _delete_file_or_dir(path)
1124
 
    except (OSError, IOError) as e:
1125
 
        if e.errno in (errno.EPERM, errno.EACCES):
1126
 
            # make writable and try again
1127
 
            try:
1128
 
                make_writable(path)
1129
 
            except (OSError, IOError):
1130
 
                pass
1131
 
            _delete_file_or_dir(path)
1132
 
        else:
 
796
        os.unlink(full_path)
 
797
    except OSError, e:
 
798
    # We may be renaming a dangling inventory id
 
799
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
1133
800
            raise
1134
 
 
1135
 
 
1136
 
def _delete_file_or_dir(path):
1137
 
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
1138
 
    # Forgiveness than Permission (EAFP) because:
1139
 
    # - root can damage a solaris file system by using unlink,
1140
 
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
1141
 
    #   EACCES, OSX: EPERM) when invoked on a directory.
1142
 
    if isdir(path):  # Takes care of symlinks
1143
 
        os.rmdir(path)
1144
 
    else:
1145
 
        os.unlink(path)
 
801
        os.rmdir(full_path)
1146
802
 
1147
803
 
1148
804
def has_symlinks():
1150
806
        return True
1151
807
    else:
1152
808
        return False
1153
 
 
1154
 
 
1155
 
def has_hardlinks():
1156
 
    if getattr(os, 'link', None) is not None:
1157
 
        return True
1158
 
    else:
1159
 
        return False
1160
 
 
1161
 
 
1162
 
def host_os_dereferences_symlinks():
1163
 
    return (has_symlinks()
1164
 
            and sys.platform not in ('cygwin', 'win32'))
1165
 
 
1166
 
 
1167
 
def readlink(abspath):
1168
 
    """Return a string representing the path to which the symbolic link points.
1169
 
 
1170
 
    :param abspath: The link absolute unicode path.
1171
 
 
1172
 
    This his guaranteed to return the symbolic link in unicode in all python
1173
 
    versions.
1174
 
    """
1175
 
    link = abspath.encode(_fs_enc)
1176
 
    target = os.readlink(link)
1177
 
    target = target.decode(_fs_enc)
1178
 
    return target
1179
 
 
 
809
        
1180
810
 
1181
811
def contains_whitespace(s):
1182
812
    """True if there are any whitespace characters in s."""
1187
817
    #    separators
1188
818
    # 3) '\xa0' isn't unicode safe since it is >128.
1189
819
 
1190
 
    if isinstance(s, str):
1191
 
        ws = ' \t\n\r\v\f'
1192
 
    else:
1193
 
        ws = (b' ', b'\t', b'\n', b'\r', b'\v', b'\f')
1194
 
    for ch in ws:
 
820
    # This should *not* be a unicode set of characters in case the source
 
821
    # string is not a Unicode string. We can auto-up-cast the characters since
 
822
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
823
    # is utf-8
 
824
    for ch in ' \t\n\r\v\f':
1195
825
        if ch in s:
1196
826
            return True
1197
827
    else:
1208
838
 
1209
839
 
1210
840
def relpath(base, path):
1211
 
    """Return path relative to base, or raise PathNotChild exception.
 
841
    """Return path relative to base, or raise exception.
1212
842
 
1213
843
    The path may be either an absolute path or a path relative to the
1214
844
    current working directory.
1216
846
    os.path.commonprefix (python2.4) has a bad bug that it works just
1217
847
    on string prefixes, assuming that '/u' is a prefix of '/u2'.  This
1218
848
    avoids that problem.
1219
 
 
1220
 
    NOTE: `base` should not have a trailing slash otherwise you'll get
1221
 
    PathNotChild exceptions regardless of `path`.
1222
849
    """
1223
850
 
1224
 
    if len(base) < MIN_ABS_PATHLENGTH:
1225
 
        # must have space for e.g. a drive letter
1226
 
        raise ValueError(gettext('%r is too short to calculate a relative path')
1227
 
                         % (base,))
 
851
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
 
852
        ' exceed the platform minimum length (which is %d)' % 
 
853
        MIN_ABS_PATHLENGTH)
1228
854
 
1229
855
    rp = abspath(path)
1230
856
 
1231
857
    s = []
1232
858
    head = rp
1233
 
    while True:
1234
 
        if len(head) <= len(base) and head != base:
1235
 
            raise errors.PathNotChild(rp, base)
 
859
    while len(head) >= len(base):
1236
860
        if head == base:
1237
861
            break
1238
 
        head, tail = split(head)
 
862
        head, tail = os.path.split(head)
1239
863
        if tail:
1240
 
            s.append(tail)
 
864
            s.insert(0, tail)
 
865
    else:
 
866
        raise errors.PathNotChild(rp, base)
1241
867
 
1242
868
    if s:
1243
 
        return pathjoin(*reversed(s))
 
869
        return pathjoin(*s)
1244
870
    else:
1245
871
        return ''
1246
872
 
1247
873
 
1248
 
def _cicp_canonical_relpath(base, path):
1249
 
    """Return the canonical path relative to base.
1250
 
 
1251
 
    Like relpath, but on case-insensitive-case-preserving file-systems, this
1252
 
    will return the relpath as stored on the file-system rather than in the
1253
 
    case specified in the input string, for all existing portions of the path.
1254
 
 
1255
 
    This will cause O(N) behaviour if called for every path in a tree; if you
1256
 
    have a number of paths to convert, you should use canonical_relpaths().
1257
 
    """
1258
 
    # TODO: it should be possible to optimize this for Windows by using the
1259
 
    # win32 API FindFiles function to look for the specified name - but using
1260
 
    # os.listdir() still gives us the correct, platform agnostic semantics in
1261
 
    # the short term.
1262
 
 
1263
 
    rel = relpath(base, path)
1264
 
    # '.' will have been turned into ''
1265
 
    if not rel:
1266
 
        return rel
1267
 
 
1268
 
    abs_base = abspath(base)
1269
 
    current = abs_base
1270
 
 
1271
 
    # use an explicit iterator so we can easily consume the rest on early exit.
1272
 
    bit_iter = iter(rel.split('/'))
1273
 
    for bit in bit_iter:
1274
 
        lbit = bit.lower()
1275
 
        try:
1276
 
            next_entries = scandir(current)
1277
 
        except OSError:  # enoent, eperm, etc
1278
 
            # We can't find this in the filesystem, so just append the
1279
 
            # remaining bits.
1280
 
            current = pathjoin(current, bit, *list(bit_iter))
1281
 
            break
1282
 
        for entry in next_entries:
1283
 
            if lbit == entry.name.lower():
1284
 
                current = entry.path
1285
 
                break
1286
 
        else:
1287
 
            # got to the end, nothing matched, so we just return the
1288
 
            # non-existing bits as they were specified (the filename may be
1289
 
            # the target of a move, for example).
1290
 
            current = pathjoin(current, bit, *list(bit_iter))
1291
 
            break
1292
 
    return current[len(abs_base):].lstrip('/')
1293
 
 
1294
 
 
1295
 
# XXX - TODO - we need better detection/integration of case-insensitive
1296
 
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
1297
 
# filesystems), for example, so could probably benefit from the same basic
1298
 
# support there.  For now though, only Windows and OSX get that support, and
1299
 
# they get it for *all* file-systems!
1300
 
if sys.platform in ('win32', 'darwin'):
1301
 
    canonical_relpath = _cicp_canonical_relpath
1302
 
else:
1303
 
    canonical_relpath = relpath
1304
 
 
1305
 
 
1306
 
def canonical_relpaths(base, paths):
1307
 
    """Create an iterable to canonicalize a sequence of relative paths.
1308
 
 
1309
 
    The intent is for this implementation to use a cache, vastly speeding
1310
 
    up multiple transformations in the same directory.
1311
 
    """
1312
 
    # but for now, we haven't optimized...
1313
 
    return [canonical_relpath(base, p) for p in paths]
1314
 
 
1315
 
 
1316
 
def decode_filename(filename):
1317
 
    """Decode the filename using the filesystem encoding
1318
 
 
1319
 
    If it is unicode, it is returned.
1320
 
    Otherwise it is decoded from the the filesystem's encoding. If decoding
1321
 
    fails, a errors.BadFilenameEncoding exception is raised.
1322
 
    """
1323
 
    if isinstance(filename, str):
1324
 
        return filename
1325
 
    try:
1326
 
        return filename.decode(_fs_enc)
1327
 
    except UnicodeDecodeError:
1328
 
        raise errors.BadFilenameEncoding(filename, _fs_enc)
1329
 
 
1330
 
 
1331
874
def safe_unicode(unicode_or_utf8_string):
1332
875
    """Coerce unicode_or_utf8_string into unicode.
1333
876
 
1334
877
    If it is unicode, it is returned.
1335
 
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
1336
 
    wrapped in a BzrBadParameterNotUnicode exception.
 
878
    Otherwise it is decoded from utf-8. If a decoding error
 
879
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
 
880
    as a BzrBadParameter exception.
1337
881
    """
1338
 
    if isinstance(unicode_or_utf8_string, str):
 
882
    if isinstance(unicode_or_utf8_string, unicode):
1339
883
        return unicode_or_utf8_string
1340
884
    try:
1341
885
        return unicode_or_utf8_string.decode('utf8')
1349
893
    If it is a str, it is returned.
1350
894
    If it is Unicode, it is encoded into a utf-8 string.
1351
895
    """
1352
 
    if isinstance(unicode_or_utf8_string, bytes):
 
896
    if isinstance(unicode_or_utf8_string, str):
1353
897
        # TODO: jam 20070209 This is overkill, and probably has an impact on
1354
898
        #       performance if we are dealing with lots of apis that want a
1355
899
        #       utf-8 revision id
1362
906
    return unicode_or_utf8_string.encode('utf-8')
1363
907
 
1364
908
 
 
909
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
910
                        ' Revision id generators should be creating utf8'
 
911
                        ' revision ids.')
 
912
 
 
913
 
 
914
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
915
    """Revision ids should now be utf8, but at one point they were unicode.
 
916
 
 
917
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
 
918
        utf8 or None).
 
919
    :param warn: Functions that are sanitizing user data can set warn=False
 
920
    :return: None or a utf8 revision id.
 
921
    """
 
922
    if (unicode_or_utf8_string is None
 
923
        or unicode_or_utf8_string.__class__ == str):
 
924
        return unicode_or_utf8_string
 
925
    if warn:
 
926
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
927
                               stacklevel=2)
 
928
    return cache_utf8.encode(unicode_or_utf8_string)
 
929
 
 
930
 
 
931
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
932
                    ' generators should be creating utf8 file ids.')
 
933
 
 
934
 
 
935
def safe_file_id(unicode_or_utf8_string, warn=True):
 
936
    """File ids should now be utf8, but at one point they were unicode.
 
937
 
 
938
    This is the same as safe_utf8, except it uses the cached encode functions
 
939
    to save a little bit of performance.
 
940
 
 
941
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
 
942
        utf8 or None).
 
943
    :param warn: Functions that are sanitizing user data can set warn=False
 
944
    :return: None or a utf8 file id.
 
945
    """
 
946
    if (unicode_or_utf8_string is None
 
947
        or unicode_or_utf8_string.__class__ == str):
 
948
        return unicode_or_utf8_string
 
949
    if warn:
 
950
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
951
                               stacklevel=2)
 
952
    return cache_utf8.encode(unicode_or_utf8_string)
 
953
 
 
954
 
1365
955
_platform_normalizes_filenames = False
1366
956
if sys.platform == 'darwin':
1367
957
    _platform_normalizes_filenames = True
1370
960
def normalizes_filenames():
1371
961
    """Return True if this platform normalizes unicode filenames.
1372
962
 
1373
 
    Only Mac OSX.
 
963
    Mac OSX does, Windows/Linux do not.
1374
964
    """
1375
965
    return _platform_normalizes_filenames
1376
966
 
1380
970
 
1381
971
    On platforms where the system normalizes filenames (Mac OSX),
1382
972
    you can access a file by any path which will normalize correctly.
1383
 
    On platforms where the system does not normalize filenames
1384
 
    (everything else), you have to access a file by its exact path.
 
973
    On platforms where the system does not normalize filenames 
 
974
    (Windows, Linux), you have to access a file by its exact path.
1385
975
 
1386
 
    Internally, bzr only supports NFC normalization, since that is
 
976
    Internally, bzr only supports NFC/NFKC normalization, since that is 
1387
977
    the standard for XML documents.
1388
978
 
1389
979
    So return the normalized path, and a flag indicating if the file
1390
980
    can be accessed by that path.
1391
981
    """
1392
982
 
1393
 
    if isinstance(path, bytes):
1394
 
        path = path.decode(sys.getfilesystemencoding())
1395
 
    return unicodedata.normalize('NFC', path), True
 
983
    return unicodedata.normalize('NFKC', unicode(path)), True
1396
984
 
1397
985
 
1398
986
def _inaccessible_normalized_filename(path):
1399
987
    __doc__ = _accessible_normalized_filename.__doc__
1400
988
 
1401
 
    if isinstance(path, bytes):
1402
 
        path = path.decode(sys.getfilesystemencoding())
1403
 
    normalized = unicodedata.normalize('NFC', path)
 
989
    normalized = unicodedata.normalize('NFKC', unicode(path))
1404
990
    return normalized, normalized == path
1405
991
 
1406
992
 
1410
996
    normalized_filename = _inaccessible_normalized_filename
1411
997
 
1412
998
 
1413
 
def set_signal_handler(signum, handler, restart_syscall=True):
1414
 
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
1415
 
    on platforms that support that.
1416
 
 
1417
 
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
1418
 
        automatically restart (by calling `signal.siginterrupt(signum,
1419
 
        False)`).  May be ignored if the feature is not available on this
1420
 
        platform or Python version.
1421
 
    """
1422
 
    try:
1423
 
        import signal
1424
 
        siginterrupt = signal.siginterrupt
1425
 
    except ImportError:
1426
 
        # This python implementation doesn't provide signal support, hence no
1427
 
        # handler exists
1428
 
        return None
1429
 
    except AttributeError:
1430
 
        # siginterrupt doesn't exist on this platform, or for this version
1431
 
        # of Python.
1432
 
        def siginterrupt(signum, flag): return None
1433
 
    if restart_syscall:
1434
 
        def sig_handler(*args):
1435
 
            # Python resets the siginterrupt flag when a signal is
1436
 
            # received.  <http://bugs.python.org/issue8354>
1437
 
            # As a workaround for some cases, set it back the way we want it.
1438
 
            siginterrupt(signum, False)
1439
 
            # Now run the handler function passed to set_signal_handler.
1440
 
            handler(*args)
1441
 
    else:
1442
 
        sig_handler = handler
1443
 
    old_handler = signal.signal(signum, sig_handler)
1444
 
    if restart_syscall:
1445
 
        siginterrupt(signum, False)
1446
 
    return old_handler
1447
 
 
1448
 
 
1449
 
default_terminal_width = 80
1450
 
"""The default terminal width for ttys.
1451
 
 
1452
 
This is defined so that higher levels can share a common fallback value when
1453
 
terminal_width() returns None.
1454
 
"""
1455
 
 
1456
 
# Keep some state so that terminal_width can detect if _terminal_size has
1457
 
# returned a different size since the process started.  See docstring and
1458
 
# comments of terminal_width for details.
1459
 
# _terminal_size_state has 3 possible values: no_data, unchanged, and changed.
1460
 
_terminal_size_state = 'no_data'
1461
 
_first_terminal_size = None
1462
 
 
1463
 
 
1464
999
def terminal_width():
1465
 
    """Return terminal width.
1466
 
 
1467
 
    None is returned if the width can't established precisely.
1468
 
 
1469
 
    The rules are:
1470
 
    - if BRZ_COLUMNS is set, returns its value
1471
 
    - if there is no controlling terminal, returns None
1472
 
    - query the OS, if the queried size has changed since the last query,
1473
 
      return its value,
1474
 
    - if COLUMNS is set, returns its value,
1475
 
    - if the OS has a value (even though it's never changed), return its value.
1476
 
 
1477
 
    From there, we need to query the OS to get the size of the controlling
1478
 
    terminal.
1479
 
 
1480
 
    On Unices we query the OS by:
1481
 
    - get termios.TIOCGWINSZ
1482
 
    - if an error occurs or a negative value is obtained, returns None
1483
 
 
1484
 
    On Windows we query the OS by:
1485
 
    - win32utils.get_console_size() decides,
1486
 
    - returns None on error (provided default value)
1487
 
    """
1488
 
    # Note to implementors: if changing the rules for determining the width,
1489
 
    # make sure you've considered the behaviour in these cases:
1490
 
    #  - M-x shell in emacs, where $COLUMNS is set and TIOCGWINSZ returns 0,0.
1491
 
    #  - brz log | less, in bash, where $COLUMNS not set and TIOCGWINSZ returns
1492
 
    #    0,0.
1493
 
    #  - (add more interesting cases here, if you find any)
1494
 
    # Some programs implement "Use $COLUMNS (if set) until SIGWINCH occurs",
1495
 
    # but we don't want to register a signal handler because it is impossible
1496
 
    # to do so without risking EINTR errors in Python <= 2.6.5 (see
1497
 
    # <http://bugs.python.org/issue8354>).  Instead we check TIOCGWINSZ every
1498
 
    # time so we can notice if the reported size has changed, which should have
1499
 
    # a similar effect.
1500
 
 
1501
 
    # If BRZ_COLUMNS is set, take it, user is always right
1502
 
    # Except if they specified 0 in which case, impose no limit here
1503
 
    try:
1504
 
        width = int(os.environ['BRZ_COLUMNS'])
1505
 
    except (KeyError, ValueError):
1506
 
        width = None
1507
 
    if width is not None:
1508
 
        if width > 0:
1509
 
            return width
1510
 
        else:
1511
 
            return None
1512
 
 
1513
 
    isatty = getattr(sys.stdout, 'isatty', None)
1514
 
    if isatty is None or not isatty():
1515
 
        # Don't guess, setting BRZ_COLUMNS is the recommended way to override.
1516
 
        return None
1517
 
 
1518
 
    # Query the OS
1519
 
    width, height = os_size = _terminal_size(None, None)
1520
 
    global _first_terminal_size, _terminal_size_state
1521
 
    if _terminal_size_state == 'no_data':
1522
 
        _first_terminal_size = os_size
1523
 
        _terminal_size_state = 'unchanged'
1524
 
    elif (_terminal_size_state == 'unchanged' and
1525
 
          _first_terminal_size != os_size):
1526
 
        _terminal_size_state = 'changed'
1527
 
 
1528
 
    # If the OS claims to know how wide the terminal is, and this value has
1529
 
    # ever changed, use that.
1530
 
    if _terminal_size_state == 'changed':
1531
 
        if width is not None and width > 0:
1532
 
            return width
1533
 
 
1534
 
    # If COLUMNS is set, use it.
1535
 
    try:
1536
 
        return int(os.environ['COLUMNS'])
1537
 
    except (KeyError, ValueError):
1538
 
        pass
1539
 
 
1540
 
    # Finally, use an unchanged size from the OS, if we have one.
1541
 
    if _terminal_size_state == 'unchanged':
1542
 
        if width is not None and width > 0:
1543
 
            return width
1544
 
 
1545
 
    # The width could not be determined.
1546
 
    return None
1547
 
 
1548
 
 
1549
 
def _win32_terminal_size(width, height):
1550
 
    width, height = win32utils.get_console_size(
1551
 
        defaultx=width, defaulty=height)
1552
 
    return width, height
1553
 
 
1554
 
 
1555
 
def _ioctl_terminal_size(width, height):
1556
 
    try:
1557
 
        import struct
1558
 
        import fcntl
1559
 
        import termios
 
1000
    """Return estimated terminal width."""
 
1001
    if sys.platform == 'win32':
 
1002
        return win32utils.get_console_size()[0]
 
1003
    width = 0
 
1004
    try:
 
1005
        import struct, fcntl, termios
1560
1006
        s = struct.pack('HHHH', 0, 0, 0, 0)
1561
1007
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
1562
 
        height, width = struct.unpack('HHHH', x)[0:2]
1563
 
    except (IOError, AttributeError):
 
1008
        width = struct.unpack('HHHH', x)[1]
 
1009
    except IOError:
1564
1010
        pass
1565
 
    return width, height
1566
 
 
1567
 
 
1568
 
_terminal_size = None
1569
 
"""Returns the terminal size as (width, height).
1570
 
 
1571
 
:param width: Default value for width.
1572
 
:param height: Default value for height.
1573
 
 
1574
 
This is defined specifically for each OS and query the size of the controlling
1575
 
terminal. If any error occurs, the provided default values should be returned.
1576
 
"""
1577
 
if sys.platform == 'win32':
1578
 
    _terminal_size = _win32_terminal_size
1579
 
else:
1580
 
    _terminal_size = _ioctl_terminal_size
1581
 
 
1582
 
 
1583
 
def supports_executable(path):
1584
 
    """Return if filesystem at path supports executable bit.
1585
 
 
1586
 
    :param path: Path for which to check the file system
1587
 
    :return: boolean indicating whether executable bit can be stored/relied upon
1588
 
    """
1589
 
    if sys.platform == 'win32':
1590
 
        return False
1591
 
    try:
1592
 
        fs_type = get_fs_type(path)
1593
 
    except errors.DependencyNotPresent as e:
1594
 
        trace.mutter('Unable to get fs type for %r: %s', path, e)
1595
 
    else:
1596
 
        if fs_type in ('vfat', 'ntfs'):
1597
 
            # filesystems known to not support executable bit
1598
 
            return False
1599
 
    return True
1600
 
 
1601
 
 
1602
 
def supports_symlinks(path):
1603
 
    """Return if the filesystem at path supports the creation of symbolic links.
1604
 
 
1605
 
    """
1606
 
    if not has_symlinks():
1607
 
        return False
1608
 
    try:
1609
 
        fs_type = get_fs_type(path)
1610
 
    except errors.DependencyNotPresent as e:
1611
 
        trace.mutter('Unable to get fs type for %r: %s', path, e)
1612
 
    else:
1613
 
        if fs_type in ('vfat', 'ntfs'):
1614
 
            # filesystems known to not support symlinks
1615
 
            return False
1616
 
    return True
 
1011
    if width <= 0:
 
1012
        try:
 
1013
            width = int(os.environ['COLUMNS'])
 
1014
        except:
 
1015
            pass
 
1016
    if width <= 0:
 
1017
        width = 80
 
1018
 
 
1019
    return width
 
1020
 
 
1021
 
 
1022
def supports_executable():
 
1023
    return sys.platform != "win32"
1617
1024
 
1618
1025
 
1619
1026
def supports_posix_readonly():
1642
1049
        if orig_val is not None:
1643
1050
            del os.environ[env_variable]
1644
1051
    else:
 
1052
        if isinstance(value, unicode):
 
1053
            value = value.encode(bzrlib.user_encoding)
1645
1054
        os.environ[env_variable] = value
1646
1055
    return orig_val
1647
1056
 
1650
1059
 
1651
1060
 
1652
1061
def check_legal_path(path):
1653
 
    """Check whether the supplied path is legal.
 
1062
    """Check whether the supplied path is legal.  
1654
1063
    This is only required on Windows, so we don't test on other platforms
1655
1064
    right now.
1656
1065
    """
1660
1069
        raise errors.IllegalPath(path)
1661
1070
 
1662
1071
 
1663
 
_WIN32_ERROR_DIRECTORY = 267  # Similar to errno.ENOTDIR
1664
 
 
1665
 
 
1666
 
try:
1667
 
    scandir = os.scandir
1668
 
except AttributeError:  # Python < 3
1669
 
    lazy_import(globals(), """\
1670
 
from scandir import scandir
1671
 
""")
1672
 
 
1673
 
 
1674
 
def _is_error_enotdir(e):
1675
 
    """Check if this exception represents ENOTDIR.
1676
 
 
1677
 
    Unfortunately, python is very inconsistent about the exception
1678
 
    here. The cases are:
1679
 
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
1680
 
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
1681
 
         which is the windows error code.
1682
 
      3) Windows, Python2.5 uses errno == EINVAL and
1683
 
         winerror == ERROR_DIRECTORY
1684
 
 
1685
 
    :param e: An Exception object (expected to be OSError with an errno
1686
 
        attribute, but we should be able to cope with anything)
1687
 
    :return: True if this represents an ENOTDIR error. False otherwise.
1688
 
    """
1689
 
    en = getattr(e, 'errno', None)
1690
 
    if (en == errno.ENOTDIR or
1691
 
        (sys.platform == 'win32' and
1692
 
            (en == _WIN32_ERROR_DIRECTORY or
1693
 
             (en == errno.EINVAL
1694
 
              and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
1695
 
             ))):
1696
 
        return True
1697
 
    return False
1698
 
 
1699
 
 
1700
1072
def walkdirs(top, prefix=""):
1701
1073
    """Yield data about all the directories in a tree.
1702
 
 
 
1074
    
1703
1075
    This yields all the data about the contents of a directory at a time.
1704
1076
    After each directory has been yielded, if the caller has mutated the list
1705
1077
    to exclude some directories, they are then not descended into.
1706
 
 
 
1078
    
1707
1079
    The data yielded is of the form:
1708
1080
    ((directory-relpath, directory-path-from-top),
1709
 
    [(relpath, basename, kind, lstat, path-from-top), ...]),
 
1081
    [(directory-relpath, basename, kind, lstat, path-from-top), ...]),
1710
1082
     - directory-relpath is the relative path of the directory being returned
1711
1083
       with respect to top. prefix is prepended to this.
1712
 
     - directory-path-from-root is the path including top for this directory.
 
1084
     - directory-path-from-root is the path including top for this directory. 
1713
1085
       It is suitable for use with os functions.
1714
1086
     - relpath is the relative path within the subtree being walked.
1715
1087
     - basename is the basename of the path
1717
1089
       present within the tree - but it may be recorded as versioned. See
1718
1090
       versioned_kind.
1719
1091
     - lstat is the stat data *if* the file was statted.
1720
 
     - planned, not implemented:
 
1092
     - planned, not implemented: 
1721
1093
       path_from_tree_root is the path from the root of the tree.
1722
1094
 
1723
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
1095
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
1724
1096
        allows one to walk a subtree but get paths that are relative to a tree
1725
1097
        rooted higher up.
1726
1098
    :return: an iterator over the dirs.
1727
1099
    """
1728
 
    # TODO there is a bit of a smell where the results of the directory-
1729
 
    # summary in this, and the path from the root, may not agree
 
1100
    #TODO there is a bit of a smell where the results of the directory-
 
1101
    # summary in this, and the path from the root, may not agree 
1730
1102
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
1731
1103
    # potentially confusing output. We should make this more robust - but
1732
1104
    # not at a speed cost. RBC 20060731
 
1105
    _lstat = os.lstat
1733
1106
    _directory = _directory_kind
 
1107
    _listdir = os.listdir
 
1108
    _kind_from_mode = _formats.get
1734
1109
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
1735
1110
    while pending:
1736
1111
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1742
1117
        top_slash = top + u'/'
1743
1118
 
1744
1119
        dirblock = []
1745
 
        try:
1746
 
            for entry in scandir(top):
1747
 
                name = decode_filename(entry.name)
1748
 
                statvalue = entry.stat(follow_symlinks=False)
1749
 
                kind = file_kind_from_stat_mode(statvalue.st_mode)
1750
 
                dirblock.append((relprefix + name, name, kind, statvalue, entry.path))
1751
 
        except OSError as e:
1752
 
            if not _is_error_enotdir(e):
1753
 
                raise
1754
 
        except UnicodeDecodeError as e:
1755
 
            raise errors.BadFilenameEncoding(e.object, _fs_enc)
1756
 
        dirblock.sort()
 
1120
        append = dirblock.append
 
1121
        for name in sorted(_listdir(top)):
 
1122
            abspath = top_slash + name
 
1123
            statvalue = _lstat(abspath)
 
1124
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
 
1125
            append((relprefix + name, name, kind, statvalue, abspath))
1757
1126
        yield (relroot, top), dirblock
1758
1127
 
1759
1128
        # push the user specified dirs from dirblock
1760
1129
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1761
1130
 
1762
1131
 
1763
 
class DirReader(object):
1764
 
    """An interface for reading directories."""
1765
 
 
1766
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1767
 
        """Converts top and prefix to a starting dir entry
1768
 
 
1769
 
        :param top: A utf8 path
1770
 
        :param prefix: An optional utf8 path to prefix output relative paths
1771
 
            with.
1772
 
        :return: A tuple starting with prefix, and ending with the native
1773
 
            encoding of top.
1774
 
        """
1775
 
        raise NotImplementedError(self.top_prefix_to_starting_dir)
1776
 
 
1777
 
    def read_dir(self, prefix, top):
1778
 
        """Read a specific dir.
1779
 
 
1780
 
        :param prefix: A utf8 prefix to be preprended to the path basenames.
1781
 
        :param top: A natively encoded path to read.
1782
 
        :return: A list of the directories contents. Each item contains:
1783
 
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
1784
 
        """
1785
 
        raise NotImplementedError(self.read_dir)
1786
 
 
1787
 
 
1788
 
_selected_dir_reader = None
1789
 
 
1790
 
 
1791
1132
def _walkdirs_utf8(top, prefix=""):
1792
1133
    """Yield data about all the directories in a tree.
1793
1134
 
1802
1143
        path-from-top might be unicode or utf8, but it is the correct path to
1803
1144
        pass to os functions to affect the file in question. (such as os.lstat)
1804
1145
    """
1805
 
    global _selected_dir_reader
1806
 
    if _selected_dir_reader is None:
1807
 
        if sys.platform == "win32":
1808
 
            try:
1809
 
                from ._walkdirs_win32 import Win32ReadDir
1810
 
                _selected_dir_reader = Win32ReadDir()
1811
 
            except ImportError:
1812
 
                pass
1813
 
        elif _fs_enc in ('utf-8', 'ascii'):
1814
 
            try:
1815
 
                from ._readdir_pyx import UTF8DirReader
1816
 
                _selected_dir_reader = UTF8DirReader()
1817
 
            except ImportError as e:
1818
 
                failed_to_load_extension(e)
1819
 
                pass
1820
 
 
1821
 
    if _selected_dir_reader is None:
1822
 
        # Fallback to the python version
1823
 
        _selected_dir_reader = UnicodeDirReader()
 
1146
    fs_encoding = sys.getfilesystemencoding()
 
1147
    if (sys.platform == 'win32' or
 
1148
        fs_encoding not in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968')): # ascii
 
1149
        return _walkdirs_unicode_to_utf8(top, prefix=prefix)
 
1150
    else:
 
1151
        return _walkdirs_fs_utf8(top, prefix=prefix)
 
1152
 
 
1153
 
 
1154
def _walkdirs_fs_utf8(top, prefix=""):
 
1155
    """See _walkdirs_utf8.
 
1156
 
 
1157
    This sub-function is called when we know the filesystem is already in utf8
 
1158
    encoding. So we don't need to transcode filenames.
 
1159
    """
 
1160
    _lstat = os.lstat
 
1161
    _directory = _directory_kind
 
1162
    _listdir = os.listdir
 
1163
    _kind_from_mode = _formats.get
1824
1164
 
1825
1165
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1826
1166
    # But we don't actually uses 1-3 in pending, so set them to None
1827
 
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
1828
 
    read_dir = _selected_dir_reader.read_dir
1829
 
    _directory = _directory_kind
 
1167
    pending = [(safe_utf8(prefix), None, None, None, safe_utf8(top))]
1830
1168
    while pending:
1831
 
        relroot, _, _, _, top = pending[-1].pop()
1832
 
        if not pending[-1]:
1833
 
            pending.pop()
1834
 
        dirblock = sorted(read_dir(relroot, top))
1835
 
        yield (relroot, top), dirblock
1836
 
        # push the user specified dirs from dirblock
1837
 
        next = [d for d in reversed(dirblock) if d[2] == _directory]
1838
 
        if next:
1839
 
            pending.append(next)
1840
 
 
1841
 
 
1842
 
class UnicodeDirReader(DirReader):
1843
 
    """A dir reader for non-utf8 file systems, which transcodes."""
1844
 
 
1845
 
    __slots__ = ['_utf8_encode']
1846
 
 
1847
 
    def __init__(self):
1848
 
        self._utf8_encode = codecs.getencoder('utf8')
1849
 
 
1850
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1851
 
        """See DirReader.top_prefix_to_starting_dir."""
1852
 
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
1853
 
 
1854
 
    def read_dir(self, prefix, top):
1855
 
        """Read a single directory from a non-utf8 file system.
1856
 
 
1857
 
        top, and the abspath element in the output are unicode, all other paths
1858
 
        are utf8. Local disk IO is done via unicode calls to listdir etc.
1859
 
 
1860
 
        This is currently the fallback code path when the filesystem encoding is
1861
 
        not UTF-8. It may be better to implement an alternative so that we can
1862
 
        safely handle paths that are not properly decodable in the current
1863
 
        encoding.
1864
 
 
1865
 
        See DirReader.read_dir for details.
1866
 
        """
1867
 
        _utf8_encode = self._utf8_encode
1868
 
 
1869
 
        def _fs_decode(s): return s.decode(_fs_enc)
1870
 
 
1871
 
        def _fs_encode(s): return s.encode(_fs_enc)
1872
 
 
1873
 
        if prefix:
1874
 
            relprefix = prefix + b'/'
 
1169
        relroot, _, _, _, top = pending.pop()
 
1170
        if relroot:
 
1171
            relprefix = relroot + '/'
1875
1172
        else:
1876
 
            relprefix = b''
 
1173
            relprefix = ''
1877
1174
        top_slash = top + '/'
1878
1175
 
1879
1176
        dirblock = []
1880
1177
        append = dirblock.append
1881
 
        for entry in scandir(safe_utf8(top)):
1882
 
            try:
1883
 
                name = _fs_decode(entry.name)
1884
 
            except UnicodeDecodeError:
1885
 
                raise errors.BadFilenameEncoding(
1886
 
                    relprefix + entry.name, _fs_enc)
 
1178
        for name in sorted(_listdir(top)):
1887
1179
            abspath = top_slash + name
 
1180
            statvalue = _lstat(abspath)
 
1181
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
 
1182
            append((relprefix + name, name, kind, statvalue, abspath))
 
1183
        yield (relroot, top), dirblock
 
1184
 
 
1185
        # push the user specified dirs from dirblock
 
1186
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1187
 
 
1188
 
 
1189
def _walkdirs_unicode_to_utf8(top, prefix=""):
 
1190
    """See _walkdirs_utf8
 
1191
 
 
1192
    Because Win32 has a Unicode api, all of the 'path-from-top' entries will be
 
1193
    Unicode paths.
 
1194
    This is currently the fallback code path when the filesystem encoding is
 
1195
    not UTF-8. It may be better to implement an alternative so that we can
 
1196
    safely handle paths that are not properly decodable in the current
 
1197
    encoding.
 
1198
    """
 
1199
    _utf8_encode = codecs.getencoder('utf8')
 
1200
    _lstat = os.lstat
 
1201
    _directory = _directory_kind
 
1202
    _listdir = os.listdir
 
1203
    _kind_from_mode = _formats.get
 
1204
 
 
1205
    pending = [(safe_utf8(prefix), None, None, None, safe_unicode(top))]
 
1206
    while pending:
 
1207
        relroot, _, _, _, top = pending.pop()
 
1208
        if relroot:
 
1209
            relprefix = relroot + '/'
 
1210
        else:
 
1211
            relprefix = ''
 
1212
        top_slash = top + u'/'
 
1213
 
 
1214
        dirblock = []
 
1215
        append = dirblock.append
 
1216
        for name in sorted(_listdir(top)):
1888
1217
            name_utf8 = _utf8_encode(name)[0]
1889
 
            statvalue = entry.stat(follow_symlinks=False)
1890
 
            kind = file_kind_from_stat_mode(statvalue.st_mode)
 
1218
            abspath = top_slash + name
 
1219
            statvalue = _lstat(abspath)
 
1220
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
1891
1221
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
1892
 
        return sorted(dirblock)
 
1222
        yield (relroot, top), dirblock
 
1223
 
 
1224
        # push the user specified dirs from dirblock
 
1225
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1893
1226
 
1894
1227
 
1895
1228
def copy_tree(from_path, to_path, handlers={}):
1896
1229
    """Copy all of the entries in from_path into to_path.
1897
1230
 
1898
 
    :param from_path: The base directory to copy.
 
1231
    :param from_path: The base directory to copy. 
1899
1232
    :param to_path: The target directory. If it does not exist, it will
1900
1233
        be created.
1901
1234
    :param handlers: A dictionary of functions, which takes a source and
1920
1253
        link_to = os.readlink(source)
1921
1254
        os.symlink(link_to, dest)
1922
1255
 
1923
 
    real_handlers = {'file': shutil.copy2,
1924
 
                     'symlink': copy_link,
1925
 
                     'directory': copy_dir,
1926
 
                     }
 
1256
    real_handlers = {'file':shutil.copy2,
 
1257
                     'symlink':copy_link,
 
1258
                     'directory':copy_dir,
 
1259
                    }
1927
1260
    real_handlers.update(handlers)
1928
1261
 
1929
1262
    if not os.path.exists(to_path):
1934
1267
            real_handlers[kind](abspath, relpath)
1935
1268
 
1936
1269
 
1937
 
def copy_ownership_from_path(dst, src=None):
1938
 
    """Copy usr/grp ownership from src file/dir to dst file/dir.
1939
 
 
1940
 
    If src is None, the containing directory is used as source. If chown
1941
 
    fails, the error is ignored and a warning is printed.
1942
 
    """
1943
 
    chown = getattr(os, 'chown', None)
1944
 
    if chown is None:
1945
 
        return
1946
 
 
1947
 
    if src is None:
1948
 
        src = os.path.dirname(dst)
1949
 
        if src == '':
1950
 
            src = '.'
1951
 
 
1952
 
    try:
1953
 
        s = os.stat(src)
1954
 
        chown(dst, s.st_uid, s.st_gid)
1955
 
    except OSError:
1956
 
        trace.warning(
1957
 
            'Unable to copy ownership from "%s" to "%s". '
1958
 
            'You may want to set it manually.', src, dst)
1959
 
        trace.log_exception_quietly()
1960
 
 
1961
 
 
1962
1270
def path_prefix_key(path):
1963
1271
    """Generate a prefix-order path key for path.
1964
1272
 
1965
1273
    This can be used to sort paths in the same way that walkdirs does.
1966
1274
    """
1967
 
    return (dirname(path), path)
 
1275
    return (dirname(path) , path)
1968
1276
 
1969
1277
 
1970
1278
def compare_paths_prefix_order(path_a, path_b):
1971
1279
    """Compare path_a and path_b to generate the same order walkdirs uses."""
1972
1280
    key_a = path_prefix_key(path_a)
1973
1281
    key_b = path_prefix_key(path_b)
1974
 
    return (key_a > key_b) - (key_a < key_b)
 
1282
    return cmp(key_a, key_b)
1975
1283
 
1976
1284
 
1977
1285
_cached_user_encoding = None
1978
1286
 
1979
1287
 
1980
 
def get_user_encoding():
 
1288
def get_user_encoding(use_cache=True):
1981
1289
    """Find out what the preferred user encoding is.
1982
1290
 
1983
1291
    This is generally the encoding that is used for command line parameters
1984
1292
    and file contents. This may be different from the terminal encoding
1985
1293
    or the filesystem encoding.
1986
1294
 
 
1295
    :param  use_cache:  Enable cache for detected encoding.
 
1296
                        (This parameter is turned on by default,
 
1297
                        and required only for selftesting)
 
1298
 
1987
1299
    :return: A string defining the preferred user encoding
1988
1300
    """
1989
1301
    global _cached_user_encoding
1990
 
    if _cached_user_encoding is not None:
 
1302
    if _cached_user_encoding is not None and use_cache:
1991
1303
        return _cached_user_encoding
1992
1304
 
1993
 
    if os.name == 'posix' and getattr(locale, 'CODESET', None) is not None:
1994
 
        # Use the existing locale settings and call nl_langinfo directly
1995
 
        # rather than going through getpreferredencoding. This avoids
1996
 
        # <http://bugs.python.org/issue6202> on OSX Python 2.6 and the
1997
 
        # possibility of the setlocale call throwing an error.
1998
 
        user_encoding = locale.nl_langinfo(locale.CODESET)
 
1305
    if sys.platform == 'darwin':
 
1306
        # work around egregious python 2.4 bug
 
1307
        sys.platform = 'posix'
 
1308
        try:
 
1309
            import locale
 
1310
        finally:
 
1311
            sys.platform = 'darwin'
1999
1312
    else:
2000
 
        # GZ 2011-12-19: On windows could call GetACP directly instead.
2001
 
        user_encoding = locale.getpreferredencoding(False)
 
1313
        import locale
2002
1314
 
2003
1315
    try:
2004
 
        user_encoding = codecs.lookup(user_encoding).name
2005
 
    except LookupError:
2006
 
        if user_encoding not in ("", "cp0"):
2007
 
            sys.stderr.write('brz: warning:'
 
1316
        user_encoding = locale.getpreferredencoding()
 
1317
    except locale.Error, e:
 
1318
        sys.stderr.write('bzr: warning: %s\n'
 
1319
                         '  Could not determine what text encoding to use.\n'
 
1320
                         '  This error usually means your Python interpreter\n'
 
1321
                         '  doesn\'t support the locale set by $LANG (%s)\n'
 
1322
                         "  Continuing with ascii encoding.\n"
 
1323
                         % (e, os.environ.get('LANG')))
 
1324
        user_encoding = 'ascii'
 
1325
 
 
1326
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
 
1327
    # treat that as ASCII, and not support printing unicode characters to the
 
1328
    # console.
 
1329
    if user_encoding in (None, 'cp0'):
 
1330
        user_encoding = 'ascii'
 
1331
    else:
 
1332
        # check encoding
 
1333
        try:
 
1334
            codecs.lookup(user_encoding)
 
1335
        except LookupError:
 
1336
            sys.stderr.write('bzr: warning:'
2008
1337
                             ' unknown encoding %s.'
2009
1338
                             ' Continuing with ascii encoding.\n'
2010
1339
                             % user_encoding
2011
 
                             )
2012
 
        user_encoding = 'ascii'
2013
 
    else:
2014
 
        # Get 'ascii' when setlocale has not been called or LANG=C or unset.
2015
 
        if user_encoding == 'ascii':
2016
 
            if sys.platform == 'darwin':
2017
 
                # OSX is special-cased in Python to have a UTF-8 filesystem
2018
 
                # encoding and previously had LANG set here if not present.
2019
 
                user_encoding = 'utf-8'
2020
 
            # GZ 2011-12-19: Maybe UTF-8 should be the default in this case
2021
 
            #                for some other posix platforms as well.
2022
 
 
2023
 
    _cached_user_encoding = user_encoding
 
1340
                            )
 
1341
            user_encoding = 'ascii'
 
1342
 
 
1343
    if use_cache:
 
1344
        _cached_user_encoding = user_encoding
 
1345
 
2024
1346
    return user_encoding
2025
1347
 
2026
1348
 
2027
 
def get_diff_header_encoding():
2028
 
    return get_terminal_encoding()
2029
 
 
2030
 
 
2031
 
def get_host_name():
2032
 
    """Return the current unicode host name.
2033
 
 
2034
 
    This is meant to be used in place of socket.gethostname() because that
2035
 
    behaves inconsistently on different platforms.
2036
 
    """
2037
 
    if sys.platform == "win32":
2038
 
        return win32utils.get_host_name()
2039
 
    else:
2040
 
        import socket
2041
 
        return socket.gethostname()
2042
 
 
2043
 
 
2044
 
# We must not read/write any more than 64k at a time from/to a socket so we
2045
 
# don't risk "no buffer space available" errors on some platforms.  Windows in
2046
 
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
2047
 
# data at once.
2048
 
MAX_SOCKET_CHUNK = 64 * 1024
2049
 
 
2050
 
_end_of_stream_errors = [errno.ECONNRESET, errno.EPIPE, errno.EINVAL]
2051
 
for _eno in ['WSAECONNRESET', 'WSAECONNABORTED']:
2052
 
    _eno = getattr(errno, _eno, None)
2053
 
    if _eno is not None:
2054
 
        _end_of_stream_errors.append(_eno)
2055
 
del _eno
2056
 
 
2057
 
 
2058
 
def read_bytes_from_socket(sock, report_activity=None,
2059
 
                           max_read_size=MAX_SOCKET_CHUNK):
2060
 
    """Read up to max_read_size of bytes from sock and notify of progress.
2061
 
 
2062
 
    Translates "Connection reset by peer" into file-like EOF (return an
2063
 
    empty string rather than raise an error), and repeats the recv if
2064
 
    interrupted by a signal.
2065
 
    """
2066
 
    while True:
2067
 
        try:
2068
 
            data = sock.recv(max_read_size)
2069
 
        except socket.error as e:
2070
 
            eno = e.args[0]
2071
 
            if eno in _end_of_stream_errors:
2072
 
                # The connection was closed by the other side.  Callers expect
2073
 
                # an empty string to signal end-of-stream.
2074
 
                return b""
2075
 
            elif eno == errno.EINTR:
2076
 
                # Retry the interrupted recv.
2077
 
                continue
2078
 
            raise
2079
 
        else:
2080
 
            if report_activity is not None:
2081
 
                report_activity(len(data), 'read')
2082
 
            return data
2083
 
 
2084
 
 
2085
 
def recv_all(socket, count):
 
1349
def recv_all(socket, bytes):
2086
1350
    """Receive an exact number of bytes.
2087
1351
 
2088
1352
    Regular Socket.recv() may return less than the requested number of bytes,
2089
 
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
1353
    dependning on what's in the OS buffer.  MSG_WAITALL is not available
2090
1354
    on all platforms, but this should work everywhere.  This will return
2091
1355
    less than the requested amount if the remote end closes.
2092
1356
 
2093
1357
    This isn't optimized and is intended mostly for use in testing.
2094
1358
    """
2095
 
    b = b''
2096
 
    while len(b) < count:
2097
 
        new = read_bytes_from_socket(socket, None, count - len(b))
2098
 
        if new == b'':
2099
 
            break  # eof
 
1359
    b = ''
 
1360
    while len(b) < bytes:
 
1361
        new = socket.recv(bytes - len(b))
 
1362
        if new == '':
 
1363
            break # eof
2100
1364
        b += new
2101
1365
    return b
2102
1366
 
2103
 
 
2104
 
def send_all(sock, bytes, report_activity=None):
2105
 
    """Send all bytes on a socket.
2106
 
 
2107
 
    Breaks large blocks in smaller chunks to avoid buffering limitations on
2108
 
    some platforms, and catches EINTR which may be thrown if the send is
2109
 
    interrupted by a signal.
2110
 
 
2111
 
    This is preferred to socket.sendall(), because it avoids portability bugs
2112
 
    and provides activity reporting.
2113
 
 
2114
 
    :param report_activity: Call this as bytes are read, see
2115
 
        Transport._report_activity
2116
 
    """
2117
 
    sent_total = 0
2118
 
    byte_count = len(bytes)
2119
 
    view = memoryview(bytes)
2120
 
    while sent_total < byte_count:
2121
 
        try:
2122
 
            sent = sock.send(view[sent_total:sent_total + MAX_SOCKET_CHUNK])
2123
 
        except (socket.error, IOError) as e:
2124
 
            if e.args[0] in _end_of_stream_errors:
2125
 
                raise errors.ConnectionReset(
2126
 
                    "Error trying to write to socket", e)
2127
 
            if e.args[0] != errno.EINTR:
2128
 
                raise
2129
 
        else:
2130
 
            if sent == 0:
2131
 
                raise errors.ConnectionReset('Sending to %s returned 0 bytes'
2132
 
                                             % (sock,))
2133
 
            sent_total += sent
2134
 
            if report_activity is not None:
2135
 
                report_activity(sent, 'write')
2136
 
 
2137
 
 
2138
 
def connect_socket(address):
2139
 
    # Slight variation of the socket.create_connection() function (provided by
2140
 
    # python-2.6) that can fail if getaddrinfo returns an empty list. We also
2141
 
    # provide it for previous python versions. Also, we don't use the timeout
2142
 
    # parameter (provided by the python implementation) so we don't implement
2143
 
    # it either).
2144
 
    err = socket.error('getaddrinfo returns an empty list')
2145
 
    host, port = address
2146
 
    for res in socket.getaddrinfo(host, port, 0, socket.SOCK_STREAM):
2147
 
        af, socktype, proto, canonname, sa = res
2148
 
        sock = None
2149
 
        try:
2150
 
            sock = socket.socket(af, socktype, proto)
2151
 
            sock.connect(sa)
2152
 
            return sock
2153
 
 
2154
 
        except socket.error as e:
2155
 
            err = e
2156
 
            # 'err' is now the most recent error
2157
 
            if sock is not None:
2158
 
                sock.close()
2159
 
    raise err
2160
 
 
2161
 
 
2162
1367
def dereference_path(path):
2163
1368
    """Determine the real path to a file.
2164
1369
 
2171
1376
    # The pathjoin for '.' is a workaround for Python bug #1213894.
2172
1377
    # (initial path components aren't dereferenced)
2173
1378
    return pathjoin(realpath(pathjoin('.', parent)), base)
2174
 
 
2175
 
 
2176
 
def supports_mapi():
2177
 
    """Return True if we can use MAPI to launch a mail client."""
2178
 
    return sys.platform == "win32"
2179
 
 
2180
 
 
2181
 
def resource_string(package, resource_name):
2182
 
    """Load a resource from a package and return it as a string.
2183
 
 
2184
 
    Note: Only packages that start with breezy are currently supported.
2185
 
 
2186
 
    This is designed to be a lightweight implementation of resource
2187
 
    loading in a way which is API compatible with the same API from
2188
 
    pkg_resources. See
2189
 
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
2190
 
    If and when pkg_resources becomes a standard library, this routine
2191
 
    can delegate to it.
2192
 
    """
2193
 
    # Check package name is within breezy
2194
 
    if package == "breezy":
2195
 
        resource_relpath = resource_name
2196
 
    elif package.startswith("breezy."):
2197
 
        package = package[len("breezy."):].replace('.', os.sep)
2198
 
        resource_relpath = pathjoin(package, resource_name)
2199
 
    else:
2200
 
        raise errors.BzrError('resource package %s not in breezy' % package)
2201
 
 
2202
 
    # Map the resource to a file and read its contents
2203
 
    base = dirname(breezy.__file__)
2204
 
    if getattr(sys, 'frozen', None):    # bzr.exe
2205
 
        base = abspath(pathjoin(base, '..', '..'))
2206
 
    with open(pathjoin(base, resource_relpath), "rt") as f:
2207
 
        return f.read()
2208
 
 
2209
 
 
2210
 
def file_kind_from_stat_mode_thunk(mode):
2211
 
    global file_kind_from_stat_mode
2212
 
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
2213
 
        try:
2214
 
            from ._readdir_pyx import UTF8DirReader
2215
 
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
2216
 
        except ImportError:
2217
 
            # This is one time where we won't warn that an extension failed to
2218
 
            # load. The extension is never available on Windows anyway.
2219
 
            from ._readdir_py import (
2220
 
                _kind_from_mode as file_kind_from_stat_mode
2221
 
                )
2222
 
    return file_kind_from_stat_mode(mode)
2223
 
 
2224
 
 
2225
 
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
2226
 
 
2227
 
 
2228
 
def file_stat(f, _lstat=os.lstat):
2229
 
    try:
2230
 
        # XXX cache?
2231
 
        return _lstat(f)
2232
 
    except OSError as e:
2233
 
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
2234
 
            raise errors.NoSuchFile(f)
2235
 
        raise
2236
 
 
2237
 
 
2238
 
def file_kind(f, _lstat=os.lstat):
2239
 
    stat_value = file_stat(f, _lstat)
2240
 
    return file_kind_from_stat_mode(stat_value.st_mode)
2241
 
 
2242
 
 
2243
 
def until_no_eintr(f, *a, **kw):
2244
 
    """Run f(*a, **kw), retrying if an EINTR error occurs.
2245
 
 
2246
 
    WARNING: you must be certain that it is safe to retry the call repeatedly
2247
 
    if EINTR does occur.  This is typically only true for low-level operations
2248
 
    like os.read.  If in any doubt, don't use this.
2249
 
 
2250
 
    Keep in mind that this is not a complete solution to EINTR.  There is
2251
 
    probably code in the Python standard library and other dependencies that
2252
 
    may encounter EINTR if a signal arrives (and there is signal handler for
2253
 
    that signal).  So this function can reduce the impact for IO that breezy
2254
 
    directly controls, but it is not a complete solution.
2255
 
    """
2256
 
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
2257
 
    while True:
2258
 
        try:
2259
 
            return f(*a, **kw)
2260
 
        except (IOError, OSError) as e:
2261
 
            if e.errno == errno.EINTR:
2262
 
                continue
2263
 
            raise
2264
 
 
2265
 
 
2266
 
if sys.platform == "win32":
2267
 
    def getchar():
2268
 
        import msvcrt
2269
 
        return msvcrt.getch()
2270
 
else:
2271
 
    def getchar():
2272
 
        import tty
2273
 
        import termios
2274
 
        fd = sys.stdin.fileno()
2275
 
        settings = termios.tcgetattr(fd)
2276
 
        try:
2277
 
            tty.setraw(fd)
2278
 
            ch = sys.stdin.read(1)
2279
 
        finally:
2280
 
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
2281
 
        return ch
2282
 
 
2283
 
if sys.platform.startswith('linux'):
2284
 
    def _local_concurrency():
2285
 
        try:
2286
 
            return os.sysconf('SC_NPROCESSORS_ONLN')
2287
 
        except (ValueError, OSError, AttributeError):
2288
 
            return None
2289
 
elif sys.platform == 'darwin':
2290
 
    def _local_concurrency():
2291
 
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
2292
 
                                stdout=subprocess.PIPE).communicate()[0]
2293
 
elif "bsd" in sys.platform:
2294
 
    def _local_concurrency():
2295
 
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
2296
 
                                stdout=subprocess.PIPE).communicate()[0]
2297
 
elif sys.platform == 'sunos5':
2298
 
    def _local_concurrency():
2299
 
        return subprocess.Popen(['psrinfo', '-p', ],
2300
 
                                stdout=subprocess.PIPE).communicate()[0]
2301
 
elif sys.platform == "win32":
2302
 
    def _local_concurrency():
2303
 
        # This appears to return the number of cores.
2304
 
        return os.environ.get('NUMBER_OF_PROCESSORS')
2305
 
else:
2306
 
    def _local_concurrency():
2307
 
        # Who knows ?
2308
 
        return None
2309
 
 
2310
 
 
2311
 
_cached_local_concurrency = None
2312
 
 
2313
 
 
2314
 
def local_concurrency(use_cache=True):
2315
 
    """Return how many processes can be run concurrently.
2316
 
 
2317
 
    Rely on platform specific implementations and default to 1 (one) if
2318
 
    anything goes wrong.
2319
 
    """
2320
 
    global _cached_local_concurrency
2321
 
 
2322
 
    if _cached_local_concurrency is not None and use_cache:
2323
 
        return _cached_local_concurrency
2324
 
 
2325
 
    concurrency = os.environ.get('BRZ_CONCURRENCY', None)
2326
 
    if concurrency is None:
2327
 
        import multiprocessing
2328
 
        try:
2329
 
            concurrency = multiprocessing.cpu_count()
2330
 
        except NotImplementedError:
2331
 
            # multiprocessing.cpu_count() isn't implemented on all platforms
2332
 
            try:
2333
 
                concurrency = _local_concurrency()
2334
 
            except (OSError, IOError):
2335
 
                pass
2336
 
    try:
2337
 
        concurrency = int(concurrency)
2338
 
    except (TypeError, ValueError):
2339
 
        concurrency = 1
2340
 
    if use_cache:
2341
 
        _cached_local_concurrency = concurrency
2342
 
    return concurrency
2343
 
 
2344
 
 
2345
 
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
2346
 
    """A stream writer that doesn't decode str arguments."""
2347
 
 
2348
 
    def __init__(self, encode, stream, errors='strict'):
2349
 
        codecs.StreamWriter.__init__(self, stream, errors)
2350
 
        self.encode = encode
2351
 
 
2352
 
    def write(self, object):
2353
 
        if isinstance(object, str):
2354
 
            self.stream.write(object)
2355
 
        else:
2356
 
            data, _ = self.encode(object, self.errors)
2357
 
            self.stream.write(data)
2358
 
 
2359
 
 
2360
 
if sys.platform == 'win32':
2361
 
    def open_file(filename, mode='r', bufsize=-1):
2362
 
        """This function is used to override the ``open`` builtin.
2363
 
 
2364
 
        But it uses O_NOINHERIT flag so the file handle is not inherited by
2365
 
        child processes.  Deleting or renaming a closed file opened with this
2366
 
        function is not blocking child processes.
2367
 
        """
2368
 
        writing = 'w' in mode
2369
 
        appending = 'a' in mode
2370
 
        updating = '+' in mode
2371
 
        binary = 'b' in mode
2372
 
 
2373
 
        flags = O_NOINHERIT
2374
 
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
2375
 
        # for flags for each modes.
2376
 
        if binary:
2377
 
            flags |= O_BINARY
2378
 
        else:
2379
 
            flags |= O_TEXT
2380
 
 
2381
 
        if writing:
2382
 
            if updating:
2383
 
                flags |= os.O_RDWR
2384
 
            else:
2385
 
                flags |= os.O_WRONLY
2386
 
            flags |= os.O_CREAT | os.O_TRUNC
2387
 
        elif appending:
2388
 
            if updating:
2389
 
                flags |= os.O_RDWR
2390
 
            else:
2391
 
                flags |= os.O_WRONLY
2392
 
            flags |= os.O_CREAT | os.O_APPEND
2393
 
        else:  # reading
2394
 
            if updating:
2395
 
                flags |= os.O_RDWR
2396
 
            else:
2397
 
                flags |= os.O_RDONLY
2398
 
 
2399
 
        return os.fdopen(os.open(filename, flags), mode, bufsize)
2400
 
else:
2401
 
    open_file = open
2402
 
 
2403
 
 
2404
 
def available_backup_name(base, exists):
2405
 
    """Find a non-existing backup file name.
2406
 
 
2407
 
    This will *not* create anything, this only return a 'free' entry.  This
2408
 
    should be used for checking names in a directory below a locked
2409
 
    tree/branch/repo to avoid race conditions. This is LBYL (Look Before You
2410
 
    Leap) and generally discouraged.
2411
 
 
2412
 
    :param base: The base name.
2413
 
 
2414
 
    :param exists: A callable returning True if the path parameter exists.
2415
 
    """
2416
 
    counter = 1
2417
 
    name = "%s.~%d~" % (base, counter)
2418
 
    while exists(name):
2419
 
        counter += 1
2420
 
        name = "%s.~%d~" % (base, counter)
2421
 
    return name
2422
 
 
2423
 
 
2424
 
def set_fd_cloexec(fd):
2425
 
    """Set a Unix file descriptor's FD_CLOEXEC flag.  Do nothing if platform
2426
 
    support for this is not available.
2427
 
    """
2428
 
    try:
2429
 
        import fcntl
2430
 
        old = fcntl.fcntl(fd, fcntl.F_GETFD)
2431
 
        fcntl.fcntl(fd, fcntl.F_SETFD, old | fcntl.FD_CLOEXEC)
2432
 
    except (ImportError, AttributeError):
2433
 
        # Either the fcntl module or specific constants are not present
2434
 
        pass
2435
 
 
2436
 
 
2437
 
def find_executable_on_path(name):
2438
 
    """Finds an executable on the PATH.
2439
 
 
2440
 
    On Windows, this will try to append each extension in the PATHEXT
2441
 
    environment variable to the name, if it cannot be found with the name
2442
 
    as given.
2443
 
 
2444
 
    :param name: The base name of the executable.
2445
 
    :return: The path to the executable found or None.
2446
 
    """
2447
 
    if sys.platform == 'win32':
2448
 
        exts = os.environ.get('PATHEXT', '').split(os.pathsep)
2449
 
        exts = [ext.lower() for ext in exts]
2450
 
        base, ext = os.path.splitext(name)
2451
 
        if ext != '':
2452
 
            if ext.lower() not in exts:
2453
 
                return None
2454
 
            name = base
2455
 
            exts = [ext]
2456
 
    else:
2457
 
        exts = ['']
2458
 
    path = os.environ.get('PATH')
2459
 
    if path is not None:
2460
 
        path = path.split(os.pathsep)
2461
 
        for ext in exts:
2462
 
            for d in path:
2463
 
                f = os.path.join(d, name) + ext
2464
 
                if os.access(f, os.X_OK):
2465
 
                    return f
2466
 
    if sys.platform == 'win32':
2467
 
        app_path = win32utils.get_app_path(name)
2468
 
        if app_path != name:
2469
 
            return app_path
2470
 
    return None
2471
 
 
2472
 
 
2473
 
def _posix_is_local_pid_dead(pid):
2474
 
    """True if pid doesn't correspond to live process on this machine"""
2475
 
    try:
2476
 
        # Special meaning of unix kill: just check if it's there.
2477
 
        os.kill(pid, 0)
2478
 
    except OSError as e:
2479
 
        if e.errno == errno.ESRCH:
2480
 
            # On this machine, and really not found: as sure as we can be
2481
 
            # that it's dead.
2482
 
            return True
2483
 
        elif e.errno == errno.EPERM:
2484
 
            # exists, though not ours
2485
 
            return False
2486
 
        else:
2487
 
            trace.mutter("os.kill(%d, 0) failed: %s" % (pid, e))
2488
 
            # Don't really know.
2489
 
            return False
2490
 
    else:
2491
 
        # Exists and our process: not dead.
2492
 
        return False
2493
 
 
2494
 
 
2495
 
if sys.platform == "win32":
2496
 
    is_local_pid_dead = win32utils.is_local_pid_dead
2497
 
else:
2498
 
    is_local_pid_dead = _posix_is_local_pid_dead
2499
 
 
2500
 
_maybe_ignored = ['EAGAIN', 'EINTR', 'ENOTSUP', 'EOPNOTSUPP', 'EACCES']
2501
 
_fdatasync_ignored = [getattr(errno, name) for name in _maybe_ignored
2502
 
                      if getattr(errno, name, None) is not None]
2503
 
 
2504
 
 
2505
 
def fdatasync(fileno):
2506
 
    """Flush file contents to disk if possible.
2507
 
 
2508
 
    :param fileno: Integer OS file handle.
2509
 
    :raises TransportNotPossible: If flushing to disk is not possible.
2510
 
    """
2511
 
    fn = getattr(os, 'fdatasync', getattr(os, 'fsync', None))
2512
 
    if fn is not None:
2513
 
        try:
2514
 
            fn(fileno)
2515
 
        except IOError as e:
2516
 
            # See bug #1075108, on some platforms fdatasync exists, but can
2517
 
            # raise ENOTSUP. However, we are calling fdatasync to be helpful
2518
 
            # and reduce the chance of corruption-on-powerloss situations. It
2519
 
            # is not a mandatory call, so it is ok to suppress failures.
2520
 
            trace.mutter("ignoring error calling fdatasync: %s" % (e,))
2521
 
            if getattr(e, 'errno', None) not in _fdatasync_ignored:
2522
 
                raise
2523
 
 
2524
 
 
2525
 
def ensure_empty_directory_exists(path, exception_class):
2526
 
    """Make sure a local directory exists and is empty.
2527
 
 
2528
 
    If it does not exist, it is created.  If it exists and is not empty, an
2529
 
    instance of exception_class is raised.
2530
 
    """
2531
 
    try:
2532
 
        os.mkdir(path)
2533
 
    except OSError as e:
2534
 
        if e.errno != errno.EEXIST:
2535
 
            raise
2536
 
        if os.listdir(path) != []:
2537
 
            raise exception_class(path)
2538
 
 
2539
 
 
2540
 
def read_mtab(path):
2541
 
    """Read an fstab-style file and extract mountpoint+filesystem information.
2542
 
 
2543
 
    :param path: Path to read from
2544
 
    :yield: Tuples with mountpoints (as bytestrings) and filesystem names
2545
 
    """
2546
 
    with open(path, 'rb') as f:
2547
 
        for line in f:
2548
 
            if line.startswith(b'#'):
2549
 
                continue
2550
 
            cols = line.split()
2551
 
            if len(cols) < 3:
2552
 
                continue
2553
 
            yield cols[1], cols[2].decode('ascii', 'replace')
2554
 
 
2555
 
 
2556
 
MTAB_PATH = '/etc/mtab'
2557
 
 
2558
 
class FilesystemFinder(object):
2559
 
    """Find the filesystem for a particular path."""
2560
 
 
2561
 
    def __init__(self, mountpoints):
2562
 
        def key(x):
2563
 
            return len(x[0])
2564
 
        self._mountpoints = sorted(mountpoints, key=key, reverse=True)
2565
 
 
2566
 
    @classmethod
2567
 
    def from_mtab(cls):
2568
 
        """Create a FilesystemFinder from an mtab-style file.
2569
 
 
2570
 
        Note that this will silenty ignore mtab if it doesn't exist or can not
2571
 
        be opened.
2572
 
        """
2573
 
        # TODO(jelmer): Use inotify to be notified when /etc/mtab changes and
2574
 
        # we need to re-read it.
2575
 
        try:
2576
 
            return cls(read_mtab(MTAB_PATH))
2577
 
        except EnvironmentError as e:
2578
 
            trace.mutter('Unable to read mtab: %s', e)
2579
 
            return cls([])
2580
 
 
2581
 
    def find(self, path):
2582
 
        """Find the filesystem used by a particular path.
2583
 
 
2584
 
        :param path: Path to find (bytestring or text type)
2585
 
        :return: Filesystem name (as text type) or None, if the filesystem is
2586
 
            unknown.
2587
 
        """
2588
 
        for mountpoint, filesystem in self._mountpoints:
2589
 
            if is_inside(mountpoint, path):
2590
 
                return filesystem
2591
 
        return None
2592
 
 
2593
 
 
2594
 
_FILESYSTEM_FINDER = None
2595
 
 
2596
 
 
2597
 
def get_fs_type(path):
2598
 
    """Return the filesystem type for the partition a path is in.
2599
 
 
2600
 
    :param path: Path to search filesystem type for
2601
 
    :return: A FS type, as string. E.g. "ext2"
2602
 
    """
2603
 
    global _FILESYSTEM_FINDER
2604
 
    if _FILESYSTEM_FINDER is None:
2605
 
        _FILESYSTEM_FINDER = FilesystemFinder.from_mtab()
2606
 
 
2607
 
    if not isinstance(path, bytes):
2608
 
        path = path.encode(_fs_enc)
2609
 
 
2610
 
    return _FILESYSTEM_FINDER.find(path)
2611
 
 
2612
 
 
2613
 
perf_counter = time.perf_counter