/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Vincent Ladeuil
  • Date: 2010-03-01 09:02:18 UTC
  • mto: (5064.1.1 integration)
  • mto: This revision was merged to the branch mainline in revision 5065.
  • Revision ID: v.ladeuil+lp@free.fr-20100301090218-pq3ib5y07dx3wbp6
Delete spurious spaces.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Bazaar -- distributed version control
2
 
#
3
 
# Copyright (C) 2005 by Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
4
2
#
5
3
# This program is free software; you can redistribute it and/or modify
6
4
# it under the terms of the GNU General Public License as published by
14
12
#
15
13
# You should have received a copy of the GNU General Public License
16
14
# along with this program; if not, write to the Free Software
17
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
18
 
 
19
 
from cStringIO import StringIO
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
import os
 
18
import re
 
19
import stat
 
20
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
21
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
 
22
import sys
 
23
import time
 
24
import warnings
 
25
 
 
26
from bzrlib.lazy_import import lazy_import
 
27
lazy_import(globals(), """
 
28
import codecs
 
29
from datetime import datetime
20
30
import errno
21
31
from ntpath import (abspath as _nt_abspath,
22
32
                    join as _nt_join,
24
34
                    realpath as _nt_realpath,
25
35
                    splitdrive as _nt_splitdrive,
26
36
                    )
27
 
import os
28
 
from os import listdir
29
37
import posixpath
30
 
import re
31
 
import sha
32
38
import shutil
33
 
from shutil import copyfile
34
 
import stat
35
 
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
36
 
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
37
 
import string
38
 
import sys
39
 
import time
40
 
import types
 
39
from shutil import (
 
40
    rmtree,
 
41
    )
 
42
import signal
 
43
import subprocess
41
44
import tempfile
 
45
from tempfile import (
 
46
    mkdtemp,
 
47
    )
42
48
import unicodedata
43
49
 
 
50
from bzrlib import (
 
51
    cache_utf8,
 
52
    errors,
 
53
    win32utils,
 
54
    )
 
55
""")
 
56
 
 
57
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
 
58
# of 2.5
 
59
if sys.version_info < (2, 5):
 
60
    import md5 as _mod_md5
 
61
    md5 = _mod_md5.new
 
62
    import sha as _mod_sha
 
63
    sha = _mod_sha.new
 
64
else:
 
65
    from hashlib import (
 
66
        md5,
 
67
        sha1 as sha,
 
68
        )
 
69
 
 
70
 
44
71
import bzrlib
45
 
from bzrlib.errors import (BzrError,
46
 
                           BzrBadParameterNotUnicode,
47
 
                           NoSuchFile,
48
 
                           PathNotChild,
49
 
                           IllegalPath,
50
 
                           )
51
 
from bzrlib.symbol_versioning import (deprecated_function, 
52
 
        zero_nine)
53
 
from bzrlib.trace import mutter
54
 
 
 
72
from bzrlib import symbol_versioning
 
73
 
 
74
 
 
75
# Cross platform wall-clock time functionality with decent resolution.
 
76
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
 
77
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
 
78
# synchronized with ``time.time()``, this is only meant to be used to find
 
79
# delta times by subtracting from another call to this function.
 
80
timer_func = time.time
 
81
if sys.platform == 'win32':
 
82
    timer_func = time.clock
55
83
 
56
84
# On win32, O_BINARY is used to indicate the file should
57
85
# be opened in binary mode, rather than text mode.
61
89
O_BINARY = getattr(os, 'O_BINARY', 0)
62
90
 
63
91
 
 
92
def get_unicode_argv():
 
93
    try:
 
94
        user_encoding = get_user_encoding()
 
95
        return [a.decode(user_encoding) for a in sys.argv[1:]]
 
96
    except UnicodeDecodeError:
 
97
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
 
98
                                                            "encoding." % a))
 
99
 
 
100
 
64
101
def make_readonly(filename):
65
102
    """Make a filename read-only."""
66
 
    mod = os.stat(filename).st_mode
67
 
    mod = mod & 0777555
68
 
    os.chmod(filename, mod)
 
103
    mod = os.lstat(filename).st_mode
 
104
    if not stat.S_ISLNK(mod):
 
105
        mod = mod & 0777555
 
106
        os.chmod(filename, mod)
69
107
 
70
108
 
71
109
def make_writable(filename):
72
 
    mod = os.stat(filename).st_mode
73
 
    mod = mod | 0200
74
 
    os.chmod(filename, mod)
 
110
    mod = os.lstat(filename).st_mode
 
111
    if not stat.S_ISLNK(mod):
 
112
        mod = mod | 0200
 
113
        os.chmod(filename, mod)
 
114
 
 
115
 
 
116
def minimum_path_selection(paths):
 
117
    """Return the smallset subset of paths which are outside paths.
 
118
 
 
119
    :param paths: A container (and hence not None) of paths.
 
120
    :return: A set of paths sufficient to include everything in paths via
 
121
        is_inside, drawn from the paths parameter.
 
122
    """
 
123
    if len(paths) < 2:
 
124
        return set(paths)
 
125
 
 
126
    def sort_key(path):
 
127
        return path.split('/')
 
128
    sorted_paths = sorted(list(paths), key=sort_key)
 
129
 
 
130
    search_paths = [sorted_paths[0]]
 
131
    for path in sorted_paths[1:]:
 
132
        if not is_inside(search_paths[-1], path):
 
133
            # This path is unique, add it
 
134
            search_paths.append(path)
 
135
 
 
136
    return set(search_paths)
75
137
 
76
138
 
77
139
_QUOTE_RE = None
86
148
    global _QUOTE_RE
87
149
    if _QUOTE_RE is None:
88
150
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
89
 
        
 
151
 
90
152
    if _QUOTE_RE.search(f):
91
153
        return '"' + f + '"'
92
154
    else:
95
157
 
96
158
_directory_kind = 'directory'
97
159
 
98
 
_formats = {
99
 
    stat.S_IFDIR:_directory_kind,
100
 
    stat.S_IFCHR:'chardev',
101
 
    stat.S_IFBLK:'block',
102
 
    stat.S_IFREG:'file',
103
 
    stat.S_IFIFO:'fifo',
104
 
    stat.S_IFLNK:'symlink',
105
 
    stat.S_IFSOCK:'socket',
106
 
}
107
 
 
108
 
 
109
 
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
110
 
    """Generate a file kind from a stat mode. This is used in walkdirs.
111
 
 
112
 
    Its performance is critical: Do not mutate without careful benchmarking.
113
 
    """
114
 
    try:
115
 
        return _formats[stat_mode & 0170000]
116
 
    except KeyError:
117
 
        return _unknown
118
 
 
119
 
 
120
 
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
121
 
    try:
122
 
        return _mapper(_lstat(f).st_mode)
123
 
    except OSError, e:
124
 
        if getattr(e, 'errno', None) == errno.ENOENT:
125
 
            raise bzrlib.errors.NoSuchFile(f)
126
 
        raise
127
 
 
128
 
 
129
160
def get_umask():
130
161
    """Return the current umask"""
131
162
    # Assume that people aren't messing with the umask while running
136
167
    return umask
137
168
 
138
169
 
 
170
_kind_marker_map = {
 
171
    "file": "",
 
172
    _directory_kind: "/",
 
173
    "symlink": "@",
 
174
    'tree-reference': '+',
 
175
}
 
176
 
 
177
 
139
178
def kind_marker(kind):
140
 
    if kind == 'file':
 
179
    try:
 
180
        return _kind_marker_map[kind]
 
181
    except KeyError:
 
182
        # Slightly faster than using .get(, '') when the common case is that
 
183
        # kind will be found
141
184
        return ''
142
 
    elif kind == _directory_kind:
143
 
        return '/'
144
 
    elif kind == 'symlink':
145
 
        return '@'
146
 
    else:
147
 
        raise BzrError('invalid file kind %r' % kind)
 
185
 
148
186
 
149
187
lexists = getattr(os.path, 'lexists', None)
150
188
if lexists is None:
151
189
    def lexists(f):
152
190
        try:
153
 
            if getattr(os, 'lstat') is not None:
154
 
                os.lstat(f)
155
 
            else:
156
 
                os.stat(f)
 
191
            stat = getattr(os, 'lstat', os.stat)
 
192
            stat(f)
157
193
            return True
158
 
        except OSError,e:
 
194
        except OSError, e:
159
195
            if e.errno == errno.ENOENT:
160
196
                return False;
161
197
            else:
162
 
                raise BzrError("lstat/stat of (%r): %r" % (f, e))
 
198
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
163
199
 
164
200
 
165
201
def fancy_rename(old, new, rename_func, unlink_func):
166
202
    """A fancy rename, when you don't have atomic rename.
167
 
    
 
203
 
168
204
    :param old: The old path, to rename from
169
205
    :param new: The new path, to rename to
170
206
    :param rename_func: The potentially non-atomic rename function
171
 
    :param unlink_func: A way to delete the target file if the full rename succeeds
 
207
    :param unlink_func: A way to delete the target file if the full rename
 
208
        succeeds
172
209
    """
173
 
 
174
210
    # sftp rename doesn't allow overwriting, so play tricks:
175
 
    import random
176
211
    base = os.path.basename(new)
177
212
    dirname = os.path.dirname(new)
178
 
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
 
213
    # callers use different encodings for the paths so the following MUST
 
214
    # respect that. We rely on python upcasting to unicode if new is unicode
 
215
    # and keeping a str if not.
 
216
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
 
217
                                      os.getpid(), rand_chars(10))
179
218
    tmp_name = pathjoin(dirname, tmp_name)
180
219
 
181
220
    # Rename the file out of the way, but keep track if it didn't exist
186
225
    file_existed = False
187
226
    try:
188
227
        rename_func(new, tmp_name)
189
 
    except (NoSuchFile,), e:
 
228
    except (errors.NoSuchFile,), e:
190
229
        pass
191
230
    except IOError, e:
192
231
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
201
240
    else:
202
241
        file_existed = True
203
242
 
 
243
    failure_exc = None
204
244
    success = False
205
245
    try:
206
 
        # This may throw an exception, in which case success will
207
 
        # not be set.
208
 
        rename_func(old, new)
209
 
        success = True
 
246
        try:
 
247
            # This may throw an exception, in which case success will
 
248
            # not be set.
 
249
            rename_func(old, new)
 
250
            success = True
 
251
        except (IOError, OSError), e:
 
252
            # source and target may be aliases of each other (e.g. on a
 
253
            # case-insensitive filesystem), so we may have accidentally renamed
 
254
            # source by when we tried to rename target
 
255
            failure_exc = sys.exc_info()
 
256
            if (file_existed and e.errno in (None, errno.ENOENT)
 
257
                and old.lower() == new.lower()):
 
258
                # source and target are the same file on a case-insensitive
 
259
                # filesystem, so we don't generate an exception
 
260
                failure_exc = None
210
261
    finally:
211
262
        if file_existed:
212
263
            # If the file used to exist, rename it back into place
215
266
                unlink_func(tmp_name)
216
267
            else:
217
268
                rename_func(tmp_name, new)
 
269
    if failure_exc is not None:
 
270
        raise failure_exc[0], failure_exc[1], failure_exc[2]
218
271
 
219
272
 
220
273
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
221
274
# choke on a Unicode string containing a relative path if
222
275
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
223
276
# string.
224
 
_fs_enc = sys.getfilesystemencoding()
 
277
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
225
278
def _posix_abspath(path):
226
279
    # jam 20060426 rather than encoding to fsencoding
227
280
    # copy posixpath.abspath, but use os.getcwdu instead
252
305
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
253
306
 
254
307
 
 
308
def _win98_abspath(path):
 
309
    """Return the absolute version of a path.
 
310
    Windows 98 safe implementation (python reimplementation
 
311
    of Win32 API function GetFullPathNameW)
 
312
    """
 
313
    # Corner cases:
 
314
    #   C:\path     => C:/path
 
315
    #   C:/path     => C:/path
 
316
    #   \\HOST\path => //HOST/path
 
317
    #   //HOST/path => //HOST/path
 
318
    #   path        => C:/cwd/path
 
319
    #   /path       => C:/path
 
320
    path = unicode(path)
 
321
    # check for absolute path
 
322
    drive = _nt_splitdrive(path)[0]
 
323
    if drive == '' and path[:2] not in('//','\\\\'):
 
324
        cwd = os.getcwdu()
 
325
        # we cannot simply os.path.join cwd and path
 
326
        # because os.path.join('C:','/path') produce '/path'
 
327
        # and this is incorrect
 
328
        if path[:1] in ('/','\\'):
 
329
            cwd = _nt_splitdrive(cwd)[0]
 
330
            path = path[1:]
 
331
        path = cwd + '\\' + path
 
332
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
 
333
 
 
334
 
255
335
def _win32_realpath(path):
256
336
    # Real _nt_realpath doesn't have a problem with a unicode cwd
257
337
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
277
357
    """We expect to be able to atomically replace 'new' with old.
278
358
 
279
359
    On win32, if new exists, it must be moved out of the way first,
280
 
    and then deleted. 
 
360
    and then deleted.
281
361
    """
282
362
    try:
283
363
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
284
364
    except OSError, e:
285
365
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
286
 
            # If we try to rename a non-existant file onto cwd, we get 
287
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
 
366
            # If we try to rename a non-existant file onto cwd, we get
 
367
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
288
368
            # if the old path doesn't exist, sometimes we get EACCES
289
369
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
290
370
            os.lstat(old)
292
372
 
293
373
 
294
374
def _mac_getcwd():
295
 
    return unicodedata.normalize('NFKC', os.getcwdu())
 
375
    return unicodedata.normalize('NFC', os.getcwdu())
296
376
 
297
377
 
298
378
# Default is to just use the python builtins, but these can be rebound on
302
382
pathjoin = os.path.join
303
383
normpath = os.path.normpath
304
384
getcwd = os.getcwdu
305
 
mkdtemp = tempfile.mkdtemp
306
385
rename = os.rename
307
386
dirname = os.path.dirname
308
387
basename = os.path.basename
309
 
rmtree = shutil.rmtree
 
388
split = os.path.split
 
389
splitext = os.path.splitext
 
390
# These were already imported into local scope
 
391
# mkdtemp = tempfile.mkdtemp
 
392
# rmtree = shutil.rmtree
310
393
 
311
394
MIN_ABS_PATHLENGTH = 1
312
395
 
313
396
 
314
397
if sys.platform == 'win32':
315
 
    abspath = _win32_abspath
 
398
    if win32utils.winver == 'Windows 98':
 
399
        abspath = _win98_abspath
 
400
    else:
 
401
        abspath = _win32_abspath
316
402
    realpath = _win32_realpath
317
403
    pathjoin = _win32_pathjoin
318
404
    normpath = _win32_normpath
326
412
        """Error handler for shutil.rmtree function [for win32]
327
413
        Helps to remove files and dirs marked as read-only.
328
414
        """
329
 
        type_, value = excinfo[:2]
 
415
        exception = excinfo[1]
330
416
        if function in (os.remove, os.rmdir) \
331
 
            and type_ == OSError \
332
 
            and value.errno == errno.EACCES:
333
 
            bzrlib.osutils.make_writable(path)
 
417
            and isinstance(exception, OSError) \
 
418
            and exception.errno == errno.EACCES:
 
419
            make_writable(path)
334
420
            function(path)
335
421
        else:
336
422
            raise
338
424
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
339
425
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
340
426
        return shutil.rmtree(path, ignore_errors, onerror)
 
427
 
 
428
    f = win32utils.get_unicode_argv     # special function or None
 
429
    if f is not None:
 
430
        get_unicode_argv = f
 
431
 
341
432
elif sys.platform == 'darwin':
342
433
    getcwd = _mac_getcwd
343
434
 
347
438
 
348
439
    This attempts to check both sys.stdout and sys.stdin to see
349
440
    what encoding they are in, and if that fails it falls back to
350
 
    bzrlib.user_encoding.
 
441
    osutils.get_user_encoding().
351
442
    The problem is that on Windows, locale.getpreferredencoding()
352
443
    is not the same encoding as that used by the console:
353
444
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
355
446
    On my standard US Windows XP, the preferred encoding is
356
447
    cp1252, but the console is cp437
357
448
    """
 
449
    from bzrlib.trace import mutter
358
450
    output_encoding = getattr(sys.stdout, 'encoding', None)
359
451
    if not output_encoding:
360
452
        input_encoding = getattr(sys.stdin, 'encoding', None)
361
453
        if not input_encoding:
362
 
            output_encoding = bzrlib.user_encoding
363
 
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
 
454
            output_encoding = get_user_encoding()
 
455
            mutter('encoding stdout as osutils.get_user_encoding() %r',
 
456
                   output_encoding)
364
457
        else:
365
458
            output_encoding = input_encoding
366
459
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
367
460
    else:
368
461
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
462
    if output_encoding == 'cp0':
 
463
        # invalid encoding (cp0 means 'no codepage' on Windows)
 
464
        output_encoding = get_user_encoding()
 
465
        mutter('cp0 is invalid encoding.'
 
466
               ' encoding stdout as osutils.get_user_encoding() %r',
 
467
               output_encoding)
 
468
    # check encoding
 
469
    try:
 
470
        codecs.lookup(output_encoding)
 
471
    except LookupError:
 
472
        sys.stderr.write('bzr: warning:'
 
473
                         ' unknown terminal encoding %s.\n'
 
474
                         '  Using encoding %s instead.\n'
 
475
                         % (output_encoding, get_user_encoding())
 
476
                        )
 
477
        output_encoding = get_user_encoding()
 
478
 
369
479
    return output_encoding
370
480
 
371
481
 
381
491
        return pathjoin(F(p), e)
382
492
 
383
493
 
384
 
def backup_file(fn):
385
 
    """Copy a file to a backup.
386
 
 
387
 
    Backups are named in GNU-style, with a ~ suffix.
388
 
 
389
 
    If the file is already a backup, it's not copied.
390
 
    """
391
 
    if fn[-1] == '~':
392
 
        return
393
 
    bfn = fn + '~'
394
 
 
395
 
    if has_symlinks() and os.path.islink(fn):
396
 
        target = os.readlink(fn)
397
 
        os.symlink(target, bfn)
398
 
        return
399
 
    inf = file(fn, 'rb')
400
 
    try:
401
 
        content = inf.read()
402
 
    finally:
403
 
        inf.close()
404
 
    
405
 
    outf = file(bfn, 'wb')
406
 
    try:
407
 
        outf.write(content)
408
 
    finally:
409
 
        outf.close()
410
 
 
411
 
 
412
494
def isdir(f):
413
495
    """True if f is an accessible directory."""
414
496
    try:
433
515
 
434
516
def is_inside(dir, fname):
435
517
    """True if fname is inside dir.
436
 
    
 
518
 
437
519
    The parameters should typically be passed to osutils.normpath first, so
438
520
    that . and .. and repeated slashes are eliminated, and the separators
439
521
    are canonical for the platform.
440
 
    
441
 
    The empty string as a dir name is taken as top-of-tree and matches 
 
522
 
 
523
    The empty string as a dir name is taken as top-of-tree and matches
442
524
    everything.
443
 
    
444
 
    >>> is_inside('src', pathjoin('src', 'foo.c'))
445
 
    True
446
 
    >>> is_inside('src', 'srccontrol')
447
 
    False
448
 
    >>> is_inside('src', pathjoin('src', 'a', 'a', 'a', 'foo.c'))
449
 
    True
450
 
    >>> is_inside('foo.c', 'foo.c')
451
 
    True
452
 
    >>> is_inside('foo.c', '')
453
 
    False
454
 
    >>> is_inside('', 'foo.c')
455
 
    True
456
525
    """
457
 
    # XXX: Most callers of this can actually do something smarter by 
 
526
    # XXX: Most callers of this can actually do something smarter by
458
527
    # looking at the inventory
459
528
    if dir == fname:
460
529
        return True
461
 
    
 
530
 
462
531
    if dir == '':
463
532
        return True
464
533
 
473
542
    for dirname in dir_list:
474
543
        if is_inside(dirname, fname):
475
544
            return True
476
 
    else:
477
 
        return False
 
545
    return False
478
546
 
479
547
 
480
548
def is_inside_or_parent_of_any(dir_list, fname):
482
550
    for dirname in dir_list:
483
551
        if is_inside(dirname, fname) or is_inside(fname, dirname):
484
552
            return True
 
553
    return False
 
554
 
 
555
 
 
556
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
 
557
             report_activity=None, direction='read'):
 
558
    """Copy contents of one file to another.
 
559
 
 
560
    The read_length can either be -1 to read to end-of-file (EOF) or
 
561
    it can specify the maximum number of bytes to read.
 
562
 
 
563
    The buff_size represents the maximum size for each read operation
 
564
    performed on from_file.
 
565
 
 
566
    :param report_activity: Call this as bytes are read, see
 
567
        Transport._report_activity
 
568
    :param direction: Will be passed to report_activity
 
569
 
 
570
    :return: The number of bytes copied.
 
571
    """
 
572
    length = 0
 
573
    if read_length >= 0:
 
574
        # read specified number of bytes
 
575
 
 
576
        while read_length > 0:
 
577
            num_bytes_to_read = min(read_length, buff_size)
 
578
 
 
579
            block = from_file.read(num_bytes_to_read)
 
580
            if not block:
 
581
                # EOF reached
 
582
                break
 
583
            if report_activity is not None:
 
584
                report_activity(len(block), direction)
 
585
            to_file.write(block)
 
586
 
 
587
            actual_bytes_read = len(block)
 
588
            read_length -= actual_bytes_read
 
589
            length += actual_bytes_read
485
590
    else:
486
 
        return False
487
 
 
488
 
 
489
 
def pumpfile(fromfile, tofile):
490
 
    """Copy contents of one file to another."""
491
 
    BUFSIZE = 32768
492
 
    while True:
493
 
        b = fromfile.read(BUFSIZE)
494
 
        if not b:
495
 
            break
496
 
        tofile.write(b)
 
591
        # read to EOF
 
592
        while True:
 
593
            block = from_file.read(buff_size)
 
594
            if not block:
 
595
                # EOF reached
 
596
                break
 
597
            if report_activity is not None:
 
598
                report_activity(len(block), direction)
 
599
            to_file.write(block)
 
600
            length += len(block)
 
601
    return length
 
602
 
 
603
 
 
604
def pump_string_file(bytes, file_handle, segment_size=None):
 
605
    """Write bytes to file_handle in many smaller writes.
 
606
 
 
607
    :param bytes: The string to write.
 
608
    :param file_handle: The file to write to.
 
609
    """
 
610
    # Write data in chunks rather than all at once, because very large
 
611
    # writes fail on some platforms (e.g. Windows with SMB  mounted
 
612
    # drives).
 
613
    if not segment_size:
 
614
        segment_size = 5242880 # 5MB
 
615
    segments = range(len(bytes) / segment_size + 1)
 
616
    write = file_handle.write
 
617
    for segment_index in segments:
 
618
        segment = buffer(bytes, segment_index * segment_size, segment_size)
 
619
        write(segment)
497
620
 
498
621
 
499
622
def file_iterator(input_file, readsize=32768):
505
628
 
506
629
 
507
630
def sha_file(f):
508
 
    if getattr(f, 'tell', None) is not None:
509
 
        assert f.tell() == 0
510
 
    s = sha.new()
 
631
    """Calculate the hexdigest of an open file.
 
632
 
 
633
    The file cursor should be already at the start.
 
634
    """
 
635
    s = sha()
511
636
    BUFSIZE = 128<<10
512
637
    while True:
513
638
        b = f.read(BUFSIZE)
517
642
    return s.hexdigest()
518
643
 
519
644
 
520
 
 
521
 
def sha_strings(strings):
 
645
def size_sha_file(f):
 
646
    """Calculate the size and hexdigest of an open file.
 
647
 
 
648
    The file cursor should be already at the start and
 
649
    the caller is responsible for closing the file afterwards.
 
650
    """
 
651
    size = 0
 
652
    s = sha()
 
653
    BUFSIZE = 128<<10
 
654
    while True:
 
655
        b = f.read(BUFSIZE)
 
656
        if not b:
 
657
            break
 
658
        size += len(b)
 
659
        s.update(b)
 
660
    return size, s.hexdigest()
 
661
 
 
662
 
 
663
def sha_file_by_name(fname):
 
664
    """Calculate the SHA1 of a file by reading the full text"""
 
665
    s = sha()
 
666
    f = os.open(fname, os.O_RDONLY | O_BINARY)
 
667
    try:
 
668
        while True:
 
669
            b = os.read(f, 1<<16)
 
670
            if not b:
 
671
                return s.hexdigest()
 
672
            s.update(b)
 
673
    finally:
 
674
        os.close(f)
 
675
 
 
676
 
 
677
def sha_strings(strings, _factory=sha):
522
678
    """Return the sha-1 of concatenation of strings"""
523
 
    s = sha.new()
 
679
    s = _factory()
524
680
    map(s.update, strings)
525
681
    return s.hexdigest()
526
682
 
527
683
 
528
 
def sha_string(f):
529
 
    s = sha.new()
530
 
    s.update(f)
531
 
    return s.hexdigest()
 
684
def sha_string(f, _factory=sha):
 
685
    return _factory(f).hexdigest()
532
686
 
533
687
 
534
688
def fingerprint_file(f):
535
 
    s = sha.new()
536
689
    b = f.read()
537
 
    s.update(b)
538
 
    size = len(b)
539
 
    return {'size': size,
540
 
            'sha1': s.hexdigest()}
 
690
    return {'size': len(b),
 
691
            'sha1': sha(b).hexdigest()}
541
692
 
542
693
 
543
694
def compare_files(a, b):
554
705
 
555
706
def local_time_offset(t=None):
556
707
    """Return offset of local zone from GMT, either at present or at time t."""
557
 
    # python2.3 localtime() can't take None
558
708
    if t is None:
559
709
        t = time.time()
560
 
        
561
 
    if time.localtime(t).tm_isdst and time.daylight:
562
 
        return -time.altzone
563
 
    else:
564
 
        return -time.timezone
565
 
 
566
 
    
567
 
def format_date(t, offset=0, timezone='original', date_fmt=None, 
 
710
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
 
711
    return offset.days * 86400 + offset.seconds
 
712
 
 
713
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
 
714
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
 
715
 
 
716
 
 
717
def format_date(t, offset=0, timezone='original', date_fmt=None,
568
718
                show_offset=True):
569
 
    ## TODO: Perhaps a global option to use either universal or local time?
570
 
    ## Or perhaps just let people set $TZ?
571
 
    assert isinstance(t, float)
572
 
    
 
719
    """Return a formatted date string.
 
720
 
 
721
    :param t: Seconds since the epoch.
 
722
    :param offset: Timezone offset in seconds east of utc.
 
723
    :param timezone: How to display the time: 'utc', 'original' for the
 
724
         timezone specified by offset, or 'local' for the process's current
 
725
         timezone.
 
726
    :param date_fmt: strftime format.
 
727
    :param show_offset: Whether to append the timezone.
 
728
    """
 
729
    (date_fmt, tt, offset_str) = \
 
730
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
731
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
732
    date_str = time.strftime(date_fmt, tt)
 
733
    return date_str + offset_str
 
734
 
 
735
 
 
736
# Cache of formatted offset strings
 
737
_offset_cache = {}
 
738
 
 
739
 
 
740
def format_date_with_offset_in_original_timezone(t, offset=0,
 
741
    _cache=_offset_cache):
 
742
    """Return a formatted date string in the original timezone.
 
743
 
 
744
    This routine may be faster then format_date.
 
745
 
 
746
    :param t: Seconds since the epoch.
 
747
    :param offset: Timezone offset in seconds east of utc.
 
748
    """
 
749
    if offset is None:
 
750
        offset = 0
 
751
    tt = time.gmtime(t + offset)
 
752
    date_fmt = _default_format_by_weekday_num[tt[6]]
 
753
    date_str = time.strftime(date_fmt, tt)
 
754
    offset_str = _cache.get(offset, None)
 
755
    if offset_str is None:
 
756
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
 
757
        _cache[offset] = offset_str
 
758
    return date_str + offset_str
 
759
 
 
760
 
 
761
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
 
762
                      show_offset=True):
 
763
    """Return an unicode date string formatted according to the current locale.
 
764
 
 
765
    :param t: Seconds since the epoch.
 
766
    :param offset: Timezone offset in seconds east of utc.
 
767
    :param timezone: How to display the time: 'utc', 'original' for the
 
768
         timezone specified by offset, or 'local' for the process's current
 
769
         timezone.
 
770
    :param date_fmt: strftime format.
 
771
    :param show_offset: Whether to append the timezone.
 
772
    """
 
773
    (date_fmt, tt, offset_str) = \
 
774
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
775
    date_str = time.strftime(date_fmt, tt)
 
776
    if not isinstance(date_str, unicode):
 
777
        date_str = date_str.decode(get_user_encoding(), 'replace')
 
778
    return date_str + offset_str
 
779
 
 
780
 
 
781
def _format_date(t, offset, timezone, date_fmt, show_offset):
573
782
    if timezone == 'utc':
574
783
        tt = time.gmtime(t)
575
784
        offset = 0
581
790
        tt = time.localtime(t)
582
791
        offset = local_time_offset(t)
583
792
    else:
584
 
        raise BzrError("unsupported timezone format %r" % timezone,
585
 
                       ['options are "utc", "original", "local"'])
 
793
        raise errors.UnsupportedTimezoneFormat(timezone)
586
794
    if date_fmt is None:
587
795
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
588
796
    if show_offset:
589
797
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
590
798
    else:
591
799
        offset_str = ''
592
 
    return (time.strftime(date_fmt, tt) +  offset_str)
 
800
    return (date_fmt, tt, offset_str)
593
801
 
594
802
 
595
803
def compact_date(when):
596
804
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
597
 
    
598
 
 
 
805
 
 
806
 
 
807
def format_delta(delta):
 
808
    """Get a nice looking string for a time delta.
 
809
 
 
810
    :param delta: The time difference in seconds, can be positive or negative.
 
811
        positive indicates time in the past, negative indicates time in the
 
812
        future. (usually time.time() - stored_time)
 
813
    :return: String formatted to show approximate resolution
 
814
    """
 
815
    delta = int(delta)
 
816
    if delta >= 0:
 
817
        direction = 'ago'
 
818
    else:
 
819
        direction = 'in the future'
 
820
        delta = -delta
 
821
 
 
822
    seconds = delta
 
823
    if seconds < 90: # print seconds up to 90 seconds
 
824
        if seconds == 1:
 
825
            return '%d second %s' % (seconds, direction,)
 
826
        else:
 
827
            return '%d seconds %s' % (seconds, direction)
 
828
 
 
829
    minutes = int(seconds / 60)
 
830
    seconds -= 60 * minutes
 
831
    if seconds == 1:
 
832
        plural_seconds = ''
 
833
    else:
 
834
        plural_seconds = 's'
 
835
    if minutes < 90: # print minutes, seconds up to 90 minutes
 
836
        if minutes == 1:
 
837
            return '%d minute, %d second%s %s' % (
 
838
                    minutes, seconds, plural_seconds, direction)
 
839
        else:
 
840
            return '%d minutes, %d second%s %s' % (
 
841
                    minutes, seconds, plural_seconds, direction)
 
842
 
 
843
    hours = int(minutes / 60)
 
844
    minutes -= 60 * hours
 
845
    if minutes == 1:
 
846
        plural_minutes = ''
 
847
    else:
 
848
        plural_minutes = 's'
 
849
 
 
850
    if hours == 1:
 
851
        return '%d hour, %d minute%s %s' % (hours, minutes,
 
852
                                            plural_minutes, direction)
 
853
    return '%d hours, %d minute%s %s' % (hours, minutes,
 
854
                                         plural_minutes, direction)
599
855
 
600
856
def filesize(f):
601
857
    """Return size of given open file."""
611
867
except (NotImplementedError, AttributeError):
612
868
    # If python doesn't have os.urandom, or it doesn't work,
613
869
    # then try to first pull random data from /dev/urandom
614
 
    if os.path.exists("/dev/urandom"):
 
870
    try:
615
871
        rand_bytes = file('/dev/urandom', 'rb').read
616
872
    # Otherwise, use this hack as a last resort
617
 
    else:
 
873
    except (IOError, OSError):
618
874
        # not well seeded, but better than nothing
619
875
        def rand_bytes(n):
620
876
            import random
628
884
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
629
885
def rand_chars(num):
630
886
    """Return a random string of num alphanumeric characters
631
 
    
632
 
    The result only contains lowercase chars because it may be used on 
 
887
 
 
888
    The result only contains lowercase chars because it may be used on
633
889
    case-insensitive filesystems.
634
890
    """
635
891
    s = ''
642
898
## decomposition (might be too tricksy though.)
643
899
 
644
900
def splitpath(p):
645
 
    """Turn string into list of parts.
646
 
 
647
 
    >>> splitpath('a')
648
 
    ['a']
649
 
    >>> splitpath('a/b')
650
 
    ['a', 'b']
651
 
    >>> splitpath('a/./b')
652
 
    ['a', 'b']
653
 
    >>> splitpath('a/.b')
654
 
    ['a', '.b']
655
 
    >>> splitpath('a/../b')
656
 
    Traceback (most recent call last):
657
 
    ...
658
 
    BzrError: sorry, '..' not allowed in path
659
 
    """
660
 
    assert isinstance(p, types.StringTypes)
661
 
 
 
901
    """Turn string into list of parts."""
662
902
    # split on either delimiter because people might use either on
663
903
    # Windows
664
904
    ps = re.split(r'[\\/]', p)
666
906
    rps = []
667
907
    for f in ps:
668
908
        if f == '..':
669
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
909
            raise errors.BzrError("sorry, %r not allowed in path" % f)
670
910
        elif (f == '.') or (f == ''):
671
911
            pass
672
912
        else:
673
913
            rps.append(f)
674
914
    return rps
675
915
 
 
916
 
676
917
def joinpath(p):
677
 
    assert isinstance(p, list)
678
918
    for f in p:
679
919
        if (f == '..') or (f is None) or (f == ''):
680
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
920
            raise errors.BzrError("sorry, %r not allowed in path" % f)
681
921
    return pathjoin(*p)
682
922
 
683
923
 
684
 
@deprecated_function(zero_nine)
685
 
def appendpath(p1, p2):
686
 
    if p1 == '':
687
 
        return p2
688
 
    else:
689
 
        return pathjoin(p1, p2)
690
 
    
 
924
def parent_directories(filename):
 
925
    """Return the list of parent directories, deepest first.
 
926
    
 
927
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
 
928
    """
 
929
    parents = []
 
930
    parts = splitpath(dirname(filename))
 
931
    while parts:
 
932
        parents.append(joinpath(parts))
 
933
        parts.pop()
 
934
    return parents
 
935
 
 
936
 
 
937
_extension_load_failures = []
 
938
 
 
939
 
 
940
def failed_to_load_extension(exception):
 
941
    """Handle failing to load a binary extension.
 
942
 
 
943
    This should be called from the ImportError block guarding the attempt to
 
944
    import the native extension.  If this function returns, the pure-Python
 
945
    implementation should be loaded instead::
 
946
 
 
947
    >>> try:
 
948
    >>>     import bzrlib._fictional_extension_pyx
 
949
    >>> except ImportError, e:
 
950
    >>>     bzrlib.osutils.failed_to_load_extension(e)
 
951
    >>>     import bzrlib._fictional_extension_py
 
952
    """
 
953
    # NB: This docstring is just an example, not a doctest, because doctest
 
954
    # currently can't cope with the use of lazy imports in this namespace --
 
955
    # mbp 20090729
 
956
    
 
957
    # This currently doesn't report the failure at the time it occurs, because
 
958
    # they tend to happen very early in startup when we can't check config
 
959
    # files etc, and also we want to report all failures but not spam the user
 
960
    # with 10 warnings.
 
961
    from bzrlib import trace
 
962
    exception_str = str(exception)
 
963
    if exception_str not in _extension_load_failures:
 
964
        trace.mutter("failed to load compiled extension: %s" % exception_str)
 
965
        _extension_load_failures.append(exception_str)
 
966
 
 
967
 
 
968
def report_extension_load_failures():
 
969
    if not _extension_load_failures:
 
970
        return
 
971
    from bzrlib.config import GlobalConfig
 
972
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
 
973
        return
 
974
    # the warnings framework should by default show this only once
 
975
    from bzrlib.trace import warning
 
976
    warning(
 
977
        "bzr: warning: some compiled extensions could not be loaded; "
 
978
        "see <https://answers.launchpad.net/bzr/+faq/703>")
 
979
    # we no longer show the specific missing extensions here, because it makes
 
980
    # the message too long and scary - see
 
981
    # https://bugs.launchpad.net/bzr/+bug/430529
 
982
 
 
983
 
 
984
try:
 
985
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
 
986
except ImportError, e:
 
987
    failed_to_load_extension(e)
 
988
    from bzrlib._chunks_to_lines_py import chunks_to_lines
 
989
 
691
990
 
692
991
def split_lines(s):
693
992
    """Split s into lines, but without removing the newline characters."""
 
993
    # Trivially convert a fulltext into a 'chunked' representation, and let
 
994
    # chunks_to_lines do the heavy lifting.
 
995
    if isinstance(s, str):
 
996
        # chunks_to_lines only supports 8-bit strings
 
997
        return chunks_to_lines([s])
 
998
    else:
 
999
        return _split_lines(s)
 
1000
 
 
1001
 
 
1002
def _split_lines(s):
 
1003
    """Split s into lines, but without removing the newline characters.
 
1004
 
 
1005
    This supports Unicode or plain string objects.
 
1006
    """
694
1007
    lines = s.split('\n')
695
1008
    result = [line + '\n' for line in lines[:-1]]
696
1009
    if lines[-1]:
705
1018
def link_or_copy(src, dest):
706
1019
    """Hardlink a file, or copy it if it can't be hardlinked."""
707
1020
    if not hardlinks_good():
708
 
        copyfile(src, dest)
 
1021
        shutil.copyfile(src, dest)
709
1022
        return
710
1023
    try:
711
1024
        os.link(src, dest)
712
1025
    except (OSError, IOError), e:
713
1026
        if e.errno != errno.EXDEV:
714
1027
            raise
715
 
        copyfile(src, dest)
716
 
 
717
 
def delete_any(full_path):
718
 
    """Delete a file or directory."""
 
1028
        shutil.copyfile(src, dest)
 
1029
 
 
1030
 
 
1031
def delete_any(path):
 
1032
    """Delete a file, symlink or directory.  
 
1033
    
 
1034
    Will delete even if readonly.
 
1035
    """
719
1036
    try:
720
 
        os.unlink(full_path)
721
 
    except OSError, e:
722
 
    # We may be renaming a dangling inventory id
723
 
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
 
1037
       _delete_file_or_dir(path)
 
1038
    except (OSError, IOError), e:
 
1039
        if e.errno in (errno.EPERM, errno.EACCES):
 
1040
            # make writable and try again
 
1041
            try:
 
1042
                make_writable(path)
 
1043
            except (OSError, IOError):
 
1044
                pass
 
1045
            _delete_file_or_dir(path)
 
1046
        else:
724
1047
            raise
725
 
        os.rmdir(full_path)
 
1048
 
 
1049
 
 
1050
def _delete_file_or_dir(path):
 
1051
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
1052
    # Forgiveness than Permission (EAFP) because:
 
1053
    # - root can damage a solaris file system by using unlink,
 
1054
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
1055
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
1056
    if isdir(path): # Takes care of symlinks
 
1057
        os.rmdir(path)
 
1058
    else:
 
1059
        os.unlink(path)
726
1060
 
727
1061
 
728
1062
def has_symlinks():
730
1064
        return True
731
1065
    else:
732
1066
        return False
733
 
        
 
1067
 
 
1068
 
 
1069
def has_hardlinks():
 
1070
    if getattr(os, 'link', None) is not None:
 
1071
        return True
 
1072
    else:
 
1073
        return False
 
1074
 
 
1075
 
 
1076
def host_os_dereferences_symlinks():
 
1077
    return (has_symlinks()
 
1078
            and sys.platform not in ('cygwin', 'win32'))
 
1079
 
 
1080
 
 
1081
def readlink(abspath):
 
1082
    """Return a string representing the path to which the symbolic link points.
 
1083
 
 
1084
    :param abspath: The link absolute unicode path.
 
1085
 
 
1086
    This his guaranteed to return the symbolic link in unicode in all python
 
1087
    versions.
 
1088
    """
 
1089
    link = abspath.encode(_fs_enc)
 
1090
    target = os.readlink(link)
 
1091
    target = target.decode(_fs_enc)
 
1092
    return target
 
1093
 
734
1094
 
735
1095
def contains_whitespace(s):
736
1096
    """True if there are any whitespace characters in s."""
737
 
    for ch in string.whitespace:
 
1097
    # string.whitespace can include '\xa0' in certain locales, because it is
 
1098
    # considered "non-breaking-space" as part of ISO-8859-1. But it
 
1099
    # 1) Isn't a breaking whitespace
 
1100
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
 
1101
    #    separators
 
1102
    # 3) '\xa0' isn't unicode safe since it is >128.
 
1103
 
 
1104
    # This should *not* be a unicode set of characters in case the source
 
1105
    # string is not a Unicode string. We can auto-up-cast the characters since
 
1106
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
1107
    # is utf-8
 
1108
    for ch in ' \t\n\r\v\f':
738
1109
        if ch in s:
739
1110
            return True
740
1111
    else:
761
1132
    avoids that problem.
762
1133
    """
763
1134
 
764
 
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
765
 
        ' exceed the platform minimum length (which is %d)' % 
766
 
        MIN_ABS_PATHLENGTH)
 
1135
    if len(base) < MIN_ABS_PATHLENGTH:
 
1136
        # must have space for e.g. a drive letter
 
1137
        raise ValueError('%r is too short to calculate a relative path'
 
1138
            % (base,))
767
1139
 
768
1140
    rp = abspath(path)
769
1141
 
770
1142
    s = []
771
1143
    head = rp
772
 
    while len(head) >= len(base):
 
1144
    while True:
 
1145
        if len(head) <= len(base) and head != base:
 
1146
            raise errors.PathNotChild(rp, base)
773
1147
        if head == base:
774
1148
            break
775
 
        head, tail = os.path.split(head)
 
1149
        head, tail = split(head)
776
1150
        if tail:
777
 
            s.insert(0, tail)
778
 
    else:
779
 
        raise PathNotChild(rp, base)
 
1151
            s.append(tail)
780
1152
 
781
1153
    if s:
782
 
        return pathjoin(*s)
 
1154
        return pathjoin(*reversed(s))
783
1155
    else:
784
1156
        return ''
785
1157
 
786
1158
 
 
1159
def _cicp_canonical_relpath(base, path):
 
1160
    """Return the canonical path relative to base.
 
1161
 
 
1162
    Like relpath, but on case-insensitive-case-preserving file-systems, this
 
1163
    will return the relpath as stored on the file-system rather than in the
 
1164
    case specified in the input string, for all existing portions of the path.
 
1165
 
 
1166
    This will cause O(N) behaviour if called for every path in a tree; if you
 
1167
    have a number of paths to convert, you should use canonical_relpaths().
 
1168
    """
 
1169
    # TODO: it should be possible to optimize this for Windows by using the
 
1170
    # win32 API FindFiles function to look for the specified name - but using
 
1171
    # os.listdir() still gives us the correct, platform agnostic semantics in
 
1172
    # the short term.
 
1173
 
 
1174
    rel = relpath(base, path)
 
1175
    # '.' will have been turned into ''
 
1176
    if not rel:
 
1177
        return rel
 
1178
 
 
1179
    abs_base = abspath(base)
 
1180
    current = abs_base
 
1181
    _listdir = os.listdir
 
1182
 
 
1183
    # use an explicit iterator so we can easily consume the rest on early exit.
 
1184
    bit_iter = iter(rel.split('/'))
 
1185
    for bit in bit_iter:
 
1186
        lbit = bit.lower()
 
1187
        try:
 
1188
            next_entries = _listdir(current)
 
1189
        except OSError: # enoent, eperm, etc
 
1190
            # We can't find this in the filesystem, so just append the
 
1191
            # remaining bits.
 
1192
            current = pathjoin(current, bit, *list(bit_iter))
 
1193
            break
 
1194
        for look in next_entries:
 
1195
            if lbit == look.lower():
 
1196
                current = pathjoin(current, look)
 
1197
                break
 
1198
        else:
 
1199
            # got to the end, nothing matched, so we just return the
 
1200
            # non-existing bits as they were specified (the filename may be
 
1201
            # the target of a move, for example).
 
1202
            current = pathjoin(current, bit, *list(bit_iter))
 
1203
            break
 
1204
    return current[len(abs_base):].lstrip('/')
 
1205
 
 
1206
# XXX - TODO - we need better detection/integration of case-insensitive
 
1207
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
 
1208
# filesystems), for example, so could probably benefit from the same basic
 
1209
# support there.  For now though, only Windows and OSX get that support, and
 
1210
# they get it for *all* file-systems!
 
1211
if sys.platform in ('win32', 'darwin'):
 
1212
    canonical_relpath = _cicp_canonical_relpath
 
1213
else:
 
1214
    canonical_relpath = relpath
 
1215
 
 
1216
def canonical_relpaths(base, paths):
 
1217
    """Create an iterable to canonicalize a sequence of relative paths.
 
1218
 
 
1219
    The intent is for this implementation to use a cache, vastly speeding
 
1220
    up multiple transformations in the same directory.
 
1221
    """
 
1222
    # but for now, we haven't optimized...
 
1223
    return [canonical_relpath(base, p) for p in paths]
 
1224
 
787
1225
def safe_unicode(unicode_or_utf8_string):
788
1226
    """Coerce unicode_or_utf8_string into unicode.
789
1227
 
790
1228
    If it is unicode, it is returned.
791
 
    Otherwise it is decoded from utf-8. If a decoding error
792
 
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
793
 
    as a BzrBadParameter exception.
 
1229
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
 
1230
    wrapped in a BzrBadParameterNotUnicode exception.
794
1231
    """
795
1232
    if isinstance(unicode_or_utf8_string, unicode):
796
1233
        return unicode_or_utf8_string
797
1234
    try:
798
1235
        return unicode_or_utf8_string.decode('utf8')
799
1236
    except UnicodeDecodeError:
800
 
        raise BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1237
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1238
 
 
1239
 
 
1240
def safe_utf8(unicode_or_utf8_string):
 
1241
    """Coerce unicode_or_utf8_string to a utf8 string.
 
1242
 
 
1243
    If it is a str, it is returned.
 
1244
    If it is Unicode, it is encoded into a utf-8 string.
 
1245
    """
 
1246
    if isinstance(unicode_or_utf8_string, str):
 
1247
        # TODO: jam 20070209 This is overkill, and probably has an impact on
 
1248
        #       performance if we are dealing with lots of apis that want a
 
1249
        #       utf-8 revision id
 
1250
        try:
 
1251
            # Make sure it is a valid utf-8 string
 
1252
            unicode_or_utf8_string.decode('utf-8')
 
1253
        except UnicodeDecodeError:
 
1254
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1255
        return unicode_or_utf8_string
 
1256
    return unicode_or_utf8_string.encode('utf-8')
 
1257
 
 
1258
 
 
1259
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
1260
                        ' Revision id generators should be creating utf8'
 
1261
                        ' revision ids.')
 
1262
 
 
1263
 
 
1264
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
1265
    """Revision ids should now be utf8, but at one point they were unicode.
 
1266
 
 
1267
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
 
1268
        utf8 or None).
 
1269
    :param warn: Functions that are sanitizing user data can set warn=False
 
1270
    :return: None or a utf8 revision id.
 
1271
    """
 
1272
    if (unicode_or_utf8_string is None
 
1273
        or unicode_or_utf8_string.__class__ == str):
 
1274
        return unicode_or_utf8_string
 
1275
    if warn:
 
1276
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
1277
                               stacklevel=2)
 
1278
    return cache_utf8.encode(unicode_or_utf8_string)
 
1279
 
 
1280
 
 
1281
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
1282
                    ' generators should be creating utf8 file ids.')
 
1283
 
 
1284
 
 
1285
def safe_file_id(unicode_or_utf8_string, warn=True):
 
1286
    """File ids should now be utf8, but at one point they were unicode.
 
1287
 
 
1288
    This is the same as safe_utf8, except it uses the cached encode functions
 
1289
    to save a little bit of performance.
 
1290
 
 
1291
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
 
1292
        utf8 or None).
 
1293
    :param warn: Functions that are sanitizing user data can set warn=False
 
1294
    :return: None or a utf8 file id.
 
1295
    """
 
1296
    if (unicode_or_utf8_string is None
 
1297
        or unicode_or_utf8_string.__class__ == str):
 
1298
        return unicode_or_utf8_string
 
1299
    if warn:
 
1300
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
1301
                               stacklevel=2)
 
1302
    return cache_utf8.encode(unicode_or_utf8_string)
801
1303
 
802
1304
 
803
1305
_platform_normalizes_filenames = False
818
1320
 
819
1321
    On platforms where the system normalizes filenames (Mac OSX),
820
1322
    you can access a file by any path which will normalize correctly.
821
 
    On platforms where the system does not normalize filenames 
 
1323
    On platforms where the system does not normalize filenames
822
1324
    (Windows, Linux), you have to access a file by its exact path.
823
1325
 
824
 
    Internally, bzr only supports NFC/NFKC normalization, since that is 
 
1326
    Internally, bzr only supports NFC normalization, since that is
825
1327
    the standard for XML documents.
826
1328
 
827
1329
    So return the normalized path, and a flag indicating if the file
828
1330
    can be accessed by that path.
829
1331
    """
830
1332
 
831
 
    return unicodedata.normalize('NFKC', unicode(path)), True
 
1333
    return unicodedata.normalize('NFC', unicode(path)), True
832
1334
 
833
1335
 
834
1336
def _inaccessible_normalized_filename(path):
835
1337
    __doc__ = _accessible_normalized_filename.__doc__
836
1338
 
837
 
    normalized = unicodedata.normalize('NFKC', unicode(path))
 
1339
    normalized = unicodedata.normalize('NFC', unicode(path))
838
1340
    return normalized, normalized == path
839
1341
 
840
1342
 
844
1346
    normalized_filename = _inaccessible_normalized_filename
845
1347
 
846
1348
 
 
1349
default_terminal_width = 80
 
1350
"""The default terminal width for ttys.
 
1351
 
 
1352
This is defined so that higher levels can share a common fallback value when
 
1353
terminal_width() returns None.
 
1354
"""
 
1355
 
 
1356
 
847
1357
def terminal_width():
848
 
    """Return estimated terminal width."""
849
 
    if sys.platform == 'win32':
850
 
        import bzrlib.win32console
851
 
        return bzrlib.win32console.get_console_size()[0]
852
 
    width = 0
 
1358
    """Return terminal width.
 
1359
 
 
1360
    None is returned if the width can't established precisely.
 
1361
 
 
1362
    The rules are:
 
1363
    - if BZR_COLUMNS is set, returns its value
 
1364
    - if there is no controlling terminal, returns None
 
1365
    - if COLUMNS is set, returns its value,
 
1366
 
 
1367
    From there, we need to query the OS to get the size of the controlling
 
1368
    terminal.
 
1369
 
 
1370
    Unices:
 
1371
    - get termios.TIOCGWINSZ
 
1372
    - if an error occurs or a negative value is obtained, returns None
 
1373
 
 
1374
    Windows:
 
1375
    
 
1376
    - win32utils.get_console_size() decides,
 
1377
    - returns None on error (provided default value)
 
1378
    """
 
1379
 
 
1380
    # If BZR_COLUMNS is set, take it, user is always right
 
1381
    try:
 
1382
        return int(os.environ['BZR_COLUMNS'])
 
1383
    except (KeyError, ValueError):
 
1384
        pass
 
1385
 
 
1386
    isatty = getattr(sys.stdout, 'isatty', None)
 
1387
    if  isatty is None or not isatty():
 
1388
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
 
1389
        return None
 
1390
 
 
1391
    # If COLUMNS is set, take it, the terminal knows better (even inside a
 
1392
    # given terminal, the application can decide to set COLUMNS to a lower
 
1393
    # value (splitted screen) or a bigger value (scroll bars))
 
1394
    try:
 
1395
        return int(os.environ['COLUMNS'])
 
1396
    except (KeyError, ValueError):
 
1397
        pass
 
1398
 
 
1399
    width, height = _terminal_size(None, None)
 
1400
    if width <= 0:
 
1401
        # Consider invalid values as meaning no width
 
1402
        return None
 
1403
 
 
1404
    return width
 
1405
 
 
1406
 
 
1407
def _win32_terminal_size(width, height):
 
1408
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
 
1409
    return width, height
 
1410
 
 
1411
 
 
1412
def _ioctl_terminal_size(width, height):
853
1413
    try:
854
1414
        import struct, fcntl, termios
855
1415
        s = struct.pack('HHHH', 0, 0, 0, 0)
856
1416
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
857
 
        width = struct.unpack('HHHH', x)[1]
858
 
    except IOError:
 
1417
        height, width = struct.unpack('HHHH', x)[0:2]
 
1418
    except (IOError, AttributeError):
859
1419
        pass
860
 
    if width <= 0:
861
 
        try:
862
 
            width = int(os.environ['COLUMNS'])
863
 
        except:
864
 
            pass
865
 
    if width <= 0:
866
 
        width = 80
867
 
 
868
 
    return width
 
1420
    return width, height
 
1421
 
 
1422
_terminal_size = None
 
1423
"""Returns the terminal size as (width, height).
 
1424
 
 
1425
:param width: Default value for width.
 
1426
:param height: Default value for height.
 
1427
 
 
1428
This is defined specifically for each OS and query the size of the controlling
 
1429
terminal. If any error occurs, the provided default values should be returned.
 
1430
"""
 
1431
if sys.platform == 'win32':
 
1432
    _terminal_size = _win32_terminal_size
 
1433
else:
 
1434
    _terminal_size = _ioctl_terminal_size
 
1435
 
 
1436
 
 
1437
def _terminal_size_changed(signum, frame):
 
1438
    """Set COLUMNS upon receiving a SIGnal for WINdow size CHange."""
 
1439
    width, height = _terminal_size(None, None)
 
1440
    if width is not None:
 
1441
        os.environ['COLUMNS'] = str(width)
 
1442
 
 
1443
if sys.platform == 'win32':
 
1444
    # Martin (gz) mentioned WINDOW_BUFFER_SIZE_RECORD from ReadConsoleInput but
 
1445
    # I've no idea how to plug that in the current design -- vila 20091216
 
1446
    pass
 
1447
else:
 
1448
    signal.signal(signal.SIGWINCH, _terminal_size_changed)
869
1449
 
870
1450
 
871
1451
def supports_executable():
872
1452
    return sys.platform != "win32"
873
1453
 
874
1454
 
 
1455
def supports_posix_readonly():
 
1456
    """Return True if 'readonly' has POSIX semantics, False otherwise.
 
1457
 
 
1458
    Notably, a win32 readonly file cannot be deleted, unlike POSIX where the
 
1459
    directory controls creation/deletion, etc.
 
1460
 
 
1461
    And under win32, readonly means that the directory itself cannot be
 
1462
    deleted.  The contents of a readonly directory can be changed, unlike POSIX
 
1463
    where files in readonly directories cannot be added, deleted or renamed.
 
1464
    """
 
1465
    return sys.platform != "win32"
 
1466
 
 
1467
 
875
1468
def set_or_unset_env(env_variable, value):
876
1469
    """Modify the environment, setting or removing the env_variable.
877
1470
 
886
1479
            del os.environ[env_variable]
887
1480
    else:
888
1481
        if isinstance(value, unicode):
889
 
            value = value.encode(bzrlib.user_encoding)
 
1482
            value = value.encode(get_user_encoding())
890
1483
        os.environ[env_variable] = value
891
1484
    return orig_val
892
1485
 
895
1488
 
896
1489
 
897
1490
def check_legal_path(path):
898
 
    """Check whether the supplied path is legal.  
 
1491
    """Check whether the supplied path is legal.
899
1492
    This is only required on Windows, so we don't test on other platforms
900
1493
    right now.
901
1494
    """
902
1495
    if sys.platform != "win32":
903
1496
        return
904
1497
    if _validWin32PathRE.match(path) is None:
905
 
        raise IllegalPath(path)
 
1498
        raise errors.IllegalPath(path)
 
1499
 
 
1500
 
 
1501
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
 
1502
 
 
1503
def _is_error_enotdir(e):
 
1504
    """Check if this exception represents ENOTDIR.
 
1505
 
 
1506
    Unfortunately, python is very inconsistent about the exception
 
1507
    here. The cases are:
 
1508
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
 
1509
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
 
1510
         which is the windows error code.
 
1511
      3) Windows, Python2.5 uses errno == EINVAL and
 
1512
         winerror == ERROR_DIRECTORY
 
1513
 
 
1514
    :param e: An Exception object (expected to be OSError with an errno
 
1515
        attribute, but we should be able to cope with anything)
 
1516
    :return: True if this represents an ENOTDIR error. False otherwise.
 
1517
    """
 
1518
    en = getattr(e, 'errno', None)
 
1519
    if (en == errno.ENOTDIR
 
1520
        or (sys.platform == 'win32'
 
1521
            and (en == _WIN32_ERROR_DIRECTORY
 
1522
                 or (en == errno.EINVAL
 
1523
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
 
1524
        ))):
 
1525
        return True
 
1526
    return False
906
1527
 
907
1528
 
908
1529
def walkdirs(top, prefix=""):
909
1530
    """Yield data about all the directories in a tree.
910
 
    
 
1531
 
911
1532
    This yields all the data about the contents of a directory at a time.
912
1533
    After each directory has been yielded, if the caller has mutated the list
913
1534
    to exclude some directories, they are then not descended into.
914
 
    
 
1535
 
915
1536
    The data yielded is of the form:
916
1537
    ((directory-relpath, directory-path-from-top),
917
 
    [(relpath, basename, kind, lstat), ...]),
 
1538
    [(relpath, basename, kind, lstat, path-from-top), ...]),
918
1539
     - directory-relpath is the relative path of the directory being returned
919
1540
       with respect to top. prefix is prepended to this.
920
 
     - directory-path-from-root is the path including top for this directory. 
 
1541
     - directory-path-from-root is the path including top for this directory.
921
1542
       It is suitable for use with os functions.
922
1543
     - relpath is the relative path within the subtree being walked.
923
1544
     - basename is the basename of the path
925
1546
       present within the tree - but it may be recorded as versioned. See
926
1547
       versioned_kind.
927
1548
     - lstat is the stat data *if* the file was statted.
928
 
     - planned, not implemented: 
 
1549
     - planned, not implemented:
929
1550
       path_from_tree_root is the path from the root of the tree.
930
1551
 
931
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
 
1552
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
932
1553
        allows one to walk a subtree but get paths that are relative to a tree
933
1554
        rooted higher up.
934
1555
    :return: an iterator over the dirs.
935
1556
    """
936
1557
    #TODO there is a bit of a smell where the results of the directory-
937
 
    # summary in this, and the path from the root, may not agree 
 
1558
    # summary in this, and the path from the root, may not agree
938
1559
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
939
1560
    # potentially confusing output. We should make this more robust - but
940
1561
    # not at a speed cost. RBC 20060731
941
 
    lstat = os.lstat
942
 
    pending = []
 
1562
    _lstat = os.lstat
943
1563
    _directory = _directory_kind
944
 
    _listdir = listdir
945
 
    pending = [(prefix, "", _directory, None, top)]
 
1564
    _listdir = os.listdir
 
1565
    _kind_from_mode = file_kind_from_stat_mode
 
1566
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
946
1567
    while pending:
947
 
        dirblock = []
948
 
        currentdir = pending.pop()
949
1568
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
950
 
        top = currentdir[4]
951
 
        if currentdir[0]:
952
 
            relroot = currentdir[0] + '/'
953
 
        else:
954
 
            relroot = ""
 
1569
        relroot, _, _, _, top = pending.pop()
 
1570
        if relroot:
 
1571
            relprefix = relroot + u'/'
 
1572
        else:
 
1573
            relprefix = ''
 
1574
        top_slash = top + u'/'
 
1575
 
 
1576
        dirblock = []
 
1577
        append = dirblock.append
 
1578
        try:
 
1579
            names = sorted(_listdir(top))
 
1580
        except OSError, e:
 
1581
            if not _is_error_enotdir(e):
 
1582
                raise
 
1583
        else:
 
1584
            for name in names:
 
1585
                abspath = top_slash + name
 
1586
                statvalue = _lstat(abspath)
 
1587
                kind = _kind_from_mode(statvalue.st_mode)
 
1588
                append((relprefix + name, name, kind, statvalue, abspath))
 
1589
        yield (relroot, top), dirblock
 
1590
 
 
1591
        # push the user specified dirs from dirblock
 
1592
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1593
 
 
1594
 
 
1595
class DirReader(object):
 
1596
    """An interface for reading directories."""
 
1597
 
 
1598
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1599
        """Converts top and prefix to a starting dir entry
 
1600
 
 
1601
        :param top: A utf8 path
 
1602
        :param prefix: An optional utf8 path to prefix output relative paths
 
1603
            with.
 
1604
        :return: A tuple starting with prefix, and ending with the native
 
1605
            encoding of top.
 
1606
        """
 
1607
        raise NotImplementedError(self.top_prefix_to_starting_dir)
 
1608
 
 
1609
    def read_dir(self, prefix, top):
 
1610
        """Read a specific dir.
 
1611
 
 
1612
        :param prefix: A utf8 prefix to be preprended to the path basenames.
 
1613
        :param top: A natively encoded path to read.
 
1614
        :return: A list of the directories contents. Each item contains:
 
1615
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
 
1616
        """
 
1617
        raise NotImplementedError(self.read_dir)
 
1618
 
 
1619
 
 
1620
_selected_dir_reader = None
 
1621
 
 
1622
 
 
1623
def _walkdirs_utf8(top, prefix=""):
 
1624
    """Yield data about all the directories in a tree.
 
1625
 
 
1626
    This yields the same information as walkdirs() only each entry is yielded
 
1627
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
 
1628
    are returned as exact byte-strings.
 
1629
 
 
1630
    :return: yields a tuple of (dir_info, [file_info])
 
1631
        dir_info is (utf8_relpath, path-from-top)
 
1632
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
 
1633
        if top is an absolute path, path-from-top is also an absolute path.
 
1634
        path-from-top might be unicode or utf8, but it is the correct path to
 
1635
        pass to os functions to affect the file in question. (such as os.lstat)
 
1636
    """
 
1637
    global _selected_dir_reader
 
1638
    if _selected_dir_reader is None:
 
1639
        fs_encoding = _fs_enc.upper()
 
1640
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
 
1641
            # Win98 doesn't have unicode apis like FindFirstFileW
 
1642
            # TODO: We possibly could support Win98 by falling back to the
 
1643
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
 
1644
            #       but that gets a bit tricky, and requires custom compiling
 
1645
            #       for win98 anyway.
 
1646
            try:
 
1647
                from bzrlib._walkdirs_win32 import Win32ReadDir
 
1648
                _selected_dir_reader = Win32ReadDir()
 
1649
            except ImportError:
 
1650
                pass
 
1651
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
 
1652
            # ANSI_X3.4-1968 is a form of ASCII
 
1653
            try:
 
1654
                from bzrlib._readdir_pyx import UTF8DirReader
 
1655
                _selected_dir_reader = UTF8DirReader()
 
1656
            except ImportError, e:
 
1657
                failed_to_load_extension(e)
 
1658
                pass
 
1659
 
 
1660
    if _selected_dir_reader is None:
 
1661
        # Fallback to the python version
 
1662
        _selected_dir_reader = UnicodeDirReader()
 
1663
 
 
1664
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1665
    # But we don't actually uses 1-3 in pending, so set them to None
 
1666
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
 
1667
    read_dir = _selected_dir_reader.read_dir
 
1668
    _directory = _directory_kind
 
1669
    while pending:
 
1670
        relroot, _, _, _, top = pending[-1].pop()
 
1671
        if not pending[-1]:
 
1672
            pending.pop()
 
1673
        dirblock = sorted(read_dir(relroot, top))
 
1674
        yield (relroot, top), dirblock
 
1675
        # push the user specified dirs from dirblock
 
1676
        next = [d for d in reversed(dirblock) if d[2] == _directory]
 
1677
        if next:
 
1678
            pending.append(next)
 
1679
 
 
1680
 
 
1681
class UnicodeDirReader(DirReader):
 
1682
    """A dir reader for non-utf8 file systems, which transcodes."""
 
1683
 
 
1684
    __slots__ = ['_utf8_encode']
 
1685
 
 
1686
    def __init__(self):
 
1687
        self._utf8_encode = codecs.getencoder('utf8')
 
1688
 
 
1689
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1690
        """See DirReader.top_prefix_to_starting_dir."""
 
1691
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
 
1692
 
 
1693
    def read_dir(self, prefix, top):
 
1694
        """Read a single directory from a non-utf8 file system.
 
1695
 
 
1696
        top, and the abspath element in the output are unicode, all other paths
 
1697
        are utf8. Local disk IO is done via unicode calls to listdir etc.
 
1698
 
 
1699
        This is currently the fallback code path when the filesystem encoding is
 
1700
        not UTF-8. It may be better to implement an alternative so that we can
 
1701
        safely handle paths that are not properly decodable in the current
 
1702
        encoding.
 
1703
 
 
1704
        See DirReader.read_dir for details.
 
1705
        """
 
1706
        _utf8_encode = self._utf8_encode
 
1707
        _lstat = os.lstat
 
1708
        _listdir = os.listdir
 
1709
        _kind_from_mode = file_kind_from_stat_mode
 
1710
 
 
1711
        if prefix:
 
1712
            relprefix = prefix + '/'
 
1713
        else:
 
1714
            relprefix = ''
 
1715
        top_slash = top + u'/'
 
1716
 
 
1717
        dirblock = []
 
1718
        append = dirblock.append
955
1719
        for name in sorted(_listdir(top)):
956
 
            abspath = top + '/' + name
957
 
            statvalue = lstat(abspath)
958
 
            dirblock.append((relroot + name, name,
959
 
                file_kind_from_stat_mode(statvalue.st_mode),
960
 
                statvalue, abspath))
961
 
        yield (currentdir[0], top), dirblock
962
 
        # push the user specified dirs from dirblock
963
 
        for dir in reversed(dirblock):
964
 
            if dir[2] == _directory:
965
 
                pending.append(dir)
 
1720
            try:
 
1721
                name_utf8 = _utf8_encode(name)[0]
 
1722
            except UnicodeDecodeError:
 
1723
                raise errors.BadFilenameEncoding(
 
1724
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1725
            abspath = top_slash + name
 
1726
            statvalue = _lstat(abspath)
 
1727
            kind = _kind_from_mode(statvalue.st_mode)
 
1728
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
 
1729
        return dirblock
966
1730
 
967
1731
 
968
1732
def copy_tree(from_path, to_path, handlers={}):
969
1733
    """Copy all of the entries in from_path into to_path.
970
1734
 
971
 
    :param from_path: The base directory to copy. 
 
1735
    :param from_path: The base directory to copy.
972
1736
    :param to_path: The target directory. If it does not exist, it will
973
1737
        be created.
974
1738
    :param handlers: A dictionary of functions, which takes a source and
1025
1789
_cached_user_encoding = None
1026
1790
 
1027
1791
 
1028
 
def get_user_encoding():
 
1792
def get_user_encoding(use_cache=True):
1029
1793
    """Find out what the preferred user encoding is.
1030
1794
 
1031
1795
    This is generally the encoding that is used for command line parameters
1032
1796
    and file contents. This may be different from the terminal encoding
1033
1797
    or the filesystem encoding.
1034
1798
 
 
1799
    :param  use_cache:  Enable cache for detected encoding.
 
1800
                        (This parameter is turned on by default,
 
1801
                        and required only for selftesting)
 
1802
 
1035
1803
    :return: A string defining the preferred user encoding
1036
1804
    """
1037
1805
    global _cached_user_encoding
1038
 
    if _cached_user_encoding is not None:
 
1806
    if _cached_user_encoding is not None and use_cache:
1039
1807
        return _cached_user_encoding
1040
1808
 
1041
1809
    if sys.platform == 'darwin':
1042
 
        # work around egregious python 2.4 bug
 
1810
        # python locale.getpreferredencoding() always return
 
1811
        # 'mac-roman' on darwin. That's a lie.
1043
1812
        sys.platform = 'posix'
1044
1813
        try:
 
1814
            if os.environ.get('LANG', None) is None:
 
1815
                # If LANG is not set, we end up with 'ascii', which is bad
 
1816
                # ('mac-roman' is more than ascii), so we set a default which
 
1817
                # will give us UTF-8 (which appears to work in all cases on
 
1818
                # OSX). Users are still free to override LANG of course, as
 
1819
                # long as it give us something meaningful. This work-around
 
1820
                # *may* not be needed with python 3k and/or OSX 10.5, but will
 
1821
                # work with them too -- vila 20080908
 
1822
                os.environ['LANG'] = 'en_US.UTF-8'
1045
1823
            import locale
1046
1824
        finally:
1047
1825
            sys.platform = 'darwin'
1049
1827
        import locale
1050
1828
 
1051
1829
    try:
1052
 
        _cached_user_encoding = locale.getpreferredencoding()
 
1830
        user_encoding = locale.getpreferredencoding()
1053
1831
    except locale.Error, e:
1054
1832
        sys.stderr.write('bzr: warning: %s\n'
1055
1833
                         '  Could not determine what text encoding to use.\n'
1057
1835
                         '  doesn\'t support the locale set by $LANG (%s)\n'
1058
1836
                         "  Continuing with ascii encoding.\n"
1059
1837
                         % (e, os.environ.get('LANG')))
1060
 
 
1061
 
    if _cached_user_encoding is None:
1062
 
        _cached_user_encoding = 'ascii'
1063
 
    return _cached_user_encoding
 
1838
        user_encoding = 'ascii'
 
1839
 
 
1840
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
 
1841
    # treat that as ASCII, and not support printing unicode characters to the
 
1842
    # console.
 
1843
    #
 
1844
    # For python scripts run under vim, we get '', so also treat that as ASCII
 
1845
    if user_encoding in (None, 'cp0', ''):
 
1846
        user_encoding = 'ascii'
 
1847
    else:
 
1848
        # check encoding
 
1849
        try:
 
1850
            codecs.lookup(user_encoding)
 
1851
        except LookupError:
 
1852
            sys.stderr.write('bzr: warning:'
 
1853
                             ' unknown encoding %s.'
 
1854
                             ' Continuing with ascii encoding.\n'
 
1855
                             % user_encoding
 
1856
                            )
 
1857
            user_encoding = 'ascii'
 
1858
 
 
1859
    if use_cache:
 
1860
        _cached_user_encoding = user_encoding
 
1861
 
 
1862
    return user_encoding
 
1863
 
 
1864
 
 
1865
def get_host_name():
 
1866
    """Return the current unicode host name.
 
1867
 
 
1868
    This is meant to be used in place of socket.gethostname() because that
 
1869
    behaves inconsistently on different platforms.
 
1870
    """
 
1871
    if sys.platform == "win32":
 
1872
        import win32utils
 
1873
        return win32utils.get_host_name()
 
1874
    else:
 
1875
        import socket
 
1876
        return socket.gethostname().decode(get_user_encoding())
 
1877
 
 
1878
 
 
1879
def recv_all(socket, bytes):
 
1880
    """Receive an exact number of bytes.
 
1881
 
 
1882
    Regular Socket.recv() may return less than the requested number of bytes,
 
1883
    dependning on what's in the OS buffer.  MSG_WAITALL is not available
 
1884
    on all platforms, but this should work everywhere.  This will return
 
1885
    less than the requested amount if the remote end closes.
 
1886
 
 
1887
    This isn't optimized and is intended mostly for use in testing.
 
1888
    """
 
1889
    b = ''
 
1890
    while len(b) < bytes:
 
1891
        new = until_no_eintr(socket.recv, bytes - len(b))
 
1892
        if new == '':
 
1893
            break # eof
 
1894
        b += new
 
1895
    return b
 
1896
 
 
1897
 
 
1898
def send_all(socket, bytes, report_activity=None):
 
1899
    """Send all bytes on a socket.
 
1900
 
 
1901
    Regular socket.sendall() can give socket error 10053 on Windows.  This
 
1902
    implementation sends no more than 64k at a time, which avoids this problem.
 
1903
 
 
1904
    :param report_activity: Call this as bytes are read, see
 
1905
        Transport._report_activity
 
1906
    """
 
1907
    chunk_size = 2**16
 
1908
    for pos in xrange(0, len(bytes), chunk_size):
 
1909
        block = bytes[pos:pos+chunk_size]
 
1910
        if report_activity is not None:
 
1911
            report_activity(len(block), 'write')
 
1912
        until_no_eintr(socket.sendall, block)
 
1913
 
 
1914
 
 
1915
def dereference_path(path):
 
1916
    """Determine the real path to a file.
 
1917
 
 
1918
    All parent elements are dereferenced.  But the file itself is not
 
1919
    dereferenced.
 
1920
    :param path: The original path.  May be absolute or relative.
 
1921
    :return: the real path *to* the file
 
1922
    """
 
1923
    parent, base = os.path.split(path)
 
1924
    # The pathjoin for '.' is a workaround for Python bug #1213894.
 
1925
    # (initial path components aren't dereferenced)
 
1926
    return pathjoin(realpath(pathjoin('.', parent)), base)
 
1927
 
 
1928
 
 
1929
def supports_mapi():
 
1930
    """Return True if we can use MAPI to launch a mail client."""
 
1931
    return sys.platform == "win32"
 
1932
 
 
1933
 
 
1934
def resource_string(package, resource_name):
 
1935
    """Load a resource from a package and return it as a string.
 
1936
 
 
1937
    Note: Only packages that start with bzrlib are currently supported.
 
1938
 
 
1939
    This is designed to be a lightweight implementation of resource
 
1940
    loading in a way which is API compatible with the same API from
 
1941
    pkg_resources. See
 
1942
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
 
1943
    If and when pkg_resources becomes a standard library, this routine
 
1944
    can delegate to it.
 
1945
    """
 
1946
    # Check package name is within bzrlib
 
1947
    if package == "bzrlib":
 
1948
        resource_relpath = resource_name
 
1949
    elif package.startswith("bzrlib."):
 
1950
        package = package[len("bzrlib."):].replace('.', os.sep)
 
1951
        resource_relpath = pathjoin(package, resource_name)
 
1952
    else:
 
1953
        raise errors.BzrError('resource package %s not in bzrlib' % package)
 
1954
 
 
1955
    # Map the resource to a file and read its contents
 
1956
    base = dirname(bzrlib.__file__)
 
1957
    if getattr(sys, 'frozen', None):    # bzr.exe
 
1958
        base = abspath(pathjoin(base, '..', '..'))
 
1959
    filename = pathjoin(base, resource_relpath)
 
1960
    return open(filename, 'rU').read()
 
1961
 
 
1962
 
 
1963
def file_kind_from_stat_mode_thunk(mode):
 
1964
    global file_kind_from_stat_mode
 
1965
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
 
1966
        try:
 
1967
            from bzrlib._readdir_pyx import UTF8DirReader
 
1968
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
 
1969
        except ImportError, e:
 
1970
            # This is one time where we won't warn that an extension failed to
 
1971
            # load. The extension is never available on Windows anyway.
 
1972
            from bzrlib._readdir_py import (
 
1973
                _kind_from_mode as file_kind_from_stat_mode
 
1974
                )
 
1975
    return file_kind_from_stat_mode(mode)
 
1976
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
 
1977
 
 
1978
 
 
1979
def file_kind(f, _lstat=os.lstat):
 
1980
    try:
 
1981
        return file_kind_from_stat_mode(_lstat(f).st_mode)
 
1982
    except OSError, e:
 
1983
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
1984
            raise errors.NoSuchFile(f)
 
1985
        raise
 
1986
 
 
1987
 
 
1988
def until_no_eintr(f, *a, **kw):
 
1989
    """Run f(*a, **kw), retrying if an EINTR error occurs."""
 
1990
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
 
1991
    while True:
 
1992
        try:
 
1993
            return f(*a, **kw)
 
1994
        except (IOError, OSError), e:
 
1995
            if e.errno == errno.EINTR:
 
1996
                continue
 
1997
            raise
 
1998
 
 
1999
def re_compile_checked(re_string, flags=0, where=""):
 
2000
    """Return a compiled re, or raise a sensible error.
 
2001
 
 
2002
    This should only be used when compiling user-supplied REs.
 
2003
 
 
2004
    :param re_string: Text form of regular expression.
 
2005
    :param flags: eg re.IGNORECASE
 
2006
    :param where: Message explaining to the user the context where
 
2007
        it occurred, eg 'log search filter'.
 
2008
    """
 
2009
    # from https://bugs.launchpad.net/bzr/+bug/251352
 
2010
    try:
 
2011
        re_obj = re.compile(re_string, flags)
 
2012
        re_obj.search("")
 
2013
        return re_obj
 
2014
    except re.error, e:
 
2015
        if where:
 
2016
            where = ' in ' + where
 
2017
        # despite the name 'error' is a type
 
2018
        raise errors.BzrCommandError('Invalid regular expression%s: %r: %s'
 
2019
            % (where, re_string, e))
 
2020
 
 
2021
 
 
2022
if sys.platform == "win32":
 
2023
    import msvcrt
 
2024
    def getchar():
 
2025
        return msvcrt.getch()
 
2026
else:
 
2027
    import tty
 
2028
    import termios
 
2029
    def getchar():
 
2030
        fd = sys.stdin.fileno()
 
2031
        settings = termios.tcgetattr(fd)
 
2032
        try:
 
2033
            tty.setraw(fd)
 
2034
            ch = sys.stdin.read(1)
 
2035
        finally:
 
2036
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
 
2037
        return ch
 
2038
 
 
2039
 
 
2040
if sys.platform == 'linux2':
 
2041
    def _local_concurrency():
 
2042
        concurrency = None
 
2043
        prefix = 'processor'
 
2044
        for line in file('/proc/cpuinfo', 'rb'):
 
2045
            if line.startswith(prefix):
 
2046
                concurrency = int(line[line.find(':')+1:]) + 1
 
2047
        return concurrency
 
2048
elif sys.platform == 'darwin':
 
2049
    def _local_concurrency():
 
2050
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
 
2051
                                stdout=subprocess.PIPE).communicate()[0]
 
2052
elif sys.platform[0:7] == 'freebsd':
 
2053
    def _local_concurrency():
 
2054
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
 
2055
                                stdout=subprocess.PIPE).communicate()[0]
 
2056
elif sys.platform == 'sunos5':
 
2057
    def _local_concurrency():
 
2058
        return subprocess.Popen(['psrinfo', '-p',],
 
2059
                                stdout=subprocess.PIPE).communicate()[0]
 
2060
elif sys.platform == "win32":
 
2061
    def _local_concurrency():
 
2062
        # This appears to return the number of cores.
 
2063
        return os.environ.get('NUMBER_OF_PROCESSORS')
 
2064
else:
 
2065
    def _local_concurrency():
 
2066
        # Who knows ?
 
2067
        return None
 
2068
 
 
2069
 
 
2070
_cached_local_concurrency = None
 
2071
 
 
2072
def local_concurrency(use_cache=True):
 
2073
    """Return how many processes can be run concurrently.
 
2074
 
 
2075
    Rely on platform specific implementations and default to 1 (one) if
 
2076
    anything goes wrong.
 
2077
    """
 
2078
    global _cached_local_concurrency
 
2079
 
 
2080
    if _cached_local_concurrency is not None and use_cache:
 
2081
        return _cached_local_concurrency
 
2082
 
 
2083
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
 
2084
    if concurrency is None:
 
2085
        try:
 
2086
            concurrency = _local_concurrency()
 
2087
        except (OSError, IOError):
 
2088
            pass
 
2089
    try:
 
2090
        concurrency = int(concurrency)
 
2091
    except (TypeError, ValueError):
 
2092
        concurrency = 1
 
2093
    if use_cache:
 
2094
        _cached_concurrency = concurrency
 
2095
    return concurrency
 
2096
 
 
2097
 
 
2098
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
 
2099
    """A stream writer that doesn't decode str arguments."""
 
2100
 
 
2101
    def __init__(self, encode, stream, errors='strict'):
 
2102
        codecs.StreamWriter.__init__(self, stream, errors)
 
2103
        self.encode = encode
 
2104
 
 
2105
    def write(self, object):
 
2106
        if type(object) is str:
 
2107
            self.stream.write(object)
 
2108
        else:
 
2109
            data, _ = self.encode(object, self.errors)
 
2110
            self.stream.write(data)