/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Ian Clatworthy
  • Date: 2010-03-30 20:13:52 UTC
  • mto: This revision was merged to the branch mainline in revision 5125.
  • Revision ID: ian.clatworthy@canonical.com-20100330201352-vw2gtujybyg3rvwc
whitespace fix in win32 installer

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Bazaar -- distributed version control
2
 
#
3
 
# Copyright (C) 2005 by Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
4
2
#
5
3
# This program is free software; you can redistribute it and/or modify
6
4
# it under the terms of the GNU General Public License as published by
14
12
#
15
13
# You should have received a copy of the GNU General Public License
16
14
# along with this program; if not, write to the Free Software
17
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
18
 
 
19
 
from cStringIO import StringIO
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
import os
 
18
import re
 
19
import stat
 
20
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
21
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
 
22
import sys
 
23
import time
 
24
import codecs
 
25
import warnings
 
26
 
 
27
from bzrlib.lazy_import import lazy_import
 
28
lazy_import(globals(), """
 
29
from datetime import datetime
20
30
import errno
21
31
from ntpath import (abspath as _nt_abspath,
22
32
                    join as _nt_join,
24
34
                    realpath as _nt_realpath,
25
35
                    splitdrive as _nt_splitdrive,
26
36
                    )
27
 
import os
28
 
from os import listdir
29
37
import posixpath
30
 
import re
31
 
import sha
32
38
import shutil
33
 
from shutil import copyfile
34
 
import stat
35
 
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
36
 
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
37
 
import string
38
 
import sys
39
 
import time
40
 
import types
 
39
from shutil import (
 
40
    rmtree,
 
41
    )
 
42
import signal
 
43
import socket
 
44
import subprocess
41
45
import tempfile
 
46
from tempfile import (
 
47
    mkdtemp,
 
48
    )
42
49
import unicodedata
43
50
 
 
51
from bzrlib import (
 
52
    cache_utf8,
 
53
    errors,
 
54
    trace,
 
55
    win32utils,
 
56
    )
 
57
""")
 
58
 
 
59
from bzrlib.symbol_versioning import (
 
60
    deprecated_function,
 
61
    deprecated_in,
 
62
    )
 
63
 
 
64
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
 
65
# of 2.5
 
66
if sys.version_info < (2, 5):
 
67
    import md5 as _mod_md5
 
68
    md5 = _mod_md5.new
 
69
    import sha as _mod_sha
 
70
    sha = _mod_sha.new
 
71
else:
 
72
    from hashlib import (
 
73
        md5,
 
74
        sha1 as sha,
 
75
        )
 
76
 
 
77
 
44
78
import bzrlib
45
 
from bzrlib.errors import (BzrError,
46
 
                           BzrBadParameterNotUnicode,
47
 
                           NoSuchFile,
48
 
                           PathNotChild,
49
 
                           IllegalPath,
50
 
                           )
51
 
from bzrlib.symbol_versioning import (deprecated_function, 
52
 
        zero_nine)
53
 
from bzrlib.trace import mutter
54
 
 
 
79
from bzrlib import symbol_versioning
 
80
 
 
81
 
 
82
# Cross platform wall-clock time functionality with decent resolution.
 
83
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
 
84
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
 
85
# synchronized with ``time.time()``, this is only meant to be used to find
 
86
# delta times by subtracting from another call to this function.
 
87
timer_func = time.time
 
88
if sys.platform == 'win32':
 
89
    timer_func = time.clock
55
90
 
56
91
# On win32, O_BINARY is used to indicate the file should
57
92
# be opened in binary mode, rather than text mode.
58
93
# On other platforms, O_BINARY doesn't exist, because
59
94
# they always open in binary mode, so it is okay to
60
 
# OR with 0 on those platforms
 
95
# OR with 0 on those platforms.
 
96
# O_NOINHERIT and O_TEXT exists only on win32 too.
61
97
O_BINARY = getattr(os, 'O_BINARY', 0)
 
98
O_TEXT = getattr(os, 'O_TEXT', 0)
 
99
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
 
100
 
 
101
 
 
102
def get_unicode_argv():
 
103
    try:
 
104
        user_encoding = get_user_encoding()
 
105
        return [a.decode(user_encoding) for a in sys.argv[1:]]
 
106
    except UnicodeDecodeError:
 
107
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
 
108
                                                            "encoding." % a))
62
109
 
63
110
 
64
111
def make_readonly(filename):
65
112
    """Make a filename read-only."""
66
 
    mod = os.stat(filename).st_mode
67
 
    mod = mod & 0777555
68
 
    os.chmod(filename, mod)
 
113
    mod = os.lstat(filename).st_mode
 
114
    if not stat.S_ISLNK(mod):
 
115
        mod = mod & 0777555
 
116
        os.chmod(filename, mod)
69
117
 
70
118
 
71
119
def make_writable(filename):
72
 
    mod = os.stat(filename).st_mode
73
 
    mod = mod | 0200
74
 
    os.chmod(filename, mod)
 
120
    mod = os.lstat(filename).st_mode
 
121
    if not stat.S_ISLNK(mod):
 
122
        mod = mod | 0200
 
123
        os.chmod(filename, mod)
 
124
 
 
125
 
 
126
def minimum_path_selection(paths):
 
127
    """Return the smallset subset of paths which are outside paths.
 
128
 
 
129
    :param paths: A container (and hence not None) of paths.
 
130
    :return: A set of paths sufficient to include everything in paths via
 
131
        is_inside, drawn from the paths parameter.
 
132
    """
 
133
    if len(paths) < 2:
 
134
        return set(paths)
 
135
 
 
136
    def sort_key(path):
 
137
        return path.split('/')
 
138
    sorted_paths = sorted(list(paths), key=sort_key)
 
139
 
 
140
    search_paths = [sorted_paths[0]]
 
141
    for path in sorted_paths[1:]:
 
142
        if not is_inside(search_paths[-1], path):
 
143
            # This path is unique, add it
 
144
            search_paths.append(path)
 
145
 
 
146
    return set(search_paths)
75
147
 
76
148
 
77
149
_QUOTE_RE = None
86
158
    global _QUOTE_RE
87
159
    if _QUOTE_RE is None:
88
160
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
89
 
        
 
161
 
90
162
    if _QUOTE_RE.search(f):
91
163
        return '"' + f + '"'
92
164
    else:
95
167
 
96
168
_directory_kind = 'directory'
97
169
 
98
 
_formats = {
99
 
    stat.S_IFDIR:_directory_kind,
100
 
    stat.S_IFCHR:'chardev',
101
 
    stat.S_IFBLK:'block',
102
 
    stat.S_IFREG:'file',
103
 
    stat.S_IFIFO:'fifo',
104
 
    stat.S_IFLNK:'symlink',
105
 
    stat.S_IFSOCK:'socket',
106
 
}
107
 
 
108
 
 
109
 
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
110
 
    """Generate a file kind from a stat mode. This is used in walkdirs.
111
 
 
112
 
    Its performance is critical: Do not mutate without careful benchmarking.
113
 
    """
114
 
    try:
115
 
        return _formats[stat_mode & 0170000]
116
 
    except KeyError:
117
 
        return _unknown
118
 
 
119
 
 
120
 
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
121
 
    try:
122
 
        return _mapper(_lstat(f).st_mode)
123
 
    except OSError, e:
124
 
        if getattr(e, 'errno', None) == errno.ENOENT:
125
 
            raise bzrlib.errors.NoSuchFile(f)
126
 
        raise
127
 
 
128
 
 
129
170
def get_umask():
130
171
    """Return the current umask"""
131
172
    # Assume that people aren't messing with the umask while running
136
177
    return umask
137
178
 
138
179
 
 
180
_kind_marker_map = {
 
181
    "file": "",
 
182
    _directory_kind: "/",
 
183
    "symlink": "@",
 
184
    'tree-reference': '+',
 
185
}
 
186
 
 
187
 
139
188
def kind_marker(kind):
140
 
    if kind == 'file':
 
189
    try:
 
190
        return _kind_marker_map[kind]
 
191
    except KeyError:
 
192
        # Slightly faster than using .get(, '') when the common case is that
 
193
        # kind will be found
141
194
        return ''
142
 
    elif kind == _directory_kind:
143
 
        return '/'
144
 
    elif kind == 'symlink':
145
 
        return '@'
146
 
    else:
147
 
        raise BzrError('invalid file kind %r' % kind)
 
195
 
148
196
 
149
197
lexists = getattr(os.path, 'lexists', None)
150
198
if lexists is None:
151
199
    def lexists(f):
152
200
        try:
153
 
            if getattr(os, 'lstat') is not None:
154
 
                os.lstat(f)
155
 
            else:
156
 
                os.stat(f)
 
201
            stat = getattr(os, 'lstat', os.stat)
 
202
            stat(f)
157
203
            return True
158
 
        except OSError,e:
 
204
        except OSError, e:
159
205
            if e.errno == errno.ENOENT:
160
206
                return False;
161
207
            else:
162
 
                raise BzrError("lstat/stat of (%r): %r" % (f, e))
 
208
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
163
209
 
164
210
 
165
211
def fancy_rename(old, new, rename_func, unlink_func):
166
212
    """A fancy rename, when you don't have atomic rename.
167
 
    
 
213
 
168
214
    :param old: The old path, to rename from
169
215
    :param new: The new path, to rename to
170
216
    :param rename_func: The potentially non-atomic rename function
171
 
    :param unlink_func: A way to delete the target file if the full rename succeeds
 
217
    :param unlink_func: A way to delete the target file if the full rename
 
218
        succeeds
172
219
    """
173
 
 
174
220
    # sftp rename doesn't allow overwriting, so play tricks:
175
 
    import random
176
221
    base = os.path.basename(new)
177
222
    dirname = os.path.dirname(new)
178
 
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
 
223
    # callers use different encodings for the paths so the following MUST
 
224
    # respect that. We rely on python upcasting to unicode if new is unicode
 
225
    # and keeping a str if not.
 
226
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
 
227
                                      os.getpid(), rand_chars(10))
179
228
    tmp_name = pathjoin(dirname, tmp_name)
180
229
 
181
230
    # Rename the file out of the way, but keep track if it didn't exist
186
235
    file_existed = False
187
236
    try:
188
237
        rename_func(new, tmp_name)
189
 
    except (NoSuchFile,), e:
 
238
    except (errors.NoSuchFile,), e:
190
239
        pass
191
240
    except IOError, e:
192
241
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
201
250
    else:
202
251
        file_existed = True
203
252
 
 
253
    failure_exc = None
204
254
    success = False
205
255
    try:
206
 
        # This may throw an exception, in which case success will
207
 
        # not be set.
208
 
        rename_func(old, new)
209
 
        success = True
 
256
        try:
 
257
            # This may throw an exception, in which case success will
 
258
            # not be set.
 
259
            rename_func(old, new)
 
260
            success = True
 
261
        except (IOError, OSError), e:
 
262
            # source and target may be aliases of each other (e.g. on a
 
263
            # case-insensitive filesystem), so we may have accidentally renamed
 
264
            # source by when we tried to rename target
 
265
            failure_exc = sys.exc_info()
 
266
            if (file_existed and e.errno in (None, errno.ENOENT)
 
267
                and old.lower() == new.lower()):
 
268
                # source and target are the same file on a case-insensitive
 
269
                # filesystem, so we don't generate an exception
 
270
                failure_exc = None
210
271
    finally:
211
272
        if file_existed:
212
273
            # If the file used to exist, rename it back into place
215
276
                unlink_func(tmp_name)
216
277
            else:
217
278
                rename_func(tmp_name, new)
 
279
    if failure_exc is not None:
 
280
        raise failure_exc[0], failure_exc[1], failure_exc[2]
218
281
 
219
282
 
220
283
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
221
284
# choke on a Unicode string containing a relative path if
222
285
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
223
286
# string.
224
 
_fs_enc = sys.getfilesystemencoding()
 
287
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
225
288
def _posix_abspath(path):
226
289
    # jam 20060426 rather than encoding to fsencoding
227
290
    # copy posixpath.abspath, but use os.getcwdu instead
252
315
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
253
316
 
254
317
 
 
318
def _win98_abspath(path):
 
319
    """Return the absolute version of a path.
 
320
    Windows 98 safe implementation (python reimplementation
 
321
    of Win32 API function GetFullPathNameW)
 
322
    """
 
323
    # Corner cases:
 
324
    #   C:\path     => C:/path
 
325
    #   C:/path     => C:/path
 
326
    #   \\HOST\path => //HOST/path
 
327
    #   //HOST/path => //HOST/path
 
328
    #   path        => C:/cwd/path
 
329
    #   /path       => C:/path
 
330
    path = unicode(path)
 
331
    # check for absolute path
 
332
    drive = _nt_splitdrive(path)[0]
 
333
    if drive == '' and path[:2] not in('//','\\\\'):
 
334
        cwd = os.getcwdu()
 
335
        # we cannot simply os.path.join cwd and path
 
336
        # because os.path.join('C:','/path') produce '/path'
 
337
        # and this is incorrect
 
338
        if path[:1] in ('/','\\'):
 
339
            cwd = _nt_splitdrive(cwd)[0]
 
340
            path = path[1:]
 
341
        path = cwd + '\\' + path
 
342
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
 
343
 
 
344
 
255
345
def _win32_realpath(path):
256
346
    # Real _nt_realpath doesn't have a problem with a unicode cwd
257
347
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
277
367
    """We expect to be able to atomically replace 'new' with old.
278
368
 
279
369
    On win32, if new exists, it must be moved out of the way first,
280
 
    and then deleted. 
 
370
    and then deleted.
281
371
    """
282
372
    try:
283
373
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
284
374
    except OSError, e:
285
375
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
286
 
            # If we try to rename a non-existant file onto cwd, we get 
287
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
 
376
            # If we try to rename a non-existant file onto cwd, we get
 
377
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
288
378
            # if the old path doesn't exist, sometimes we get EACCES
289
379
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
290
380
            os.lstat(old)
292
382
 
293
383
 
294
384
def _mac_getcwd():
295
 
    return unicodedata.normalize('NFKC', os.getcwdu())
 
385
    return unicodedata.normalize('NFC', os.getcwdu())
296
386
 
297
387
 
298
388
# Default is to just use the python builtins, but these can be rebound on
302
392
pathjoin = os.path.join
303
393
normpath = os.path.normpath
304
394
getcwd = os.getcwdu
305
 
mkdtemp = tempfile.mkdtemp
306
395
rename = os.rename
307
396
dirname = os.path.dirname
308
397
basename = os.path.basename
309
 
rmtree = shutil.rmtree
 
398
split = os.path.split
 
399
splitext = os.path.splitext
 
400
# These were already imported into local scope
 
401
# mkdtemp = tempfile.mkdtemp
 
402
# rmtree = shutil.rmtree
310
403
 
311
404
MIN_ABS_PATHLENGTH = 1
312
405
 
313
406
 
314
407
if sys.platform == 'win32':
315
 
    abspath = _win32_abspath
 
408
    if win32utils.winver == 'Windows 98':
 
409
        abspath = _win98_abspath
 
410
    else:
 
411
        abspath = _win32_abspath
316
412
    realpath = _win32_realpath
317
413
    pathjoin = _win32_pathjoin
318
414
    normpath = _win32_normpath
326
422
        """Error handler for shutil.rmtree function [for win32]
327
423
        Helps to remove files and dirs marked as read-only.
328
424
        """
329
 
        type_, value = excinfo[:2]
 
425
        exception = excinfo[1]
330
426
        if function in (os.remove, os.rmdir) \
331
 
            and type_ == OSError \
332
 
            and value.errno == errno.EACCES:
333
 
            bzrlib.osutils.make_writable(path)
 
427
            and isinstance(exception, OSError) \
 
428
            and exception.errno == errno.EACCES:
 
429
            make_writable(path)
334
430
            function(path)
335
431
        else:
336
432
            raise
338
434
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
339
435
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
340
436
        return shutil.rmtree(path, ignore_errors, onerror)
 
437
 
 
438
    f = win32utils.get_unicode_argv     # special function or None
 
439
    if f is not None:
 
440
        get_unicode_argv = f
 
441
 
341
442
elif sys.platform == 'darwin':
342
443
    getcwd = _mac_getcwd
343
444
 
347
448
 
348
449
    This attempts to check both sys.stdout and sys.stdin to see
349
450
    what encoding they are in, and if that fails it falls back to
350
 
    bzrlib.user_encoding.
 
451
    osutils.get_user_encoding().
351
452
    The problem is that on Windows, locale.getpreferredencoding()
352
453
    is not the same encoding as that used by the console:
353
454
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
355
456
    On my standard US Windows XP, the preferred encoding is
356
457
    cp1252, but the console is cp437
357
458
    """
 
459
    from bzrlib.trace import mutter
358
460
    output_encoding = getattr(sys.stdout, 'encoding', None)
359
461
    if not output_encoding:
360
462
        input_encoding = getattr(sys.stdin, 'encoding', None)
361
463
        if not input_encoding:
362
 
            output_encoding = bzrlib.user_encoding
363
 
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
 
464
            output_encoding = get_user_encoding()
 
465
            mutter('encoding stdout as osutils.get_user_encoding() %r',
 
466
                   output_encoding)
364
467
        else:
365
468
            output_encoding = input_encoding
366
469
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
367
470
    else:
368
471
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
472
    if output_encoding == 'cp0':
 
473
        # invalid encoding (cp0 means 'no codepage' on Windows)
 
474
        output_encoding = get_user_encoding()
 
475
        mutter('cp0 is invalid encoding.'
 
476
               ' encoding stdout as osutils.get_user_encoding() %r',
 
477
               output_encoding)
 
478
    # check encoding
 
479
    try:
 
480
        codecs.lookup(output_encoding)
 
481
    except LookupError:
 
482
        sys.stderr.write('bzr: warning:'
 
483
                         ' unknown terminal encoding %s.\n'
 
484
                         '  Using encoding %s instead.\n'
 
485
                         % (output_encoding, get_user_encoding())
 
486
                        )
 
487
        output_encoding = get_user_encoding()
 
488
 
369
489
    return output_encoding
370
490
 
371
491
 
381
501
        return pathjoin(F(p), e)
382
502
 
383
503
 
384
 
def backup_file(fn):
385
 
    """Copy a file to a backup.
386
 
 
387
 
    Backups are named in GNU-style, with a ~ suffix.
388
 
 
389
 
    If the file is already a backup, it's not copied.
390
 
    """
391
 
    if fn[-1] == '~':
392
 
        return
393
 
    bfn = fn + '~'
394
 
 
395
 
    if has_symlinks() and os.path.islink(fn):
396
 
        target = os.readlink(fn)
397
 
        os.symlink(target, bfn)
398
 
        return
399
 
    inf = file(fn, 'rb')
400
 
    try:
401
 
        content = inf.read()
402
 
    finally:
403
 
        inf.close()
404
 
    
405
 
    outf = file(bfn, 'wb')
406
 
    try:
407
 
        outf.write(content)
408
 
    finally:
409
 
        outf.close()
410
 
 
411
 
 
412
504
def isdir(f):
413
505
    """True if f is an accessible directory."""
414
506
    try:
433
525
 
434
526
def is_inside(dir, fname):
435
527
    """True if fname is inside dir.
436
 
    
 
528
 
437
529
    The parameters should typically be passed to osutils.normpath first, so
438
530
    that . and .. and repeated slashes are eliminated, and the separators
439
531
    are canonical for the platform.
440
 
    
441
 
    The empty string as a dir name is taken as top-of-tree and matches 
 
532
 
 
533
    The empty string as a dir name is taken as top-of-tree and matches
442
534
    everything.
443
 
    
444
 
    >>> is_inside('src', pathjoin('src', 'foo.c'))
445
 
    True
446
 
    >>> is_inside('src', 'srccontrol')
447
 
    False
448
 
    >>> is_inside('src', pathjoin('src', 'a', 'a', 'a', 'foo.c'))
449
 
    True
450
 
    >>> is_inside('foo.c', 'foo.c')
451
 
    True
452
 
    >>> is_inside('foo.c', '')
453
 
    False
454
 
    >>> is_inside('', 'foo.c')
455
 
    True
456
535
    """
457
 
    # XXX: Most callers of this can actually do something smarter by 
 
536
    # XXX: Most callers of this can actually do something smarter by
458
537
    # looking at the inventory
459
538
    if dir == fname:
460
539
        return True
461
 
    
 
540
 
462
541
    if dir == '':
463
542
        return True
464
543
 
473
552
    for dirname in dir_list:
474
553
        if is_inside(dirname, fname):
475
554
            return True
476
 
    else:
477
 
        return False
 
555
    return False
478
556
 
479
557
 
480
558
def is_inside_or_parent_of_any(dir_list, fname):
482
560
    for dirname in dir_list:
483
561
        if is_inside(dirname, fname) or is_inside(fname, dirname):
484
562
            return True
 
563
    return False
 
564
 
 
565
 
 
566
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
 
567
             report_activity=None, direction='read'):
 
568
    """Copy contents of one file to another.
 
569
 
 
570
    The read_length can either be -1 to read to end-of-file (EOF) or
 
571
    it can specify the maximum number of bytes to read.
 
572
 
 
573
    The buff_size represents the maximum size for each read operation
 
574
    performed on from_file.
 
575
 
 
576
    :param report_activity: Call this as bytes are read, see
 
577
        Transport._report_activity
 
578
    :param direction: Will be passed to report_activity
 
579
 
 
580
    :return: The number of bytes copied.
 
581
    """
 
582
    length = 0
 
583
    if read_length >= 0:
 
584
        # read specified number of bytes
 
585
 
 
586
        while read_length > 0:
 
587
            num_bytes_to_read = min(read_length, buff_size)
 
588
 
 
589
            block = from_file.read(num_bytes_to_read)
 
590
            if not block:
 
591
                # EOF reached
 
592
                break
 
593
            if report_activity is not None:
 
594
                report_activity(len(block), direction)
 
595
            to_file.write(block)
 
596
 
 
597
            actual_bytes_read = len(block)
 
598
            read_length -= actual_bytes_read
 
599
            length += actual_bytes_read
485
600
    else:
486
 
        return False
487
 
 
488
 
 
489
 
def pumpfile(fromfile, tofile):
490
 
    """Copy contents of one file to another."""
491
 
    BUFSIZE = 32768
492
 
    while True:
493
 
        b = fromfile.read(BUFSIZE)
494
 
        if not b:
495
 
            break
496
 
        tofile.write(b)
 
601
        # read to EOF
 
602
        while True:
 
603
            block = from_file.read(buff_size)
 
604
            if not block:
 
605
                # EOF reached
 
606
                break
 
607
            if report_activity is not None:
 
608
                report_activity(len(block), direction)
 
609
            to_file.write(block)
 
610
            length += len(block)
 
611
    return length
 
612
 
 
613
 
 
614
def pump_string_file(bytes, file_handle, segment_size=None):
 
615
    """Write bytes to file_handle in many smaller writes.
 
616
 
 
617
    :param bytes: The string to write.
 
618
    :param file_handle: The file to write to.
 
619
    """
 
620
    # Write data in chunks rather than all at once, because very large
 
621
    # writes fail on some platforms (e.g. Windows with SMB  mounted
 
622
    # drives).
 
623
    if not segment_size:
 
624
        segment_size = 5242880 # 5MB
 
625
    segments = range(len(bytes) / segment_size + 1)
 
626
    write = file_handle.write
 
627
    for segment_index in segments:
 
628
        segment = buffer(bytes, segment_index * segment_size, segment_size)
 
629
        write(segment)
497
630
 
498
631
 
499
632
def file_iterator(input_file, readsize=32768):
505
638
 
506
639
 
507
640
def sha_file(f):
508
 
    if getattr(f, 'tell', None) is not None:
509
 
        assert f.tell() == 0
510
 
    s = sha.new()
 
641
    """Calculate the hexdigest of an open file.
 
642
 
 
643
    The file cursor should be already at the start.
 
644
    """
 
645
    s = sha()
511
646
    BUFSIZE = 128<<10
512
647
    while True:
513
648
        b = f.read(BUFSIZE)
517
652
    return s.hexdigest()
518
653
 
519
654
 
520
 
 
521
 
def sha_strings(strings):
 
655
def size_sha_file(f):
 
656
    """Calculate the size and hexdigest of an open file.
 
657
 
 
658
    The file cursor should be already at the start and
 
659
    the caller is responsible for closing the file afterwards.
 
660
    """
 
661
    size = 0
 
662
    s = sha()
 
663
    BUFSIZE = 128<<10
 
664
    while True:
 
665
        b = f.read(BUFSIZE)
 
666
        if not b:
 
667
            break
 
668
        size += len(b)
 
669
        s.update(b)
 
670
    return size, s.hexdigest()
 
671
 
 
672
 
 
673
def sha_file_by_name(fname):
 
674
    """Calculate the SHA1 of a file by reading the full text"""
 
675
    s = sha()
 
676
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
 
677
    try:
 
678
        while True:
 
679
            b = os.read(f, 1<<16)
 
680
            if not b:
 
681
                return s.hexdigest()
 
682
            s.update(b)
 
683
    finally:
 
684
        os.close(f)
 
685
 
 
686
 
 
687
def sha_strings(strings, _factory=sha):
522
688
    """Return the sha-1 of concatenation of strings"""
523
 
    s = sha.new()
 
689
    s = _factory()
524
690
    map(s.update, strings)
525
691
    return s.hexdigest()
526
692
 
527
693
 
528
 
def sha_string(f):
529
 
    s = sha.new()
530
 
    s.update(f)
531
 
    return s.hexdigest()
 
694
def sha_string(f, _factory=sha):
 
695
    return _factory(f).hexdigest()
532
696
 
533
697
 
534
698
def fingerprint_file(f):
535
 
    s = sha.new()
536
699
    b = f.read()
537
 
    s.update(b)
538
 
    size = len(b)
539
 
    return {'size': size,
540
 
            'sha1': s.hexdigest()}
 
700
    return {'size': len(b),
 
701
            'sha1': sha(b).hexdigest()}
541
702
 
542
703
 
543
704
def compare_files(a, b):
554
715
 
555
716
def local_time_offset(t=None):
556
717
    """Return offset of local zone from GMT, either at present or at time t."""
557
 
    # python2.3 localtime() can't take None
558
718
    if t is None:
559
719
        t = time.time()
560
 
        
561
 
    if time.localtime(t).tm_isdst and time.daylight:
562
 
        return -time.altzone
563
 
    else:
564
 
        return -time.timezone
565
 
 
566
 
    
567
 
def format_date(t, offset=0, timezone='original', date_fmt=None, 
 
720
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
 
721
    return offset.days * 86400 + offset.seconds
 
722
 
 
723
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
 
724
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
 
725
 
 
726
 
 
727
def format_date(t, offset=0, timezone='original', date_fmt=None,
568
728
                show_offset=True):
569
 
    ## TODO: Perhaps a global option to use either universal or local time?
570
 
    ## Or perhaps just let people set $TZ?
571
 
    assert isinstance(t, float)
572
 
    
 
729
    """Return a formatted date string.
 
730
 
 
731
    :param t: Seconds since the epoch.
 
732
    :param offset: Timezone offset in seconds east of utc.
 
733
    :param timezone: How to display the time: 'utc', 'original' for the
 
734
         timezone specified by offset, or 'local' for the process's current
 
735
         timezone.
 
736
    :param date_fmt: strftime format.
 
737
    :param show_offset: Whether to append the timezone.
 
738
    """
 
739
    (date_fmt, tt, offset_str) = \
 
740
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
741
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
742
    date_str = time.strftime(date_fmt, tt)
 
743
    return date_str + offset_str
 
744
 
 
745
 
 
746
# Cache of formatted offset strings
 
747
_offset_cache = {}
 
748
 
 
749
 
 
750
def format_date_with_offset_in_original_timezone(t, offset=0,
 
751
    _cache=_offset_cache):
 
752
    """Return a formatted date string in the original timezone.
 
753
 
 
754
    This routine may be faster then format_date.
 
755
 
 
756
    :param t: Seconds since the epoch.
 
757
    :param offset: Timezone offset in seconds east of utc.
 
758
    """
 
759
    if offset is None:
 
760
        offset = 0
 
761
    tt = time.gmtime(t + offset)
 
762
    date_fmt = _default_format_by_weekday_num[tt[6]]
 
763
    date_str = time.strftime(date_fmt, tt)
 
764
    offset_str = _cache.get(offset, None)
 
765
    if offset_str is None:
 
766
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
 
767
        _cache[offset] = offset_str
 
768
    return date_str + offset_str
 
769
 
 
770
 
 
771
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
 
772
                      show_offset=True):
 
773
    """Return an unicode date string formatted according to the current locale.
 
774
 
 
775
    :param t: Seconds since the epoch.
 
776
    :param offset: Timezone offset in seconds east of utc.
 
777
    :param timezone: How to display the time: 'utc', 'original' for the
 
778
         timezone specified by offset, or 'local' for the process's current
 
779
         timezone.
 
780
    :param date_fmt: strftime format.
 
781
    :param show_offset: Whether to append the timezone.
 
782
    """
 
783
    (date_fmt, tt, offset_str) = \
 
784
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
785
    date_str = time.strftime(date_fmt, tt)
 
786
    if not isinstance(date_str, unicode):
 
787
        date_str = date_str.decode(get_user_encoding(), 'replace')
 
788
    return date_str + offset_str
 
789
 
 
790
 
 
791
def _format_date(t, offset, timezone, date_fmt, show_offset):
573
792
    if timezone == 'utc':
574
793
        tt = time.gmtime(t)
575
794
        offset = 0
581
800
        tt = time.localtime(t)
582
801
        offset = local_time_offset(t)
583
802
    else:
584
 
        raise BzrError("unsupported timezone format %r" % timezone,
585
 
                       ['options are "utc", "original", "local"'])
 
803
        raise errors.UnsupportedTimezoneFormat(timezone)
586
804
    if date_fmt is None:
587
805
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
588
806
    if show_offset:
589
807
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
590
808
    else:
591
809
        offset_str = ''
592
 
    return (time.strftime(date_fmt, tt) +  offset_str)
 
810
    return (date_fmt, tt, offset_str)
593
811
 
594
812
 
595
813
def compact_date(when):
596
814
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
597
 
    
598
 
 
 
815
 
 
816
 
 
817
def format_delta(delta):
 
818
    """Get a nice looking string for a time delta.
 
819
 
 
820
    :param delta: The time difference in seconds, can be positive or negative.
 
821
        positive indicates time in the past, negative indicates time in the
 
822
        future. (usually time.time() - stored_time)
 
823
    :return: String formatted to show approximate resolution
 
824
    """
 
825
    delta = int(delta)
 
826
    if delta >= 0:
 
827
        direction = 'ago'
 
828
    else:
 
829
        direction = 'in the future'
 
830
        delta = -delta
 
831
 
 
832
    seconds = delta
 
833
    if seconds < 90: # print seconds up to 90 seconds
 
834
        if seconds == 1:
 
835
            return '%d second %s' % (seconds, direction,)
 
836
        else:
 
837
            return '%d seconds %s' % (seconds, direction)
 
838
 
 
839
    minutes = int(seconds / 60)
 
840
    seconds -= 60 * minutes
 
841
    if seconds == 1:
 
842
        plural_seconds = ''
 
843
    else:
 
844
        plural_seconds = 's'
 
845
    if minutes < 90: # print minutes, seconds up to 90 minutes
 
846
        if minutes == 1:
 
847
            return '%d minute, %d second%s %s' % (
 
848
                    minutes, seconds, plural_seconds, direction)
 
849
        else:
 
850
            return '%d minutes, %d second%s %s' % (
 
851
                    minutes, seconds, plural_seconds, direction)
 
852
 
 
853
    hours = int(minutes / 60)
 
854
    minutes -= 60 * hours
 
855
    if minutes == 1:
 
856
        plural_minutes = ''
 
857
    else:
 
858
        plural_minutes = 's'
 
859
 
 
860
    if hours == 1:
 
861
        return '%d hour, %d minute%s %s' % (hours, minutes,
 
862
                                            plural_minutes, direction)
 
863
    return '%d hours, %d minute%s %s' % (hours, minutes,
 
864
                                         plural_minutes, direction)
599
865
 
600
866
def filesize(f):
601
867
    """Return size of given open file."""
611
877
except (NotImplementedError, AttributeError):
612
878
    # If python doesn't have os.urandom, or it doesn't work,
613
879
    # then try to first pull random data from /dev/urandom
614
 
    if os.path.exists("/dev/urandom"):
 
880
    try:
615
881
        rand_bytes = file('/dev/urandom', 'rb').read
616
882
    # Otherwise, use this hack as a last resort
617
 
    else:
 
883
    except (IOError, OSError):
618
884
        # not well seeded, but better than nothing
619
885
        def rand_bytes(n):
620
886
            import random
628
894
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
629
895
def rand_chars(num):
630
896
    """Return a random string of num alphanumeric characters
631
 
    
632
 
    The result only contains lowercase chars because it may be used on 
 
897
 
 
898
    The result only contains lowercase chars because it may be used on
633
899
    case-insensitive filesystems.
634
900
    """
635
901
    s = ''
642
908
## decomposition (might be too tricksy though.)
643
909
 
644
910
def splitpath(p):
645
 
    """Turn string into list of parts.
646
 
 
647
 
    >>> splitpath('a')
648
 
    ['a']
649
 
    >>> splitpath('a/b')
650
 
    ['a', 'b']
651
 
    >>> splitpath('a/./b')
652
 
    ['a', 'b']
653
 
    >>> splitpath('a/.b')
654
 
    ['a', '.b']
655
 
    >>> splitpath('a/../b')
656
 
    Traceback (most recent call last):
657
 
    ...
658
 
    BzrError: sorry, '..' not allowed in path
659
 
    """
660
 
    assert isinstance(p, types.StringTypes)
661
 
 
 
911
    """Turn string into list of parts."""
662
912
    # split on either delimiter because people might use either on
663
913
    # Windows
664
914
    ps = re.split(r'[\\/]', p)
666
916
    rps = []
667
917
    for f in ps:
668
918
        if f == '..':
669
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
919
            raise errors.BzrError("sorry, %r not allowed in path" % f)
670
920
        elif (f == '.') or (f == ''):
671
921
            pass
672
922
        else:
673
923
            rps.append(f)
674
924
    return rps
675
925
 
 
926
 
676
927
def joinpath(p):
677
 
    assert isinstance(p, list)
678
928
    for f in p:
679
929
        if (f == '..') or (f is None) or (f == ''):
680
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
930
            raise errors.BzrError("sorry, %r not allowed in path" % f)
681
931
    return pathjoin(*p)
682
932
 
683
933
 
684
 
@deprecated_function(zero_nine)
685
 
def appendpath(p1, p2):
686
 
    if p1 == '':
687
 
        return p2
688
 
    else:
689
 
        return pathjoin(p1, p2)
690
 
    
 
934
def parent_directories(filename):
 
935
    """Return the list of parent directories, deepest first.
 
936
    
 
937
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
 
938
    """
 
939
    parents = []
 
940
    parts = splitpath(dirname(filename))
 
941
    while parts:
 
942
        parents.append(joinpath(parts))
 
943
        parts.pop()
 
944
    return parents
 
945
 
 
946
 
 
947
_extension_load_failures = []
 
948
 
 
949
 
 
950
def failed_to_load_extension(exception):
 
951
    """Handle failing to load a binary extension.
 
952
 
 
953
    This should be called from the ImportError block guarding the attempt to
 
954
    import the native extension.  If this function returns, the pure-Python
 
955
    implementation should be loaded instead::
 
956
 
 
957
    >>> try:
 
958
    >>>     import bzrlib._fictional_extension_pyx
 
959
    >>> except ImportError, e:
 
960
    >>>     bzrlib.osutils.failed_to_load_extension(e)
 
961
    >>>     import bzrlib._fictional_extension_py
 
962
    """
 
963
    # NB: This docstring is just an example, not a doctest, because doctest
 
964
    # currently can't cope with the use of lazy imports in this namespace --
 
965
    # mbp 20090729
 
966
    
 
967
    # This currently doesn't report the failure at the time it occurs, because
 
968
    # they tend to happen very early in startup when we can't check config
 
969
    # files etc, and also we want to report all failures but not spam the user
 
970
    # with 10 warnings.
 
971
    from bzrlib import trace
 
972
    exception_str = str(exception)
 
973
    if exception_str not in _extension_load_failures:
 
974
        trace.mutter("failed to load compiled extension: %s" % exception_str)
 
975
        _extension_load_failures.append(exception_str)
 
976
 
 
977
 
 
978
def report_extension_load_failures():
 
979
    if not _extension_load_failures:
 
980
        return
 
981
    from bzrlib.config import GlobalConfig
 
982
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
 
983
        return
 
984
    # the warnings framework should by default show this only once
 
985
    from bzrlib.trace import warning
 
986
    warning(
 
987
        "bzr: warning: some compiled extensions could not be loaded; "
 
988
        "see <https://answers.launchpad.net/bzr/+faq/703>")
 
989
    # we no longer show the specific missing extensions here, because it makes
 
990
    # the message too long and scary - see
 
991
    # https://bugs.launchpad.net/bzr/+bug/430529
 
992
 
 
993
 
 
994
try:
 
995
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
 
996
except ImportError, e:
 
997
    failed_to_load_extension(e)
 
998
    from bzrlib._chunks_to_lines_py import chunks_to_lines
 
999
 
691
1000
 
692
1001
def split_lines(s):
693
1002
    """Split s into lines, but without removing the newline characters."""
 
1003
    # Trivially convert a fulltext into a 'chunked' representation, and let
 
1004
    # chunks_to_lines do the heavy lifting.
 
1005
    if isinstance(s, str):
 
1006
        # chunks_to_lines only supports 8-bit strings
 
1007
        return chunks_to_lines([s])
 
1008
    else:
 
1009
        return _split_lines(s)
 
1010
 
 
1011
 
 
1012
def _split_lines(s):
 
1013
    """Split s into lines, but without removing the newline characters.
 
1014
 
 
1015
    This supports Unicode or plain string objects.
 
1016
    """
694
1017
    lines = s.split('\n')
695
1018
    result = [line + '\n' for line in lines[:-1]]
696
1019
    if lines[-1]:
705
1028
def link_or_copy(src, dest):
706
1029
    """Hardlink a file, or copy it if it can't be hardlinked."""
707
1030
    if not hardlinks_good():
708
 
        copyfile(src, dest)
 
1031
        shutil.copyfile(src, dest)
709
1032
        return
710
1033
    try:
711
1034
        os.link(src, dest)
712
1035
    except (OSError, IOError), e:
713
1036
        if e.errno != errno.EXDEV:
714
1037
            raise
715
 
        copyfile(src, dest)
716
 
 
717
 
def delete_any(full_path):
718
 
    """Delete a file or directory."""
 
1038
        shutil.copyfile(src, dest)
 
1039
 
 
1040
 
 
1041
def delete_any(path):
 
1042
    """Delete a file, symlink or directory.  
 
1043
    
 
1044
    Will delete even if readonly.
 
1045
    """
719
1046
    try:
720
 
        os.unlink(full_path)
721
 
    except OSError, e:
722
 
    # We may be renaming a dangling inventory id
723
 
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
 
1047
       _delete_file_or_dir(path)
 
1048
    except (OSError, IOError), e:
 
1049
        if e.errno in (errno.EPERM, errno.EACCES):
 
1050
            # make writable and try again
 
1051
            try:
 
1052
                make_writable(path)
 
1053
            except (OSError, IOError):
 
1054
                pass
 
1055
            _delete_file_or_dir(path)
 
1056
        else:
724
1057
            raise
725
 
        os.rmdir(full_path)
 
1058
 
 
1059
 
 
1060
def _delete_file_or_dir(path):
 
1061
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
1062
    # Forgiveness than Permission (EAFP) because:
 
1063
    # - root can damage a solaris file system by using unlink,
 
1064
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
1065
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
1066
    if isdir(path): # Takes care of symlinks
 
1067
        os.rmdir(path)
 
1068
    else:
 
1069
        os.unlink(path)
726
1070
 
727
1071
 
728
1072
def has_symlinks():
730
1074
        return True
731
1075
    else:
732
1076
        return False
733
 
        
 
1077
 
 
1078
 
 
1079
def has_hardlinks():
 
1080
    if getattr(os, 'link', None) is not None:
 
1081
        return True
 
1082
    else:
 
1083
        return False
 
1084
 
 
1085
 
 
1086
def host_os_dereferences_symlinks():
 
1087
    return (has_symlinks()
 
1088
            and sys.platform not in ('cygwin', 'win32'))
 
1089
 
 
1090
 
 
1091
def readlink(abspath):
 
1092
    """Return a string representing the path to which the symbolic link points.
 
1093
 
 
1094
    :param abspath: The link absolute unicode path.
 
1095
 
 
1096
    This his guaranteed to return the symbolic link in unicode in all python
 
1097
    versions.
 
1098
    """
 
1099
    link = abspath.encode(_fs_enc)
 
1100
    target = os.readlink(link)
 
1101
    target = target.decode(_fs_enc)
 
1102
    return target
 
1103
 
734
1104
 
735
1105
def contains_whitespace(s):
736
1106
    """True if there are any whitespace characters in s."""
737
 
    for ch in string.whitespace:
 
1107
    # string.whitespace can include '\xa0' in certain locales, because it is
 
1108
    # considered "non-breaking-space" as part of ISO-8859-1. But it
 
1109
    # 1) Isn't a breaking whitespace
 
1110
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
 
1111
    #    separators
 
1112
    # 3) '\xa0' isn't unicode safe since it is >128.
 
1113
 
 
1114
    # This should *not* be a unicode set of characters in case the source
 
1115
    # string is not a Unicode string. We can auto-up-cast the characters since
 
1116
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
1117
    # is utf-8
 
1118
    for ch in ' \t\n\r\v\f':
738
1119
        if ch in s:
739
1120
            return True
740
1121
    else:
761
1142
    avoids that problem.
762
1143
    """
763
1144
 
764
 
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
765
 
        ' exceed the platform minimum length (which is %d)' % 
766
 
        MIN_ABS_PATHLENGTH)
 
1145
    if len(base) < MIN_ABS_PATHLENGTH:
 
1146
        # must have space for e.g. a drive letter
 
1147
        raise ValueError('%r is too short to calculate a relative path'
 
1148
            % (base,))
767
1149
 
768
1150
    rp = abspath(path)
769
1151
 
770
1152
    s = []
771
1153
    head = rp
772
 
    while len(head) >= len(base):
 
1154
    while True:
 
1155
        if len(head) <= len(base) and head != base:
 
1156
            raise errors.PathNotChild(rp, base)
773
1157
        if head == base:
774
1158
            break
775
 
        head, tail = os.path.split(head)
 
1159
        head, tail = split(head)
776
1160
        if tail:
777
 
            s.insert(0, tail)
778
 
    else:
779
 
        raise PathNotChild(rp, base)
 
1161
            s.append(tail)
780
1162
 
781
1163
    if s:
782
 
        return pathjoin(*s)
 
1164
        return pathjoin(*reversed(s))
783
1165
    else:
784
1166
        return ''
785
1167
 
786
1168
 
 
1169
def _cicp_canonical_relpath(base, path):
 
1170
    """Return the canonical path relative to base.
 
1171
 
 
1172
    Like relpath, but on case-insensitive-case-preserving file-systems, this
 
1173
    will return the relpath as stored on the file-system rather than in the
 
1174
    case specified in the input string, for all existing portions of the path.
 
1175
 
 
1176
    This will cause O(N) behaviour if called for every path in a tree; if you
 
1177
    have a number of paths to convert, you should use canonical_relpaths().
 
1178
    """
 
1179
    # TODO: it should be possible to optimize this for Windows by using the
 
1180
    # win32 API FindFiles function to look for the specified name - but using
 
1181
    # os.listdir() still gives us the correct, platform agnostic semantics in
 
1182
    # the short term.
 
1183
 
 
1184
    rel = relpath(base, path)
 
1185
    # '.' will have been turned into ''
 
1186
    if not rel:
 
1187
        return rel
 
1188
 
 
1189
    abs_base = abspath(base)
 
1190
    current = abs_base
 
1191
    _listdir = os.listdir
 
1192
 
 
1193
    # use an explicit iterator so we can easily consume the rest on early exit.
 
1194
    bit_iter = iter(rel.split('/'))
 
1195
    for bit in bit_iter:
 
1196
        lbit = bit.lower()
 
1197
        try:
 
1198
            next_entries = _listdir(current)
 
1199
        except OSError: # enoent, eperm, etc
 
1200
            # We can't find this in the filesystem, so just append the
 
1201
            # remaining bits.
 
1202
            current = pathjoin(current, bit, *list(bit_iter))
 
1203
            break
 
1204
        for look in next_entries:
 
1205
            if lbit == look.lower():
 
1206
                current = pathjoin(current, look)
 
1207
                break
 
1208
        else:
 
1209
            # got to the end, nothing matched, so we just return the
 
1210
            # non-existing bits as they were specified (the filename may be
 
1211
            # the target of a move, for example).
 
1212
            current = pathjoin(current, bit, *list(bit_iter))
 
1213
            break
 
1214
    return current[len(abs_base):].lstrip('/')
 
1215
 
 
1216
# XXX - TODO - we need better detection/integration of case-insensitive
 
1217
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
 
1218
# filesystems), for example, so could probably benefit from the same basic
 
1219
# support there.  For now though, only Windows and OSX get that support, and
 
1220
# they get it for *all* file-systems!
 
1221
if sys.platform in ('win32', 'darwin'):
 
1222
    canonical_relpath = _cicp_canonical_relpath
 
1223
else:
 
1224
    canonical_relpath = relpath
 
1225
 
 
1226
def canonical_relpaths(base, paths):
 
1227
    """Create an iterable to canonicalize a sequence of relative paths.
 
1228
 
 
1229
    The intent is for this implementation to use a cache, vastly speeding
 
1230
    up multiple transformations in the same directory.
 
1231
    """
 
1232
    # but for now, we haven't optimized...
 
1233
    return [canonical_relpath(base, p) for p in paths]
 
1234
 
787
1235
def safe_unicode(unicode_or_utf8_string):
788
1236
    """Coerce unicode_or_utf8_string into unicode.
789
1237
 
790
1238
    If it is unicode, it is returned.
791
 
    Otherwise it is decoded from utf-8. If a decoding error
792
 
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
793
 
    as a BzrBadParameter exception.
 
1239
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
 
1240
    wrapped in a BzrBadParameterNotUnicode exception.
794
1241
    """
795
1242
    if isinstance(unicode_or_utf8_string, unicode):
796
1243
        return unicode_or_utf8_string
797
1244
    try:
798
1245
        return unicode_or_utf8_string.decode('utf8')
799
1246
    except UnicodeDecodeError:
800
 
        raise BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1247
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1248
 
 
1249
 
 
1250
def safe_utf8(unicode_or_utf8_string):
 
1251
    """Coerce unicode_or_utf8_string to a utf8 string.
 
1252
 
 
1253
    If it is a str, it is returned.
 
1254
    If it is Unicode, it is encoded into a utf-8 string.
 
1255
    """
 
1256
    if isinstance(unicode_or_utf8_string, str):
 
1257
        # TODO: jam 20070209 This is overkill, and probably has an impact on
 
1258
        #       performance if we are dealing with lots of apis that want a
 
1259
        #       utf-8 revision id
 
1260
        try:
 
1261
            # Make sure it is a valid utf-8 string
 
1262
            unicode_or_utf8_string.decode('utf-8')
 
1263
        except UnicodeDecodeError:
 
1264
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1265
        return unicode_or_utf8_string
 
1266
    return unicode_or_utf8_string.encode('utf-8')
 
1267
 
 
1268
 
 
1269
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
1270
                        ' Revision id generators should be creating utf8'
 
1271
                        ' revision ids.')
 
1272
 
 
1273
 
 
1274
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
1275
    """Revision ids should now be utf8, but at one point they were unicode.
 
1276
 
 
1277
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
 
1278
        utf8 or None).
 
1279
    :param warn: Functions that are sanitizing user data can set warn=False
 
1280
    :return: None or a utf8 revision id.
 
1281
    """
 
1282
    if (unicode_or_utf8_string is None
 
1283
        or unicode_or_utf8_string.__class__ == str):
 
1284
        return unicode_or_utf8_string
 
1285
    if warn:
 
1286
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
1287
                               stacklevel=2)
 
1288
    return cache_utf8.encode(unicode_or_utf8_string)
 
1289
 
 
1290
 
 
1291
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
1292
                    ' generators should be creating utf8 file ids.')
 
1293
 
 
1294
 
 
1295
def safe_file_id(unicode_or_utf8_string, warn=True):
 
1296
    """File ids should now be utf8, but at one point they were unicode.
 
1297
 
 
1298
    This is the same as safe_utf8, except it uses the cached encode functions
 
1299
    to save a little bit of performance.
 
1300
 
 
1301
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
 
1302
        utf8 or None).
 
1303
    :param warn: Functions that are sanitizing user data can set warn=False
 
1304
    :return: None or a utf8 file id.
 
1305
    """
 
1306
    if (unicode_or_utf8_string is None
 
1307
        or unicode_or_utf8_string.__class__ == str):
 
1308
        return unicode_or_utf8_string
 
1309
    if warn:
 
1310
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
1311
                               stacklevel=2)
 
1312
    return cache_utf8.encode(unicode_or_utf8_string)
801
1313
 
802
1314
 
803
1315
_platform_normalizes_filenames = False
818
1330
 
819
1331
    On platforms where the system normalizes filenames (Mac OSX),
820
1332
    you can access a file by any path which will normalize correctly.
821
 
    On platforms where the system does not normalize filenames 
 
1333
    On platforms where the system does not normalize filenames
822
1334
    (Windows, Linux), you have to access a file by its exact path.
823
1335
 
824
 
    Internally, bzr only supports NFC/NFKC normalization, since that is 
 
1336
    Internally, bzr only supports NFC normalization, since that is
825
1337
    the standard for XML documents.
826
1338
 
827
1339
    So return the normalized path, and a flag indicating if the file
828
1340
    can be accessed by that path.
829
1341
    """
830
1342
 
831
 
    return unicodedata.normalize('NFKC', unicode(path)), True
 
1343
    return unicodedata.normalize('NFC', unicode(path)), True
832
1344
 
833
1345
 
834
1346
def _inaccessible_normalized_filename(path):
835
1347
    __doc__ = _accessible_normalized_filename.__doc__
836
1348
 
837
 
    normalized = unicodedata.normalize('NFKC', unicode(path))
 
1349
    normalized = unicodedata.normalize('NFC', unicode(path))
838
1350
    return normalized, normalized == path
839
1351
 
840
1352
 
844
1356
    normalized_filename = _inaccessible_normalized_filename
845
1357
 
846
1358
 
 
1359
def set_signal_handler(signum, handler, restart_syscall=True):
 
1360
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
 
1361
    on platforms that support that.
 
1362
 
 
1363
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
 
1364
        automatically restart (by calling `signal.siginterrupt(signum,
 
1365
        False)`).  May be ignored if the feature is not available on this
 
1366
        platform or Python version.
 
1367
    """
 
1368
    old_handler = signal.signal(signum, handler)
 
1369
    if restart_syscall:
 
1370
        try:
 
1371
            siginterrupt = signal.siginterrupt
 
1372
        except AttributeError: # siginterrupt doesn't exist on this platform, or for this version of
 
1373
            # Python.
 
1374
            pass
 
1375
        else:
 
1376
            siginterrupt(signum, False)
 
1377
    return old_handler
 
1378
 
 
1379
 
 
1380
default_terminal_width = 80
 
1381
"""The default terminal width for ttys.
 
1382
 
 
1383
This is defined so that higher levels can share a common fallback value when
 
1384
terminal_width() returns None.
 
1385
"""
 
1386
 
 
1387
 
847
1388
def terminal_width():
848
 
    """Return estimated terminal width."""
849
 
    if sys.platform == 'win32':
850
 
        import bzrlib.win32console
851
 
        return bzrlib.win32console.get_console_size()[0]
852
 
    width = 0
 
1389
    """Return terminal width.
 
1390
 
 
1391
    None is returned if the width can't established precisely.
 
1392
 
 
1393
    The rules are:
 
1394
    - if BZR_COLUMNS is set, returns its value
 
1395
    - if there is no controlling terminal, returns None
 
1396
    - if COLUMNS is set, returns its value,
 
1397
 
 
1398
    From there, we need to query the OS to get the size of the controlling
 
1399
    terminal.
 
1400
 
 
1401
    Unices:
 
1402
    - get termios.TIOCGWINSZ
 
1403
    - if an error occurs or a negative value is obtained, returns None
 
1404
 
 
1405
    Windows:
 
1406
    
 
1407
    - win32utils.get_console_size() decides,
 
1408
    - returns None on error (provided default value)
 
1409
    """
 
1410
 
 
1411
    # If BZR_COLUMNS is set, take it, user is always right
 
1412
    try:
 
1413
        return int(os.environ['BZR_COLUMNS'])
 
1414
    except (KeyError, ValueError):
 
1415
        pass
 
1416
 
 
1417
    isatty = getattr(sys.stdout, 'isatty', None)
 
1418
    if  isatty is None or not isatty():
 
1419
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
 
1420
        return None
 
1421
 
 
1422
    # If COLUMNS is set, take it, the terminal knows better (even inside a
 
1423
    # given terminal, the application can decide to set COLUMNS to a lower
 
1424
    # value (splitted screen) or a bigger value (scroll bars))
 
1425
    try:
 
1426
        return int(os.environ['COLUMNS'])
 
1427
    except (KeyError, ValueError):
 
1428
        pass
 
1429
 
 
1430
    width, height = _terminal_size(None, None)
 
1431
    if width <= 0:
 
1432
        # Consider invalid values as meaning no width
 
1433
        return None
 
1434
 
 
1435
    return width
 
1436
 
 
1437
 
 
1438
def _win32_terminal_size(width, height):
 
1439
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
 
1440
    return width, height
 
1441
 
 
1442
 
 
1443
def _ioctl_terminal_size(width, height):
853
1444
    try:
854
1445
        import struct, fcntl, termios
855
1446
        s = struct.pack('HHHH', 0, 0, 0, 0)
856
1447
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
857
 
        width = struct.unpack('HHHH', x)[1]
858
 
    except IOError:
 
1448
        height, width = struct.unpack('HHHH', x)[0:2]
 
1449
    except (IOError, AttributeError):
859
1450
        pass
860
 
    if width <= 0:
861
 
        try:
862
 
            width = int(os.environ['COLUMNS'])
863
 
        except:
 
1451
    return width, height
 
1452
 
 
1453
_terminal_size = None
 
1454
"""Returns the terminal size as (width, height).
 
1455
 
 
1456
:param width: Default value for width.
 
1457
:param height: Default value for height.
 
1458
 
 
1459
This is defined specifically for each OS and query the size of the controlling
 
1460
terminal. If any error occurs, the provided default values should be returned.
 
1461
"""
 
1462
if sys.platform == 'win32':
 
1463
    _terminal_size = _win32_terminal_size
 
1464
else:
 
1465
    _terminal_size = _ioctl_terminal_size
 
1466
 
 
1467
 
 
1468
def _terminal_size_changed(signum, frame):
 
1469
    """Set COLUMNS upon receiving a SIGnal for WINdow size CHange."""
 
1470
    width, height = _terminal_size(None, None)
 
1471
    if width is not None:
 
1472
        os.environ['COLUMNS'] = str(width)
 
1473
 
 
1474
 
 
1475
_registered_sigwinch = False
 
1476
 
 
1477
def watch_sigwinch():
 
1478
    """Register for SIGWINCH, once and only once."""
 
1479
    global _registered_sigwinch
 
1480
    if not _registered_sigwinch:
 
1481
        if sys.platform == 'win32':
 
1482
            # Martin (gz) mentioned WINDOW_BUFFER_SIZE_RECORD from
 
1483
            # ReadConsoleInput but I've no idea how to plug that in
 
1484
            # the current design -- vila 20091216
864
1485
            pass
865
 
    if width <= 0:
866
 
        width = 80
867
 
 
868
 
    return width
 
1486
        else:
 
1487
            set_signal_handler(signal.SIGWINCH, _terminal_size_changed)
 
1488
        _registered_sigwinch = True
869
1489
 
870
1490
 
871
1491
def supports_executable():
872
1492
    return sys.platform != "win32"
873
1493
 
874
1494
 
 
1495
def supports_posix_readonly():
 
1496
    """Return True if 'readonly' has POSIX semantics, False otherwise.
 
1497
 
 
1498
    Notably, a win32 readonly file cannot be deleted, unlike POSIX where the
 
1499
    directory controls creation/deletion, etc.
 
1500
 
 
1501
    And under win32, readonly means that the directory itself cannot be
 
1502
    deleted.  The contents of a readonly directory can be changed, unlike POSIX
 
1503
    where files in readonly directories cannot be added, deleted or renamed.
 
1504
    """
 
1505
    return sys.platform != "win32"
 
1506
 
 
1507
 
875
1508
def set_or_unset_env(env_variable, value):
876
1509
    """Modify the environment, setting or removing the env_variable.
877
1510
 
886
1519
            del os.environ[env_variable]
887
1520
    else:
888
1521
        if isinstance(value, unicode):
889
 
            value = value.encode(bzrlib.user_encoding)
 
1522
            value = value.encode(get_user_encoding())
890
1523
        os.environ[env_variable] = value
891
1524
    return orig_val
892
1525
 
895
1528
 
896
1529
 
897
1530
def check_legal_path(path):
898
 
    """Check whether the supplied path is legal.  
 
1531
    """Check whether the supplied path is legal.
899
1532
    This is only required on Windows, so we don't test on other platforms
900
1533
    right now.
901
1534
    """
902
1535
    if sys.platform != "win32":
903
1536
        return
904
1537
    if _validWin32PathRE.match(path) is None:
905
 
        raise IllegalPath(path)
 
1538
        raise errors.IllegalPath(path)
 
1539
 
 
1540
 
 
1541
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
 
1542
 
 
1543
def _is_error_enotdir(e):
 
1544
    """Check if this exception represents ENOTDIR.
 
1545
 
 
1546
    Unfortunately, python is very inconsistent about the exception
 
1547
    here. The cases are:
 
1548
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
 
1549
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
 
1550
         which is the windows error code.
 
1551
      3) Windows, Python2.5 uses errno == EINVAL and
 
1552
         winerror == ERROR_DIRECTORY
 
1553
 
 
1554
    :param e: An Exception object (expected to be OSError with an errno
 
1555
        attribute, but we should be able to cope with anything)
 
1556
    :return: True if this represents an ENOTDIR error. False otherwise.
 
1557
    """
 
1558
    en = getattr(e, 'errno', None)
 
1559
    if (en == errno.ENOTDIR
 
1560
        or (sys.platform == 'win32'
 
1561
            and (en == _WIN32_ERROR_DIRECTORY
 
1562
                 or (en == errno.EINVAL
 
1563
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
 
1564
        ))):
 
1565
        return True
 
1566
    return False
906
1567
 
907
1568
 
908
1569
def walkdirs(top, prefix=""):
909
1570
    """Yield data about all the directories in a tree.
910
 
    
 
1571
 
911
1572
    This yields all the data about the contents of a directory at a time.
912
1573
    After each directory has been yielded, if the caller has mutated the list
913
1574
    to exclude some directories, they are then not descended into.
914
 
    
 
1575
 
915
1576
    The data yielded is of the form:
916
1577
    ((directory-relpath, directory-path-from-top),
917
 
    [(relpath, basename, kind, lstat), ...]),
 
1578
    [(relpath, basename, kind, lstat, path-from-top), ...]),
918
1579
     - directory-relpath is the relative path of the directory being returned
919
1580
       with respect to top. prefix is prepended to this.
920
 
     - directory-path-from-root is the path including top for this directory. 
 
1581
     - directory-path-from-root is the path including top for this directory.
921
1582
       It is suitable for use with os functions.
922
1583
     - relpath is the relative path within the subtree being walked.
923
1584
     - basename is the basename of the path
925
1586
       present within the tree - but it may be recorded as versioned. See
926
1587
       versioned_kind.
927
1588
     - lstat is the stat data *if* the file was statted.
928
 
     - planned, not implemented: 
 
1589
     - planned, not implemented:
929
1590
       path_from_tree_root is the path from the root of the tree.
930
1591
 
931
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
 
1592
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
932
1593
        allows one to walk a subtree but get paths that are relative to a tree
933
1594
        rooted higher up.
934
1595
    :return: an iterator over the dirs.
935
1596
    """
936
1597
    #TODO there is a bit of a smell where the results of the directory-
937
 
    # summary in this, and the path from the root, may not agree 
 
1598
    # summary in this, and the path from the root, may not agree
938
1599
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
939
1600
    # potentially confusing output. We should make this more robust - but
940
1601
    # not at a speed cost. RBC 20060731
941
 
    lstat = os.lstat
942
 
    pending = []
 
1602
    _lstat = os.lstat
943
1603
    _directory = _directory_kind
944
 
    _listdir = listdir
945
 
    pending = [(prefix, "", _directory, None, top)]
 
1604
    _listdir = os.listdir
 
1605
    _kind_from_mode = file_kind_from_stat_mode
 
1606
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
946
1607
    while pending:
947
 
        dirblock = []
948
 
        currentdir = pending.pop()
949
1608
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
950
 
        top = currentdir[4]
951
 
        if currentdir[0]:
952
 
            relroot = currentdir[0] + '/'
953
 
        else:
954
 
            relroot = ""
 
1609
        relroot, _, _, _, top = pending.pop()
 
1610
        if relroot:
 
1611
            relprefix = relroot + u'/'
 
1612
        else:
 
1613
            relprefix = ''
 
1614
        top_slash = top + u'/'
 
1615
 
 
1616
        dirblock = []
 
1617
        append = dirblock.append
 
1618
        try:
 
1619
            names = sorted(_listdir(top))
 
1620
        except OSError, e:
 
1621
            if not _is_error_enotdir(e):
 
1622
                raise
 
1623
        else:
 
1624
            for name in names:
 
1625
                abspath = top_slash + name
 
1626
                statvalue = _lstat(abspath)
 
1627
                kind = _kind_from_mode(statvalue.st_mode)
 
1628
                append((relprefix + name, name, kind, statvalue, abspath))
 
1629
        yield (relroot, top), dirblock
 
1630
 
 
1631
        # push the user specified dirs from dirblock
 
1632
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1633
 
 
1634
 
 
1635
class DirReader(object):
 
1636
    """An interface for reading directories."""
 
1637
 
 
1638
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1639
        """Converts top and prefix to a starting dir entry
 
1640
 
 
1641
        :param top: A utf8 path
 
1642
        :param prefix: An optional utf8 path to prefix output relative paths
 
1643
            with.
 
1644
        :return: A tuple starting with prefix, and ending with the native
 
1645
            encoding of top.
 
1646
        """
 
1647
        raise NotImplementedError(self.top_prefix_to_starting_dir)
 
1648
 
 
1649
    def read_dir(self, prefix, top):
 
1650
        """Read a specific dir.
 
1651
 
 
1652
        :param prefix: A utf8 prefix to be preprended to the path basenames.
 
1653
        :param top: A natively encoded path to read.
 
1654
        :return: A list of the directories contents. Each item contains:
 
1655
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
 
1656
        """
 
1657
        raise NotImplementedError(self.read_dir)
 
1658
 
 
1659
 
 
1660
_selected_dir_reader = None
 
1661
 
 
1662
 
 
1663
def _walkdirs_utf8(top, prefix=""):
 
1664
    """Yield data about all the directories in a tree.
 
1665
 
 
1666
    This yields the same information as walkdirs() only each entry is yielded
 
1667
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
 
1668
    are returned as exact byte-strings.
 
1669
 
 
1670
    :return: yields a tuple of (dir_info, [file_info])
 
1671
        dir_info is (utf8_relpath, path-from-top)
 
1672
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
 
1673
        if top is an absolute path, path-from-top is also an absolute path.
 
1674
        path-from-top might be unicode or utf8, but it is the correct path to
 
1675
        pass to os functions to affect the file in question. (such as os.lstat)
 
1676
    """
 
1677
    global _selected_dir_reader
 
1678
    if _selected_dir_reader is None:
 
1679
        fs_encoding = _fs_enc.upper()
 
1680
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
 
1681
            # Win98 doesn't have unicode apis like FindFirstFileW
 
1682
            # TODO: We possibly could support Win98 by falling back to the
 
1683
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
 
1684
            #       but that gets a bit tricky, and requires custom compiling
 
1685
            #       for win98 anyway.
 
1686
            try:
 
1687
                from bzrlib._walkdirs_win32 import Win32ReadDir
 
1688
                _selected_dir_reader = Win32ReadDir()
 
1689
            except ImportError:
 
1690
                pass
 
1691
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
 
1692
            # ANSI_X3.4-1968 is a form of ASCII
 
1693
            try:
 
1694
                from bzrlib._readdir_pyx import UTF8DirReader
 
1695
                _selected_dir_reader = UTF8DirReader()
 
1696
            except ImportError, e:
 
1697
                failed_to_load_extension(e)
 
1698
                pass
 
1699
 
 
1700
    if _selected_dir_reader is None:
 
1701
        # Fallback to the python version
 
1702
        _selected_dir_reader = UnicodeDirReader()
 
1703
 
 
1704
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1705
    # But we don't actually uses 1-3 in pending, so set them to None
 
1706
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
 
1707
    read_dir = _selected_dir_reader.read_dir
 
1708
    _directory = _directory_kind
 
1709
    while pending:
 
1710
        relroot, _, _, _, top = pending[-1].pop()
 
1711
        if not pending[-1]:
 
1712
            pending.pop()
 
1713
        dirblock = sorted(read_dir(relroot, top))
 
1714
        yield (relroot, top), dirblock
 
1715
        # push the user specified dirs from dirblock
 
1716
        next = [d for d in reversed(dirblock) if d[2] == _directory]
 
1717
        if next:
 
1718
            pending.append(next)
 
1719
 
 
1720
 
 
1721
class UnicodeDirReader(DirReader):
 
1722
    """A dir reader for non-utf8 file systems, which transcodes."""
 
1723
 
 
1724
    __slots__ = ['_utf8_encode']
 
1725
 
 
1726
    def __init__(self):
 
1727
        self._utf8_encode = codecs.getencoder('utf8')
 
1728
 
 
1729
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1730
        """See DirReader.top_prefix_to_starting_dir."""
 
1731
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
 
1732
 
 
1733
    def read_dir(self, prefix, top):
 
1734
        """Read a single directory from a non-utf8 file system.
 
1735
 
 
1736
        top, and the abspath element in the output are unicode, all other paths
 
1737
        are utf8. Local disk IO is done via unicode calls to listdir etc.
 
1738
 
 
1739
        This is currently the fallback code path when the filesystem encoding is
 
1740
        not UTF-8. It may be better to implement an alternative so that we can
 
1741
        safely handle paths that are not properly decodable in the current
 
1742
        encoding.
 
1743
 
 
1744
        See DirReader.read_dir for details.
 
1745
        """
 
1746
        _utf8_encode = self._utf8_encode
 
1747
        _lstat = os.lstat
 
1748
        _listdir = os.listdir
 
1749
        _kind_from_mode = file_kind_from_stat_mode
 
1750
 
 
1751
        if prefix:
 
1752
            relprefix = prefix + '/'
 
1753
        else:
 
1754
            relprefix = ''
 
1755
        top_slash = top + u'/'
 
1756
 
 
1757
        dirblock = []
 
1758
        append = dirblock.append
955
1759
        for name in sorted(_listdir(top)):
956
 
            abspath = top + '/' + name
957
 
            statvalue = lstat(abspath)
958
 
            dirblock.append((relroot + name, name,
959
 
                file_kind_from_stat_mode(statvalue.st_mode),
960
 
                statvalue, abspath))
961
 
        yield (currentdir[0], top), dirblock
962
 
        # push the user specified dirs from dirblock
963
 
        for dir in reversed(dirblock):
964
 
            if dir[2] == _directory:
965
 
                pending.append(dir)
 
1760
            try:
 
1761
                name_utf8 = _utf8_encode(name)[0]
 
1762
            except UnicodeDecodeError:
 
1763
                raise errors.BadFilenameEncoding(
 
1764
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1765
            abspath = top_slash + name
 
1766
            statvalue = _lstat(abspath)
 
1767
            kind = _kind_from_mode(statvalue.st_mode)
 
1768
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
 
1769
        return dirblock
966
1770
 
967
1771
 
968
1772
def copy_tree(from_path, to_path, handlers={}):
969
1773
    """Copy all of the entries in from_path into to_path.
970
1774
 
971
 
    :param from_path: The base directory to copy. 
 
1775
    :param from_path: The base directory to copy.
972
1776
    :param to_path: The target directory. If it does not exist, it will
973
1777
        be created.
974
1778
    :param handlers: A dictionary of functions, which takes a source and
1007
1811
            real_handlers[kind](abspath, relpath)
1008
1812
 
1009
1813
 
 
1814
def copy_ownership(dst, src=None):
 
1815
    """Copy usr/grp ownership from src file/dir to dst file/dir.
 
1816
 
 
1817
    If src is None, the containing directory is used as source. If chown
 
1818
    fails, the error is ignored and a warning is printed.
 
1819
    """
 
1820
    chown = getattr(os, 'chown', None)
 
1821
    if chown is None:
 
1822
        return
 
1823
 
 
1824
    if src == None:
 
1825
        src = os.path.dirname(dst)
 
1826
        if src == '':
 
1827
            src = '.'
 
1828
 
 
1829
    try:
 
1830
        s = os.stat(src)
 
1831
        chown(dst, s.st_uid, s.st_gid)
 
1832
    except OSError, e:
 
1833
        trace.warning("Unable to copy ownership from '%s' to '%s': IOError: %s." % (src, dst, e))
 
1834
 
 
1835
 
 
1836
def mkdir_with_ownership(path, ownership_src=None):
 
1837
    """Create the directory 'path' with specified ownership.
 
1838
 
 
1839
    If ownership_src is given, copies (chown) usr/grp ownership
 
1840
    from 'ownership_src' to 'path'. If ownership_src is None, use the
 
1841
    containing dir ownership.
 
1842
    """
 
1843
    os.mkdir(path)
 
1844
    copy_ownership(path, ownership_src)
 
1845
 
 
1846
 
 
1847
def open_with_ownership(filename, mode='r', bufsize=-1, ownership_src=None):
 
1848
    """Open the file 'filename' with the specified ownership.
 
1849
 
 
1850
    If ownership_src is specified, copy usr/grp ownership from ownership_src
 
1851
    to filename. If ownership_src is None, copy ownership from containing
 
1852
    directory.
 
1853
    Returns the opened file object.
 
1854
    """
 
1855
    f = open(filename, mode, bufsize)
 
1856
    copy_ownership(filename, ownership_src)
 
1857
    return f
 
1858
 
 
1859
 
1010
1860
def path_prefix_key(path):
1011
1861
    """Generate a prefix-order path key for path.
1012
1862
 
1025
1875
_cached_user_encoding = None
1026
1876
 
1027
1877
 
1028
 
def get_user_encoding():
 
1878
def get_user_encoding(use_cache=True):
1029
1879
    """Find out what the preferred user encoding is.
1030
1880
 
1031
1881
    This is generally the encoding that is used for command line parameters
1032
1882
    and file contents. This may be different from the terminal encoding
1033
1883
    or the filesystem encoding.
1034
1884
 
 
1885
    :param  use_cache:  Enable cache for detected encoding.
 
1886
                        (This parameter is turned on by default,
 
1887
                        and required only for selftesting)
 
1888
 
1035
1889
    :return: A string defining the preferred user encoding
1036
1890
    """
1037
1891
    global _cached_user_encoding
1038
 
    if _cached_user_encoding is not None:
 
1892
    if _cached_user_encoding is not None and use_cache:
1039
1893
        return _cached_user_encoding
1040
1894
 
1041
1895
    if sys.platform == 'darwin':
1042
 
        # work around egregious python 2.4 bug
 
1896
        # python locale.getpreferredencoding() always return
 
1897
        # 'mac-roman' on darwin. That's a lie.
1043
1898
        sys.platform = 'posix'
1044
1899
        try:
 
1900
            if os.environ.get('LANG', None) is None:
 
1901
                # If LANG is not set, we end up with 'ascii', which is bad
 
1902
                # ('mac-roman' is more than ascii), so we set a default which
 
1903
                # will give us UTF-8 (which appears to work in all cases on
 
1904
                # OSX). Users are still free to override LANG of course, as
 
1905
                # long as it give us something meaningful. This work-around
 
1906
                # *may* not be needed with python 3k and/or OSX 10.5, but will
 
1907
                # work with them too -- vila 20080908
 
1908
                os.environ['LANG'] = 'en_US.UTF-8'
1045
1909
            import locale
1046
1910
        finally:
1047
1911
            sys.platform = 'darwin'
1049
1913
        import locale
1050
1914
 
1051
1915
    try:
1052
 
        _cached_user_encoding = locale.getpreferredencoding()
 
1916
        user_encoding = locale.getpreferredencoding()
1053
1917
    except locale.Error, e:
1054
1918
        sys.stderr.write('bzr: warning: %s\n'
1055
1919
                         '  Could not determine what text encoding to use.\n'
1057
1921
                         '  doesn\'t support the locale set by $LANG (%s)\n'
1058
1922
                         "  Continuing with ascii encoding.\n"
1059
1923
                         % (e, os.environ.get('LANG')))
1060
 
 
1061
 
    if _cached_user_encoding is None:
1062
 
        _cached_user_encoding = 'ascii'
1063
 
    return _cached_user_encoding
 
1924
        user_encoding = 'ascii'
 
1925
 
 
1926
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
 
1927
    # treat that as ASCII, and not support printing unicode characters to the
 
1928
    # console.
 
1929
    #
 
1930
    # For python scripts run under vim, we get '', so also treat that as ASCII
 
1931
    if user_encoding in (None, 'cp0', ''):
 
1932
        user_encoding = 'ascii'
 
1933
    else:
 
1934
        # check encoding
 
1935
        try:
 
1936
            codecs.lookup(user_encoding)
 
1937
        except LookupError:
 
1938
            sys.stderr.write('bzr: warning:'
 
1939
                             ' unknown encoding %s.'
 
1940
                             ' Continuing with ascii encoding.\n'
 
1941
                             % user_encoding
 
1942
                            )
 
1943
            user_encoding = 'ascii'
 
1944
 
 
1945
    if use_cache:
 
1946
        _cached_user_encoding = user_encoding
 
1947
 
 
1948
    return user_encoding
 
1949
 
 
1950
 
 
1951
def get_host_name():
 
1952
    """Return the current unicode host name.
 
1953
 
 
1954
    This is meant to be used in place of socket.gethostname() because that
 
1955
    behaves inconsistently on different platforms.
 
1956
    """
 
1957
    if sys.platform == "win32":
 
1958
        import win32utils
 
1959
        return win32utils.get_host_name()
 
1960
    else:
 
1961
        import socket
 
1962
        return socket.gethostname().decode(get_user_encoding())
 
1963
 
 
1964
 
 
1965
# We must not read/write any more than 64k at a time from/to a socket so we
 
1966
# don't risk "no buffer space available" errors on some platforms.  Windows in
 
1967
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
 
1968
# data at once.
 
1969
MAX_SOCKET_CHUNK = 64 * 1024
 
1970
 
 
1971
def read_bytes_from_socket(sock, report_activity=None,
 
1972
        max_read_size=MAX_SOCKET_CHUNK):
 
1973
    """Read up to max_read_size of bytes from sock and notify of progress.
 
1974
 
 
1975
    Translates "Connection reset by peer" into file-like EOF (return an
 
1976
    empty string rather than raise an error), and repeats the recv if
 
1977
    interrupted by a signal.
 
1978
    """
 
1979
    while 1:
 
1980
        try:
 
1981
            bytes = sock.recv(max_read_size)
 
1982
        except socket.error, e:
 
1983
            eno = e.args[0]
 
1984
            if eno == getattr(errno, "WSAECONNRESET", errno.ECONNRESET):
 
1985
                # The connection was closed by the other side.  Callers expect
 
1986
                # an empty string to signal end-of-stream.
 
1987
                return ""
 
1988
            elif eno == errno.EINTR:
 
1989
                # Retry the interrupted recv.
 
1990
                continue
 
1991
            raise
 
1992
        else:
 
1993
            if report_activity is not None:
 
1994
                report_activity(len(bytes), 'read')
 
1995
            return bytes
 
1996
 
 
1997
 
 
1998
def recv_all(socket, count):
 
1999
    """Receive an exact number of bytes.
 
2000
 
 
2001
    Regular Socket.recv() may return less than the requested number of bytes,
 
2002
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
2003
    on all platforms, but this should work everywhere.  This will return
 
2004
    less than the requested amount if the remote end closes.
 
2005
 
 
2006
    This isn't optimized and is intended mostly for use in testing.
 
2007
    """
 
2008
    b = ''
 
2009
    while len(b) < count:
 
2010
        new = read_bytes_from_socket(socket, None, count - len(b))
 
2011
        if new == '':
 
2012
            break # eof
 
2013
        b += new
 
2014
    return b
 
2015
 
 
2016
 
 
2017
def send_all(sock, bytes, report_activity=None):
 
2018
    """Send all bytes on a socket.
 
2019
 
 
2020
    Breaks large blocks in smaller chunks to avoid buffering limitations on
 
2021
    some platforms, and catches EINTR which may be thrown if the send is
 
2022
    interrupted by a signal.
 
2023
 
 
2024
    This is preferred to socket.sendall(), because it avoids portability bugs
 
2025
    and provides activity reporting.
 
2026
 
 
2027
    :param report_activity: Call this as bytes are read, see
 
2028
        Transport._report_activity
 
2029
    """
 
2030
    sent_total = 0
 
2031
    byte_count = len(bytes)
 
2032
    while sent_total < byte_count:
 
2033
        try:
 
2034
            sent = sock.send(buffer(bytes, sent_total, MAX_SOCKET_CHUNK))
 
2035
        except socket.error, e:
 
2036
            if e.args[0] != errno.EINTR:
 
2037
                raise
 
2038
        else:
 
2039
            sent_total += sent
 
2040
            report_activity(sent, 'write')
 
2041
 
 
2042
 
 
2043
def dereference_path(path):
 
2044
    """Determine the real path to a file.
 
2045
 
 
2046
    All parent elements are dereferenced.  But the file itself is not
 
2047
    dereferenced.
 
2048
    :param path: The original path.  May be absolute or relative.
 
2049
    :return: the real path *to* the file
 
2050
    """
 
2051
    parent, base = os.path.split(path)
 
2052
    # The pathjoin for '.' is a workaround for Python bug #1213894.
 
2053
    # (initial path components aren't dereferenced)
 
2054
    return pathjoin(realpath(pathjoin('.', parent)), base)
 
2055
 
 
2056
 
 
2057
def supports_mapi():
 
2058
    """Return True if we can use MAPI to launch a mail client."""
 
2059
    return sys.platform == "win32"
 
2060
 
 
2061
 
 
2062
def resource_string(package, resource_name):
 
2063
    """Load a resource from a package and return it as a string.
 
2064
 
 
2065
    Note: Only packages that start with bzrlib are currently supported.
 
2066
 
 
2067
    This is designed to be a lightweight implementation of resource
 
2068
    loading in a way which is API compatible with the same API from
 
2069
    pkg_resources. See
 
2070
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
 
2071
    If and when pkg_resources becomes a standard library, this routine
 
2072
    can delegate to it.
 
2073
    """
 
2074
    # Check package name is within bzrlib
 
2075
    if package == "bzrlib":
 
2076
        resource_relpath = resource_name
 
2077
    elif package.startswith("bzrlib."):
 
2078
        package = package[len("bzrlib."):].replace('.', os.sep)
 
2079
        resource_relpath = pathjoin(package, resource_name)
 
2080
    else:
 
2081
        raise errors.BzrError('resource package %s not in bzrlib' % package)
 
2082
 
 
2083
    # Map the resource to a file and read its contents
 
2084
    base = dirname(bzrlib.__file__)
 
2085
    if getattr(sys, 'frozen', None):    # bzr.exe
 
2086
        base = abspath(pathjoin(base, '..', '..'))
 
2087
    filename = pathjoin(base, resource_relpath)
 
2088
    return open(filename, 'rU').read()
 
2089
 
 
2090
 
 
2091
def file_kind_from_stat_mode_thunk(mode):
 
2092
    global file_kind_from_stat_mode
 
2093
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
 
2094
        try:
 
2095
            from bzrlib._readdir_pyx import UTF8DirReader
 
2096
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
 
2097
        except ImportError, e:
 
2098
            # This is one time where we won't warn that an extension failed to
 
2099
            # load. The extension is never available on Windows anyway.
 
2100
            from bzrlib._readdir_py import (
 
2101
                _kind_from_mode as file_kind_from_stat_mode
 
2102
                )
 
2103
    return file_kind_from_stat_mode(mode)
 
2104
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
 
2105
 
 
2106
 
 
2107
def file_kind(f, _lstat=os.lstat):
 
2108
    try:
 
2109
        return file_kind_from_stat_mode(_lstat(f).st_mode)
 
2110
    except OSError, e:
 
2111
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
2112
            raise errors.NoSuchFile(f)
 
2113
        raise
 
2114
 
 
2115
 
 
2116
def until_no_eintr(f, *a, **kw):
 
2117
    """Run f(*a, **kw), retrying if an EINTR error occurs.
 
2118
    
 
2119
    WARNING: you must be certain that it is safe to retry the call repeatedly
 
2120
    if EINTR does occur.  This is typically only true for low-level operations
 
2121
    like os.read.  If in any doubt, don't use this.
 
2122
 
 
2123
    Keep in mind that this is not a complete solution to EINTR.  There is
 
2124
    probably code in the Python standard library and other dependencies that
 
2125
    may encounter EINTR if a signal arrives (and there is signal handler for
 
2126
    that signal).  So this function can reduce the impact for IO that bzrlib
 
2127
    directly controls, but it is not a complete solution.
 
2128
    """
 
2129
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
 
2130
    while True:
 
2131
        try:
 
2132
            return f(*a, **kw)
 
2133
        except (IOError, OSError), e:
 
2134
            if e.errno == errno.EINTR:
 
2135
                continue
 
2136
            raise
 
2137
 
 
2138
 
 
2139
def re_compile_checked(re_string, flags=0, where=""):
 
2140
    """Return a compiled re, or raise a sensible error.
 
2141
 
 
2142
    This should only be used when compiling user-supplied REs.
 
2143
 
 
2144
    :param re_string: Text form of regular expression.
 
2145
    :param flags: eg re.IGNORECASE
 
2146
    :param where: Message explaining to the user the context where
 
2147
        it occurred, eg 'log search filter'.
 
2148
    """
 
2149
    # from https://bugs.launchpad.net/bzr/+bug/251352
 
2150
    try:
 
2151
        re_obj = re.compile(re_string, flags)
 
2152
        re_obj.search("")
 
2153
        return re_obj
 
2154
    except re.error, e:
 
2155
        if where:
 
2156
            where = ' in ' + where
 
2157
        # despite the name 'error' is a type
 
2158
        raise errors.BzrCommandError('Invalid regular expression%s: %r: %s'
 
2159
            % (where, re_string, e))
 
2160
 
 
2161
 
 
2162
if sys.platform == "win32":
 
2163
    import msvcrt
 
2164
    def getchar():
 
2165
        return msvcrt.getch()
 
2166
else:
 
2167
    import tty
 
2168
    import termios
 
2169
    def getchar():
 
2170
        fd = sys.stdin.fileno()
 
2171
        settings = termios.tcgetattr(fd)
 
2172
        try:
 
2173
            tty.setraw(fd)
 
2174
            ch = sys.stdin.read(1)
 
2175
        finally:
 
2176
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
 
2177
        return ch
 
2178
 
 
2179
 
 
2180
if sys.platform == 'linux2':
 
2181
    def _local_concurrency():
 
2182
        concurrency = None
 
2183
        prefix = 'processor'
 
2184
        for line in file('/proc/cpuinfo', 'rb'):
 
2185
            if line.startswith(prefix):
 
2186
                concurrency = int(line[line.find(':')+1:]) + 1
 
2187
        return concurrency
 
2188
elif sys.platform == 'darwin':
 
2189
    def _local_concurrency():
 
2190
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
 
2191
                                stdout=subprocess.PIPE).communicate()[0]
 
2192
elif sys.platform[0:7] == 'freebsd':
 
2193
    def _local_concurrency():
 
2194
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
 
2195
                                stdout=subprocess.PIPE).communicate()[0]
 
2196
elif sys.platform == 'sunos5':
 
2197
    def _local_concurrency():
 
2198
        return subprocess.Popen(['psrinfo', '-p',],
 
2199
                                stdout=subprocess.PIPE).communicate()[0]
 
2200
elif sys.platform == "win32":
 
2201
    def _local_concurrency():
 
2202
        # This appears to return the number of cores.
 
2203
        return os.environ.get('NUMBER_OF_PROCESSORS')
 
2204
else:
 
2205
    def _local_concurrency():
 
2206
        # Who knows ?
 
2207
        return None
 
2208
 
 
2209
 
 
2210
_cached_local_concurrency = None
 
2211
 
 
2212
def local_concurrency(use_cache=True):
 
2213
    """Return how many processes can be run concurrently.
 
2214
 
 
2215
    Rely on platform specific implementations and default to 1 (one) if
 
2216
    anything goes wrong.
 
2217
    """
 
2218
    global _cached_local_concurrency
 
2219
 
 
2220
    if _cached_local_concurrency is not None and use_cache:
 
2221
        return _cached_local_concurrency
 
2222
 
 
2223
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
 
2224
    if concurrency is None:
 
2225
        try:
 
2226
            concurrency = _local_concurrency()
 
2227
        except (OSError, IOError):
 
2228
            pass
 
2229
    try:
 
2230
        concurrency = int(concurrency)
 
2231
    except (TypeError, ValueError):
 
2232
        concurrency = 1
 
2233
    if use_cache:
 
2234
        _cached_concurrency = concurrency
 
2235
    return concurrency
 
2236
 
 
2237
 
 
2238
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
 
2239
    """A stream writer that doesn't decode str arguments."""
 
2240
 
 
2241
    def __init__(self, encode, stream, errors='strict'):
 
2242
        codecs.StreamWriter.__init__(self, stream, errors)
 
2243
        self.encode = encode
 
2244
 
 
2245
    def write(self, object):
 
2246
        if type(object) is str:
 
2247
            self.stream.write(object)
 
2248
        else:
 
2249
            data, _ = self.encode(object, self.errors)
 
2250
            self.stream.write(data)
 
2251
 
 
2252
if sys.platform == 'win32':
 
2253
    def open_file(filename, mode='r', bufsize=-1):
 
2254
        """This function is used to override the ``open`` builtin.
 
2255
        
 
2256
        But it uses O_NOINHERIT flag so the file handle is not inherited by
 
2257
        child processes.  Deleting or renaming a closed file opened with this
 
2258
        function is not blocking child processes.
 
2259
        """
 
2260
        writing = 'w' in mode
 
2261
        appending = 'a' in mode
 
2262
        updating = '+' in mode
 
2263
        binary = 'b' in mode
 
2264
 
 
2265
        flags = O_NOINHERIT
 
2266
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
 
2267
        # for flags for each modes.
 
2268
        if binary:
 
2269
            flags |= O_BINARY
 
2270
        else:
 
2271
            flags |= O_TEXT
 
2272
 
 
2273
        if writing:
 
2274
            if updating:
 
2275
                flags |= os.O_RDWR
 
2276
            else:
 
2277
                flags |= os.O_WRONLY
 
2278
            flags |= os.O_CREAT | os.O_TRUNC
 
2279
        elif appending:
 
2280
            if updating:
 
2281
                flags |= os.O_RDWR
 
2282
            else:
 
2283
                flags |= os.O_WRONLY
 
2284
            flags |= os.O_CREAT | os.O_APPEND
 
2285
        else: #reading
 
2286
            if updating:
 
2287
                flags |= os.O_RDWR
 
2288
            else:
 
2289
                flags |= os.O_RDONLY
 
2290
 
 
2291
        return os.fdopen(os.open(filename, flags), mode, bufsize)
 
2292
else:
 
2293
    open_file = open