/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Martin Pool
  • Date: 2010-04-28 07:03:38 UTC
  • mfrom: (5188 +trunk)
  • mto: This revision was merged to the branch mainline in revision 5189.
  • Revision ID: mbp@sourcefrog.net-20100428070338-2af8y3takgfkrkyp
merge news

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005-2010 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
import os
 
18
import re
 
19
import stat
 
20
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
21
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
 
22
import sys
 
23
import time
 
24
import codecs
 
25
import warnings
 
26
 
 
27
from bzrlib.lazy_import import lazy_import
 
28
lazy_import(globals(), """
 
29
from datetime import datetime
 
30
import errno
 
31
from ntpath import (abspath as _nt_abspath,
 
32
                    join as _nt_join,
 
33
                    normpath as _nt_normpath,
 
34
                    realpath as _nt_realpath,
 
35
                    splitdrive as _nt_splitdrive,
 
36
                    )
 
37
import posixpath
 
38
import shutil
 
39
from shutil import (
 
40
    rmtree,
 
41
    )
 
42
import socket
 
43
import subprocess
 
44
import tempfile
 
45
from tempfile import (
 
46
    mkdtemp,
 
47
    )
 
48
import unicodedata
 
49
 
 
50
from bzrlib import (
 
51
    cache_utf8,
 
52
    errors,
 
53
    trace,
 
54
    win32utils,
 
55
    )
 
56
""")
 
57
 
 
58
from bzrlib.symbol_versioning import (
 
59
    deprecated_function,
 
60
    deprecated_in,
 
61
    )
 
62
 
 
63
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
 
64
# of 2.5
 
65
if sys.version_info < (2, 5):
 
66
    import md5 as _mod_md5
 
67
    md5 = _mod_md5.new
 
68
    import sha as _mod_sha
 
69
    sha = _mod_sha.new
 
70
else:
 
71
    from hashlib import (
 
72
        md5,
 
73
        sha1 as sha,
 
74
        )
 
75
 
 
76
 
 
77
import bzrlib
 
78
from bzrlib import symbol_versioning
 
79
 
 
80
 
 
81
# Cross platform wall-clock time functionality with decent resolution.
 
82
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
 
83
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
 
84
# synchronized with ``time.time()``, this is only meant to be used to find
 
85
# delta times by subtracting from another call to this function.
 
86
timer_func = time.time
 
87
if sys.platform == 'win32':
 
88
    timer_func = time.clock
 
89
 
 
90
# On win32, O_BINARY is used to indicate the file should
 
91
# be opened in binary mode, rather than text mode.
 
92
# On other platforms, O_BINARY doesn't exist, because
 
93
# they always open in binary mode, so it is okay to
 
94
# OR with 0 on those platforms.
 
95
# O_NOINHERIT and O_TEXT exists only on win32 too.
 
96
O_BINARY = getattr(os, 'O_BINARY', 0)
 
97
O_TEXT = getattr(os, 'O_TEXT', 0)
 
98
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
 
99
 
 
100
 
 
101
def get_unicode_argv():
 
102
    try:
 
103
        user_encoding = get_user_encoding()
 
104
        return [a.decode(user_encoding) for a in sys.argv[1:]]
 
105
    except UnicodeDecodeError:
 
106
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
 
107
                                                            "encoding." % a))
 
108
 
 
109
 
 
110
def make_readonly(filename):
 
111
    """Make a filename read-only."""
 
112
    mod = os.lstat(filename).st_mode
 
113
    if not stat.S_ISLNK(mod):
 
114
        mod = mod & 0777555
 
115
        os.chmod(filename, mod)
 
116
 
 
117
 
 
118
def make_writable(filename):
 
119
    mod = os.lstat(filename).st_mode
 
120
    if not stat.S_ISLNK(mod):
 
121
        mod = mod | 0200
 
122
        os.chmod(filename, mod)
 
123
 
 
124
 
 
125
def minimum_path_selection(paths):
 
126
    """Return the smallset subset of paths which are outside paths.
 
127
 
 
128
    :param paths: A container (and hence not None) of paths.
 
129
    :return: A set of paths sufficient to include everything in paths via
 
130
        is_inside, drawn from the paths parameter.
 
131
    """
 
132
    if len(paths) < 2:
 
133
        return set(paths)
 
134
 
 
135
    def sort_key(path):
 
136
        return path.split('/')
 
137
    sorted_paths = sorted(list(paths), key=sort_key)
 
138
 
 
139
    search_paths = [sorted_paths[0]]
 
140
    for path in sorted_paths[1:]:
 
141
        if not is_inside(search_paths[-1], path):
 
142
            # This path is unique, add it
 
143
            search_paths.append(path)
 
144
 
 
145
    return set(search_paths)
 
146
 
 
147
 
 
148
_QUOTE_RE = None
 
149
 
 
150
 
 
151
def quotefn(f):
 
152
    """Return a quoted filename filename
 
153
 
 
154
    This previously used backslash quoting, but that works poorly on
 
155
    Windows."""
 
156
    # TODO: I'm not really sure this is the best format either.x
 
157
    global _QUOTE_RE
 
158
    if _QUOTE_RE is None:
 
159
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
 
160
 
 
161
    if _QUOTE_RE.search(f):
 
162
        return '"' + f + '"'
 
163
    else:
 
164
        return f
 
165
 
 
166
 
 
167
_directory_kind = 'directory'
 
168
 
 
169
def get_umask():
 
170
    """Return the current umask"""
 
171
    # Assume that people aren't messing with the umask while running
 
172
    # XXX: This is not thread safe, but there is no way to get the
 
173
    #      umask without setting it
 
174
    umask = os.umask(0)
 
175
    os.umask(umask)
 
176
    return umask
 
177
 
 
178
 
 
179
_kind_marker_map = {
 
180
    "file": "",
 
181
    _directory_kind: "/",
 
182
    "symlink": "@",
 
183
    'tree-reference': '+',
 
184
}
 
185
 
 
186
 
 
187
def kind_marker(kind):
 
188
    try:
 
189
        return _kind_marker_map[kind]
 
190
    except KeyError:
 
191
        # Slightly faster than using .get(, '') when the common case is that
 
192
        # kind will be found
 
193
        return ''
 
194
 
 
195
 
 
196
lexists = getattr(os.path, 'lexists', None)
 
197
if lexists is None:
 
198
    def lexists(f):
 
199
        try:
 
200
            stat = getattr(os, 'lstat', os.stat)
 
201
            stat(f)
 
202
            return True
 
203
        except OSError, e:
 
204
            if e.errno == errno.ENOENT:
 
205
                return False;
 
206
            else:
 
207
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
 
208
 
 
209
 
 
210
def fancy_rename(old, new, rename_func, unlink_func):
 
211
    """A fancy rename, when you don't have atomic rename.
 
212
 
 
213
    :param old: The old path, to rename from
 
214
    :param new: The new path, to rename to
 
215
    :param rename_func: The potentially non-atomic rename function
 
216
    :param unlink_func: A way to delete the target file if the full rename
 
217
        succeeds
 
218
    """
 
219
    # sftp rename doesn't allow overwriting, so play tricks:
 
220
    base = os.path.basename(new)
 
221
    dirname = os.path.dirname(new)
 
222
    # callers use different encodings for the paths so the following MUST
 
223
    # respect that. We rely on python upcasting to unicode if new is unicode
 
224
    # and keeping a str if not.
 
225
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
 
226
                                      os.getpid(), rand_chars(10))
 
227
    tmp_name = pathjoin(dirname, tmp_name)
 
228
 
 
229
    # Rename the file out of the way, but keep track if it didn't exist
 
230
    # We don't want to grab just any exception
 
231
    # something like EACCES should prevent us from continuing
 
232
    # The downside is that the rename_func has to throw an exception
 
233
    # with an errno = ENOENT, or NoSuchFile
 
234
    file_existed = False
 
235
    try:
 
236
        rename_func(new, tmp_name)
 
237
    except (errors.NoSuchFile,), e:
 
238
        pass
 
239
    except IOError, e:
 
240
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
 
241
        # function raises an IOError with errno is None when a rename fails.
 
242
        # This then gets caught here.
 
243
        if e.errno not in (None, errno.ENOENT, errno.ENOTDIR):
 
244
            raise
 
245
    except Exception, e:
 
246
        if (getattr(e, 'errno', None) is None
 
247
            or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
 
248
            raise
 
249
    else:
 
250
        file_existed = True
 
251
 
 
252
    failure_exc = None
 
253
    success = False
 
254
    try:
 
255
        try:
 
256
            # This may throw an exception, in which case success will
 
257
            # not be set.
 
258
            rename_func(old, new)
 
259
            success = True
 
260
        except (IOError, OSError), e:
 
261
            # source and target may be aliases of each other (e.g. on a
 
262
            # case-insensitive filesystem), so we may have accidentally renamed
 
263
            # source by when we tried to rename target
 
264
            failure_exc = sys.exc_info()
 
265
            if (file_existed and e.errno in (None, errno.ENOENT)
 
266
                and old.lower() == new.lower()):
 
267
                # source and target are the same file on a case-insensitive
 
268
                # filesystem, so we don't generate an exception
 
269
                failure_exc = None
 
270
    finally:
 
271
        if file_existed:
 
272
            # If the file used to exist, rename it back into place
 
273
            # otherwise just delete it from the tmp location
 
274
            if success:
 
275
                unlink_func(tmp_name)
 
276
            else:
 
277
                rename_func(tmp_name, new)
 
278
    if failure_exc is not None:
 
279
        raise failure_exc[0], failure_exc[1], failure_exc[2]
 
280
 
 
281
 
 
282
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
 
283
# choke on a Unicode string containing a relative path if
 
284
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
 
285
# string.
 
286
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
 
287
def _posix_abspath(path):
 
288
    # jam 20060426 rather than encoding to fsencoding
 
289
    # copy posixpath.abspath, but use os.getcwdu instead
 
290
    if not posixpath.isabs(path):
 
291
        path = posixpath.join(getcwd(), path)
 
292
    return posixpath.normpath(path)
 
293
 
 
294
 
 
295
def _posix_realpath(path):
 
296
    return posixpath.realpath(path.encode(_fs_enc)).decode(_fs_enc)
 
297
 
 
298
 
 
299
def _win32_fixdrive(path):
 
300
    """Force drive letters to be consistent.
 
301
 
 
302
    win32 is inconsistent whether it returns lower or upper case
 
303
    and even if it was consistent the user might type the other
 
304
    so we force it to uppercase
 
305
    running python.exe under cmd.exe return capital C:\\
 
306
    running win32 python inside a cygwin shell returns lowercase c:\\
 
307
    """
 
308
    drive, path = _nt_splitdrive(path)
 
309
    return drive.upper() + path
 
310
 
 
311
 
 
312
def _win32_abspath(path):
 
313
    # Real _nt_abspath doesn't have a problem with a unicode cwd
 
314
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
 
315
 
 
316
 
 
317
def _win98_abspath(path):
 
318
    """Return the absolute version of a path.
 
319
    Windows 98 safe implementation (python reimplementation
 
320
    of Win32 API function GetFullPathNameW)
 
321
    """
 
322
    # Corner cases:
 
323
    #   C:\path     => C:/path
 
324
    #   C:/path     => C:/path
 
325
    #   \\HOST\path => //HOST/path
 
326
    #   //HOST/path => //HOST/path
 
327
    #   path        => C:/cwd/path
 
328
    #   /path       => C:/path
 
329
    path = unicode(path)
 
330
    # check for absolute path
 
331
    drive = _nt_splitdrive(path)[0]
 
332
    if drive == '' and path[:2] not in('//','\\\\'):
 
333
        cwd = os.getcwdu()
 
334
        # we cannot simply os.path.join cwd and path
 
335
        # because os.path.join('C:','/path') produce '/path'
 
336
        # and this is incorrect
 
337
        if path[:1] in ('/','\\'):
 
338
            cwd = _nt_splitdrive(cwd)[0]
 
339
            path = path[1:]
 
340
        path = cwd + '\\' + path
 
341
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
 
342
 
 
343
 
 
344
def _win32_realpath(path):
 
345
    # Real _nt_realpath doesn't have a problem with a unicode cwd
 
346
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
 
347
 
 
348
 
 
349
def _win32_pathjoin(*args):
 
350
    return _nt_join(*args).replace('\\', '/')
 
351
 
 
352
 
 
353
def _win32_normpath(path):
 
354
    return _win32_fixdrive(_nt_normpath(unicode(path)).replace('\\', '/'))
 
355
 
 
356
 
 
357
def _win32_getcwd():
 
358
    return _win32_fixdrive(os.getcwdu().replace('\\', '/'))
 
359
 
 
360
 
 
361
def _win32_mkdtemp(*args, **kwargs):
 
362
    return _win32_fixdrive(tempfile.mkdtemp(*args, **kwargs).replace('\\', '/'))
 
363
 
 
364
 
 
365
def _win32_rename(old, new):
 
366
    """We expect to be able to atomically replace 'new' with old.
 
367
 
 
368
    On win32, if new exists, it must be moved out of the way first,
 
369
    and then deleted.
 
370
    """
 
371
    try:
 
372
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
 
373
    except OSError, e:
 
374
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
 
375
            # If we try to rename a non-existant file onto cwd, we get
 
376
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
377
            # if the old path doesn't exist, sometimes we get EACCES
 
378
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
 
379
            os.lstat(old)
 
380
        raise
 
381
 
 
382
 
 
383
def _mac_getcwd():
 
384
    return unicodedata.normalize('NFC', os.getcwdu())
 
385
 
 
386
 
 
387
# Default is to just use the python builtins, but these can be rebound on
 
388
# particular platforms.
 
389
abspath = _posix_abspath
 
390
realpath = _posix_realpath
 
391
pathjoin = os.path.join
 
392
normpath = os.path.normpath
 
393
getcwd = os.getcwdu
 
394
rename = os.rename
 
395
dirname = os.path.dirname
 
396
basename = os.path.basename
 
397
split = os.path.split
 
398
splitext = os.path.splitext
 
399
# These were already imported into local scope
 
400
# mkdtemp = tempfile.mkdtemp
 
401
# rmtree = shutil.rmtree
 
402
 
 
403
MIN_ABS_PATHLENGTH = 1
 
404
 
 
405
 
 
406
if sys.platform == 'win32':
 
407
    if win32utils.winver == 'Windows 98':
 
408
        abspath = _win98_abspath
 
409
    else:
 
410
        abspath = _win32_abspath
 
411
    realpath = _win32_realpath
 
412
    pathjoin = _win32_pathjoin
 
413
    normpath = _win32_normpath
 
414
    getcwd = _win32_getcwd
 
415
    mkdtemp = _win32_mkdtemp
 
416
    rename = _win32_rename
 
417
 
 
418
    MIN_ABS_PATHLENGTH = 3
 
419
 
 
420
    def _win32_delete_readonly(function, path, excinfo):
 
421
        """Error handler for shutil.rmtree function [for win32]
 
422
        Helps to remove files and dirs marked as read-only.
 
423
        """
 
424
        exception = excinfo[1]
 
425
        if function in (os.remove, os.rmdir) \
 
426
            and isinstance(exception, OSError) \
 
427
            and exception.errno == errno.EACCES:
 
428
            make_writable(path)
 
429
            function(path)
 
430
        else:
 
431
            raise
 
432
 
 
433
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
 
434
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
 
435
        return shutil.rmtree(path, ignore_errors, onerror)
 
436
 
 
437
    f = win32utils.get_unicode_argv     # special function or None
 
438
    if f is not None:
 
439
        get_unicode_argv = f
 
440
 
 
441
elif sys.platform == 'darwin':
 
442
    getcwd = _mac_getcwd
 
443
 
 
444
 
 
445
def get_terminal_encoding():
 
446
    """Find the best encoding for printing to the screen.
 
447
 
 
448
    This attempts to check both sys.stdout and sys.stdin to see
 
449
    what encoding they are in, and if that fails it falls back to
 
450
    osutils.get_user_encoding().
 
451
    The problem is that on Windows, locale.getpreferredencoding()
 
452
    is not the same encoding as that used by the console:
 
453
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
 
454
 
 
455
    On my standard US Windows XP, the preferred encoding is
 
456
    cp1252, but the console is cp437
 
457
    """
 
458
    from bzrlib.trace import mutter
 
459
    output_encoding = getattr(sys.stdout, 'encoding', None)
 
460
    if not output_encoding:
 
461
        input_encoding = getattr(sys.stdin, 'encoding', None)
 
462
        if not input_encoding:
 
463
            output_encoding = get_user_encoding()
 
464
            mutter('encoding stdout as osutils.get_user_encoding() %r',
 
465
                   output_encoding)
 
466
        else:
 
467
            output_encoding = input_encoding
 
468
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
 
469
    else:
 
470
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
471
    if output_encoding == 'cp0':
 
472
        # invalid encoding (cp0 means 'no codepage' on Windows)
 
473
        output_encoding = get_user_encoding()
 
474
        mutter('cp0 is invalid encoding.'
 
475
               ' encoding stdout as osutils.get_user_encoding() %r',
 
476
               output_encoding)
 
477
    # check encoding
 
478
    try:
 
479
        codecs.lookup(output_encoding)
 
480
    except LookupError:
 
481
        sys.stderr.write('bzr: warning:'
 
482
                         ' unknown terminal encoding %s.\n'
 
483
                         '  Using encoding %s instead.\n'
 
484
                         % (output_encoding, get_user_encoding())
 
485
                        )
 
486
        output_encoding = get_user_encoding()
 
487
 
 
488
    return output_encoding
 
489
 
 
490
 
 
491
def normalizepath(f):
 
492
    if getattr(os.path, 'realpath', None) is not None:
 
493
        F = realpath
 
494
    else:
 
495
        F = abspath
 
496
    [p,e] = os.path.split(f)
 
497
    if e == "" or e == "." or e == "..":
 
498
        return F(f)
 
499
    else:
 
500
        return pathjoin(F(p), e)
 
501
 
 
502
 
 
503
def isdir(f):
 
504
    """True if f is an accessible directory."""
 
505
    try:
 
506
        return S_ISDIR(os.lstat(f)[ST_MODE])
 
507
    except OSError:
 
508
        return False
 
509
 
 
510
 
 
511
def isfile(f):
 
512
    """True if f is a regular file."""
 
513
    try:
 
514
        return S_ISREG(os.lstat(f)[ST_MODE])
 
515
    except OSError:
 
516
        return False
 
517
 
 
518
def islink(f):
 
519
    """True if f is a symlink."""
 
520
    try:
 
521
        return S_ISLNK(os.lstat(f)[ST_MODE])
 
522
    except OSError:
 
523
        return False
 
524
 
 
525
def is_inside(dir, fname):
 
526
    """True if fname is inside dir.
 
527
 
 
528
    The parameters should typically be passed to osutils.normpath first, so
 
529
    that . and .. and repeated slashes are eliminated, and the separators
 
530
    are canonical for the platform.
 
531
 
 
532
    The empty string as a dir name is taken as top-of-tree and matches
 
533
    everything.
 
534
    """
 
535
    # XXX: Most callers of this can actually do something smarter by
 
536
    # looking at the inventory
 
537
    if dir == fname:
 
538
        return True
 
539
 
 
540
    if dir == '':
 
541
        return True
 
542
 
 
543
    if dir[-1] != '/':
 
544
        dir += '/'
 
545
 
 
546
    return fname.startswith(dir)
 
547
 
 
548
 
 
549
def is_inside_any(dir_list, fname):
 
550
    """True if fname is inside any of given dirs."""
 
551
    for dirname in dir_list:
 
552
        if is_inside(dirname, fname):
 
553
            return True
 
554
    return False
 
555
 
 
556
 
 
557
def is_inside_or_parent_of_any(dir_list, fname):
 
558
    """True if fname is a child or a parent of any of the given files."""
 
559
    for dirname in dir_list:
 
560
        if is_inside(dirname, fname) or is_inside(fname, dirname):
 
561
            return True
 
562
    return False
 
563
 
 
564
 
 
565
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
 
566
             report_activity=None, direction='read'):
 
567
    """Copy contents of one file to another.
 
568
 
 
569
    The read_length can either be -1 to read to end-of-file (EOF) or
 
570
    it can specify the maximum number of bytes to read.
 
571
 
 
572
    The buff_size represents the maximum size for each read operation
 
573
    performed on from_file.
 
574
 
 
575
    :param report_activity: Call this as bytes are read, see
 
576
        Transport._report_activity
 
577
    :param direction: Will be passed to report_activity
 
578
 
 
579
    :return: The number of bytes copied.
 
580
    """
 
581
    length = 0
 
582
    if read_length >= 0:
 
583
        # read specified number of bytes
 
584
 
 
585
        while read_length > 0:
 
586
            num_bytes_to_read = min(read_length, buff_size)
 
587
 
 
588
            block = from_file.read(num_bytes_to_read)
 
589
            if not block:
 
590
                # EOF reached
 
591
                break
 
592
            if report_activity is not None:
 
593
                report_activity(len(block), direction)
 
594
            to_file.write(block)
 
595
 
 
596
            actual_bytes_read = len(block)
 
597
            read_length -= actual_bytes_read
 
598
            length += actual_bytes_read
 
599
    else:
 
600
        # read to EOF
 
601
        while True:
 
602
            block = from_file.read(buff_size)
 
603
            if not block:
 
604
                # EOF reached
 
605
                break
 
606
            if report_activity is not None:
 
607
                report_activity(len(block), direction)
 
608
            to_file.write(block)
 
609
            length += len(block)
 
610
    return length
 
611
 
 
612
 
 
613
def pump_string_file(bytes, file_handle, segment_size=None):
 
614
    """Write bytes to file_handle in many smaller writes.
 
615
 
 
616
    :param bytes: The string to write.
 
617
    :param file_handle: The file to write to.
 
618
    """
 
619
    # Write data in chunks rather than all at once, because very large
 
620
    # writes fail on some platforms (e.g. Windows with SMB  mounted
 
621
    # drives).
 
622
    if not segment_size:
 
623
        segment_size = 5242880 # 5MB
 
624
    segments = range(len(bytes) / segment_size + 1)
 
625
    write = file_handle.write
 
626
    for segment_index in segments:
 
627
        segment = buffer(bytes, segment_index * segment_size, segment_size)
 
628
        write(segment)
 
629
 
 
630
 
 
631
def file_iterator(input_file, readsize=32768):
 
632
    while True:
 
633
        b = input_file.read(readsize)
 
634
        if len(b) == 0:
 
635
            break
 
636
        yield b
 
637
 
 
638
 
 
639
def sha_file(f):
 
640
    """Calculate the hexdigest of an open file.
 
641
 
 
642
    The file cursor should be already at the start.
 
643
    """
 
644
    s = sha()
 
645
    BUFSIZE = 128<<10
 
646
    while True:
 
647
        b = f.read(BUFSIZE)
 
648
        if not b:
 
649
            break
 
650
        s.update(b)
 
651
    return s.hexdigest()
 
652
 
 
653
 
 
654
def size_sha_file(f):
 
655
    """Calculate the size and hexdigest of an open file.
 
656
 
 
657
    The file cursor should be already at the start and
 
658
    the caller is responsible for closing the file afterwards.
 
659
    """
 
660
    size = 0
 
661
    s = sha()
 
662
    BUFSIZE = 128<<10
 
663
    while True:
 
664
        b = f.read(BUFSIZE)
 
665
        if not b:
 
666
            break
 
667
        size += len(b)
 
668
        s.update(b)
 
669
    return size, s.hexdigest()
 
670
 
 
671
 
 
672
def sha_file_by_name(fname):
 
673
    """Calculate the SHA1 of a file by reading the full text"""
 
674
    s = sha()
 
675
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
 
676
    try:
 
677
        while True:
 
678
            b = os.read(f, 1<<16)
 
679
            if not b:
 
680
                return s.hexdigest()
 
681
            s.update(b)
 
682
    finally:
 
683
        os.close(f)
 
684
 
 
685
 
 
686
def sha_strings(strings, _factory=sha):
 
687
    """Return the sha-1 of concatenation of strings"""
 
688
    s = _factory()
 
689
    map(s.update, strings)
 
690
    return s.hexdigest()
 
691
 
 
692
 
 
693
def sha_string(f, _factory=sha):
 
694
    return _factory(f).hexdigest()
 
695
 
 
696
 
 
697
def fingerprint_file(f):
 
698
    b = f.read()
 
699
    return {'size': len(b),
 
700
            'sha1': sha(b).hexdigest()}
 
701
 
 
702
 
 
703
def compare_files(a, b):
 
704
    """Returns true if equal in contents"""
 
705
    BUFSIZE = 4096
 
706
    while True:
 
707
        ai = a.read(BUFSIZE)
 
708
        bi = b.read(BUFSIZE)
 
709
        if ai != bi:
 
710
            return False
 
711
        if ai == '':
 
712
            return True
 
713
 
 
714
 
 
715
def local_time_offset(t=None):
 
716
    """Return offset of local zone from GMT, either at present or at time t."""
 
717
    if t is None:
 
718
        t = time.time()
 
719
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
 
720
    return offset.days * 86400 + offset.seconds
 
721
 
 
722
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
 
723
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
 
724
 
 
725
 
 
726
def format_date(t, offset=0, timezone='original', date_fmt=None,
 
727
                show_offset=True):
 
728
    """Return a formatted date string.
 
729
 
 
730
    :param t: Seconds since the epoch.
 
731
    :param offset: Timezone offset in seconds east of utc.
 
732
    :param timezone: How to display the time: 'utc', 'original' for the
 
733
         timezone specified by offset, or 'local' for the process's current
 
734
         timezone.
 
735
    :param date_fmt: strftime format.
 
736
    :param show_offset: Whether to append the timezone.
 
737
    """
 
738
    (date_fmt, tt, offset_str) = \
 
739
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
740
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
741
    date_str = time.strftime(date_fmt, tt)
 
742
    return date_str + offset_str
 
743
 
 
744
 
 
745
# Cache of formatted offset strings
 
746
_offset_cache = {}
 
747
 
 
748
 
 
749
def format_date_with_offset_in_original_timezone(t, offset=0,
 
750
    _cache=_offset_cache):
 
751
    """Return a formatted date string in the original timezone.
 
752
 
 
753
    This routine may be faster then format_date.
 
754
 
 
755
    :param t: Seconds since the epoch.
 
756
    :param offset: Timezone offset in seconds east of utc.
 
757
    """
 
758
    if offset is None:
 
759
        offset = 0
 
760
    tt = time.gmtime(t + offset)
 
761
    date_fmt = _default_format_by_weekday_num[tt[6]]
 
762
    date_str = time.strftime(date_fmt, tt)
 
763
    offset_str = _cache.get(offset, None)
 
764
    if offset_str is None:
 
765
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
 
766
        _cache[offset] = offset_str
 
767
    return date_str + offset_str
 
768
 
 
769
 
 
770
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
 
771
                      show_offset=True):
 
772
    """Return an unicode date string formatted according to the current locale.
 
773
 
 
774
    :param t: Seconds since the epoch.
 
775
    :param offset: Timezone offset in seconds east of utc.
 
776
    :param timezone: How to display the time: 'utc', 'original' for the
 
777
         timezone specified by offset, or 'local' for the process's current
 
778
         timezone.
 
779
    :param date_fmt: strftime format.
 
780
    :param show_offset: Whether to append the timezone.
 
781
    """
 
782
    (date_fmt, tt, offset_str) = \
 
783
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
784
    date_str = time.strftime(date_fmt, tt)
 
785
    if not isinstance(date_str, unicode):
 
786
        date_str = date_str.decode(get_user_encoding(), 'replace')
 
787
    return date_str + offset_str
 
788
 
 
789
 
 
790
def _format_date(t, offset, timezone, date_fmt, show_offset):
 
791
    if timezone == 'utc':
 
792
        tt = time.gmtime(t)
 
793
        offset = 0
 
794
    elif timezone == 'original':
 
795
        if offset is None:
 
796
            offset = 0
 
797
        tt = time.gmtime(t + offset)
 
798
    elif timezone == 'local':
 
799
        tt = time.localtime(t)
 
800
        offset = local_time_offset(t)
 
801
    else:
 
802
        raise errors.UnsupportedTimezoneFormat(timezone)
 
803
    if date_fmt is None:
 
804
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
 
805
    if show_offset:
 
806
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
 
807
    else:
 
808
        offset_str = ''
 
809
    return (date_fmt, tt, offset_str)
 
810
 
 
811
 
 
812
def compact_date(when):
 
813
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
 
814
 
 
815
 
 
816
def format_delta(delta):
 
817
    """Get a nice looking string for a time delta.
 
818
 
 
819
    :param delta: The time difference in seconds, can be positive or negative.
 
820
        positive indicates time in the past, negative indicates time in the
 
821
        future. (usually time.time() - stored_time)
 
822
    :return: String formatted to show approximate resolution
 
823
    """
 
824
    delta = int(delta)
 
825
    if delta >= 0:
 
826
        direction = 'ago'
 
827
    else:
 
828
        direction = 'in the future'
 
829
        delta = -delta
 
830
 
 
831
    seconds = delta
 
832
    if seconds < 90: # print seconds up to 90 seconds
 
833
        if seconds == 1:
 
834
            return '%d second %s' % (seconds, direction,)
 
835
        else:
 
836
            return '%d seconds %s' % (seconds, direction)
 
837
 
 
838
    minutes = int(seconds / 60)
 
839
    seconds -= 60 * minutes
 
840
    if seconds == 1:
 
841
        plural_seconds = ''
 
842
    else:
 
843
        plural_seconds = 's'
 
844
    if minutes < 90: # print minutes, seconds up to 90 minutes
 
845
        if minutes == 1:
 
846
            return '%d minute, %d second%s %s' % (
 
847
                    minutes, seconds, plural_seconds, direction)
 
848
        else:
 
849
            return '%d minutes, %d second%s %s' % (
 
850
                    minutes, seconds, plural_seconds, direction)
 
851
 
 
852
    hours = int(minutes / 60)
 
853
    minutes -= 60 * hours
 
854
    if minutes == 1:
 
855
        plural_minutes = ''
 
856
    else:
 
857
        plural_minutes = 's'
 
858
 
 
859
    if hours == 1:
 
860
        return '%d hour, %d minute%s %s' % (hours, minutes,
 
861
                                            plural_minutes, direction)
 
862
    return '%d hours, %d minute%s %s' % (hours, minutes,
 
863
                                         plural_minutes, direction)
 
864
 
 
865
def filesize(f):
 
866
    """Return size of given open file."""
 
867
    return os.fstat(f.fileno())[ST_SIZE]
 
868
 
 
869
 
 
870
# Define rand_bytes based on platform.
 
871
try:
 
872
    # Python 2.4 and later have os.urandom,
 
873
    # but it doesn't work on some arches
 
874
    os.urandom(1)
 
875
    rand_bytes = os.urandom
 
876
except (NotImplementedError, AttributeError):
 
877
    # If python doesn't have os.urandom, or it doesn't work,
 
878
    # then try to first pull random data from /dev/urandom
 
879
    try:
 
880
        rand_bytes = file('/dev/urandom', 'rb').read
 
881
    # Otherwise, use this hack as a last resort
 
882
    except (IOError, OSError):
 
883
        # not well seeded, but better than nothing
 
884
        def rand_bytes(n):
 
885
            import random
 
886
            s = ''
 
887
            while n:
 
888
                s += chr(random.randint(0, 255))
 
889
                n -= 1
 
890
            return s
 
891
 
 
892
 
 
893
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
 
894
def rand_chars(num):
 
895
    """Return a random string of num alphanumeric characters
 
896
 
 
897
    The result only contains lowercase chars because it may be used on
 
898
    case-insensitive filesystems.
 
899
    """
 
900
    s = ''
 
901
    for raw_byte in rand_bytes(num):
 
902
        s += ALNUM[ord(raw_byte) % 36]
 
903
    return s
 
904
 
 
905
 
 
906
## TODO: We could later have path objects that remember their list
 
907
## decomposition (might be too tricksy though.)
 
908
 
 
909
def splitpath(p):
 
910
    """Turn string into list of parts."""
 
911
    # split on either delimiter because people might use either on
 
912
    # Windows
 
913
    ps = re.split(r'[\\/]', p)
 
914
 
 
915
    rps = []
 
916
    for f in ps:
 
917
        if f == '..':
 
918
            raise errors.BzrError("sorry, %r not allowed in path" % f)
 
919
        elif (f == '.') or (f == ''):
 
920
            pass
 
921
        else:
 
922
            rps.append(f)
 
923
    return rps
 
924
 
 
925
 
 
926
def joinpath(p):
 
927
    for f in p:
 
928
        if (f == '..') or (f is None) or (f == ''):
 
929
            raise errors.BzrError("sorry, %r not allowed in path" % f)
 
930
    return pathjoin(*p)
 
931
 
 
932
 
 
933
def parent_directories(filename):
 
934
    """Return the list of parent directories, deepest first.
 
935
    
 
936
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
 
937
    """
 
938
    parents = []
 
939
    parts = splitpath(dirname(filename))
 
940
    while parts:
 
941
        parents.append(joinpath(parts))
 
942
        parts.pop()
 
943
    return parents
 
944
 
 
945
 
 
946
_extension_load_failures = []
 
947
 
 
948
 
 
949
def failed_to_load_extension(exception):
 
950
    """Handle failing to load a binary extension.
 
951
 
 
952
    This should be called from the ImportError block guarding the attempt to
 
953
    import the native extension.  If this function returns, the pure-Python
 
954
    implementation should be loaded instead::
 
955
 
 
956
    >>> try:
 
957
    >>>     import bzrlib._fictional_extension_pyx
 
958
    >>> except ImportError, e:
 
959
    >>>     bzrlib.osutils.failed_to_load_extension(e)
 
960
    >>>     import bzrlib._fictional_extension_py
 
961
    """
 
962
    # NB: This docstring is just an example, not a doctest, because doctest
 
963
    # currently can't cope with the use of lazy imports in this namespace --
 
964
    # mbp 20090729
 
965
    
 
966
    # This currently doesn't report the failure at the time it occurs, because
 
967
    # they tend to happen very early in startup when we can't check config
 
968
    # files etc, and also we want to report all failures but not spam the user
 
969
    # with 10 warnings.
 
970
    from bzrlib import trace
 
971
    exception_str = str(exception)
 
972
    if exception_str not in _extension_load_failures:
 
973
        trace.mutter("failed to load compiled extension: %s" % exception_str)
 
974
        _extension_load_failures.append(exception_str)
 
975
 
 
976
 
 
977
def report_extension_load_failures():
 
978
    if not _extension_load_failures:
 
979
        return
 
980
    from bzrlib.config import GlobalConfig
 
981
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
 
982
        return
 
983
    # the warnings framework should by default show this only once
 
984
    from bzrlib.trace import warning
 
985
    warning(
 
986
        "bzr: warning: some compiled extensions could not be loaded; "
 
987
        "see <https://answers.launchpad.net/bzr/+faq/703>")
 
988
    # we no longer show the specific missing extensions here, because it makes
 
989
    # the message too long and scary - see
 
990
    # https://bugs.launchpad.net/bzr/+bug/430529
 
991
 
 
992
 
 
993
try:
 
994
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
 
995
except ImportError, e:
 
996
    failed_to_load_extension(e)
 
997
    from bzrlib._chunks_to_lines_py import chunks_to_lines
 
998
 
 
999
 
 
1000
def split_lines(s):
 
1001
    """Split s into lines, but without removing the newline characters."""
 
1002
    # Trivially convert a fulltext into a 'chunked' representation, and let
 
1003
    # chunks_to_lines do the heavy lifting.
 
1004
    if isinstance(s, str):
 
1005
        # chunks_to_lines only supports 8-bit strings
 
1006
        return chunks_to_lines([s])
 
1007
    else:
 
1008
        return _split_lines(s)
 
1009
 
 
1010
 
 
1011
def _split_lines(s):
 
1012
    """Split s into lines, but without removing the newline characters.
 
1013
 
 
1014
    This supports Unicode or plain string objects.
 
1015
    """
 
1016
    lines = s.split('\n')
 
1017
    result = [line + '\n' for line in lines[:-1]]
 
1018
    if lines[-1]:
 
1019
        result.append(lines[-1])
 
1020
    return result
 
1021
 
 
1022
 
 
1023
def hardlinks_good():
 
1024
    return sys.platform not in ('win32', 'cygwin', 'darwin')
 
1025
 
 
1026
 
 
1027
def link_or_copy(src, dest):
 
1028
    """Hardlink a file, or copy it if it can't be hardlinked."""
 
1029
    if not hardlinks_good():
 
1030
        shutil.copyfile(src, dest)
 
1031
        return
 
1032
    try:
 
1033
        os.link(src, dest)
 
1034
    except (OSError, IOError), e:
 
1035
        if e.errno != errno.EXDEV:
 
1036
            raise
 
1037
        shutil.copyfile(src, dest)
 
1038
 
 
1039
 
 
1040
def delete_any(path):
 
1041
    """Delete a file, symlink or directory.  
 
1042
    
 
1043
    Will delete even if readonly.
 
1044
    """
 
1045
    try:
 
1046
       _delete_file_or_dir(path)
 
1047
    except (OSError, IOError), e:
 
1048
        if e.errno in (errno.EPERM, errno.EACCES):
 
1049
            # make writable and try again
 
1050
            try:
 
1051
                make_writable(path)
 
1052
            except (OSError, IOError):
 
1053
                pass
 
1054
            _delete_file_or_dir(path)
 
1055
        else:
 
1056
            raise
 
1057
 
 
1058
 
 
1059
def _delete_file_or_dir(path):
 
1060
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
1061
    # Forgiveness than Permission (EAFP) because:
 
1062
    # - root can damage a solaris file system by using unlink,
 
1063
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
1064
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
1065
    if isdir(path): # Takes care of symlinks
 
1066
        os.rmdir(path)
 
1067
    else:
 
1068
        os.unlink(path)
 
1069
 
 
1070
 
 
1071
def has_symlinks():
 
1072
    if getattr(os, 'symlink', None) is not None:
 
1073
        return True
 
1074
    else:
 
1075
        return False
 
1076
 
 
1077
 
 
1078
def has_hardlinks():
 
1079
    if getattr(os, 'link', None) is not None:
 
1080
        return True
 
1081
    else:
 
1082
        return False
 
1083
 
 
1084
 
 
1085
def host_os_dereferences_symlinks():
 
1086
    return (has_symlinks()
 
1087
            and sys.platform not in ('cygwin', 'win32'))
 
1088
 
 
1089
 
 
1090
def readlink(abspath):
 
1091
    """Return a string representing the path to which the symbolic link points.
 
1092
 
 
1093
    :param abspath: The link absolute unicode path.
 
1094
 
 
1095
    This his guaranteed to return the symbolic link in unicode in all python
 
1096
    versions.
 
1097
    """
 
1098
    link = abspath.encode(_fs_enc)
 
1099
    target = os.readlink(link)
 
1100
    target = target.decode(_fs_enc)
 
1101
    return target
 
1102
 
 
1103
 
 
1104
def contains_whitespace(s):
 
1105
    """True if there are any whitespace characters in s."""
 
1106
    # string.whitespace can include '\xa0' in certain locales, because it is
 
1107
    # considered "non-breaking-space" as part of ISO-8859-1. But it
 
1108
    # 1) Isn't a breaking whitespace
 
1109
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
 
1110
    #    separators
 
1111
    # 3) '\xa0' isn't unicode safe since it is >128.
 
1112
 
 
1113
    # This should *not* be a unicode set of characters in case the source
 
1114
    # string is not a Unicode string. We can auto-up-cast the characters since
 
1115
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
1116
    # is utf-8
 
1117
    for ch in ' \t\n\r\v\f':
 
1118
        if ch in s:
 
1119
            return True
 
1120
    else:
 
1121
        return False
 
1122
 
 
1123
 
 
1124
def contains_linebreaks(s):
 
1125
    """True if there is any vertical whitespace in s."""
 
1126
    for ch in '\f\n\r':
 
1127
        if ch in s:
 
1128
            return True
 
1129
    else:
 
1130
        return False
 
1131
 
 
1132
 
 
1133
def relpath(base, path):
 
1134
    """Return path relative to base, or raise exception.
 
1135
 
 
1136
    The path may be either an absolute path or a path relative to the
 
1137
    current working directory.
 
1138
 
 
1139
    os.path.commonprefix (python2.4) has a bad bug that it works just
 
1140
    on string prefixes, assuming that '/u' is a prefix of '/u2'.  This
 
1141
    avoids that problem.
 
1142
    """
 
1143
 
 
1144
    if len(base) < MIN_ABS_PATHLENGTH:
 
1145
        # must have space for e.g. a drive letter
 
1146
        raise ValueError('%r is too short to calculate a relative path'
 
1147
            % (base,))
 
1148
 
 
1149
    rp = abspath(path)
 
1150
 
 
1151
    s = []
 
1152
    head = rp
 
1153
    while True:
 
1154
        if len(head) <= len(base) and head != base:
 
1155
            raise errors.PathNotChild(rp, base)
 
1156
        if head == base:
 
1157
            break
 
1158
        head, tail = split(head)
 
1159
        if tail:
 
1160
            s.append(tail)
 
1161
 
 
1162
    if s:
 
1163
        return pathjoin(*reversed(s))
 
1164
    else:
 
1165
        return ''
 
1166
 
 
1167
 
 
1168
def _cicp_canonical_relpath(base, path):
 
1169
    """Return the canonical path relative to base.
 
1170
 
 
1171
    Like relpath, but on case-insensitive-case-preserving file-systems, this
 
1172
    will return the relpath as stored on the file-system rather than in the
 
1173
    case specified in the input string, for all existing portions of the path.
 
1174
 
 
1175
    This will cause O(N) behaviour if called for every path in a tree; if you
 
1176
    have a number of paths to convert, you should use canonical_relpaths().
 
1177
    """
 
1178
    # TODO: it should be possible to optimize this for Windows by using the
 
1179
    # win32 API FindFiles function to look for the specified name - but using
 
1180
    # os.listdir() still gives us the correct, platform agnostic semantics in
 
1181
    # the short term.
 
1182
 
 
1183
    rel = relpath(base, path)
 
1184
    # '.' will have been turned into ''
 
1185
    if not rel:
 
1186
        return rel
 
1187
 
 
1188
    abs_base = abspath(base)
 
1189
    current = abs_base
 
1190
    _listdir = os.listdir
 
1191
 
 
1192
    # use an explicit iterator so we can easily consume the rest on early exit.
 
1193
    bit_iter = iter(rel.split('/'))
 
1194
    for bit in bit_iter:
 
1195
        lbit = bit.lower()
 
1196
        try:
 
1197
            next_entries = _listdir(current)
 
1198
        except OSError: # enoent, eperm, etc
 
1199
            # We can't find this in the filesystem, so just append the
 
1200
            # remaining bits.
 
1201
            current = pathjoin(current, bit, *list(bit_iter))
 
1202
            break
 
1203
        for look in next_entries:
 
1204
            if lbit == look.lower():
 
1205
                current = pathjoin(current, look)
 
1206
                break
 
1207
        else:
 
1208
            # got to the end, nothing matched, so we just return the
 
1209
            # non-existing bits as they were specified (the filename may be
 
1210
            # the target of a move, for example).
 
1211
            current = pathjoin(current, bit, *list(bit_iter))
 
1212
            break
 
1213
    return current[len(abs_base):].lstrip('/')
 
1214
 
 
1215
# XXX - TODO - we need better detection/integration of case-insensitive
 
1216
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
 
1217
# filesystems), for example, so could probably benefit from the same basic
 
1218
# support there.  For now though, only Windows and OSX get that support, and
 
1219
# they get it for *all* file-systems!
 
1220
if sys.platform in ('win32', 'darwin'):
 
1221
    canonical_relpath = _cicp_canonical_relpath
 
1222
else:
 
1223
    canonical_relpath = relpath
 
1224
 
 
1225
def canonical_relpaths(base, paths):
 
1226
    """Create an iterable to canonicalize a sequence of relative paths.
 
1227
 
 
1228
    The intent is for this implementation to use a cache, vastly speeding
 
1229
    up multiple transformations in the same directory.
 
1230
    """
 
1231
    # but for now, we haven't optimized...
 
1232
    return [canonical_relpath(base, p) for p in paths]
 
1233
 
 
1234
def safe_unicode(unicode_or_utf8_string):
 
1235
    """Coerce unicode_or_utf8_string into unicode.
 
1236
 
 
1237
    If it is unicode, it is returned.
 
1238
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
 
1239
    wrapped in a BzrBadParameterNotUnicode exception.
 
1240
    """
 
1241
    if isinstance(unicode_or_utf8_string, unicode):
 
1242
        return unicode_or_utf8_string
 
1243
    try:
 
1244
        return unicode_or_utf8_string.decode('utf8')
 
1245
    except UnicodeDecodeError:
 
1246
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1247
 
 
1248
 
 
1249
def safe_utf8(unicode_or_utf8_string):
 
1250
    """Coerce unicode_or_utf8_string to a utf8 string.
 
1251
 
 
1252
    If it is a str, it is returned.
 
1253
    If it is Unicode, it is encoded into a utf-8 string.
 
1254
    """
 
1255
    if isinstance(unicode_or_utf8_string, str):
 
1256
        # TODO: jam 20070209 This is overkill, and probably has an impact on
 
1257
        #       performance if we are dealing with lots of apis that want a
 
1258
        #       utf-8 revision id
 
1259
        try:
 
1260
            # Make sure it is a valid utf-8 string
 
1261
            unicode_or_utf8_string.decode('utf-8')
 
1262
        except UnicodeDecodeError:
 
1263
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1264
        return unicode_or_utf8_string
 
1265
    return unicode_or_utf8_string.encode('utf-8')
 
1266
 
 
1267
 
 
1268
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
1269
                        ' Revision id generators should be creating utf8'
 
1270
                        ' revision ids.')
 
1271
 
 
1272
 
 
1273
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
1274
    """Revision ids should now be utf8, but at one point they were unicode.
 
1275
 
 
1276
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
 
1277
        utf8 or None).
 
1278
    :param warn: Functions that are sanitizing user data can set warn=False
 
1279
    :return: None or a utf8 revision id.
 
1280
    """
 
1281
    if (unicode_or_utf8_string is None
 
1282
        or unicode_or_utf8_string.__class__ == str):
 
1283
        return unicode_or_utf8_string
 
1284
    if warn:
 
1285
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
1286
                               stacklevel=2)
 
1287
    return cache_utf8.encode(unicode_or_utf8_string)
 
1288
 
 
1289
 
 
1290
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
1291
                    ' generators should be creating utf8 file ids.')
 
1292
 
 
1293
 
 
1294
def safe_file_id(unicode_or_utf8_string, warn=True):
 
1295
    """File ids should now be utf8, but at one point they were unicode.
 
1296
 
 
1297
    This is the same as safe_utf8, except it uses the cached encode functions
 
1298
    to save a little bit of performance.
 
1299
 
 
1300
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
 
1301
        utf8 or None).
 
1302
    :param warn: Functions that are sanitizing user data can set warn=False
 
1303
    :return: None or a utf8 file id.
 
1304
    """
 
1305
    if (unicode_or_utf8_string is None
 
1306
        or unicode_or_utf8_string.__class__ == str):
 
1307
        return unicode_or_utf8_string
 
1308
    if warn:
 
1309
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
1310
                               stacklevel=2)
 
1311
    return cache_utf8.encode(unicode_or_utf8_string)
 
1312
 
 
1313
 
 
1314
_platform_normalizes_filenames = False
 
1315
if sys.platform == 'darwin':
 
1316
    _platform_normalizes_filenames = True
 
1317
 
 
1318
 
 
1319
def normalizes_filenames():
 
1320
    """Return True if this platform normalizes unicode filenames.
 
1321
 
 
1322
    Mac OSX does, Windows/Linux do not.
 
1323
    """
 
1324
    return _platform_normalizes_filenames
 
1325
 
 
1326
 
 
1327
def _accessible_normalized_filename(path):
 
1328
    """Get the unicode normalized path, and if you can access the file.
 
1329
 
 
1330
    On platforms where the system normalizes filenames (Mac OSX),
 
1331
    you can access a file by any path which will normalize correctly.
 
1332
    On platforms where the system does not normalize filenames
 
1333
    (Windows, Linux), you have to access a file by its exact path.
 
1334
 
 
1335
    Internally, bzr only supports NFC normalization, since that is
 
1336
    the standard for XML documents.
 
1337
 
 
1338
    So return the normalized path, and a flag indicating if the file
 
1339
    can be accessed by that path.
 
1340
    """
 
1341
 
 
1342
    return unicodedata.normalize('NFC', unicode(path)), True
 
1343
 
 
1344
 
 
1345
def _inaccessible_normalized_filename(path):
 
1346
    __doc__ = _accessible_normalized_filename.__doc__
 
1347
 
 
1348
    normalized = unicodedata.normalize('NFC', unicode(path))
 
1349
    return normalized, normalized == path
 
1350
 
 
1351
 
 
1352
if _platform_normalizes_filenames:
 
1353
    normalized_filename = _accessible_normalized_filename
 
1354
else:
 
1355
    normalized_filename = _inaccessible_normalized_filename
 
1356
 
 
1357
 
 
1358
def set_signal_handler(signum, handler, restart_syscall=True):
 
1359
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
 
1360
    on platforms that support that.
 
1361
 
 
1362
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
 
1363
        automatically restart (by calling `signal.siginterrupt(signum,
 
1364
        False)`).  May be ignored if the feature is not available on this
 
1365
        platform or Python version.
 
1366
    """
 
1367
    try:
 
1368
        import signal
 
1369
        siginterrupt = signal.siginterrupt
 
1370
    except ImportError:
 
1371
        # This python implementation doesn't provide signal support, hence no
 
1372
        # handler exists
 
1373
        return None
 
1374
    except AttributeError:
 
1375
        # siginterrupt doesn't exist on this platform, or for this version
 
1376
        # of Python.
 
1377
        siginterrupt = lambda signum, flag: None
 
1378
    if restart_syscall:
 
1379
        def sig_handler(*args):
 
1380
            # Python resets the siginterrupt flag when a signal is
 
1381
            # received.  <http://bugs.python.org/issue8354>
 
1382
            # As a workaround for some cases, set it back the way we want it.
 
1383
            siginterrupt(signum, False)
 
1384
            # Now run the handler function passed to set_signal_handler.
 
1385
            handler(*args)
 
1386
    else:
 
1387
        sig_handler = handler
 
1388
    old_handler = signal.signal(signum, sig_handler)
 
1389
    if restart_syscall:
 
1390
        siginterrupt(signum, False)
 
1391
    return old_handler
 
1392
 
 
1393
 
 
1394
default_terminal_width = 80
 
1395
"""The default terminal width for ttys.
 
1396
 
 
1397
This is defined so that higher levels can share a common fallback value when
 
1398
terminal_width() returns None.
 
1399
"""
 
1400
 
 
1401
 
 
1402
def terminal_width():
 
1403
    """Return terminal width.
 
1404
 
 
1405
    None is returned if the width can't established precisely.
 
1406
 
 
1407
    The rules are:
 
1408
    - if BZR_COLUMNS is set, returns its value
 
1409
    - if there is no controlling terminal, returns None
 
1410
    - if COLUMNS is set, returns its value,
 
1411
 
 
1412
    From there, we need to query the OS to get the size of the controlling
 
1413
    terminal.
 
1414
 
 
1415
    Unices:
 
1416
    - get termios.TIOCGWINSZ
 
1417
    - if an error occurs or a negative value is obtained, returns None
 
1418
 
 
1419
    Windows:
 
1420
    
 
1421
    - win32utils.get_console_size() decides,
 
1422
    - returns None on error (provided default value)
 
1423
    """
 
1424
 
 
1425
    # If BZR_COLUMNS is set, take it, user is always right
 
1426
    try:
 
1427
        return int(os.environ['BZR_COLUMNS'])
 
1428
    except (KeyError, ValueError):
 
1429
        pass
 
1430
 
 
1431
    isatty = getattr(sys.stdout, 'isatty', None)
 
1432
    if  isatty is None or not isatty():
 
1433
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
 
1434
        return None
 
1435
 
 
1436
    # If COLUMNS is set, take it, the terminal knows better (even inside a
 
1437
    # given terminal, the application can decide to set COLUMNS to a lower
 
1438
    # value (splitted screen) or a bigger value (scroll bars))
 
1439
    try:
 
1440
        return int(os.environ['COLUMNS'])
 
1441
    except (KeyError, ValueError):
 
1442
        pass
 
1443
 
 
1444
    width, height = _terminal_size(None, None)
 
1445
    if width <= 0:
 
1446
        # Consider invalid values as meaning no width
 
1447
        return None
 
1448
 
 
1449
    return width
 
1450
 
 
1451
 
 
1452
def _win32_terminal_size(width, height):
 
1453
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
 
1454
    return width, height
 
1455
 
 
1456
 
 
1457
def _ioctl_terminal_size(width, height):
 
1458
    try:
 
1459
        import struct, fcntl, termios
 
1460
        s = struct.pack('HHHH', 0, 0, 0, 0)
 
1461
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
 
1462
        height, width = struct.unpack('HHHH', x)[0:2]
 
1463
    except (IOError, AttributeError):
 
1464
        pass
 
1465
    return width, height
 
1466
 
 
1467
_terminal_size = None
 
1468
"""Returns the terminal size as (width, height).
 
1469
 
 
1470
:param width: Default value for width.
 
1471
:param height: Default value for height.
 
1472
 
 
1473
This is defined specifically for each OS and query the size of the controlling
 
1474
terminal. If any error occurs, the provided default values should be returned.
 
1475
"""
 
1476
if sys.platform == 'win32':
 
1477
    _terminal_size = _win32_terminal_size
 
1478
else:
 
1479
    _terminal_size = _ioctl_terminal_size
 
1480
 
 
1481
 
 
1482
def _terminal_size_changed(signum, frame):
 
1483
    """Set COLUMNS upon receiving a SIGnal for WINdow size CHange."""
 
1484
    width, height = _terminal_size(None, None)
 
1485
    if width is not None:
 
1486
        os.environ['COLUMNS'] = str(width)
 
1487
 
 
1488
 
 
1489
_registered_sigwinch = False
 
1490
def watch_sigwinch():
 
1491
    """Register for SIGWINCH, once and only once.
 
1492
 
 
1493
    Do nothing if the signal module is not available.
 
1494
    """
 
1495
    global _registered_sigwinch
 
1496
    if not _registered_sigwinch:
 
1497
        try:
 
1498
            import signal
 
1499
            if getattr(signal, "SIGWINCH", None) is not None:
 
1500
                set_signal_handler(signal.SIGWINCH, _terminal_size_changed)
 
1501
        except ImportError:
 
1502
            # python doesn't provide signal support, nothing we can do about it
 
1503
            pass
 
1504
        _registered_sigwinch = True
 
1505
 
 
1506
 
 
1507
def supports_executable():
 
1508
    return sys.platform != "win32"
 
1509
 
 
1510
 
 
1511
def supports_posix_readonly():
 
1512
    """Return True if 'readonly' has POSIX semantics, False otherwise.
 
1513
 
 
1514
    Notably, a win32 readonly file cannot be deleted, unlike POSIX where the
 
1515
    directory controls creation/deletion, etc.
 
1516
 
 
1517
    And under win32, readonly means that the directory itself cannot be
 
1518
    deleted.  The contents of a readonly directory can be changed, unlike POSIX
 
1519
    where files in readonly directories cannot be added, deleted or renamed.
 
1520
    """
 
1521
    return sys.platform != "win32"
 
1522
 
 
1523
 
 
1524
def set_or_unset_env(env_variable, value):
 
1525
    """Modify the environment, setting or removing the env_variable.
 
1526
 
 
1527
    :param env_variable: The environment variable in question
 
1528
    :param value: The value to set the environment to. If None, then
 
1529
        the variable will be removed.
 
1530
    :return: The original value of the environment variable.
 
1531
    """
 
1532
    orig_val = os.environ.get(env_variable)
 
1533
    if value is None:
 
1534
        if orig_val is not None:
 
1535
            del os.environ[env_variable]
 
1536
    else:
 
1537
        if isinstance(value, unicode):
 
1538
            value = value.encode(get_user_encoding())
 
1539
        os.environ[env_variable] = value
 
1540
    return orig_val
 
1541
 
 
1542
 
 
1543
_validWin32PathRE = re.compile(r'^([A-Za-z]:[/\\])?[^:<>*"?\|]*$')
 
1544
 
 
1545
 
 
1546
def check_legal_path(path):
 
1547
    """Check whether the supplied path is legal.
 
1548
    This is only required on Windows, so we don't test on other platforms
 
1549
    right now.
 
1550
    """
 
1551
    if sys.platform != "win32":
 
1552
        return
 
1553
    if _validWin32PathRE.match(path) is None:
 
1554
        raise errors.IllegalPath(path)
 
1555
 
 
1556
 
 
1557
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
 
1558
 
 
1559
def _is_error_enotdir(e):
 
1560
    """Check if this exception represents ENOTDIR.
 
1561
 
 
1562
    Unfortunately, python is very inconsistent about the exception
 
1563
    here. The cases are:
 
1564
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
 
1565
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
 
1566
         which is the windows error code.
 
1567
      3) Windows, Python2.5 uses errno == EINVAL and
 
1568
         winerror == ERROR_DIRECTORY
 
1569
 
 
1570
    :param e: An Exception object (expected to be OSError with an errno
 
1571
        attribute, but we should be able to cope with anything)
 
1572
    :return: True if this represents an ENOTDIR error. False otherwise.
 
1573
    """
 
1574
    en = getattr(e, 'errno', None)
 
1575
    if (en == errno.ENOTDIR
 
1576
        or (sys.platform == 'win32'
 
1577
            and (en == _WIN32_ERROR_DIRECTORY
 
1578
                 or (en == errno.EINVAL
 
1579
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
 
1580
        ))):
 
1581
        return True
 
1582
    return False
 
1583
 
 
1584
 
 
1585
def walkdirs(top, prefix=""):
 
1586
    """Yield data about all the directories in a tree.
 
1587
 
 
1588
    This yields all the data about the contents of a directory at a time.
 
1589
    After each directory has been yielded, if the caller has mutated the list
 
1590
    to exclude some directories, they are then not descended into.
 
1591
 
 
1592
    The data yielded is of the form:
 
1593
    ((directory-relpath, directory-path-from-top),
 
1594
    [(relpath, basename, kind, lstat, path-from-top), ...]),
 
1595
     - directory-relpath is the relative path of the directory being returned
 
1596
       with respect to top. prefix is prepended to this.
 
1597
     - directory-path-from-root is the path including top for this directory.
 
1598
       It is suitable for use with os functions.
 
1599
     - relpath is the relative path within the subtree being walked.
 
1600
     - basename is the basename of the path
 
1601
     - kind is the kind of the file now. If unknown then the file is not
 
1602
       present within the tree - but it may be recorded as versioned. See
 
1603
       versioned_kind.
 
1604
     - lstat is the stat data *if* the file was statted.
 
1605
     - planned, not implemented:
 
1606
       path_from_tree_root is the path from the root of the tree.
 
1607
 
 
1608
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
1609
        allows one to walk a subtree but get paths that are relative to a tree
 
1610
        rooted higher up.
 
1611
    :return: an iterator over the dirs.
 
1612
    """
 
1613
    #TODO there is a bit of a smell where the results of the directory-
 
1614
    # summary in this, and the path from the root, may not agree
 
1615
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
 
1616
    # potentially confusing output. We should make this more robust - but
 
1617
    # not at a speed cost. RBC 20060731
 
1618
    _lstat = os.lstat
 
1619
    _directory = _directory_kind
 
1620
    _listdir = os.listdir
 
1621
    _kind_from_mode = file_kind_from_stat_mode
 
1622
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
 
1623
    while pending:
 
1624
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1625
        relroot, _, _, _, top = pending.pop()
 
1626
        if relroot:
 
1627
            relprefix = relroot + u'/'
 
1628
        else:
 
1629
            relprefix = ''
 
1630
        top_slash = top + u'/'
 
1631
 
 
1632
        dirblock = []
 
1633
        append = dirblock.append
 
1634
        try:
 
1635
            names = sorted(_listdir(top))
 
1636
        except OSError, e:
 
1637
            if not _is_error_enotdir(e):
 
1638
                raise
 
1639
        else:
 
1640
            for name in names:
 
1641
                abspath = top_slash + name
 
1642
                statvalue = _lstat(abspath)
 
1643
                kind = _kind_from_mode(statvalue.st_mode)
 
1644
                append((relprefix + name, name, kind, statvalue, abspath))
 
1645
        yield (relroot, top), dirblock
 
1646
 
 
1647
        # push the user specified dirs from dirblock
 
1648
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1649
 
 
1650
 
 
1651
class DirReader(object):
 
1652
    """An interface for reading directories."""
 
1653
 
 
1654
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1655
        """Converts top and prefix to a starting dir entry
 
1656
 
 
1657
        :param top: A utf8 path
 
1658
        :param prefix: An optional utf8 path to prefix output relative paths
 
1659
            with.
 
1660
        :return: A tuple starting with prefix, and ending with the native
 
1661
            encoding of top.
 
1662
        """
 
1663
        raise NotImplementedError(self.top_prefix_to_starting_dir)
 
1664
 
 
1665
    def read_dir(self, prefix, top):
 
1666
        """Read a specific dir.
 
1667
 
 
1668
        :param prefix: A utf8 prefix to be preprended to the path basenames.
 
1669
        :param top: A natively encoded path to read.
 
1670
        :return: A list of the directories contents. Each item contains:
 
1671
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
 
1672
        """
 
1673
        raise NotImplementedError(self.read_dir)
 
1674
 
 
1675
 
 
1676
_selected_dir_reader = None
 
1677
 
 
1678
 
 
1679
def _walkdirs_utf8(top, prefix=""):
 
1680
    """Yield data about all the directories in a tree.
 
1681
 
 
1682
    This yields the same information as walkdirs() only each entry is yielded
 
1683
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
 
1684
    are returned as exact byte-strings.
 
1685
 
 
1686
    :return: yields a tuple of (dir_info, [file_info])
 
1687
        dir_info is (utf8_relpath, path-from-top)
 
1688
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
 
1689
        if top is an absolute path, path-from-top is also an absolute path.
 
1690
        path-from-top might be unicode or utf8, but it is the correct path to
 
1691
        pass to os functions to affect the file in question. (such as os.lstat)
 
1692
    """
 
1693
    global _selected_dir_reader
 
1694
    if _selected_dir_reader is None:
 
1695
        fs_encoding = _fs_enc.upper()
 
1696
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
 
1697
            # Win98 doesn't have unicode apis like FindFirstFileW
 
1698
            # TODO: We possibly could support Win98 by falling back to the
 
1699
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
 
1700
            #       but that gets a bit tricky, and requires custom compiling
 
1701
            #       for win98 anyway.
 
1702
            try:
 
1703
                from bzrlib._walkdirs_win32 import Win32ReadDir
 
1704
                _selected_dir_reader = Win32ReadDir()
 
1705
            except ImportError:
 
1706
                pass
 
1707
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
 
1708
            # ANSI_X3.4-1968 is a form of ASCII
 
1709
            try:
 
1710
                from bzrlib._readdir_pyx import UTF8DirReader
 
1711
                _selected_dir_reader = UTF8DirReader()
 
1712
            except ImportError, e:
 
1713
                failed_to_load_extension(e)
 
1714
                pass
 
1715
 
 
1716
    if _selected_dir_reader is None:
 
1717
        # Fallback to the python version
 
1718
        _selected_dir_reader = UnicodeDirReader()
 
1719
 
 
1720
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1721
    # But we don't actually uses 1-3 in pending, so set them to None
 
1722
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
 
1723
    read_dir = _selected_dir_reader.read_dir
 
1724
    _directory = _directory_kind
 
1725
    while pending:
 
1726
        relroot, _, _, _, top = pending[-1].pop()
 
1727
        if not pending[-1]:
 
1728
            pending.pop()
 
1729
        dirblock = sorted(read_dir(relroot, top))
 
1730
        yield (relroot, top), dirblock
 
1731
        # push the user specified dirs from dirblock
 
1732
        next = [d for d in reversed(dirblock) if d[2] == _directory]
 
1733
        if next:
 
1734
            pending.append(next)
 
1735
 
 
1736
 
 
1737
class UnicodeDirReader(DirReader):
 
1738
    """A dir reader for non-utf8 file systems, which transcodes."""
 
1739
 
 
1740
    __slots__ = ['_utf8_encode']
 
1741
 
 
1742
    def __init__(self):
 
1743
        self._utf8_encode = codecs.getencoder('utf8')
 
1744
 
 
1745
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1746
        """See DirReader.top_prefix_to_starting_dir."""
 
1747
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
 
1748
 
 
1749
    def read_dir(self, prefix, top):
 
1750
        """Read a single directory from a non-utf8 file system.
 
1751
 
 
1752
        top, and the abspath element in the output are unicode, all other paths
 
1753
        are utf8. Local disk IO is done via unicode calls to listdir etc.
 
1754
 
 
1755
        This is currently the fallback code path when the filesystem encoding is
 
1756
        not UTF-8. It may be better to implement an alternative so that we can
 
1757
        safely handle paths that are not properly decodable in the current
 
1758
        encoding.
 
1759
 
 
1760
        See DirReader.read_dir for details.
 
1761
        """
 
1762
        _utf8_encode = self._utf8_encode
 
1763
        _lstat = os.lstat
 
1764
        _listdir = os.listdir
 
1765
        _kind_from_mode = file_kind_from_stat_mode
 
1766
 
 
1767
        if prefix:
 
1768
            relprefix = prefix + '/'
 
1769
        else:
 
1770
            relprefix = ''
 
1771
        top_slash = top + u'/'
 
1772
 
 
1773
        dirblock = []
 
1774
        append = dirblock.append
 
1775
        for name in sorted(_listdir(top)):
 
1776
            try:
 
1777
                name_utf8 = _utf8_encode(name)[0]
 
1778
            except UnicodeDecodeError:
 
1779
                raise errors.BadFilenameEncoding(
 
1780
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1781
            abspath = top_slash + name
 
1782
            statvalue = _lstat(abspath)
 
1783
            kind = _kind_from_mode(statvalue.st_mode)
 
1784
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
 
1785
        return dirblock
 
1786
 
 
1787
 
 
1788
def copy_tree(from_path, to_path, handlers={}):
 
1789
    """Copy all of the entries in from_path into to_path.
 
1790
 
 
1791
    :param from_path: The base directory to copy.
 
1792
    :param to_path: The target directory. If it does not exist, it will
 
1793
        be created.
 
1794
    :param handlers: A dictionary of functions, which takes a source and
 
1795
        destinations for files, directories, etc.
 
1796
        It is keyed on the file kind, such as 'directory', 'symlink', or 'file'
 
1797
        'file', 'directory', and 'symlink' should always exist.
 
1798
        If they are missing, they will be replaced with 'os.mkdir()',
 
1799
        'os.readlink() + os.symlink()', and 'shutil.copy2()', respectively.
 
1800
    """
 
1801
    # Now, just copy the existing cached tree to the new location
 
1802
    # We use a cheap trick here.
 
1803
    # Absolute paths are prefixed with the first parameter
 
1804
    # relative paths are prefixed with the second.
 
1805
    # So we can get both the source and target returned
 
1806
    # without any extra work.
 
1807
 
 
1808
    def copy_dir(source, dest):
 
1809
        os.mkdir(dest)
 
1810
 
 
1811
    def copy_link(source, dest):
 
1812
        """Copy the contents of a symlink"""
 
1813
        link_to = os.readlink(source)
 
1814
        os.symlink(link_to, dest)
 
1815
 
 
1816
    real_handlers = {'file':shutil.copy2,
 
1817
                     'symlink':copy_link,
 
1818
                     'directory':copy_dir,
 
1819
                    }
 
1820
    real_handlers.update(handlers)
 
1821
 
 
1822
    if not os.path.exists(to_path):
 
1823
        real_handlers['directory'](from_path, to_path)
 
1824
 
 
1825
    for dir_info, entries in walkdirs(from_path, prefix=to_path):
 
1826
        for relpath, name, kind, st, abspath in entries:
 
1827
            real_handlers[kind](abspath, relpath)
 
1828
 
 
1829
 
 
1830
def copy_ownership_from_path(dst, src=None):
 
1831
    """Copy usr/grp ownership from src file/dir to dst file/dir.
 
1832
 
 
1833
    If src is None, the containing directory is used as source. If chown
 
1834
    fails, the error is ignored and a warning is printed.
 
1835
    """
 
1836
    chown = getattr(os, 'chown', None)
 
1837
    if chown is None:
 
1838
        return
 
1839
 
 
1840
    if src == None:
 
1841
        src = os.path.dirname(dst)
 
1842
        if src == '':
 
1843
            src = '.'
 
1844
 
 
1845
    try:
 
1846
        s = os.stat(src)
 
1847
        chown(dst, s.st_uid, s.st_gid)
 
1848
    except OSError, e:
 
1849
        trace.warning("Unable to copy ownership from '%s' to '%s': IOError: %s." % (src, dst, e))
 
1850
 
 
1851
 
 
1852
def path_prefix_key(path):
 
1853
    """Generate a prefix-order path key for path.
 
1854
 
 
1855
    This can be used to sort paths in the same way that walkdirs does.
 
1856
    """
 
1857
    return (dirname(path) , path)
 
1858
 
 
1859
 
 
1860
def compare_paths_prefix_order(path_a, path_b):
 
1861
    """Compare path_a and path_b to generate the same order walkdirs uses."""
 
1862
    key_a = path_prefix_key(path_a)
 
1863
    key_b = path_prefix_key(path_b)
 
1864
    return cmp(key_a, key_b)
 
1865
 
 
1866
 
 
1867
_cached_user_encoding = None
 
1868
 
 
1869
 
 
1870
def get_user_encoding(use_cache=True):
 
1871
    """Find out what the preferred user encoding is.
 
1872
 
 
1873
    This is generally the encoding that is used for command line parameters
 
1874
    and file contents. This may be different from the terminal encoding
 
1875
    or the filesystem encoding.
 
1876
 
 
1877
    :param  use_cache:  Enable cache for detected encoding.
 
1878
                        (This parameter is turned on by default,
 
1879
                        and required only for selftesting)
 
1880
 
 
1881
    :return: A string defining the preferred user encoding
 
1882
    """
 
1883
    global _cached_user_encoding
 
1884
    if _cached_user_encoding is not None and use_cache:
 
1885
        return _cached_user_encoding
 
1886
 
 
1887
    if sys.platform == 'darwin':
 
1888
        # python locale.getpreferredencoding() always return
 
1889
        # 'mac-roman' on darwin. That's a lie.
 
1890
        sys.platform = 'posix'
 
1891
        try:
 
1892
            if os.environ.get('LANG', None) is None:
 
1893
                # If LANG is not set, we end up with 'ascii', which is bad
 
1894
                # ('mac-roman' is more than ascii), so we set a default which
 
1895
                # will give us UTF-8 (which appears to work in all cases on
 
1896
                # OSX). Users are still free to override LANG of course, as
 
1897
                # long as it give us something meaningful. This work-around
 
1898
                # *may* not be needed with python 3k and/or OSX 10.5, but will
 
1899
                # work with them too -- vila 20080908
 
1900
                os.environ['LANG'] = 'en_US.UTF-8'
 
1901
            import locale
 
1902
        finally:
 
1903
            sys.platform = 'darwin'
 
1904
    else:
 
1905
        import locale
 
1906
 
 
1907
    try:
 
1908
        user_encoding = locale.getpreferredencoding()
 
1909
    except locale.Error, e:
 
1910
        sys.stderr.write('bzr: warning: %s\n'
 
1911
                         '  Could not determine what text encoding to use.\n'
 
1912
                         '  This error usually means your Python interpreter\n'
 
1913
                         '  doesn\'t support the locale set by $LANG (%s)\n'
 
1914
                         "  Continuing with ascii encoding.\n"
 
1915
                         % (e, os.environ.get('LANG')))
 
1916
        user_encoding = 'ascii'
 
1917
 
 
1918
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
 
1919
    # treat that as ASCII, and not support printing unicode characters to the
 
1920
    # console.
 
1921
    #
 
1922
    # For python scripts run under vim, we get '', so also treat that as ASCII
 
1923
    if user_encoding in (None, 'cp0', ''):
 
1924
        user_encoding = 'ascii'
 
1925
    else:
 
1926
        # check encoding
 
1927
        try:
 
1928
            codecs.lookup(user_encoding)
 
1929
        except LookupError:
 
1930
            sys.stderr.write('bzr: warning:'
 
1931
                             ' unknown encoding %s.'
 
1932
                             ' Continuing with ascii encoding.\n'
 
1933
                             % user_encoding
 
1934
                            )
 
1935
            user_encoding = 'ascii'
 
1936
 
 
1937
    if use_cache:
 
1938
        _cached_user_encoding = user_encoding
 
1939
 
 
1940
    return user_encoding
 
1941
 
 
1942
 
 
1943
def get_host_name():
 
1944
    """Return the current unicode host name.
 
1945
 
 
1946
    This is meant to be used in place of socket.gethostname() because that
 
1947
    behaves inconsistently on different platforms.
 
1948
    """
 
1949
    if sys.platform == "win32":
 
1950
        import win32utils
 
1951
        return win32utils.get_host_name()
 
1952
    else:
 
1953
        import socket
 
1954
        return socket.gethostname().decode(get_user_encoding())
 
1955
 
 
1956
 
 
1957
# We must not read/write any more than 64k at a time from/to a socket so we
 
1958
# don't risk "no buffer space available" errors on some platforms.  Windows in
 
1959
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
 
1960
# data at once.
 
1961
MAX_SOCKET_CHUNK = 64 * 1024
 
1962
 
 
1963
def read_bytes_from_socket(sock, report_activity=None,
 
1964
        max_read_size=MAX_SOCKET_CHUNK):
 
1965
    """Read up to max_read_size of bytes from sock and notify of progress.
 
1966
 
 
1967
    Translates "Connection reset by peer" into file-like EOF (return an
 
1968
    empty string rather than raise an error), and repeats the recv if
 
1969
    interrupted by a signal.
 
1970
    """
 
1971
    while 1:
 
1972
        try:
 
1973
            bytes = sock.recv(max_read_size)
 
1974
        except socket.error, e:
 
1975
            eno = e.args[0]
 
1976
            if eno == getattr(errno, "WSAECONNRESET", errno.ECONNRESET):
 
1977
                # The connection was closed by the other side.  Callers expect
 
1978
                # an empty string to signal end-of-stream.
 
1979
                return ""
 
1980
            elif eno == errno.EINTR:
 
1981
                # Retry the interrupted recv.
 
1982
                continue
 
1983
            raise
 
1984
        else:
 
1985
            if report_activity is not None:
 
1986
                report_activity(len(bytes), 'read')
 
1987
            return bytes
 
1988
 
 
1989
 
 
1990
def recv_all(socket, count):
 
1991
    """Receive an exact number of bytes.
 
1992
 
 
1993
    Regular Socket.recv() may return less than the requested number of bytes,
 
1994
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
1995
    on all platforms, but this should work everywhere.  This will return
 
1996
    less than the requested amount if the remote end closes.
 
1997
 
 
1998
    This isn't optimized and is intended mostly for use in testing.
 
1999
    """
 
2000
    b = ''
 
2001
    while len(b) < count:
 
2002
        new = read_bytes_from_socket(socket, None, count - len(b))
 
2003
        if new == '':
 
2004
            break # eof
 
2005
        b += new
 
2006
    return b
 
2007
 
 
2008
 
 
2009
def send_all(sock, bytes, report_activity=None):
 
2010
    """Send all bytes on a socket.
 
2011
 
 
2012
    Breaks large blocks in smaller chunks to avoid buffering limitations on
 
2013
    some platforms, and catches EINTR which may be thrown if the send is
 
2014
    interrupted by a signal.
 
2015
 
 
2016
    This is preferred to socket.sendall(), because it avoids portability bugs
 
2017
    and provides activity reporting.
 
2018
 
 
2019
    :param report_activity: Call this as bytes are read, see
 
2020
        Transport._report_activity
 
2021
    """
 
2022
    sent_total = 0
 
2023
    byte_count = len(bytes)
 
2024
    while sent_total < byte_count:
 
2025
        try:
 
2026
            sent = sock.send(buffer(bytes, sent_total, MAX_SOCKET_CHUNK))
 
2027
        except socket.error, e:
 
2028
            if e.args[0] != errno.EINTR:
 
2029
                raise
 
2030
        else:
 
2031
            sent_total += sent
 
2032
            report_activity(sent, 'write')
 
2033
 
 
2034
 
 
2035
def dereference_path(path):
 
2036
    """Determine the real path to a file.
 
2037
 
 
2038
    All parent elements are dereferenced.  But the file itself is not
 
2039
    dereferenced.
 
2040
    :param path: The original path.  May be absolute or relative.
 
2041
    :return: the real path *to* the file
 
2042
    """
 
2043
    parent, base = os.path.split(path)
 
2044
    # The pathjoin for '.' is a workaround for Python bug #1213894.
 
2045
    # (initial path components aren't dereferenced)
 
2046
    return pathjoin(realpath(pathjoin('.', parent)), base)
 
2047
 
 
2048
 
 
2049
def supports_mapi():
 
2050
    """Return True if we can use MAPI to launch a mail client."""
 
2051
    return sys.platform == "win32"
 
2052
 
 
2053
 
 
2054
def resource_string(package, resource_name):
 
2055
    """Load a resource from a package and return it as a string.
 
2056
 
 
2057
    Note: Only packages that start with bzrlib are currently supported.
 
2058
 
 
2059
    This is designed to be a lightweight implementation of resource
 
2060
    loading in a way which is API compatible with the same API from
 
2061
    pkg_resources. See
 
2062
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
 
2063
    If and when pkg_resources becomes a standard library, this routine
 
2064
    can delegate to it.
 
2065
    """
 
2066
    # Check package name is within bzrlib
 
2067
    if package == "bzrlib":
 
2068
        resource_relpath = resource_name
 
2069
    elif package.startswith("bzrlib."):
 
2070
        package = package[len("bzrlib."):].replace('.', os.sep)
 
2071
        resource_relpath = pathjoin(package, resource_name)
 
2072
    else:
 
2073
        raise errors.BzrError('resource package %s not in bzrlib' % package)
 
2074
 
 
2075
    # Map the resource to a file and read its contents
 
2076
    base = dirname(bzrlib.__file__)
 
2077
    if getattr(sys, 'frozen', None):    # bzr.exe
 
2078
        base = abspath(pathjoin(base, '..', '..'))
 
2079
    filename = pathjoin(base, resource_relpath)
 
2080
    return open(filename, 'rU').read()
 
2081
 
 
2082
 
 
2083
def file_kind_from_stat_mode_thunk(mode):
 
2084
    global file_kind_from_stat_mode
 
2085
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
 
2086
        try:
 
2087
            from bzrlib._readdir_pyx import UTF8DirReader
 
2088
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
 
2089
        except ImportError, e:
 
2090
            # This is one time where we won't warn that an extension failed to
 
2091
            # load. The extension is never available on Windows anyway.
 
2092
            from bzrlib._readdir_py import (
 
2093
                _kind_from_mode as file_kind_from_stat_mode
 
2094
                )
 
2095
    return file_kind_from_stat_mode(mode)
 
2096
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
 
2097
 
 
2098
 
 
2099
def file_kind(f, _lstat=os.lstat):
 
2100
    try:
 
2101
        return file_kind_from_stat_mode(_lstat(f).st_mode)
 
2102
    except OSError, e:
 
2103
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
2104
            raise errors.NoSuchFile(f)
 
2105
        raise
 
2106
 
 
2107
 
 
2108
def until_no_eintr(f, *a, **kw):
 
2109
    """Run f(*a, **kw), retrying if an EINTR error occurs.
 
2110
    
 
2111
    WARNING: you must be certain that it is safe to retry the call repeatedly
 
2112
    if EINTR does occur.  This is typically only true for low-level operations
 
2113
    like os.read.  If in any doubt, don't use this.
 
2114
 
 
2115
    Keep in mind that this is not a complete solution to EINTR.  There is
 
2116
    probably code in the Python standard library and other dependencies that
 
2117
    may encounter EINTR if a signal arrives (and there is signal handler for
 
2118
    that signal).  So this function can reduce the impact for IO that bzrlib
 
2119
    directly controls, but it is not a complete solution.
 
2120
    """
 
2121
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
 
2122
    while True:
 
2123
        try:
 
2124
            return f(*a, **kw)
 
2125
        except (IOError, OSError), e:
 
2126
            if e.errno == errno.EINTR:
 
2127
                continue
 
2128
            raise
 
2129
 
 
2130
 
 
2131
def re_compile_checked(re_string, flags=0, where=""):
 
2132
    """Return a compiled re, or raise a sensible error.
 
2133
 
 
2134
    This should only be used when compiling user-supplied REs.
 
2135
 
 
2136
    :param re_string: Text form of regular expression.
 
2137
    :param flags: eg re.IGNORECASE
 
2138
    :param where: Message explaining to the user the context where
 
2139
        it occurred, eg 'log search filter'.
 
2140
    """
 
2141
    # from https://bugs.launchpad.net/bzr/+bug/251352
 
2142
    try:
 
2143
        re_obj = re.compile(re_string, flags)
 
2144
        re_obj.search("")
 
2145
        return re_obj
 
2146
    except re.error, e:
 
2147
        if where:
 
2148
            where = ' in ' + where
 
2149
        # despite the name 'error' is a type
 
2150
        raise errors.BzrCommandError('Invalid regular expression%s: %r: %s'
 
2151
            % (where, re_string, e))
 
2152
 
 
2153
 
 
2154
if sys.platform == "win32":
 
2155
    import msvcrt
 
2156
    def getchar():
 
2157
        return msvcrt.getch()
 
2158
else:
 
2159
    import tty
 
2160
    import termios
 
2161
    def getchar():
 
2162
        fd = sys.stdin.fileno()
 
2163
        settings = termios.tcgetattr(fd)
 
2164
        try:
 
2165
            tty.setraw(fd)
 
2166
            ch = sys.stdin.read(1)
 
2167
        finally:
 
2168
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
 
2169
        return ch
 
2170
 
 
2171
 
 
2172
if sys.platform == 'linux2':
 
2173
    def _local_concurrency():
 
2174
        concurrency = None
 
2175
        prefix = 'processor'
 
2176
        for line in file('/proc/cpuinfo', 'rb'):
 
2177
            if line.startswith(prefix):
 
2178
                concurrency = int(line[line.find(':')+1:]) + 1
 
2179
        return concurrency
 
2180
elif sys.platform == 'darwin':
 
2181
    def _local_concurrency():
 
2182
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
 
2183
                                stdout=subprocess.PIPE).communicate()[0]
 
2184
elif sys.platform[0:7] == 'freebsd':
 
2185
    def _local_concurrency():
 
2186
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
 
2187
                                stdout=subprocess.PIPE).communicate()[0]
 
2188
elif sys.platform == 'sunos5':
 
2189
    def _local_concurrency():
 
2190
        return subprocess.Popen(['psrinfo', '-p',],
 
2191
                                stdout=subprocess.PIPE).communicate()[0]
 
2192
elif sys.platform == "win32":
 
2193
    def _local_concurrency():
 
2194
        # This appears to return the number of cores.
 
2195
        return os.environ.get('NUMBER_OF_PROCESSORS')
 
2196
else:
 
2197
    def _local_concurrency():
 
2198
        # Who knows ?
 
2199
        return None
 
2200
 
 
2201
 
 
2202
_cached_local_concurrency = None
 
2203
 
 
2204
def local_concurrency(use_cache=True):
 
2205
    """Return how many processes can be run concurrently.
 
2206
 
 
2207
    Rely on platform specific implementations and default to 1 (one) if
 
2208
    anything goes wrong.
 
2209
    """
 
2210
    global _cached_local_concurrency
 
2211
 
 
2212
    if _cached_local_concurrency is not None and use_cache:
 
2213
        return _cached_local_concurrency
 
2214
 
 
2215
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
 
2216
    if concurrency is None:
 
2217
        try:
 
2218
            concurrency = _local_concurrency()
 
2219
        except (OSError, IOError):
 
2220
            pass
 
2221
    try:
 
2222
        concurrency = int(concurrency)
 
2223
    except (TypeError, ValueError):
 
2224
        concurrency = 1
 
2225
    if use_cache:
 
2226
        _cached_concurrency = concurrency
 
2227
    return concurrency
 
2228
 
 
2229
 
 
2230
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
 
2231
    """A stream writer that doesn't decode str arguments."""
 
2232
 
 
2233
    def __init__(self, encode, stream, errors='strict'):
 
2234
        codecs.StreamWriter.__init__(self, stream, errors)
 
2235
        self.encode = encode
 
2236
 
 
2237
    def write(self, object):
 
2238
        if type(object) is str:
 
2239
            self.stream.write(object)
 
2240
        else:
 
2241
            data, _ = self.encode(object, self.errors)
 
2242
            self.stream.write(data)
 
2243
 
 
2244
if sys.platform == 'win32':
 
2245
    def open_file(filename, mode='r', bufsize=-1):
 
2246
        """This function is used to override the ``open`` builtin.
 
2247
        
 
2248
        But it uses O_NOINHERIT flag so the file handle is not inherited by
 
2249
        child processes.  Deleting or renaming a closed file opened with this
 
2250
        function is not blocking child processes.
 
2251
        """
 
2252
        writing = 'w' in mode
 
2253
        appending = 'a' in mode
 
2254
        updating = '+' in mode
 
2255
        binary = 'b' in mode
 
2256
 
 
2257
        flags = O_NOINHERIT
 
2258
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
 
2259
        # for flags for each modes.
 
2260
        if binary:
 
2261
            flags |= O_BINARY
 
2262
        else:
 
2263
            flags |= O_TEXT
 
2264
 
 
2265
        if writing:
 
2266
            if updating:
 
2267
                flags |= os.O_RDWR
 
2268
            else:
 
2269
                flags |= os.O_WRONLY
 
2270
            flags |= os.O_CREAT | os.O_TRUNC
 
2271
        elif appending:
 
2272
            if updating:
 
2273
                flags |= os.O_RDWR
 
2274
            else:
 
2275
                flags |= os.O_WRONLY
 
2276
            flags |= os.O_CREAT | os.O_APPEND
 
2277
        else: #reading
 
2278
            if updating:
 
2279
                flags |= os.O_RDWR
 
2280
            else:
 
2281
                flags |= os.O_RDONLY
 
2282
 
 
2283
        return os.fdopen(os.open(filename, flags), mode, bufsize)
 
2284
else:
 
2285
    open_file = open