/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2007-02-15 15:11:31 UTC
  • mfrom: (2230.3.55 branch6)
  • Revision ID: pqm@pqm.ubuntu.com-20070215151131-1f2ce67d76e40200
Provide new branch6 format

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
import errno
 
17
from cStringIO import StringIO
18
18
import os
19
19
import re
20
20
import stat
21
 
from stat import S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE
 
21
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
22
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
22
23
import sys
23
24
import time
24
 
import codecs
25
25
 
26
26
from bzrlib.lazy_import import lazy_import
27
27
lazy_import(globals(), """
 
28
import codecs
28
29
from datetime import datetime
29
 
import getpass
 
30
import errno
30
31
from ntpath import (abspath as _nt_abspath,
31
32
                    join as _nt_join,
32
33
                    normpath as _nt_normpath,
34
35
                    splitdrive as _nt_splitdrive,
35
36
                    )
36
37
import posixpath
 
38
import sha
37
39
import shutil
38
40
from shutil import (
39
41
    rmtree,
40
42
    )
41
 
import socket
42
 
import subprocess
43
43
import tempfile
44
44
from tempfile import (
45
45
    mkdtemp,
47
47
import unicodedata
48
48
 
49
49
from bzrlib import (
50
 
    cache_utf8,
51
50
    errors,
52
 
    trace,
53
51
    win32utils,
54
52
    )
55
53
""")
56
54
 
 
55
import bzrlib
57
56
from bzrlib.symbol_versioning import (
58
57
    deprecated_function,
59
 
    deprecated_in,
 
58
    zero_nine,
60
59
    )
61
 
 
62
 
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
63
 
# of 2.5
64
 
if sys.version_info < (2, 5):
65
 
    import md5 as _mod_md5
66
 
    md5 = _mod_md5.new
67
 
    import sha as _mod_sha
68
 
    sha = _mod_sha.new
69
 
else:
70
 
    from hashlib import (
71
 
        md5,
72
 
        sha1 as sha,
73
 
        )
74
 
 
75
 
 
76
 
import bzrlib
77
 
from bzrlib import symbol_versioning
78
 
 
79
 
 
80
 
# Cross platform wall-clock time functionality with decent resolution.
81
 
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
82
 
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
83
 
# synchronized with ``time.time()``, this is only meant to be used to find
84
 
# delta times by subtracting from another call to this function.
85
 
timer_func = time.time
86
 
if sys.platform == 'win32':
87
 
    timer_func = time.clock
 
60
from bzrlib.trace import mutter
 
61
 
88
62
 
89
63
# On win32, O_BINARY is used to indicate the file should
90
64
# be opened in binary mode, rather than text mode.
91
65
# On other platforms, O_BINARY doesn't exist, because
92
66
# they always open in binary mode, so it is okay to
93
 
# OR with 0 on those platforms.
94
 
# O_NOINHERIT and O_TEXT exists only on win32 too.
 
67
# OR with 0 on those platforms
95
68
O_BINARY = getattr(os, 'O_BINARY', 0)
96
 
O_TEXT = getattr(os, 'O_TEXT', 0)
97
 
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
98
 
 
99
 
 
100
 
def get_unicode_argv():
101
 
    try:
102
 
        user_encoding = get_user_encoding()
103
 
        return [a.decode(user_encoding) for a in sys.argv[1:]]
104
 
    except UnicodeDecodeError:
105
 
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
106
 
                                                            "encoding." % a))
107
69
 
108
70
 
109
71
def make_readonly(filename):
110
72
    """Make a filename read-only."""
111
 
    mod = os.lstat(filename).st_mode
112
 
    if not stat.S_ISLNK(mod):
113
 
        mod = mod & 0777555
114
 
        os.chmod(filename, mod)
 
73
    mod = os.stat(filename).st_mode
 
74
    mod = mod & 0777555
 
75
    os.chmod(filename, mod)
115
76
 
116
77
 
117
78
def make_writable(filename):
118
 
    mod = os.lstat(filename).st_mode
119
 
    if not stat.S_ISLNK(mod):
120
 
        mod = mod | 0200
121
 
        os.chmod(filename, mod)
122
 
 
123
 
 
124
 
def minimum_path_selection(paths):
125
 
    """Return the smallset subset of paths which are outside paths.
126
 
 
127
 
    :param paths: A container (and hence not None) of paths.
128
 
    :return: A set of paths sufficient to include everything in paths via
129
 
        is_inside, drawn from the paths parameter.
130
 
    """
131
 
    if len(paths) < 2:
132
 
        return set(paths)
133
 
 
134
 
    def sort_key(path):
135
 
        return path.split('/')
136
 
    sorted_paths = sorted(list(paths), key=sort_key)
137
 
 
138
 
    search_paths = [sorted_paths[0]]
139
 
    for path in sorted_paths[1:]:
140
 
        if not is_inside(search_paths[-1], path):
141
 
            # This path is unique, add it
142
 
            search_paths.append(path)
143
 
 
144
 
    return set(search_paths)
 
79
    mod = os.stat(filename).st_mode
 
80
    mod = mod | 0200
 
81
    os.chmod(filename, mod)
145
82
 
146
83
 
147
84
_QUOTE_RE = None
156
93
    global _QUOTE_RE
157
94
    if _QUOTE_RE is None:
158
95
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
159
 
 
 
96
        
160
97
    if _QUOTE_RE.search(f):
161
98
        return '"' + f + '"'
162
99
    else:
165
102
 
166
103
_directory_kind = 'directory'
167
104
 
 
105
_formats = {
 
106
    stat.S_IFDIR:_directory_kind,
 
107
    stat.S_IFCHR:'chardev',
 
108
    stat.S_IFBLK:'block',
 
109
    stat.S_IFREG:'file',
 
110
    stat.S_IFIFO:'fifo',
 
111
    stat.S_IFLNK:'symlink',
 
112
    stat.S_IFSOCK:'socket',
 
113
}
 
114
 
 
115
 
 
116
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
 
117
    """Generate a file kind from a stat mode. This is used in walkdirs.
 
118
 
 
119
    Its performance is critical: Do not mutate without careful benchmarking.
 
120
    """
 
121
    try:
 
122
        return _formats[stat_mode & 0170000]
 
123
    except KeyError:
 
124
        return _unknown
 
125
 
 
126
 
 
127
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
 
128
    try:
 
129
        return _mapper(_lstat(f).st_mode)
 
130
    except OSError, e:
 
131
        if getattr(e, 'errno', None) == errno.ENOENT:
 
132
            raise errors.NoSuchFile(f)
 
133
        raise
 
134
 
 
135
 
168
136
def get_umask():
169
137
    """Return the current umask"""
170
138
    # Assume that people aren't messing with the umask while running
175
143
    return umask
176
144
 
177
145
 
178
 
_kind_marker_map = {
179
 
    "file": "",
180
 
    _directory_kind: "/",
181
 
    "symlink": "@",
182
 
    'tree-reference': '+',
183
 
}
184
 
 
185
 
 
186
146
def kind_marker(kind):
187
 
    try:
188
 
        return _kind_marker_map[kind]
189
 
    except KeyError:
190
 
        # Slightly faster than using .get(, '') when the common case is that
191
 
        # kind will be found
 
147
    if kind == 'file':
192
148
        return ''
193
 
 
 
149
    elif kind == _directory_kind:
 
150
        return '/'
 
151
    elif kind == 'symlink':
 
152
        return '@'
 
153
    else:
 
154
        raise errors.BzrError('invalid file kind %r' % kind)
194
155
 
195
156
lexists = getattr(os.path, 'lexists', None)
196
157
if lexists is None:
197
158
    def lexists(f):
198
159
        try:
199
 
            stat = getattr(os, 'lstat', os.stat)
200
 
            stat(f)
 
160
            if getattr(os, 'lstat') is not None:
 
161
                os.lstat(f)
 
162
            else:
 
163
                os.stat(f)
201
164
            return True
202
 
        except OSError, e:
 
165
        except OSError,e:
203
166
            if e.errno == errno.ENOENT:
204
167
                return False;
205
168
            else:
208
171
 
209
172
def fancy_rename(old, new, rename_func, unlink_func):
210
173
    """A fancy rename, when you don't have atomic rename.
211
 
 
 
174
    
212
175
    :param old: The old path, to rename from
213
176
    :param new: The new path, to rename to
214
177
    :param rename_func: The potentially non-atomic rename function
215
 
    :param unlink_func: A way to delete the target file if the full rename
216
 
        succeeds
 
178
    :param unlink_func: A way to delete the target file if the full rename succeeds
217
179
    """
 
180
 
218
181
    # sftp rename doesn't allow overwriting, so play tricks:
 
182
    import random
219
183
    base = os.path.basename(new)
220
184
    dirname = os.path.dirname(new)
221
 
    # callers use different encodings for the paths so the following MUST
222
 
    # respect that. We rely on python upcasting to unicode if new is unicode
223
 
    # and keeping a str if not.
224
 
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
225
 
                                      os.getpid(), rand_chars(10))
 
185
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
226
186
    tmp_name = pathjoin(dirname, tmp_name)
227
187
 
228
188
    # Rename the file out of the way, but keep track if it didn't exist
248
208
    else:
249
209
        file_existed = True
250
210
 
251
 
    failure_exc = None
252
211
    success = False
253
212
    try:
254
 
        try:
255
 
            # This may throw an exception, in which case success will
256
 
            # not be set.
257
 
            rename_func(old, new)
258
 
            success = True
259
 
        except (IOError, OSError), e:
260
 
            # source and target may be aliases of each other (e.g. on a
261
 
            # case-insensitive filesystem), so we may have accidentally renamed
262
 
            # source by when we tried to rename target
263
 
            failure_exc = sys.exc_info()
264
 
            if (file_existed and e.errno in (None, errno.ENOENT)
265
 
                and old.lower() == new.lower()):
266
 
                # source and target are the same file on a case-insensitive
267
 
                # filesystem, so we don't generate an exception
268
 
                failure_exc = None
 
213
        # This may throw an exception, in which case success will
 
214
        # not be set.
 
215
        rename_func(old, new)
 
216
        success = True
269
217
    finally:
270
218
        if file_existed:
271
219
            # If the file used to exist, rename it back into place
274
222
                unlink_func(tmp_name)
275
223
            else:
276
224
                rename_func(tmp_name, new)
277
 
    if failure_exc is not None:
278
 
        raise failure_exc[0], failure_exc[1], failure_exc[2]
279
225
 
280
226
 
281
227
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
339
285
        path = cwd + '\\' + path
340
286
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
341
287
 
 
288
if win32utils.winver == 'Windows 98':
 
289
    _win32_abspath = _win98_abspath
 
290
 
342
291
 
343
292
def _win32_realpath(path):
344
293
    # Real _nt_realpath doesn't have a problem with a unicode cwd
365
314
    """We expect to be able to atomically replace 'new' with old.
366
315
 
367
316
    On win32, if new exists, it must be moved out of the way first,
368
 
    and then deleted.
 
317
    and then deleted. 
369
318
    """
370
319
    try:
371
320
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
372
321
    except OSError, e:
373
322
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
374
 
            # If we try to rename a non-existant file onto cwd, we get
375
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
323
            # If we try to rename a non-existant file onto cwd, we get 
 
324
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
376
325
            # if the old path doesn't exist, sometimes we get EACCES
377
326
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
378
327
            os.lstat(old)
380
329
 
381
330
 
382
331
def _mac_getcwd():
383
 
    return unicodedata.normalize('NFC', os.getcwdu())
 
332
    return unicodedata.normalize('NFKC', os.getcwdu())
384
333
 
385
334
 
386
335
# Default is to just use the python builtins, but these can be rebound on
403
352
 
404
353
 
405
354
if sys.platform == 'win32':
406
 
    if win32utils.winver == 'Windows 98':
407
 
        abspath = _win98_abspath
408
 
    else:
409
 
        abspath = _win32_abspath
 
355
    abspath = _win32_abspath
410
356
    realpath = _win32_realpath
411
357
    pathjoin = _win32_pathjoin
412
358
    normpath = _win32_normpath
432
378
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
433
379
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
434
380
        return shutil.rmtree(path, ignore_errors, onerror)
435
 
 
436
 
    f = win32utils.get_unicode_argv     # special function or None
437
 
    if f is not None:
438
 
        get_unicode_argv = f
439
 
 
440
381
elif sys.platform == 'darwin':
441
382
    getcwd = _mac_getcwd
442
383
 
446
387
 
447
388
    This attempts to check both sys.stdout and sys.stdin to see
448
389
    what encoding they are in, and if that fails it falls back to
449
 
    osutils.get_user_encoding().
 
390
    bzrlib.user_encoding.
450
391
    The problem is that on Windows, locale.getpreferredencoding()
451
392
    is not the same encoding as that used by the console:
452
393
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
454
395
    On my standard US Windows XP, the preferred encoding is
455
396
    cp1252, but the console is cp437
456
397
    """
457
 
    from bzrlib.trace import mutter
458
398
    output_encoding = getattr(sys.stdout, 'encoding', None)
459
399
    if not output_encoding:
460
400
        input_encoding = getattr(sys.stdin, 'encoding', None)
461
401
        if not input_encoding:
462
 
            output_encoding = get_user_encoding()
463
 
            mutter('encoding stdout as osutils.get_user_encoding() %r',
464
 
                   output_encoding)
 
402
            output_encoding = bzrlib.user_encoding
 
403
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
465
404
        else:
466
405
            output_encoding = input_encoding
467
406
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
469
408
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
470
409
    if output_encoding == 'cp0':
471
410
        # invalid encoding (cp0 means 'no codepage' on Windows)
472
 
        output_encoding = get_user_encoding()
 
411
        output_encoding = bzrlib.user_encoding
473
412
        mutter('cp0 is invalid encoding.'
474
 
               ' encoding stdout as osutils.get_user_encoding() %r',
475
 
               output_encoding)
 
413
               ' encoding stdout as bzrlib.user_encoding %r', output_encoding)
476
414
    # check encoding
477
415
    try:
478
416
        codecs.lookup(output_encoding)
480
418
        sys.stderr.write('bzr: warning:'
481
419
                         ' unknown terminal encoding %s.\n'
482
420
                         '  Using encoding %s instead.\n'
483
 
                         % (output_encoding, get_user_encoding())
 
421
                         % (output_encoding, bzrlib.user_encoding)
484
422
                        )
485
 
        output_encoding = get_user_encoding()
 
423
        output_encoding = bzrlib.user_encoding
486
424
 
487
425
    return output_encoding
488
426
 
499
437
        return pathjoin(F(p), e)
500
438
 
501
439
 
 
440
def backup_file(fn):
 
441
    """Copy a file to a backup.
 
442
 
 
443
    Backups are named in GNU-style, with a ~ suffix.
 
444
 
 
445
    If the file is already a backup, it's not copied.
 
446
    """
 
447
    if fn[-1] == '~':
 
448
        return
 
449
    bfn = fn + '~'
 
450
 
 
451
    if has_symlinks() and os.path.islink(fn):
 
452
        target = os.readlink(fn)
 
453
        os.symlink(target, bfn)
 
454
        return
 
455
    inf = file(fn, 'rb')
 
456
    try:
 
457
        content = inf.read()
 
458
    finally:
 
459
        inf.close()
 
460
    
 
461
    outf = file(bfn, 'wb')
 
462
    try:
 
463
        outf.write(content)
 
464
    finally:
 
465
        outf.close()
 
466
 
 
467
 
502
468
def isdir(f):
503
469
    """True if f is an accessible directory."""
504
470
    try:
523
489
 
524
490
def is_inside(dir, fname):
525
491
    """True if fname is inside dir.
526
 
 
 
492
    
527
493
    The parameters should typically be passed to osutils.normpath first, so
528
494
    that . and .. and repeated slashes are eliminated, and the separators
529
495
    are canonical for the platform.
530
 
 
531
 
    The empty string as a dir name is taken as top-of-tree and matches
 
496
    
 
497
    The empty string as a dir name is taken as top-of-tree and matches 
532
498
    everything.
533
499
    """
534
 
    # XXX: Most callers of this can actually do something smarter by
 
500
    # XXX: Most callers of this can actually do something smarter by 
535
501
    # looking at the inventory
536
502
    if dir == fname:
537
503
        return True
538
 
 
 
504
    
539
505
    if dir == '':
540
506
        return True
541
507
 
550
516
    for dirname in dir_list:
551
517
        if is_inside(dirname, fname):
552
518
            return True
553
 
    return False
 
519
    else:
 
520
        return False
554
521
 
555
522
 
556
523
def is_inside_or_parent_of_any(dir_list, fname):
558
525
    for dirname in dir_list:
559
526
        if is_inside(dirname, fname) or is_inside(fname, dirname):
560
527
            return True
561
 
    return False
562
 
 
563
 
 
564
 
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
565
 
             report_activity=None, direction='read'):
566
 
    """Copy contents of one file to another.
567
 
 
568
 
    The read_length can either be -1 to read to end-of-file (EOF) or
569
 
    it can specify the maximum number of bytes to read.
570
 
 
571
 
    The buff_size represents the maximum size for each read operation
572
 
    performed on from_file.
573
 
 
574
 
    :param report_activity: Call this as bytes are read, see
575
 
        Transport._report_activity
576
 
    :param direction: Will be passed to report_activity
577
 
 
578
 
    :return: The number of bytes copied.
579
 
    """
580
 
    length = 0
581
 
    if read_length >= 0:
582
 
        # read specified number of bytes
583
 
 
584
 
        while read_length > 0:
585
 
            num_bytes_to_read = min(read_length, buff_size)
586
 
 
587
 
            block = from_file.read(num_bytes_to_read)
588
 
            if not block:
589
 
                # EOF reached
590
 
                break
591
 
            if report_activity is not None:
592
 
                report_activity(len(block), direction)
593
 
            to_file.write(block)
594
 
 
595
 
            actual_bytes_read = len(block)
596
 
            read_length -= actual_bytes_read
597
 
            length += actual_bytes_read
598
528
    else:
599
 
        # read to EOF
600
 
        while True:
601
 
            block = from_file.read(buff_size)
602
 
            if not block:
603
 
                # EOF reached
604
 
                break
605
 
            if report_activity is not None:
606
 
                report_activity(len(block), direction)
607
 
            to_file.write(block)
608
 
            length += len(block)
609
 
    return length
610
 
 
611
 
 
612
 
def pump_string_file(bytes, file_handle, segment_size=None):
613
 
    """Write bytes to file_handle in many smaller writes.
614
 
 
615
 
    :param bytes: The string to write.
616
 
    :param file_handle: The file to write to.
617
 
    """
618
 
    # Write data in chunks rather than all at once, because very large
619
 
    # writes fail on some platforms (e.g. Windows with SMB  mounted
620
 
    # drives).
621
 
    if not segment_size:
622
 
        segment_size = 5242880 # 5MB
623
 
    segments = range(len(bytes) / segment_size + 1)
624
 
    write = file_handle.write
625
 
    for segment_index in segments:
626
 
        segment = buffer(bytes, segment_index * segment_size, segment_size)
627
 
        write(segment)
 
529
        return False
 
530
 
 
531
 
 
532
def pumpfile(fromfile, tofile):
 
533
    """Copy contents of one file to another."""
 
534
    BUFSIZE = 32768
 
535
    while True:
 
536
        b = fromfile.read(BUFSIZE)
 
537
        if not b:
 
538
            break
 
539
        tofile.write(b)
628
540
 
629
541
 
630
542
def file_iterator(input_file, readsize=32768):
636
548
 
637
549
 
638
550
def sha_file(f):
639
 
    """Calculate the hexdigest of an open file.
640
 
 
641
 
    The file cursor should be already at the start.
642
 
    """
643
 
    s = sha()
 
551
    if getattr(f, 'tell', None) is not None:
 
552
        assert f.tell() == 0
 
553
    s = sha.new()
644
554
    BUFSIZE = 128<<10
645
555
    while True:
646
556
        b = f.read(BUFSIZE)
650
560
    return s.hexdigest()
651
561
 
652
562
 
653
 
def size_sha_file(f):
654
 
    """Calculate the size and hexdigest of an open file.
655
 
 
656
 
    The file cursor should be already at the start and
657
 
    the caller is responsible for closing the file afterwards.
658
 
    """
659
 
    size = 0
660
 
    s = sha()
661
 
    BUFSIZE = 128<<10
662
 
    while True:
663
 
        b = f.read(BUFSIZE)
664
 
        if not b:
665
 
            break
666
 
        size += len(b)
667
 
        s.update(b)
668
 
    return size, s.hexdigest()
669
 
 
670
 
 
671
 
def sha_file_by_name(fname):
672
 
    """Calculate the SHA1 of a file by reading the full text"""
673
 
    s = sha()
674
 
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
675
 
    try:
676
 
        while True:
677
 
            b = os.read(f, 1<<16)
678
 
            if not b:
679
 
                return s.hexdigest()
680
 
            s.update(b)
681
 
    finally:
682
 
        os.close(f)
683
 
 
684
 
 
685
 
def sha_strings(strings, _factory=sha):
 
563
 
 
564
def sha_strings(strings):
686
565
    """Return the sha-1 of concatenation of strings"""
687
 
    s = _factory()
 
566
    s = sha.new()
688
567
    map(s.update, strings)
689
568
    return s.hexdigest()
690
569
 
691
570
 
692
 
def sha_string(f, _factory=sha):
693
 
    return _factory(f).hexdigest()
 
571
def sha_string(f):
 
572
    s = sha.new()
 
573
    s.update(f)
 
574
    return s.hexdigest()
694
575
 
695
576
 
696
577
def fingerprint_file(f):
 
578
    s = sha.new()
697
579
    b = f.read()
698
 
    return {'size': len(b),
699
 
            'sha1': sha(b).hexdigest()}
 
580
    s.update(b)
 
581
    size = len(b)
 
582
    return {'size': size,
 
583
            'sha1': s.hexdigest()}
700
584
 
701
585
 
702
586
def compare_files(a, b):
718
602
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
719
603
    return offset.days * 86400 + offset.seconds
720
604
 
721
 
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
722
 
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
723
 
 
724
 
 
725
 
def format_date(t, offset=0, timezone='original', date_fmt=None,
 
605
    
 
606
def format_date(t, offset=0, timezone='original', date_fmt=None, 
726
607
                show_offset=True):
727
 
    """Return a formatted date string.
728
 
 
729
 
    :param t: Seconds since the epoch.
730
 
    :param offset: Timezone offset in seconds east of utc.
731
 
    :param timezone: How to display the time: 'utc', 'original' for the
732
 
         timezone specified by offset, or 'local' for the process's current
733
 
         timezone.
734
 
    :param date_fmt: strftime format.
735
 
    :param show_offset: Whether to append the timezone.
736
 
    """
737
 
    (date_fmt, tt, offset_str) = \
738
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
739
 
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
740
 
    date_str = time.strftime(date_fmt, tt)
741
 
    return date_str + offset_str
742
 
 
743
 
 
744
 
# Cache of formatted offset strings
745
 
_offset_cache = {}
746
 
 
747
 
 
748
 
def format_date_with_offset_in_original_timezone(t, offset=0,
749
 
    _cache=_offset_cache):
750
 
    """Return a formatted date string in the original timezone.
751
 
 
752
 
    This routine may be faster then format_date.
753
 
 
754
 
    :param t: Seconds since the epoch.
755
 
    :param offset: Timezone offset in seconds east of utc.
756
 
    """
757
 
    if offset is None:
758
 
        offset = 0
759
 
    tt = time.gmtime(t + offset)
760
 
    date_fmt = _default_format_by_weekday_num[tt[6]]
761
 
    date_str = time.strftime(date_fmt, tt)
762
 
    offset_str = _cache.get(offset, None)
763
 
    if offset_str is None:
764
 
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
765
 
        _cache[offset] = offset_str
766
 
    return date_str + offset_str
767
 
 
768
 
 
769
 
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
770
 
                      show_offset=True):
771
 
    """Return an unicode date string formatted according to the current locale.
772
 
 
773
 
    :param t: Seconds since the epoch.
774
 
    :param offset: Timezone offset in seconds east of utc.
775
 
    :param timezone: How to display the time: 'utc', 'original' for the
776
 
         timezone specified by offset, or 'local' for the process's current
777
 
         timezone.
778
 
    :param date_fmt: strftime format.
779
 
    :param show_offset: Whether to append the timezone.
780
 
    """
781
 
    (date_fmt, tt, offset_str) = \
782
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
783
 
    date_str = time.strftime(date_fmt, tt)
784
 
    if not isinstance(date_str, unicode):
785
 
        date_str = date_str.decode(get_user_encoding(), 'replace')
786
 
    return date_str + offset_str
787
 
 
788
 
 
789
 
def _format_date(t, offset, timezone, date_fmt, show_offset):
 
608
    ## TODO: Perhaps a global option to use either universal or local time?
 
609
    ## Or perhaps just let people set $TZ?
 
610
    assert isinstance(t, float)
 
611
    
790
612
    if timezone == 'utc':
791
613
        tt = time.gmtime(t)
792
614
        offset = 0
798
620
        tt = time.localtime(t)
799
621
        offset = local_time_offset(t)
800
622
    else:
801
 
        raise errors.UnsupportedTimezoneFormat(timezone)
 
623
        raise errors.BzrError("unsupported timezone format %r" % timezone,
 
624
                              ['options are "utc", "original", "local"'])
802
625
    if date_fmt is None:
803
626
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
804
627
    if show_offset:
805
628
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
806
629
    else:
807
630
        offset_str = ''
808
 
    return (date_fmt, tt, offset_str)
 
631
    return (time.strftime(date_fmt, tt) +  offset_str)
809
632
 
810
633
 
811
634
def compact_date(when):
812
635
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
813
 
 
 
636
    
814
637
 
815
638
def format_delta(delta):
816
639
    """Get a nice looking string for a time delta.
892
715
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
893
716
def rand_chars(num):
894
717
    """Return a random string of num alphanumeric characters
895
 
 
896
 
    The result only contains lowercase chars because it may be used on
 
718
    
 
719
    The result only contains lowercase chars because it may be used on 
897
720
    case-insensitive filesystems.
898
721
    """
899
722
    s = ''
907
730
 
908
731
def splitpath(p):
909
732
    """Turn string into list of parts."""
 
733
    assert isinstance(p, basestring)
 
734
 
910
735
    # split on either delimiter because people might use either on
911
736
    # Windows
912
737
    ps = re.split(r'[\\/]', p)
921
746
            rps.append(f)
922
747
    return rps
923
748
 
924
 
 
925
749
def joinpath(p):
 
750
    assert isinstance(p, list)
926
751
    for f in p:
927
752
        if (f == '..') or (f is None) or (f == ''):
928
753
            raise errors.BzrError("sorry, %r not allowed in path" % f)
929
754
    return pathjoin(*p)
930
755
 
931
756
 
932
 
def parent_directories(filename):
933
 
    """Return the list of parent directories, deepest first.
934
 
    
935
 
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
936
 
    """
937
 
    parents = []
938
 
    parts = splitpath(dirname(filename))
939
 
    while parts:
940
 
        parents.append(joinpath(parts))
941
 
        parts.pop()
942
 
    return parents
943
 
 
944
 
 
945
 
_extension_load_failures = []
946
 
 
947
 
 
948
 
def failed_to_load_extension(exception):
949
 
    """Handle failing to load a binary extension.
950
 
 
951
 
    This should be called from the ImportError block guarding the attempt to
952
 
    import the native extension.  If this function returns, the pure-Python
953
 
    implementation should be loaded instead::
954
 
 
955
 
    >>> try:
956
 
    >>>     import bzrlib._fictional_extension_pyx
957
 
    >>> except ImportError, e:
958
 
    >>>     bzrlib.osutils.failed_to_load_extension(e)
959
 
    >>>     import bzrlib._fictional_extension_py
960
 
    """
961
 
    # NB: This docstring is just an example, not a doctest, because doctest
962
 
    # currently can't cope with the use of lazy imports in this namespace --
963
 
    # mbp 20090729
964
 
    
965
 
    # This currently doesn't report the failure at the time it occurs, because
966
 
    # they tend to happen very early in startup when we can't check config
967
 
    # files etc, and also we want to report all failures but not spam the user
968
 
    # with 10 warnings.
969
 
    from bzrlib import trace
970
 
    exception_str = str(exception)
971
 
    if exception_str not in _extension_load_failures:
972
 
        trace.mutter("failed to load compiled extension: %s" % exception_str)
973
 
        _extension_load_failures.append(exception_str)
974
 
 
975
 
 
976
 
def report_extension_load_failures():
977
 
    if not _extension_load_failures:
978
 
        return
979
 
    from bzrlib.config import GlobalConfig
980
 
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
981
 
        return
982
 
    # the warnings framework should by default show this only once
983
 
    from bzrlib.trace import warning
984
 
    warning(
985
 
        "bzr: warning: some compiled extensions could not be loaded; "
986
 
        "see <https://answers.launchpad.net/bzr/+faq/703>")
987
 
    # we no longer show the specific missing extensions here, because it makes
988
 
    # the message too long and scary - see
989
 
    # https://bugs.launchpad.net/bzr/+bug/430529
990
 
 
991
 
 
992
 
try:
993
 
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
994
 
except ImportError, e:
995
 
    failed_to_load_extension(e)
996
 
    from bzrlib._chunks_to_lines_py import chunks_to_lines
997
 
 
 
757
@deprecated_function(zero_nine)
 
758
def appendpath(p1, p2):
 
759
    if p1 == '':
 
760
        return p2
 
761
    else:
 
762
        return pathjoin(p1, p2)
 
763
    
998
764
 
999
765
def split_lines(s):
1000
766
    """Split s into lines, but without removing the newline characters."""
1001
 
    # Trivially convert a fulltext into a 'chunked' representation, and let
1002
 
    # chunks_to_lines do the heavy lifting.
1003
 
    if isinstance(s, str):
1004
 
        # chunks_to_lines only supports 8-bit strings
1005
 
        return chunks_to_lines([s])
1006
 
    else:
1007
 
        return _split_lines(s)
1008
 
 
1009
 
 
1010
 
def _split_lines(s):
1011
 
    """Split s into lines, but without removing the newline characters.
1012
 
 
1013
 
    This supports Unicode or plain string objects.
1014
 
    """
1015
767
    lines = s.split('\n')
1016
768
    result = [line + '\n' for line in lines[:-1]]
1017
769
    if lines[-1]:
1035
787
            raise
1036
788
        shutil.copyfile(src, dest)
1037
789
 
1038
 
 
1039
 
def delete_any(path):
1040
 
    """Delete a file, symlink or directory.  
1041
 
    
1042
 
    Will delete even if readonly.
1043
 
    """
 
790
def delete_any(full_path):
 
791
    """Delete a file or directory."""
1044
792
    try:
1045
 
       _delete_file_or_dir(path)
1046
 
    except (OSError, IOError), e:
1047
 
        if e.errno in (errno.EPERM, errno.EACCES):
1048
 
            # make writable and try again
1049
 
            try:
1050
 
                make_writable(path)
1051
 
            except (OSError, IOError):
1052
 
                pass
1053
 
            _delete_file_or_dir(path)
1054
 
        else:
 
793
        os.unlink(full_path)
 
794
    except OSError, e:
 
795
    # We may be renaming a dangling inventory id
 
796
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
1055
797
            raise
1056
 
 
1057
 
 
1058
 
def _delete_file_or_dir(path):
1059
 
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
1060
 
    # Forgiveness than Permission (EAFP) because:
1061
 
    # - root can damage a solaris file system by using unlink,
1062
 
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
1063
 
    #   EACCES, OSX: EPERM) when invoked on a directory.
1064
 
    if isdir(path): # Takes care of symlinks
1065
 
        os.rmdir(path)
1066
 
    else:
1067
 
        os.unlink(path)
 
798
        os.rmdir(full_path)
1068
799
 
1069
800
 
1070
801
def has_symlinks():
1072
803
        return True
1073
804
    else:
1074
805
        return False
1075
 
 
1076
 
 
1077
 
def has_hardlinks():
1078
 
    if getattr(os, 'link', None) is not None:
1079
 
        return True
1080
 
    else:
1081
 
        return False
1082
 
 
1083
 
 
1084
 
def host_os_dereferences_symlinks():
1085
 
    return (has_symlinks()
1086
 
            and sys.platform not in ('cygwin', 'win32'))
1087
 
 
1088
 
 
1089
 
def readlink(abspath):
1090
 
    """Return a string representing the path to which the symbolic link points.
1091
 
 
1092
 
    :param abspath: The link absolute unicode path.
1093
 
 
1094
 
    This his guaranteed to return the symbolic link in unicode in all python
1095
 
    versions.
1096
 
    """
1097
 
    link = abspath.encode(_fs_enc)
1098
 
    target = os.readlink(link)
1099
 
    target = target.decode(_fs_enc)
1100
 
    return target
1101
 
 
 
806
        
1102
807
 
1103
808
def contains_whitespace(s):
1104
809
    """True if there are any whitespace characters in s."""
1108
813
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
1109
814
    #    separators
1110
815
    # 3) '\xa0' isn't unicode safe since it is >128.
1111
 
 
1112
 
    # This should *not* be a unicode set of characters in case the source
1113
 
    # string is not a Unicode string. We can auto-up-cast the characters since
1114
 
    # they are ascii, but we don't want to auto-up-cast the string in case it
1115
 
    # is utf-8
1116
 
    for ch in ' \t\n\r\v\f':
 
816
    # So we are following textwrap's example and hard-coding our own.
 
817
    # We probably could ignore \v and \f, too.
 
818
    for ch in u' \t\n\r\v\f':
1117
819
        if ch in s:
1118
820
            return True
1119
821
    else:
1130
832
 
1131
833
 
1132
834
def relpath(base, path):
1133
 
    """Return path relative to base, or raise PathNotChild exception.
 
835
    """Return path relative to base, or raise exception.
1134
836
 
1135
837
    The path may be either an absolute path or a path relative to the
1136
838
    current working directory.
1138
840
    os.path.commonprefix (python2.4) has a bad bug that it works just
1139
841
    on string prefixes, assuming that '/u' is a prefix of '/u2'.  This
1140
842
    avoids that problem.
1141
 
 
1142
 
    NOTE: `base` should not have a trailing slash otherwise you'll get
1143
 
    PathNotChild exceptions regardless of `path`.
1144
843
    """
1145
844
 
1146
 
    if len(base) < MIN_ABS_PATHLENGTH:
1147
 
        # must have space for e.g. a drive letter
1148
 
        raise ValueError('%r is too short to calculate a relative path'
1149
 
            % (base,))
 
845
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
 
846
        ' exceed the platform minimum length (which is %d)' % 
 
847
        MIN_ABS_PATHLENGTH)
1150
848
 
1151
849
    rp = abspath(path)
1152
850
 
1153
851
    s = []
1154
852
    head = rp
1155
 
    while True:
1156
 
        if len(head) <= len(base) and head != base:
1157
 
            raise errors.PathNotChild(rp, base)
 
853
    while len(head) >= len(base):
1158
854
        if head == base:
1159
855
            break
1160
 
        head, tail = split(head)
 
856
        head, tail = os.path.split(head)
1161
857
        if tail:
1162
 
            s.append(tail)
 
858
            s.insert(0, tail)
 
859
    else:
 
860
        raise errors.PathNotChild(rp, base)
1163
861
 
1164
862
    if s:
1165
 
        return pathjoin(*reversed(s))
 
863
        return pathjoin(*s)
1166
864
    else:
1167
865
        return ''
1168
866
 
1169
867
 
1170
 
def _cicp_canonical_relpath(base, path):
1171
 
    """Return the canonical path relative to base.
1172
 
 
1173
 
    Like relpath, but on case-insensitive-case-preserving file-systems, this
1174
 
    will return the relpath as stored on the file-system rather than in the
1175
 
    case specified in the input string, for all existing portions of the path.
1176
 
 
1177
 
    This will cause O(N) behaviour if called for every path in a tree; if you
1178
 
    have a number of paths to convert, you should use canonical_relpaths().
1179
 
    """
1180
 
    # TODO: it should be possible to optimize this for Windows by using the
1181
 
    # win32 API FindFiles function to look for the specified name - but using
1182
 
    # os.listdir() still gives us the correct, platform agnostic semantics in
1183
 
    # the short term.
1184
 
 
1185
 
    rel = relpath(base, path)
1186
 
    # '.' will have been turned into ''
1187
 
    if not rel:
1188
 
        return rel
1189
 
 
1190
 
    abs_base = abspath(base)
1191
 
    current = abs_base
1192
 
    _listdir = os.listdir
1193
 
 
1194
 
    # use an explicit iterator so we can easily consume the rest on early exit.
1195
 
    bit_iter = iter(rel.split('/'))
1196
 
    for bit in bit_iter:
1197
 
        lbit = bit.lower()
1198
 
        try:
1199
 
            next_entries = _listdir(current)
1200
 
        except OSError: # enoent, eperm, etc
1201
 
            # We can't find this in the filesystem, so just append the
1202
 
            # remaining bits.
1203
 
            current = pathjoin(current, bit, *list(bit_iter))
1204
 
            break
1205
 
        for look in next_entries:
1206
 
            if lbit == look.lower():
1207
 
                current = pathjoin(current, look)
1208
 
                break
1209
 
        else:
1210
 
            # got to the end, nothing matched, so we just return the
1211
 
            # non-existing bits as they were specified (the filename may be
1212
 
            # the target of a move, for example).
1213
 
            current = pathjoin(current, bit, *list(bit_iter))
1214
 
            break
1215
 
    return current[len(abs_base):].lstrip('/')
1216
 
 
1217
 
# XXX - TODO - we need better detection/integration of case-insensitive
1218
 
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
1219
 
# filesystems), for example, so could probably benefit from the same basic
1220
 
# support there.  For now though, only Windows and OSX get that support, and
1221
 
# they get it for *all* file-systems!
1222
 
if sys.platform in ('win32', 'darwin'):
1223
 
    canonical_relpath = _cicp_canonical_relpath
1224
 
else:
1225
 
    canonical_relpath = relpath
1226
 
 
1227
 
def canonical_relpaths(base, paths):
1228
 
    """Create an iterable to canonicalize a sequence of relative paths.
1229
 
 
1230
 
    The intent is for this implementation to use a cache, vastly speeding
1231
 
    up multiple transformations in the same directory.
1232
 
    """
1233
 
    # but for now, we haven't optimized...
1234
 
    return [canonical_relpath(base, p) for p in paths]
1235
 
 
1236
868
def safe_unicode(unicode_or_utf8_string):
1237
869
    """Coerce unicode_or_utf8_string into unicode.
1238
870
 
1239
871
    If it is unicode, it is returned.
1240
 
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
1241
 
    wrapped in a BzrBadParameterNotUnicode exception.
 
872
    Otherwise it is decoded from utf-8. If a decoding error
 
873
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
 
874
    as a BzrBadParameter exception.
1242
875
    """
1243
876
    if isinstance(unicode_or_utf8_string, unicode):
1244
877
        return unicode_or_utf8_string
1248
881
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
1249
882
 
1250
883
 
1251
 
def safe_utf8(unicode_or_utf8_string):
1252
 
    """Coerce unicode_or_utf8_string to a utf8 string.
1253
 
 
1254
 
    If it is a str, it is returned.
1255
 
    If it is Unicode, it is encoded into a utf-8 string.
1256
 
    """
1257
 
    if isinstance(unicode_or_utf8_string, str):
1258
 
        # TODO: jam 20070209 This is overkill, and probably has an impact on
1259
 
        #       performance if we are dealing with lots of apis that want a
1260
 
        #       utf-8 revision id
1261
 
        try:
1262
 
            # Make sure it is a valid utf-8 string
1263
 
            unicode_or_utf8_string.decode('utf-8')
1264
 
        except UnicodeDecodeError:
1265
 
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
1266
 
        return unicode_or_utf8_string
1267
 
    return unicode_or_utf8_string.encode('utf-8')
1268
 
 
1269
 
 
1270
 
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
1271
 
                        ' Revision id generators should be creating utf8'
1272
 
                        ' revision ids.')
1273
 
 
1274
 
 
1275
 
def safe_revision_id(unicode_or_utf8_string, warn=True):
1276
 
    """Revision ids should now be utf8, but at one point they were unicode.
1277
 
 
1278
 
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
1279
 
        utf8 or None).
1280
 
    :param warn: Functions that are sanitizing user data can set warn=False
1281
 
    :return: None or a utf8 revision id.
1282
 
    """
1283
 
    if (unicode_or_utf8_string is None
1284
 
        or unicode_or_utf8_string.__class__ == str):
1285
 
        return unicode_or_utf8_string
1286
 
    if warn:
1287
 
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
1288
 
                               stacklevel=2)
1289
 
    return cache_utf8.encode(unicode_or_utf8_string)
1290
 
 
1291
 
 
1292
 
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
1293
 
                    ' generators should be creating utf8 file ids.')
1294
 
 
1295
 
 
1296
 
def safe_file_id(unicode_or_utf8_string, warn=True):
1297
 
    """File ids should now be utf8, but at one point they were unicode.
1298
 
 
1299
 
    This is the same as safe_utf8, except it uses the cached encode functions
1300
 
    to save a little bit of performance.
1301
 
 
1302
 
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
1303
 
        utf8 or None).
1304
 
    :param warn: Functions that are sanitizing user data can set warn=False
1305
 
    :return: None or a utf8 file id.
1306
 
    """
1307
 
    if (unicode_or_utf8_string is None
1308
 
        or unicode_or_utf8_string.__class__ == str):
1309
 
        return unicode_or_utf8_string
1310
 
    if warn:
1311
 
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
1312
 
                               stacklevel=2)
1313
 
    return cache_utf8.encode(unicode_or_utf8_string)
1314
 
 
1315
 
 
1316
884
_platform_normalizes_filenames = False
1317
885
if sys.platform == 'darwin':
1318
886
    _platform_normalizes_filenames = True
1331
899
 
1332
900
    On platforms where the system normalizes filenames (Mac OSX),
1333
901
    you can access a file by any path which will normalize correctly.
1334
 
    On platforms where the system does not normalize filenames
 
902
    On platforms where the system does not normalize filenames 
1335
903
    (Windows, Linux), you have to access a file by its exact path.
1336
904
 
1337
 
    Internally, bzr only supports NFC normalization, since that is
 
905
    Internally, bzr only supports NFC/NFKC normalization, since that is 
1338
906
    the standard for XML documents.
1339
907
 
1340
908
    So return the normalized path, and a flag indicating if the file
1341
909
    can be accessed by that path.
1342
910
    """
1343
911
 
1344
 
    return unicodedata.normalize('NFC', unicode(path)), True
 
912
    return unicodedata.normalize('NFKC', unicode(path)), True
1345
913
 
1346
914
 
1347
915
def _inaccessible_normalized_filename(path):
1348
916
    __doc__ = _accessible_normalized_filename.__doc__
1349
917
 
1350
 
    normalized = unicodedata.normalize('NFC', unicode(path))
 
918
    normalized = unicodedata.normalize('NFKC', unicode(path))
1351
919
    return normalized, normalized == path
1352
920
 
1353
921
 
1357
925
    normalized_filename = _inaccessible_normalized_filename
1358
926
 
1359
927
 
1360
 
def set_signal_handler(signum, handler, restart_syscall=True):
1361
 
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
1362
 
    on platforms that support that.
1363
 
 
1364
 
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
1365
 
        automatically restart (by calling `signal.siginterrupt(signum,
1366
 
        False)`).  May be ignored if the feature is not available on this
1367
 
        platform or Python version.
1368
 
    """
1369
 
    try:
1370
 
        import signal
1371
 
        siginterrupt = signal.siginterrupt
1372
 
    except ImportError:
1373
 
        # This python implementation doesn't provide signal support, hence no
1374
 
        # handler exists
1375
 
        return None
1376
 
    except AttributeError:
1377
 
        # siginterrupt doesn't exist on this platform, or for this version
1378
 
        # of Python.
1379
 
        siginterrupt = lambda signum, flag: None
1380
 
    if restart_syscall:
1381
 
        def sig_handler(*args):
1382
 
            # Python resets the siginterrupt flag when a signal is
1383
 
            # received.  <http://bugs.python.org/issue8354>
1384
 
            # As a workaround for some cases, set it back the way we want it.
1385
 
            siginterrupt(signum, False)
1386
 
            # Now run the handler function passed to set_signal_handler.
1387
 
            handler(*args)
1388
 
    else:
1389
 
        sig_handler = handler
1390
 
    old_handler = signal.signal(signum, sig_handler)
1391
 
    if restart_syscall:
1392
 
        siginterrupt(signum, False)
1393
 
    return old_handler
1394
 
 
1395
 
 
1396
 
default_terminal_width = 80
1397
 
"""The default terminal width for ttys.
1398
 
 
1399
 
This is defined so that higher levels can share a common fallback value when
1400
 
terminal_width() returns None.
1401
 
"""
1402
 
 
1403
 
# Keep some state so that terminal_width can detect if _terminal_size has
1404
 
# returned a different size since the process started.  See docstring and
1405
 
# comments of terminal_width for details.
1406
 
# _terminal_size_state has 3 possible values: no_data, unchanged, and changed.
1407
 
_terminal_size_state = 'no_data'
1408
 
_first_terminal_size = None
1409
 
 
1410
928
def terminal_width():
1411
 
    """Return terminal width.
1412
 
 
1413
 
    None is returned if the width can't established precisely.
1414
 
 
1415
 
    The rules are:
1416
 
    - if BZR_COLUMNS is set, returns its value
1417
 
    - if there is no controlling terminal, returns None
1418
 
    - query the OS, if the queried size has changed since the last query,
1419
 
      return its value,
1420
 
    - if COLUMNS is set, returns its value,
1421
 
    - if the OS has a value (even though it's never changed), return its value.
1422
 
 
1423
 
    From there, we need to query the OS to get the size of the controlling
1424
 
    terminal.
1425
 
 
1426
 
    On Unices we query the OS by:
1427
 
    - get termios.TIOCGWINSZ
1428
 
    - if an error occurs or a negative value is obtained, returns None
1429
 
 
1430
 
    On Windows we query the OS by:
1431
 
    - win32utils.get_console_size() decides,
1432
 
    - returns None on error (provided default value)
1433
 
    """
1434
 
    # Note to implementors: if changing the rules for determining the width,
1435
 
    # make sure you've considered the behaviour in these cases:
1436
 
    #  - M-x shell in emacs, where $COLUMNS is set and TIOCGWINSZ returns 0,0.
1437
 
    #  - bzr log | less, in bash, where $COLUMNS not set and TIOCGWINSZ returns
1438
 
    #    0,0.
1439
 
    #  - (add more interesting cases here, if you find any)
1440
 
    # Some programs implement "Use $COLUMNS (if set) until SIGWINCH occurs",
1441
 
    # but we don't want to register a signal handler because it is impossible
1442
 
    # to do so without risking EINTR errors in Python <= 2.6.5 (see
1443
 
    # <http://bugs.python.org/issue8354>).  Instead we check TIOCGWINSZ every
1444
 
    # time so we can notice if the reported size has changed, which should have
1445
 
    # a similar effect.
1446
 
 
1447
 
    # If BZR_COLUMNS is set, take it, user is always right
1448
 
    try:
1449
 
        return int(os.environ['BZR_COLUMNS'])
1450
 
    except (KeyError, ValueError):
1451
 
        pass
1452
 
 
1453
 
    isatty = getattr(sys.stdout, 'isatty', None)
1454
 
    if isatty is None or not isatty():
1455
 
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
1456
 
        return None
1457
 
 
1458
 
    # Query the OS
1459
 
    width, height = os_size = _terminal_size(None, None)
1460
 
    global _first_terminal_size, _terminal_size_state
1461
 
    if _terminal_size_state == 'no_data':
1462
 
        _first_terminal_size = os_size
1463
 
        _terminal_size_state = 'unchanged'
1464
 
    elif (_terminal_size_state == 'unchanged' and
1465
 
          _first_terminal_size != os_size):
1466
 
        _terminal_size_state = 'changed'
1467
 
 
1468
 
    # If the OS claims to know how wide the terminal is, and this value has
1469
 
    # ever changed, use that.
1470
 
    if _terminal_size_state == 'changed':
1471
 
        if width is not None and width > 0:
1472
 
            return width
1473
 
 
1474
 
    # If COLUMNS is set, use it.
1475
 
    try:
1476
 
        return int(os.environ['COLUMNS'])
1477
 
    except (KeyError, ValueError):
1478
 
        pass
1479
 
 
1480
 
    # Finally, use an unchanged size from the OS, if we have one.
1481
 
    if _terminal_size_state == 'unchanged':
1482
 
        if width is not None and width > 0:
1483
 
            return width
1484
 
 
1485
 
    # The width could not be determined.
1486
 
    return None
1487
 
 
1488
 
 
1489
 
def _win32_terminal_size(width, height):
1490
 
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
1491
 
    return width, height
1492
 
 
1493
 
 
1494
 
def _ioctl_terminal_size(width, height):
 
929
    """Return estimated terminal width."""
 
930
    if sys.platform == 'win32':
 
931
        return win32utils.get_console_size()[0]
 
932
    width = 0
1495
933
    try:
1496
934
        import struct, fcntl, termios
1497
935
        s = struct.pack('HHHH', 0, 0, 0, 0)
1498
936
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
1499
 
        height, width = struct.unpack('HHHH', x)[0:2]
1500
 
    except (IOError, AttributeError):
 
937
        width = struct.unpack('HHHH', x)[1]
 
938
    except IOError:
1501
939
        pass
1502
 
    return width, height
1503
 
 
1504
 
_terminal_size = None
1505
 
"""Returns the terminal size as (width, height).
1506
 
 
1507
 
:param width: Default value for width.
1508
 
:param height: Default value for height.
1509
 
 
1510
 
This is defined specifically for each OS and query the size of the controlling
1511
 
terminal. If any error occurs, the provided default values should be returned.
1512
 
"""
1513
 
if sys.platform == 'win32':
1514
 
    _terminal_size = _win32_terminal_size
1515
 
else:
1516
 
    _terminal_size = _ioctl_terminal_size
 
940
    if width <= 0:
 
941
        try:
 
942
            width = int(os.environ['COLUMNS'])
 
943
        except:
 
944
            pass
 
945
    if width <= 0:
 
946
        width = 80
 
947
 
 
948
    return width
1517
949
 
1518
950
 
1519
951
def supports_executable():
1547
979
            del os.environ[env_variable]
1548
980
    else:
1549
981
        if isinstance(value, unicode):
1550
 
            value = value.encode(get_user_encoding())
 
982
            value = value.encode(bzrlib.user_encoding)
1551
983
        os.environ[env_variable] = value
1552
984
    return orig_val
1553
985
 
1556
988
 
1557
989
 
1558
990
def check_legal_path(path):
1559
 
    """Check whether the supplied path is legal.
 
991
    """Check whether the supplied path is legal.  
1560
992
    This is only required on Windows, so we don't test on other platforms
1561
993
    right now.
1562
994
    """
1566
998
        raise errors.IllegalPath(path)
1567
999
 
1568
1000
 
1569
 
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
1570
 
 
1571
 
def _is_error_enotdir(e):
1572
 
    """Check if this exception represents ENOTDIR.
1573
 
 
1574
 
    Unfortunately, python is very inconsistent about the exception
1575
 
    here. The cases are:
1576
 
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
1577
 
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
1578
 
         which is the windows error code.
1579
 
      3) Windows, Python2.5 uses errno == EINVAL and
1580
 
         winerror == ERROR_DIRECTORY
1581
 
 
1582
 
    :param e: An Exception object (expected to be OSError with an errno
1583
 
        attribute, but we should be able to cope with anything)
1584
 
    :return: True if this represents an ENOTDIR error. False otherwise.
1585
 
    """
1586
 
    en = getattr(e, 'errno', None)
1587
 
    if (en == errno.ENOTDIR
1588
 
        or (sys.platform == 'win32'
1589
 
            and (en == _WIN32_ERROR_DIRECTORY
1590
 
                 or (en == errno.EINVAL
1591
 
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
1592
 
        ))):
1593
 
        return True
1594
 
    return False
1595
 
 
1596
 
 
1597
1001
def walkdirs(top, prefix=""):
1598
1002
    """Yield data about all the directories in a tree.
1599
 
 
 
1003
    
1600
1004
    This yields all the data about the contents of a directory at a time.
1601
1005
    After each directory has been yielded, if the caller has mutated the list
1602
1006
    to exclude some directories, they are then not descended into.
1603
 
 
 
1007
    
1604
1008
    The data yielded is of the form:
1605
1009
    ((directory-relpath, directory-path-from-top),
1606
 
    [(relpath, basename, kind, lstat, path-from-top), ...]),
 
1010
    [(relpath, basename, kind, lstat), ...]),
1607
1011
     - directory-relpath is the relative path of the directory being returned
1608
1012
       with respect to top. prefix is prepended to this.
1609
 
     - directory-path-from-root is the path including top for this directory.
 
1013
     - directory-path-from-root is the path including top for this directory. 
1610
1014
       It is suitable for use with os functions.
1611
1015
     - relpath is the relative path within the subtree being walked.
1612
1016
     - basename is the basename of the path
1614
1018
       present within the tree - but it may be recorded as versioned. See
1615
1019
       versioned_kind.
1616
1020
     - lstat is the stat data *if* the file was statted.
1617
 
     - planned, not implemented:
 
1021
     - planned, not implemented: 
1618
1022
       path_from_tree_root is the path from the root of the tree.
1619
1023
 
1620
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
1024
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
1621
1025
        allows one to walk a subtree but get paths that are relative to a tree
1622
1026
        rooted higher up.
1623
1027
    :return: an iterator over the dirs.
1624
1028
    """
1625
1029
    #TODO there is a bit of a smell where the results of the directory-
1626
 
    # summary in this, and the path from the root, may not agree
 
1030
    # summary in this, and the path from the root, may not agree 
1627
1031
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
1628
1032
    # potentially confusing output. We should make this more robust - but
1629
1033
    # not at a speed cost. RBC 20060731
1630
 
    _lstat = os.lstat
 
1034
    lstat = os.lstat
 
1035
    pending = []
1631
1036
    _directory = _directory_kind
1632
1037
    _listdir = os.listdir
1633
 
    _kind_from_mode = file_kind_from_stat_mode
1634
 
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
 
1038
    pending = [(prefix, "", _directory, None, top)]
1635
1039
    while pending:
 
1040
        dirblock = []
 
1041
        currentdir = pending.pop()
1636
1042
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1637
 
        relroot, _, _, _, top = pending.pop()
1638
 
        if relroot:
1639
 
            relprefix = relroot + u'/'
1640
 
        else:
1641
 
            relprefix = ''
1642
 
        top_slash = top + u'/'
1643
 
 
1644
 
        dirblock = []
1645
 
        append = dirblock.append
1646
 
        try:
1647
 
            names = sorted(_listdir(top))
1648
 
        except OSError, e:
1649
 
            if not _is_error_enotdir(e):
1650
 
                raise
1651
 
        else:
1652
 
            for name in names:
1653
 
                abspath = top_slash + name
1654
 
                statvalue = _lstat(abspath)
1655
 
                kind = _kind_from_mode(statvalue.st_mode)
1656
 
                append((relprefix + name, name, kind, statvalue, abspath))
1657
 
        yield (relroot, top), dirblock
1658
 
 
1659
 
        # push the user specified dirs from dirblock
1660
 
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1661
 
 
1662
 
 
1663
 
class DirReader(object):
1664
 
    """An interface for reading directories."""
1665
 
 
1666
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1667
 
        """Converts top and prefix to a starting dir entry
1668
 
 
1669
 
        :param top: A utf8 path
1670
 
        :param prefix: An optional utf8 path to prefix output relative paths
1671
 
            with.
1672
 
        :return: A tuple starting with prefix, and ending with the native
1673
 
            encoding of top.
1674
 
        """
1675
 
        raise NotImplementedError(self.top_prefix_to_starting_dir)
1676
 
 
1677
 
    def read_dir(self, prefix, top):
1678
 
        """Read a specific dir.
1679
 
 
1680
 
        :param prefix: A utf8 prefix to be preprended to the path basenames.
1681
 
        :param top: A natively encoded path to read.
1682
 
        :return: A list of the directories contents. Each item contains:
1683
 
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
1684
 
        """
1685
 
        raise NotImplementedError(self.read_dir)
1686
 
 
1687
 
 
1688
 
_selected_dir_reader = None
1689
 
 
1690
 
 
1691
 
def _walkdirs_utf8(top, prefix=""):
1692
 
    """Yield data about all the directories in a tree.
1693
 
 
1694
 
    This yields the same information as walkdirs() only each entry is yielded
1695
 
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
1696
 
    are returned as exact byte-strings.
1697
 
 
1698
 
    :return: yields a tuple of (dir_info, [file_info])
1699
 
        dir_info is (utf8_relpath, path-from-top)
1700
 
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
1701
 
        if top is an absolute path, path-from-top is also an absolute path.
1702
 
        path-from-top might be unicode or utf8, but it is the correct path to
1703
 
        pass to os functions to affect the file in question. (such as os.lstat)
1704
 
    """
1705
 
    global _selected_dir_reader
1706
 
    if _selected_dir_reader is None:
1707
 
        fs_encoding = _fs_enc.upper()
1708
 
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
1709
 
            # Win98 doesn't have unicode apis like FindFirstFileW
1710
 
            # TODO: We possibly could support Win98 by falling back to the
1711
 
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
1712
 
            #       but that gets a bit tricky, and requires custom compiling
1713
 
            #       for win98 anyway.
1714
 
            try:
1715
 
                from bzrlib._walkdirs_win32 import Win32ReadDir
1716
 
                _selected_dir_reader = Win32ReadDir()
1717
 
            except ImportError:
1718
 
                pass
1719
 
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
1720
 
            # ANSI_X3.4-1968 is a form of ASCII
1721
 
            try:
1722
 
                from bzrlib._readdir_pyx import UTF8DirReader
1723
 
                _selected_dir_reader = UTF8DirReader()
1724
 
            except ImportError, e:
1725
 
                failed_to_load_extension(e)
1726
 
                pass
1727
 
 
1728
 
    if _selected_dir_reader is None:
1729
 
        # Fallback to the python version
1730
 
        _selected_dir_reader = UnicodeDirReader()
1731
 
 
1732
 
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1733
 
    # But we don't actually uses 1-3 in pending, so set them to None
1734
 
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
1735
 
    read_dir = _selected_dir_reader.read_dir
1736
 
    _directory = _directory_kind
1737
 
    while pending:
1738
 
        relroot, _, _, _, top = pending[-1].pop()
1739
 
        if not pending[-1]:
1740
 
            pending.pop()
1741
 
        dirblock = sorted(read_dir(relroot, top))
1742
 
        yield (relroot, top), dirblock
1743
 
        # push the user specified dirs from dirblock
1744
 
        next = [d for d in reversed(dirblock) if d[2] == _directory]
1745
 
        if next:
1746
 
            pending.append(next)
1747
 
 
1748
 
 
1749
 
class UnicodeDirReader(DirReader):
1750
 
    """A dir reader for non-utf8 file systems, which transcodes."""
1751
 
 
1752
 
    __slots__ = ['_utf8_encode']
1753
 
 
1754
 
    def __init__(self):
1755
 
        self._utf8_encode = codecs.getencoder('utf8')
1756
 
 
1757
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1758
 
        """See DirReader.top_prefix_to_starting_dir."""
1759
 
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
1760
 
 
1761
 
    def read_dir(self, prefix, top):
1762
 
        """Read a single directory from a non-utf8 file system.
1763
 
 
1764
 
        top, and the abspath element in the output are unicode, all other paths
1765
 
        are utf8. Local disk IO is done via unicode calls to listdir etc.
1766
 
 
1767
 
        This is currently the fallback code path when the filesystem encoding is
1768
 
        not UTF-8. It may be better to implement an alternative so that we can
1769
 
        safely handle paths that are not properly decodable in the current
1770
 
        encoding.
1771
 
 
1772
 
        See DirReader.read_dir for details.
1773
 
        """
1774
 
        _utf8_encode = self._utf8_encode
1775
 
        _lstat = os.lstat
1776
 
        _listdir = os.listdir
1777
 
        _kind_from_mode = file_kind_from_stat_mode
1778
 
 
1779
 
        if prefix:
1780
 
            relprefix = prefix + '/'
1781
 
        else:
1782
 
            relprefix = ''
1783
 
        top_slash = top + u'/'
1784
 
 
1785
 
        dirblock = []
1786
 
        append = dirblock.append
 
1043
        top = currentdir[4]
 
1044
        if currentdir[0]:
 
1045
            relroot = currentdir[0] + '/'
 
1046
        else:
 
1047
            relroot = ""
1787
1048
        for name in sorted(_listdir(top)):
1788
 
            try:
1789
 
                name_utf8 = _utf8_encode(name)[0]
1790
 
            except UnicodeDecodeError:
1791
 
                raise errors.BadFilenameEncoding(
1792
 
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
1793
 
            abspath = top_slash + name
1794
 
            statvalue = _lstat(abspath)
1795
 
            kind = _kind_from_mode(statvalue.st_mode)
1796
 
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
1797
 
        return dirblock
 
1049
            abspath = top + '/' + name
 
1050
            statvalue = lstat(abspath)
 
1051
            dirblock.append((relroot + name, name,
 
1052
                file_kind_from_stat_mode(statvalue.st_mode),
 
1053
                statvalue, abspath))
 
1054
        yield (currentdir[0], top), dirblock
 
1055
        # push the user specified dirs from dirblock
 
1056
        for dir in reversed(dirblock):
 
1057
            if dir[2] == _directory:
 
1058
                pending.append(dir)
1798
1059
 
1799
1060
 
1800
1061
def copy_tree(from_path, to_path, handlers={}):
1801
1062
    """Copy all of the entries in from_path into to_path.
1802
1063
 
1803
 
    :param from_path: The base directory to copy.
 
1064
    :param from_path: The base directory to copy. 
1804
1065
    :param to_path: The target directory. If it does not exist, it will
1805
1066
        be created.
1806
1067
    :param handlers: A dictionary of functions, which takes a source and
1839
1100
            real_handlers[kind](abspath, relpath)
1840
1101
 
1841
1102
 
1842
 
def copy_ownership_from_path(dst, src=None):
1843
 
    """Copy usr/grp ownership from src file/dir to dst file/dir.
1844
 
 
1845
 
    If src is None, the containing directory is used as source. If chown
1846
 
    fails, the error is ignored and a warning is printed.
1847
 
    """
1848
 
    chown = getattr(os, 'chown', None)
1849
 
    if chown is None:
1850
 
        return
1851
 
 
1852
 
    if src == None:
1853
 
        src = os.path.dirname(dst)
1854
 
        if src == '':
1855
 
            src = '.'
1856
 
 
1857
 
    try:
1858
 
        s = os.stat(src)
1859
 
        chown(dst, s.st_uid, s.st_gid)
1860
 
    except OSError, e:
1861
 
        trace.warning("Unable to copy ownership from '%s' to '%s': IOError: %s." % (src, dst, e))
1862
 
 
1863
 
 
1864
1103
def path_prefix_key(path):
1865
1104
    """Generate a prefix-order path key for path.
1866
1105
 
1897
1136
        return _cached_user_encoding
1898
1137
 
1899
1138
    if sys.platform == 'darwin':
1900
 
        # python locale.getpreferredencoding() always return
1901
 
        # 'mac-roman' on darwin. That's a lie.
 
1139
        # work around egregious python 2.4 bug
1902
1140
        sys.platform = 'posix'
1903
1141
        try:
1904
 
            if os.environ.get('LANG', None) is None:
1905
 
                # If LANG is not set, we end up with 'ascii', which is bad
1906
 
                # ('mac-roman' is more than ascii), so we set a default which
1907
 
                # will give us UTF-8 (which appears to work in all cases on
1908
 
                # OSX). Users are still free to override LANG of course, as
1909
 
                # long as it give us something meaningful. This work-around
1910
 
                # *may* not be needed with python 3k and/or OSX 10.5, but will
1911
 
                # work with them too -- vila 20080908
1912
 
                os.environ['LANG'] = 'en_US.UTF-8'
1913
1142
            import locale
1914
1143
        finally:
1915
1144
            sys.platform = 'darwin'
1930
1159
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
1931
1160
    # treat that as ASCII, and not support printing unicode characters to the
1932
1161
    # console.
1933
 
    #
1934
 
    # For python scripts run under vim, we get '', so also treat that as ASCII
1935
 
    if user_encoding in (None, 'cp0', ''):
 
1162
    if user_encoding in (None, 'cp0'):
1936
1163
        user_encoding = 'ascii'
1937
1164
    else:
1938
1165
        # check encoding
1952
1179
    return user_encoding
1953
1180
 
1954
1181
 
1955
 
def get_host_name():
1956
 
    """Return the current unicode host name.
1957
 
 
1958
 
    This is meant to be used in place of socket.gethostname() because that
1959
 
    behaves inconsistently on different platforms.
1960
 
    """
1961
 
    if sys.platform == "win32":
1962
 
        import win32utils
1963
 
        return win32utils.get_host_name()
1964
 
    else:
1965
 
        import socket
1966
 
        return socket.gethostname().decode(get_user_encoding())
1967
 
 
1968
 
 
1969
 
# We must not read/write any more than 64k at a time from/to a socket so we
1970
 
# don't risk "no buffer space available" errors on some platforms.  Windows in
1971
 
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
1972
 
# data at once.
1973
 
MAX_SOCKET_CHUNK = 64 * 1024
1974
 
 
1975
 
def read_bytes_from_socket(sock, report_activity=None,
1976
 
        max_read_size=MAX_SOCKET_CHUNK):
1977
 
    """Read up to max_read_size of bytes from sock and notify of progress.
1978
 
 
1979
 
    Translates "Connection reset by peer" into file-like EOF (return an
1980
 
    empty string rather than raise an error), and repeats the recv if
1981
 
    interrupted by a signal.
1982
 
    """
1983
 
    while 1:
1984
 
        try:
1985
 
            bytes = sock.recv(max_read_size)
1986
 
        except socket.error, e:
1987
 
            eno = e.args[0]
1988
 
            if eno == getattr(errno, "WSAECONNRESET", errno.ECONNRESET):
1989
 
                # The connection was closed by the other side.  Callers expect
1990
 
                # an empty string to signal end-of-stream.
1991
 
                return ""
1992
 
            elif eno == errno.EINTR:
1993
 
                # Retry the interrupted recv.
1994
 
                continue
1995
 
            raise
1996
 
        else:
1997
 
            if report_activity is not None:
1998
 
                report_activity(len(bytes), 'read')
1999
 
            return bytes
2000
 
 
2001
 
 
2002
 
def recv_all(socket, count):
 
1182
def recv_all(socket, bytes):
2003
1183
    """Receive an exact number of bytes.
2004
1184
 
2005
1185
    Regular Socket.recv() may return less than the requested number of bytes,
2006
 
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
1186
    dependning on what's in the OS buffer.  MSG_WAITALL is not available
2007
1187
    on all platforms, but this should work everywhere.  This will return
2008
1188
    less than the requested amount if the remote end closes.
2009
1189
 
2010
1190
    This isn't optimized and is intended mostly for use in testing.
2011
1191
    """
2012
1192
    b = ''
2013
 
    while len(b) < count:
2014
 
        new = read_bytes_from_socket(socket, None, count - len(b))
 
1193
    while len(b) < bytes:
 
1194
        new = socket.recv(bytes - len(b))
2015
1195
        if new == '':
2016
1196
            break # eof
2017
1197
        b += new
2018
1198
    return b
2019
1199
 
2020
 
 
2021
 
def send_all(sock, bytes, report_activity=None):
2022
 
    """Send all bytes on a socket.
2023
 
 
2024
 
    Breaks large blocks in smaller chunks to avoid buffering limitations on
2025
 
    some platforms, and catches EINTR which may be thrown if the send is
2026
 
    interrupted by a signal.
2027
 
 
2028
 
    This is preferred to socket.sendall(), because it avoids portability bugs
2029
 
    and provides activity reporting.
2030
 
 
2031
 
    :param report_activity: Call this as bytes are read, see
2032
 
        Transport._report_activity
2033
 
    """
2034
 
    sent_total = 0
2035
 
    byte_count = len(bytes)
2036
 
    while sent_total < byte_count:
2037
 
        try:
2038
 
            sent = sock.send(buffer(bytes, sent_total, MAX_SOCKET_CHUNK))
2039
 
        except socket.error, e:
2040
 
            if e.args[0] != errno.EINTR:
2041
 
                raise
2042
 
        else:
2043
 
            sent_total += sent
2044
 
            report_activity(sent, 'write')
2045
 
 
2046
 
 
2047
1200
def dereference_path(path):
2048
1201
    """Determine the real path to a file.
2049
1202
 
2056
1209
    # The pathjoin for '.' is a workaround for Python bug #1213894.
2057
1210
    # (initial path components aren't dereferenced)
2058
1211
    return pathjoin(realpath(pathjoin('.', parent)), base)
2059
 
 
2060
 
 
2061
 
def supports_mapi():
2062
 
    """Return True if we can use MAPI to launch a mail client."""
2063
 
    return sys.platform == "win32"
2064
 
 
2065
 
 
2066
 
def resource_string(package, resource_name):
2067
 
    """Load a resource from a package and return it as a string.
2068
 
 
2069
 
    Note: Only packages that start with bzrlib are currently supported.
2070
 
 
2071
 
    This is designed to be a lightweight implementation of resource
2072
 
    loading in a way which is API compatible with the same API from
2073
 
    pkg_resources. See
2074
 
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
2075
 
    If and when pkg_resources becomes a standard library, this routine
2076
 
    can delegate to it.
2077
 
    """
2078
 
    # Check package name is within bzrlib
2079
 
    if package == "bzrlib":
2080
 
        resource_relpath = resource_name
2081
 
    elif package.startswith("bzrlib."):
2082
 
        package = package[len("bzrlib."):].replace('.', os.sep)
2083
 
        resource_relpath = pathjoin(package, resource_name)
2084
 
    else:
2085
 
        raise errors.BzrError('resource package %s not in bzrlib' % package)
2086
 
 
2087
 
    # Map the resource to a file and read its contents
2088
 
    base = dirname(bzrlib.__file__)
2089
 
    if getattr(sys, 'frozen', None):    # bzr.exe
2090
 
        base = abspath(pathjoin(base, '..', '..'))
2091
 
    f = file(pathjoin(base, resource_relpath), "rU")
2092
 
    try:
2093
 
        return f.read()
2094
 
    finally:
2095
 
        f.close()
2096
 
 
2097
 
def file_kind_from_stat_mode_thunk(mode):
2098
 
    global file_kind_from_stat_mode
2099
 
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
2100
 
        try:
2101
 
            from bzrlib._readdir_pyx import UTF8DirReader
2102
 
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
2103
 
        except ImportError, e:
2104
 
            # This is one time where we won't warn that an extension failed to
2105
 
            # load. The extension is never available on Windows anyway.
2106
 
            from bzrlib._readdir_py import (
2107
 
                _kind_from_mode as file_kind_from_stat_mode
2108
 
                )
2109
 
    return file_kind_from_stat_mode(mode)
2110
 
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
2111
 
 
2112
 
 
2113
 
def file_kind(f, _lstat=os.lstat):
2114
 
    try:
2115
 
        return file_kind_from_stat_mode(_lstat(f).st_mode)
2116
 
    except OSError, e:
2117
 
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
2118
 
            raise errors.NoSuchFile(f)
2119
 
        raise
2120
 
 
2121
 
 
2122
 
def until_no_eintr(f, *a, **kw):
2123
 
    """Run f(*a, **kw), retrying if an EINTR error occurs.
2124
 
    
2125
 
    WARNING: you must be certain that it is safe to retry the call repeatedly
2126
 
    if EINTR does occur.  This is typically only true for low-level operations
2127
 
    like os.read.  If in any doubt, don't use this.
2128
 
 
2129
 
    Keep in mind that this is not a complete solution to EINTR.  There is
2130
 
    probably code in the Python standard library and other dependencies that
2131
 
    may encounter EINTR if a signal arrives (and there is signal handler for
2132
 
    that signal).  So this function can reduce the impact for IO that bzrlib
2133
 
    directly controls, but it is not a complete solution.
2134
 
    """
2135
 
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
2136
 
    while True:
2137
 
        try:
2138
 
            return f(*a, **kw)
2139
 
        except (IOError, OSError), e:
2140
 
            if e.errno == errno.EINTR:
2141
 
                continue
2142
 
            raise
2143
 
 
2144
 
 
2145
 
def re_compile_checked(re_string, flags=0, where=""):
2146
 
    """Return a compiled re, or raise a sensible error.
2147
 
 
2148
 
    This should only be used when compiling user-supplied REs.
2149
 
 
2150
 
    :param re_string: Text form of regular expression.
2151
 
    :param flags: eg re.IGNORECASE
2152
 
    :param where: Message explaining to the user the context where
2153
 
        it occurred, eg 'log search filter'.
2154
 
    """
2155
 
    # from https://bugs.launchpad.net/bzr/+bug/251352
2156
 
    try:
2157
 
        re_obj = re.compile(re_string, flags)
2158
 
        re_obj.search("")
2159
 
        return re_obj
2160
 
    except re.error, e:
2161
 
        if where:
2162
 
            where = ' in ' + where
2163
 
        # despite the name 'error' is a type
2164
 
        raise errors.BzrCommandError('Invalid regular expression%s: %r: %s'
2165
 
            % (where, re_string, e))
2166
 
 
2167
 
 
2168
 
if sys.platform == "win32":
2169
 
    import msvcrt
2170
 
    def getchar():
2171
 
        return msvcrt.getch()
2172
 
else:
2173
 
    import tty
2174
 
    import termios
2175
 
    def getchar():
2176
 
        fd = sys.stdin.fileno()
2177
 
        settings = termios.tcgetattr(fd)
2178
 
        try:
2179
 
            tty.setraw(fd)
2180
 
            ch = sys.stdin.read(1)
2181
 
        finally:
2182
 
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
2183
 
        return ch
2184
 
 
2185
 
 
2186
 
if sys.platform == 'linux2':
2187
 
    def _local_concurrency():
2188
 
        concurrency = None
2189
 
        prefix = 'processor'
2190
 
        for line in file('/proc/cpuinfo', 'rb'):
2191
 
            if line.startswith(prefix):
2192
 
                concurrency = int(line[line.find(':')+1:]) + 1
2193
 
        return concurrency
2194
 
elif sys.platform == 'darwin':
2195
 
    def _local_concurrency():
2196
 
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
2197
 
                                stdout=subprocess.PIPE).communicate()[0]
2198
 
elif sys.platform[0:7] == 'freebsd':
2199
 
    def _local_concurrency():
2200
 
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
2201
 
                                stdout=subprocess.PIPE).communicate()[0]
2202
 
elif sys.platform == 'sunos5':
2203
 
    def _local_concurrency():
2204
 
        return subprocess.Popen(['psrinfo', '-p',],
2205
 
                                stdout=subprocess.PIPE).communicate()[0]
2206
 
elif sys.platform == "win32":
2207
 
    def _local_concurrency():
2208
 
        # This appears to return the number of cores.
2209
 
        return os.environ.get('NUMBER_OF_PROCESSORS')
2210
 
else:
2211
 
    def _local_concurrency():
2212
 
        # Who knows ?
2213
 
        return None
2214
 
 
2215
 
 
2216
 
_cached_local_concurrency = None
2217
 
 
2218
 
def local_concurrency(use_cache=True):
2219
 
    """Return how many processes can be run concurrently.
2220
 
 
2221
 
    Rely on platform specific implementations and default to 1 (one) if
2222
 
    anything goes wrong.
2223
 
    """
2224
 
    global _cached_local_concurrency
2225
 
 
2226
 
    if _cached_local_concurrency is not None and use_cache:
2227
 
        return _cached_local_concurrency
2228
 
 
2229
 
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
2230
 
    if concurrency is None:
2231
 
        try:
2232
 
            concurrency = _local_concurrency()
2233
 
        except (OSError, IOError):
2234
 
            pass
2235
 
    try:
2236
 
        concurrency = int(concurrency)
2237
 
    except (TypeError, ValueError):
2238
 
        concurrency = 1
2239
 
    if use_cache:
2240
 
        _cached_concurrency = concurrency
2241
 
    return concurrency
2242
 
 
2243
 
 
2244
 
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
2245
 
    """A stream writer that doesn't decode str arguments."""
2246
 
 
2247
 
    def __init__(self, encode, stream, errors='strict'):
2248
 
        codecs.StreamWriter.__init__(self, stream, errors)
2249
 
        self.encode = encode
2250
 
 
2251
 
    def write(self, object):
2252
 
        if type(object) is str:
2253
 
            self.stream.write(object)
2254
 
        else:
2255
 
            data, _ = self.encode(object, self.errors)
2256
 
            self.stream.write(data)
2257
 
 
2258
 
if sys.platform == 'win32':
2259
 
    def open_file(filename, mode='r', bufsize=-1):
2260
 
        """This function is used to override the ``open`` builtin.
2261
 
        
2262
 
        But it uses O_NOINHERIT flag so the file handle is not inherited by
2263
 
        child processes.  Deleting or renaming a closed file opened with this
2264
 
        function is not blocking child processes.
2265
 
        """
2266
 
        writing = 'w' in mode
2267
 
        appending = 'a' in mode
2268
 
        updating = '+' in mode
2269
 
        binary = 'b' in mode
2270
 
 
2271
 
        flags = O_NOINHERIT
2272
 
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
2273
 
        # for flags for each modes.
2274
 
        if binary:
2275
 
            flags |= O_BINARY
2276
 
        else:
2277
 
            flags |= O_TEXT
2278
 
 
2279
 
        if writing:
2280
 
            if updating:
2281
 
                flags |= os.O_RDWR
2282
 
            else:
2283
 
                flags |= os.O_WRONLY
2284
 
            flags |= os.O_CREAT | os.O_TRUNC
2285
 
        elif appending:
2286
 
            if updating:
2287
 
                flags |= os.O_RDWR
2288
 
            else:
2289
 
                flags |= os.O_WRONLY
2290
 
            flags |= os.O_CREAT | os.O_APPEND
2291
 
        else: #reading
2292
 
            if updating:
2293
 
                flags |= os.O_RDWR
2294
 
            else:
2295
 
                flags |= os.O_RDONLY
2296
 
 
2297
 
        return os.fdopen(os.open(filename, flags), mode, bufsize)
2298
 
else:
2299
 
    open_file = open
2300
 
 
2301
 
 
2302
 
def getuser_unicode():
2303
 
    """Return the username as unicode.
2304
 
    """
2305
 
    try:
2306
 
        user_encoding = get_user_encoding()
2307
 
        username = getpass.getuser().decode(user_encoding)
2308
 
    except UnicodeDecodeError:
2309
 
        raise errors.BzrError("Can't decode username as %s." % \
2310
 
                user_encoding)
2311
 
    return username