/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/transport/sftp.py

  • Committer: Vincent Ladeuil
  • Date: 2009-01-27 18:05:00 UTC
  • mto: (3961.1.2 bzr.integration)
  • mto: This revision was merged to the branch mainline in revision 3963.
  • Revision ID: v.ladeuil+lp@free.fr-20090127180500-bv6vc33v59hpphti
Damn gremlin.

* bzrlib/annotate.py:
(_show_id_annotations): Gremlin modification reverted.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005, 2006, 2007, 2008, 2009 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
16
 
 
17
"""Implementation of Transport over SFTP, using paramiko."""
 
18
 
 
19
# TODO: Remove the transport-based lock_read and lock_write methods.  They'll
 
20
# then raise TransportNotPossible, which will break remote access to any
 
21
# formats which rely on OS-level locks.  That should be fine as those formats
 
22
# are pretty old, but these combinations may have to be removed from the test
 
23
# suite.  Those formats all date back to 0.7; so we should be able to remove
 
24
# these methods when we officially drop support for those formats.
 
25
 
 
26
import bisect
 
27
import errno
 
28
import itertools
 
29
import os
 
30
import random
 
31
import select
 
32
import socket
 
33
import stat
 
34
import sys
 
35
import time
 
36
import urllib
 
37
import urlparse
 
38
import warnings
 
39
 
 
40
from bzrlib import (
 
41
    config,
 
42
    errors,
 
43
    urlutils,
 
44
    )
 
45
from bzrlib.errors import (FileExists,
 
46
                           NoSuchFile, PathNotChild,
 
47
                           TransportError,
 
48
                           LockError,
 
49
                           PathError,
 
50
                           ParamikoNotPresent,
 
51
                           )
 
52
from bzrlib.osutils import pathjoin, fancy_rename, getcwd
 
53
from bzrlib.symbol_versioning import (
 
54
        deprecated_function,
 
55
        )
 
56
from bzrlib.trace import mutter, warning
 
57
from bzrlib.transport import (
 
58
    FileFileStream,
 
59
    _file_streams,
 
60
    local,
 
61
    Server,
 
62
    ssh,
 
63
    ConnectedTransport,
 
64
    )
 
65
 
 
66
# Disable one particular warning that comes from paramiko in Python2.5; if
 
67
# this is emitted at the wrong time it tends to cause spurious test failures
 
68
# or at least noise in the test case::
 
69
#
 
70
# [1770/7639 in 86s, 1 known failures, 50 skipped, 2 missing features]
 
71
# test_permissions.TestSftpPermissions.test_new_files
 
72
# /var/lib/python-support/python2.5/paramiko/message.py:226: DeprecationWarning: integer argument expected, got float
 
73
#  self.packet.write(struct.pack('>I', n))
 
74
warnings.filterwarnings('ignore',
 
75
        'integer argument expected, got float',
 
76
        category=DeprecationWarning,
 
77
        module='paramiko.message')
 
78
 
 
79
try:
 
80
    import paramiko
 
81
except ImportError, e:
 
82
    raise ParamikoNotPresent(e)
 
83
else:
 
84
    from paramiko.sftp import (SFTP_FLAG_WRITE, SFTP_FLAG_CREATE,
 
85
                               SFTP_FLAG_EXCL, SFTP_FLAG_TRUNC,
 
86
                               CMD_HANDLE, CMD_OPEN)
 
87
    from paramiko.sftp_attr import SFTPAttributes
 
88
    from paramiko.sftp_file import SFTPFile
 
89
 
 
90
 
 
91
_paramiko_version = getattr(paramiko, '__version_info__', (0, 0, 0))
 
92
# don't use prefetch unless paramiko version >= 1.5.5 (there were bugs earlier)
 
93
_default_do_prefetch = (_paramiko_version >= (1, 5, 5))
 
94
 
 
95
 
 
96
class SFTPLock(object):
 
97
    """This fakes a lock in a remote location.
 
98
    
 
99
    A present lock is indicated just by the existence of a file.  This
 
100
    doesn't work well on all transports and they are only used in 
 
101
    deprecated storage formats.
 
102
    """
 
103
    
 
104
    __slots__ = ['path', 'lock_path', 'lock_file', 'transport']
 
105
 
 
106
    def __init__(self, path, transport):
 
107
        self.lock_file = None
 
108
        self.path = path
 
109
        self.lock_path = path + '.write-lock'
 
110
        self.transport = transport
 
111
        try:
 
112
            # RBC 20060103 FIXME should we be using private methods here ?
 
113
            abspath = transport._remote_path(self.lock_path)
 
114
            self.lock_file = transport._sftp_open_exclusive(abspath)
 
115
        except FileExists:
 
116
            raise LockError('File %r already locked' % (self.path,))
 
117
 
 
118
    def __del__(self):
 
119
        """Should this warn, or actually try to cleanup?"""
 
120
        if self.lock_file:
 
121
            warning("SFTPLock %r not explicitly unlocked" % (self.path,))
 
122
            self.unlock()
 
123
 
 
124
    def unlock(self):
 
125
        if not self.lock_file:
 
126
            return
 
127
        self.lock_file.close()
 
128
        self.lock_file = None
 
129
        try:
 
130
            self.transport.delete(self.lock_path)
 
131
        except (NoSuchFile,):
 
132
            # What specific errors should we catch here?
 
133
            pass
 
134
 
 
135
 
 
136
class _SFTPReadvHelper(object):
 
137
    """A class to help with managing the state of a readv request."""
 
138
 
 
139
    # See _get_requests for an explanation.
 
140
    _max_request_size = 32768
 
141
 
 
142
    def __init__(self, original_offsets, relpath, _report_activity):
 
143
        """Create a new readv helper.
 
144
 
 
145
        :param original_offsets: The original requests given by the caller of
 
146
            readv()
 
147
        :param relpath: The name of the file (if known)
 
148
        :param _report_activity: A Transport._report_activity bound method,
 
149
            to be called as data arrives.
 
150
        """
 
151
        self.original_offsets = list(original_offsets)
 
152
        self.relpath = relpath
 
153
        self._report_activity = _report_activity
 
154
 
 
155
    def _get_requests(self):
 
156
        """Break up the offsets into individual requests over sftp.
 
157
 
 
158
        The SFTP spec only requires implementers to support 32kB requests. We
 
159
        could try something larger (openssh supports 64kB), but then we have to
 
160
        handle requests that fail.
 
161
        So instead, we just break up our maximum chunks into 32kB chunks, and
 
162
        asyncronously requests them.
 
163
        Newer versions of paramiko would do the chunking for us, but we want to
 
164
        start processing results right away, so we do it ourselves.
 
165
        """
 
166
        # TODO: Because we issue async requests, we don't 'fudge' any extra
 
167
        #       data.  I'm not 100% sure that is the best choice.
 
168
 
 
169
        # The first thing we do, is to collapse the individual requests as much
 
170
        # as possible, so we don't issues requests <32kB
 
171
        sorted_offsets = sorted(self.original_offsets)
 
172
        coalesced = list(ConnectedTransport._coalesce_offsets(sorted_offsets,
 
173
                                                        limit=0, fudge_factor=0))
 
174
        requests = []
 
175
        for c_offset in coalesced:
 
176
            start = c_offset.start
 
177
            size = c_offset.length
 
178
 
 
179
            # Break this up into 32kB requests
 
180
            while size > 0:
 
181
                next_size = min(size, self._max_request_size)
 
182
                requests.append((start, next_size))
 
183
                size -= next_size
 
184
                start += next_size
 
185
        mutter('SFTP.readv(%s) %s offsets => %s coalesced => %s requests',
 
186
               self.relpath, len(sorted_offsets), len(coalesced),
 
187
               len(requests))
 
188
        return requests
 
189
 
 
190
    def request_and_yield_offsets(self, fp):
 
191
        """Request the data from the remote machine, yielding the results.
 
192
 
 
193
        :param fp: A Paramiko SFTPFile object that supports readv.
 
194
        :return: Yield the data requested by the original readv caller, one by
 
195
            one.
 
196
        """
 
197
        requests = self._get_requests()
 
198
        offset_iter = iter(self.original_offsets)
 
199
        cur_offset, cur_size = offset_iter.next()
 
200
        # paramiko .readv() yields strings that are in the order of the requests
 
201
        # So we track the current request to know where the next data is
 
202
        # being returned from.
 
203
        input_start = None
 
204
        last_end = None
 
205
        buffered_data = []
 
206
        buffered_len = 0
 
207
 
 
208
        # This is used to buffer chunks which we couldn't process yet
 
209
        # It is (start, end, data) tuples.
 
210
        data_chunks = []
 
211
        # Create an 'unlimited' data stream, so we stop based on requests,
 
212
        # rather than just because the data stream ended. This lets us detect
 
213
        # short readv.
 
214
        data_stream = itertools.chain(fp.readv(requests),
 
215
                                      itertools.repeat(None))
 
216
        for (start, length), data in itertools.izip(requests, data_stream):
 
217
            if data is None:
 
218
                if cur_coalesced is not None:
 
219
                    raise errors.ShortReadvError(self.relpath,
 
220
                        start, length, len(data))
 
221
            if len(data) != length:
 
222
                raise errors.ShortReadvError(self.relpath,
 
223
                    start, length, len(data))
 
224
            self._report_activity(length, 'read')
 
225
            if last_end is None:
 
226
                # This is the first request, just buffer it
 
227
                buffered_data = [data]
 
228
                buffered_len = length
 
229
                input_start = start
 
230
            elif start == last_end:
 
231
                # The data we are reading fits neatly on the previous
 
232
                # buffer, so this is all part of a larger coalesced range.
 
233
                buffered_data.append(data)
 
234
                buffered_len += length
 
235
            else:
 
236
                # We have an 'interrupt' in the data stream. So we know we are
 
237
                # at a request boundary.
 
238
                if buffered_len > 0:
 
239
                    # We haven't consumed the buffer so far, so put it into
 
240
                    # data_chunks, and continue.
 
241
                    buffered = ''.join(buffered_data)
 
242
                    data_chunks.append((input_start, buffered))
 
243
                input_start = start
 
244
                buffered_data = [data]
 
245
                buffered_len = length
 
246
            last_end = start + length
 
247
            if input_start == cur_offset and cur_size <= buffered_len:
 
248
                # Simplify the next steps a bit by transforming buffered_data
 
249
                # into a single string. We also have the nice property that
 
250
                # when there is only one string ''.join([x]) == x, so there is
 
251
                # no data copying.
 
252
                buffered = ''.join(buffered_data)
 
253
                # Clean out buffered data so that we keep memory
 
254
                # consumption low
 
255
                del buffered_data[:]
 
256
                buffered_offset = 0
 
257
                # TODO: We *could* also consider the case where cur_offset is in
 
258
                #       in the buffered range, even though it doesn't *start*
 
259
                #       the buffered range. But for packs we pretty much always
 
260
                #       read in order, so you won't get any extra data in the
 
261
                #       middle.
 
262
                while (input_start == cur_offset
 
263
                       and (buffered_offset + cur_size) <= buffered_len):
 
264
                    # We've buffered enough data to process this request, spit it
 
265
                    # out
 
266
                    cur_data = buffered[buffered_offset:buffered_offset + cur_size]
 
267
                    # move the direct pointer into our buffered data
 
268
                    buffered_offset += cur_size
 
269
                    # Move the start-of-buffer pointer
 
270
                    input_start += cur_size
 
271
                    # Yield the requested data
 
272
                    yield cur_offset, cur_data
 
273
                    cur_offset, cur_size = offset_iter.next()
 
274
                # at this point, we've consumed as much of buffered as we can,
 
275
                # so break off the portion that we consumed
 
276
                if buffered_offset == len(buffered_data):
 
277
                    # No tail to leave behind
 
278
                    buffered_data = []
 
279
                    buffered_len = 0
 
280
                else:
 
281
                    buffered = buffered[buffered_offset:]
 
282
                    buffered_data = [buffered]
 
283
                    buffered_len = len(buffered)
 
284
        if buffered_len:
 
285
            buffered = ''.join(buffered_data)
 
286
            del buffered_data[:]
 
287
            data_chunks.append((input_start, buffered))
 
288
        if data_chunks:
 
289
            mutter('SFTP readv left with %d out-of-order bytes',
 
290
                   sum(map(lambda x: len(x[1]), data_chunks)))
 
291
            # We've processed all the readv data, at this point, anything we
 
292
            # couldn't process is in data_chunks. This doesn't happen often, so
 
293
            # this code path isn't optimized
 
294
            # We use an interesting process for data_chunks
 
295
            # Specifically if we have "bisect_left([(start, len, entries)],
 
296
            #                                       (qstart,)])
 
297
            # If start == qstart, then we get the specific node. Otherwise we
 
298
            # get the previous node
 
299
            while True:
 
300
                idx = bisect.bisect_left(data_chunks, (cur_offset,))
 
301
                if idx < len(data_chunks) and data_chunks[idx][0] == cur_offset:
 
302
                    # The data starts here
 
303
                    data = data_chunks[idx][1][:cur_size]
 
304
                elif idx > 0:
 
305
                    # The data is in a portion of a previous page
 
306
                    idx -= 1
 
307
                    sub_offset = cur_offset - data_chunks[idx][0]
 
308
                    data = data_chunks[idx][1]
 
309
                    data = data[sub_offset:sub_offset + cur_size]
 
310
                else:
 
311
                    # We are missing the page where the data should be found,
 
312
                    # something is wrong
 
313
                    data = ''
 
314
                if len(data) != cur_size:
 
315
                    raise AssertionError('We must have miscalulated.'
 
316
                        ' We expected %d bytes, but only found %d'
 
317
                        % (cur_size, len(data)))
 
318
                yield cur_offset, data
 
319
                cur_offset, cur_size = offset_iter.next()
 
320
 
 
321
 
 
322
class SFTPTransport(ConnectedTransport):
 
323
    """Transport implementation for SFTP access."""
 
324
 
 
325
    _do_prefetch = _default_do_prefetch
 
326
    # TODO: jam 20060717 Conceivably these could be configurable, either
 
327
    #       by auto-tuning at run-time, or by a configuration (per host??)
 
328
    #       but the performance curve is pretty flat, so just going with
 
329
    #       reasonable defaults.
 
330
    _max_readv_combine = 200
 
331
    # Having to round trip to the server means waiting for a response,
 
332
    # so it is better to download extra bytes.
 
333
    # 8KiB had good performance for both local and remote network operations
 
334
    _bytes_to_read_before_seek = 8192
 
335
 
 
336
    # The sftp spec says that implementations SHOULD allow reads
 
337
    # to be at least 32K. paramiko.readv() does an async request
 
338
    # for the chunks. So we need to keep it within a single request
 
339
    # size for paramiko <= 1.6.1. paramiko 1.6.2 will probably chop
 
340
    # up the request itself, rather than us having to worry about it
 
341
    _max_request_size = 32768
 
342
 
 
343
    def __init__(self, base, _from_transport=None):
 
344
        super(SFTPTransport, self).__init__(base,
 
345
                                            _from_transport=_from_transport)
 
346
 
 
347
    def _remote_path(self, relpath):
 
348
        """Return the path to be passed along the sftp protocol for relpath.
 
349
        
 
350
        :param relpath: is a urlencoded string.
 
351
        """
 
352
        relative = urlutils.unescape(relpath).encode('utf-8')
 
353
        remote_path = self._combine_paths(self._path, relative)
 
354
        # the initial slash should be removed from the path, and treated as a
 
355
        # homedir relative path (the path begins with a double slash if it is
 
356
        # absolute).  see draft-ietf-secsh-scp-sftp-ssh-uri-03.txt
 
357
        # RBC 20060118 we are not using this as its too user hostile. instead
 
358
        # we are following lftp and using /~/foo to mean '~/foo'
 
359
        # vila--20070602 and leave absolute paths begin with a single slash.
 
360
        if remote_path.startswith('/~/'):
 
361
            remote_path = remote_path[3:]
 
362
        elif remote_path == '/~':
 
363
            remote_path = ''
 
364
        return remote_path
 
365
 
 
366
    def _create_connection(self, credentials=None):
 
367
        """Create a new connection with the provided credentials.
 
368
 
 
369
        :param credentials: The credentials needed to establish the connection.
 
370
 
 
371
        :return: The created connection and its associated credentials.
 
372
 
 
373
        The credentials are only the password as it may have been entered
 
374
        interactively by the user and may be different from the one provided
 
375
        in base url at transport creation time.
 
376
        """
 
377
        if credentials is None:
 
378
            password = self._password
 
379
        else:
 
380
            password = credentials
 
381
 
 
382
        vendor = ssh._get_ssh_vendor()
 
383
        user = self._user
 
384
        if user is None:
 
385
            auth = config.AuthenticationConfig()
 
386
            user = auth.get_user('ssh', self._host, self._port)
 
387
        connection = vendor.connect_sftp(self._user, password,
 
388
                                         self._host, self._port)
 
389
        return connection, (user, password)
 
390
 
 
391
    def _get_sftp(self):
 
392
        """Ensures that a connection is established"""
 
393
        connection = self._get_connection()
 
394
        if connection is None:
 
395
            # First connection ever
 
396
            connection, credentials = self._create_connection()
 
397
            self._set_connection(connection, credentials)
 
398
        return connection
 
399
 
 
400
    def has(self, relpath):
 
401
        """
 
402
        Does the target location exist?
 
403
        """
 
404
        try:
 
405
            self._get_sftp().stat(self._remote_path(relpath))
 
406
            return True
 
407
        except IOError:
 
408
            return False
 
409
 
 
410
    def get(self, relpath):
 
411
        """Get the file at the given relative path.
 
412
 
 
413
        :param relpath: The relative path to the file
 
414
        """
 
415
        try:
 
416
            path = self._remote_path(relpath)
 
417
            f = self._get_sftp().file(path, mode='rb')
 
418
            if self._do_prefetch and (getattr(f, 'prefetch', None) is not None):
 
419
                f.prefetch()
 
420
            return f
 
421
        except (IOError, paramiko.SSHException), e:
 
422
            self._translate_io_exception(e, path, ': error retrieving',
 
423
                failure_exc=errors.ReadError)
 
424
 
 
425
    def get_bytes(self, relpath):
 
426
        # reimplement this here so that we can report how many bytes came back
 
427
        f = self.get(relpath)
 
428
        try:
 
429
            bytes = f.read()
 
430
            self._report_activity(len(bytes), 'read')
 
431
            return bytes
 
432
        finally:
 
433
            f.close()
 
434
 
 
435
    def _readv(self, relpath, offsets):
 
436
        """See Transport.readv()"""
 
437
        # We overload the default readv() because we want to use a file
 
438
        # that does not have prefetch enabled.
 
439
        # Also, if we have a new paramiko, it implements an async readv()
 
440
        if not offsets:
 
441
            return
 
442
 
 
443
        try:
 
444
            path = self._remote_path(relpath)
 
445
            fp = self._get_sftp().file(path, mode='rb')
 
446
            readv = getattr(fp, 'readv', None)
 
447
            if readv:
 
448
                return self._sftp_readv(fp, offsets, relpath)
 
449
            mutter('seek and read %s offsets', len(offsets))
 
450
            return self._seek_and_read(fp, offsets, relpath)
 
451
        except (IOError, paramiko.SSHException), e:
 
452
            self._translate_io_exception(e, path, ': error retrieving')
 
453
 
 
454
    def recommended_page_size(self):
 
455
        """See Transport.recommended_page_size().
 
456
 
 
457
        For SFTP we suggest a large page size to reduce the overhead
 
458
        introduced by latency.
 
459
        """
 
460
        return 64 * 1024
 
461
 
 
462
    def _sftp_readv(self, fp, offsets, relpath):
 
463
        """Use the readv() member of fp to do async readv.
 
464
 
 
465
        Then read them using paramiko.readv(). paramiko.readv()
 
466
        does not support ranges > 64K, so it caps the request size, and
 
467
        just reads until it gets all the stuff it wants.
 
468
        """
 
469
        helper = _SFTPReadvHelper(offsets, relpath, self._report_activity)
 
470
        return helper.request_and_yield_offsets(fp)
 
471
 
 
472
    def put_file(self, relpath, f, mode=None):
 
473
        """
 
474
        Copy the file-like object into the location.
 
475
 
 
476
        :param relpath: Location to put the contents, relative to base.
 
477
        :param f:       File-like object.
 
478
        :param mode: The final mode for the file
 
479
        """
 
480
        final_path = self._remote_path(relpath)
 
481
        return self._put(final_path, f, mode=mode)
 
482
 
 
483
    def _put(self, abspath, f, mode=None):
 
484
        """Helper function so both put() and copy_abspaths can reuse the code"""
 
485
        tmp_abspath = '%s.tmp.%.9f.%d.%d' % (abspath, time.time(),
 
486
                        os.getpid(), random.randint(0,0x7FFFFFFF))
 
487
        fout = self._sftp_open_exclusive(tmp_abspath, mode=mode)
 
488
        closed = False
 
489
        try:
 
490
            try:
 
491
                fout.set_pipelined(True)
 
492
                length = self._pump(f, fout)
 
493
            except (IOError, paramiko.SSHException), e:
 
494
                self._translate_io_exception(e, tmp_abspath)
 
495
            # XXX: This doesn't truly help like we would like it to.
 
496
            #      The problem is that openssh strips sticky bits. So while we
 
497
            #      can properly set group write permission, we lose the group
 
498
            #      sticky bit. So it is probably best to stop chmodding, and
 
499
            #      just tell users that they need to set the umask correctly.
 
500
            #      The attr.st_mode = mode, in _sftp_open_exclusive
 
501
            #      will handle when the user wants the final mode to be more 
 
502
            #      restrictive. And then we avoid a round trip. Unless 
 
503
            #      paramiko decides to expose an async chmod()
 
504
 
 
505
            # This is designed to chmod() right before we close.
 
506
            # Because we set_pipelined() earlier, theoretically we might 
 
507
            # avoid the round trip for fout.close()
 
508
            if mode is not None:
 
509
                self._get_sftp().chmod(tmp_abspath, mode)
 
510
            fout.close()
 
511
            closed = True
 
512
            self._rename_and_overwrite(tmp_abspath, abspath)
 
513
            return length
 
514
        except Exception, e:
 
515
            # If we fail, try to clean up the temporary file
 
516
            # before we throw the exception
 
517
            # but don't let another exception mess things up
 
518
            # Write out the traceback, because otherwise
 
519
            # the catch and throw destroys it
 
520
            import traceback
 
521
            mutter(traceback.format_exc())
 
522
            try:
 
523
                if not closed:
 
524
                    fout.close()
 
525
                self._get_sftp().remove(tmp_abspath)
 
526
            except:
 
527
                # raise the saved except
 
528
                raise e
 
529
            # raise the original with its traceback if we can.
 
530
            raise
 
531
 
 
532
    def _put_non_atomic_helper(self, relpath, writer, mode=None,
 
533
                               create_parent_dir=False,
 
534
                               dir_mode=None):
 
535
        abspath = self._remote_path(relpath)
 
536
 
 
537
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
 
538
        #       set the file mode at create time. If it does, use it.
 
539
        #       But for now, we just chmod later anyway.
 
540
 
 
541
        def _open_and_write_file():
 
542
            """Try to open the target file, raise error on failure"""
 
543
            fout = None
 
544
            try:
 
545
                try:
 
546
                    fout = self._get_sftp().file(abspath, mode='wb')
 
547
                    fout.set_pipelined(True)
 
548
                    writer(fout)
 
549
                except (paramiko.SSHException, IOError), e:
 
550
                    self._translate_io_exception(e, abspath,
 
551
                                                 ': unable to open')
 
552
 
 
553
                # This is designed to chmod() right before we close.
 
554
                # Because we set_pipelined() earlier, theoretically we might 
 
555
                # avoid the round trip for fout.close()
 
556
                if mode is not None:
 
557
                    self._get_sftp().chmod(abspath, mode)
 
558
            finally:
 
559
                if fout is not None:
 
560
                    fout.close()
 
561
 
 
562
        if not create_parent_dir:
 
563
            _open_and_write_file()
 
564
            return
 
565
 
 
566
        # Try error handling to create the parent directory if we need to
 
567
        try:
 
568
            _open_and_write_file()
 
569
        except NoSuchFile:
 
570
            # Try to create the parent directory, and then go back to
 
571
            # writing the file
 
572
            parent_dir = os.path.dirname(abspath)
 
573
            self._mkdir(parent_dir, dir_mode)
 
574
            _open_and_write_file()
 
575
 
 
576
    def put_file_non_atomic(self, relpath, f, mode=None,
 
577
                            create_parent_dir=False,
 
578
                            dir_mode=None):
 
579
        """Copy the file-like object into the target location.
 
580
 
 
581
        This function is not strictly safe to use. It is only meant to
 
582
        be used when you already know that the target does not exist.
 
583
        It is not safe, because it will open and truncate the remote
 
584
        file. So there may be a time when the file has invalid contents.
 
585
 
 
586
        :param relpath: The remote location to put the contents.
 
587
        :param f:       File-like object.
 
588
        :param mode:    Possible access permissions for new file.
 
589
                        None means do not set remote permissions.
 
590
        :param create_parent_dir: If we cannot create the target file because
 
591
                        the parent directory does not exist, go ahead and
 
592
                        create it, and then try again.
 
593
        """
 
594
        def writer(fout):
 
595
            self._pump(f, fout)
 
596
        self._put_non_atomic_helper(relpath, writer, mode=mode,
 
597
                                    create_parent_dir=create_parent_dir,
 
598
                                    dir_mode=dir_mode)
 
599
 
 
600
    def put_bytes_non_atomic(self, relpath, bytes, mode=None,
 
601
                             create_parent_dir=False,
 
602
                             dir_mode=None):
 
603
        def writer(fout):
 
604
            fout.write(bytes)
 
605
        self._put_non_atomic_helper(relpath, writer, mode=mode,
 
606
                                    create_parent_dir=create_parent_dir,
 
607
                                    dir_mode=dir_mode)
 
608
 
 
609
    def iter_files_recursive(self):
 
610
        """Walk the relative paths of all files in this transport."""
 
611
        queue = list(self.list_dir('.'))
 
612
        while queue:
 
613
            relpath = queue.pop(0)
 
614
            st = self.stat(relpath)
 
615
            if stat.S_ISDIR(st.st_mode):
 
616
                for i, basename in enumerate(self.list_dir(relpath)):
 
617
                    queue.insert(i, relpath+'/'+basename)
 
618
            else:
 
619
                yield relpath
 
620
 
 
621
    def _mkdir(self, abspath, mode=None):
 
622
        if mode is None:
 
623
            local_mode = 0777
 
624
        else:
 
625
            local_mode = mode
 
626
        try:
 
627
            self._get_sftp().mkdir(abspath, local_mode)
 
628
            if mode is not None:
 
629
                # chmod a dir through sftp will erase any sgid bit set
 
630
                # on the server side.  So, if the bit mode are already
 
631
                # set, avoid the chmod.  If the mode is not fine but
 
632
                # the sgid bit is set, report a warning to the user
 
633
                # with the umask fix.
 
634
                stat = self._get_sftp().lstat(abspath)
 
635
                mode = mode & 0777 # can't set special bits anyway
 
636
                if mode != stat.st_mode & 0777:
 
637
                    if stat.st_mode & 06000:
 
638
                        warning('About to chmod %s over sftp, which will result'
 
639
                                ' in its suid or sgid bits being cleared.  If'
 
640
                                ' you want to preserve those bits, change your '
 
641
                                ' environment on the server to use umask 0%03o.'
 
642
                                % (abspath, 0777 - mode))
 
643
                    self._get_sftp().chmod(abspath, mode=mode)
 
644
        except (paramiko.SSHException, IOError), e:
 
645
            self._translate_io_exception(e, abspath, ': unable to mkdir',
 
646
                failure_exc=FileExists)
 
647
 
 
648
    def mkdir(self, relpath, mode=None):
 
649
        """Create a directory at the given path."""
 
650
        self._mkdir(self._remote_path(relpath), mode=mode)
 
651
 
 
652
    def open_write_stream(self, relpath, mode=None):
 
653
        """See Transport.open_write_stream."""
 
654
        # initialise the file to zero-length
 
655
        # this is three round trips, but we don't use this 
 
656
        # api more than once per write_group at the moment so 
 
657
        # it is a tolerable overhead. Better would be to truncate
 
658
        # the file after opening. RBC 20070805
 
659
        self.put_bytes_non_atomic(relpath, "", mode)
 
660
        abspath = self._remote_path(relpath)
 
661
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
 
662
        #       set the file mode at create time. If it does, use it.
 
663
        #       But for now, we just chmod later anyway.
 
664
        handle = None
 
665
        try:
 
666
            handle = self._get_sftp().file(abspath, mode='wb')
 
667
            handle.set_pipelined(True)
 
668
        except (paramiko.SSHException, IOError), e:
 
669
            self._translate_io_exception(e, abspath,
 
670
                                         ': unable to open')
 
671
        _file_streams[self.abspath(relpath)] = handle
 
672
        return FileFileStream(self, relpath, handle)
 
673
 
 
674
    def _translate_io_exception(self, e, path, more_info='',
 
675
                                failure_exc=PathError):
 
676
        """Translate a paramiko or IOError into a friendlier exception.
 
677
 
 
678
        :param e: The original exception
 
679
        :param path: The path in question when the error is raised
 
680
        :param more_info: Extra information that can be included,
 
681
                          such as what was going on
 
682
        :param failure_exc: Paramiko has the super fun ability to raise completely
 
683
                           opaque errors that just set "e.args = ('Failure',)" with
 
684
                           no more information.
 
685
                           If this parameter is set, it defines the exception 
 
686
                           to raise in these cases.
 
687
        """
 
688
        # paramiko seems to generate detailless errors.
 
689
        self._translate_error(e, path, raise_generic=False)
 
690
        if getattr(e, 'args', None) is not None:
 
691
            if (e.args == ('No such file or directory',) or
 
692
                e.args == ('No such file',)):
 
693
                raise NoSuchFile(path, str(e) + more_info)
 
694
            if (e.args == ('mkdir failed',) or
 
695
                e.args[0].startswith('syserr: File exists')):
 
696
                raise FileExists(path, str(e) + more_info)
 
697
            # strange but true, for the paramiko server.
 
698
            if (e.args == ('Failure',)):
 
699
                raise failure_exc(path, str(e) + more_info)
 
700
            mutter('Raising exception with args %s', e.args)
 
701
        if getattr(e, 'errno', None) is not None:
 
702
            mutter('Raising exception with errno %s', e.errno)
 
703
        raise e
 
704
 
 
705
    def append_file(self, relpath, f, mode=None):
 
706
        """
 
707
        Append the text in the file-like object into the final
 
708
        location.
 
709
        """
 
710
        try:
 
711
            path = self._remote_path(relpath)
 
712
            fout = self._get_sftp().file(path, 'ab')
 
713
            if mode is not None:
 
714
                self._get_sftp().chmod(path, mode)
 
715
            result = fout.tell()
 
716
            self._pump(f, fout)
 
717
            return result
 
718
        except (IOError, paramiko.SSHException), e:
 
719
            self._translate_io_exception(e, relpath, ': unable to append')
 
720
 
 
721
    def rename(self, rel_from, rel_to):
 
722
        """Rename without special overwriting"""
 
723
        try:
 
724
            self._get_sftp().rename(self._remote_path(rel_from),
 
725
                              self._remote_path(rel_to))
 
726
        except (IOError, paramiko.SSHException), e:
 
727
            self._translate_io_exception(e, rel_from,
 
728
                    ': unable to rename to %r' % (rel_to))
 
729
 
 
730
    def _rename_and_overwrite(self, abs_from, abs_to):
 
731
        """Do a fancy rename on the remote server.
 
732
        
 
733
        Using the implementation provided by osutils.
 
734
        """
 
735
        try:
 
736
            sftp = self._get_sftp()
 
737
            fancy_rename(abs_from, abs_to,
 
738
                         rename_func=sftp.rename,
 
739
                         unlink_func=sftp.remove)
 
740
        except (IOError, paramiko.SSHException), e:
 
741
            self._translate_io_exception(e, abs_from,
 
742
                                         ': unable to rename to %r' % (abs_to))
 
743
 
 
744
    def move(self, rel_from, rel_to):
 
745
        """Move the item at rel_from to the location at rel_to"""
 
746
        path_from = self._remote_path(rel_from)
 
747
        path_to = self._remote_path(rel_to)
 
748
        self._rename_and_overwrite(path_from, path_to)
 
749
 
 
750
    def delete(self, relpath):
 
751
        """Delete the item at relpath"""
 
752
        path = self._remote_path(relpath)
 
753
        try:
 
754
            self._get_sftp().remove(path)
 
755
        except (IOError, paramiko.SSHException), e:
 
756
            self._translate_io_exception(e, path, ': unable to delete')
 
757
            
 
758
    def external_url(self):
 
759
        """See bzrlib.transport.Transport.external_url."""
 
760
        # the external path for SFTP is the base
 
761
        return self.base
 
762
 
 
763
    def listable(self):
 
764
        """Return True if this store supports listing."""
 
765
        return True
 
766
 
 
767
    def list_dir(self, relpath):
 
768
        """
 
769
        Return a list of all files at the given location.
 
770
        """
 
771
        # does anything actually use this?
 
772
        # -- Unknown
 
773
        # This is at least used by copy_tree for remote upgrades.
 
774
        # -- David Allouche 2006-08-11
 
775
        path = self._remote_path(relpath)
 
776
        try:
 
777
            entries = self._get_sftp().listdir(path)
 
778
        except (IOError, paramiko.SSHException), e:
 
779
            self._translate_io_exception(e, path, ': failed to list_dir')
 
780
        return [urlutils.escape(entry) for entry in entries]
 
781
 
 
782
    def rmdir(self, relpath):
 
783
        """See Transport.rmdir."""
 
784
        path = self._remote_path(relpath)
 
785
        try:
 
786
            return self._get_sftp().rmdir(path)
 
787
        except (IOError, paramiko.SSHException), e:
 
788
            self._translate_io_exception(e, path, ': failed to rmdir')
 
789
 
 
790
    def stat(self, relpath):
 
791
        """Return the stat information for a file."""
 
792
        path = self._remote_path(relpath)
 
793
        try:
 
794
            return self._get_sftp().stat(path)
 
795
        except (IOError, paramiko.SSHException), e:
 
796
            self._translate_io_exception(e, path, ': unable to stat')
 
797
 
 
798
    def lock_read(self, relpath):
 
799
        """
 
800
        Lock the given file for shared (read) access.
 
801
        :return: A lock object, which has an unlock() member function
 
802
        """
 
803
        # FIXME: there should be something clever i can do here...
 
804
        class BogusLock(object):
 
805
            def __init__(self, path):
 
806
                self.path = path
 
807
            def unlock(self):
 
808
                pass
 
809
        return BogusLock(relpath)
 
810
 
 
811
    def lock_write(self, relpath):
 
812
        """
 
813
        Lock the given file for exclusive (write) access.
 
814
        WARNING: many transports do not support this, so trying avoid using it
 
815
 
 
816
        :return: A lock object, which has an unlock() member function
 
817
        """
 
818
        # This is a little bit bogus, but basically, we create a file
 
819
        # which should not already exist, and if it does, we assume
 
820
        # that there is a lock, and if it doesn't, the we assume
 
821
        # that we have taken the lock.
 
822
        return SFTPLock(relpath, self)
 
823
 
 
824
    def _sftp_open_exclusive(self, abspath, mode=None):
 
825
        """Open a remote path exclusively.
 
826
 
 
827
        SFTP supports O_EXCL (SFTP_FLAG_EXCL), which fails if
 
828
        the file already exists. However it does not expose this
 
829
        at the higher level of SFTPClient.open(), so we have to
 
830
        sneak away with it.
 
831
 
 
832
        WARNING: This breaks the SFTPClient abstraction, so it
 
833
        could easily break against an updated version of paramiko.
 
834
 
 
835
        :param abspath: The remote absolute path where the file should be opened
 
836
        :param mode: The mode permissions bits for the new file
 
837
        """
 
838
        # TODO: jam 20060816 Paramiko >= 1.6.2 (probably earlier) supports
 
839
        #       using the 'x' flag to indicate SFTP_FLAG_EXCL.
 
840
        #       However, there is no way to set the permission mode at open 
 
841
        #       time using the sftp_client.file() functionality.
 
842
        path = self._get_sftp()._adjust_cwd(abspath)
 
843
        # mutter('sftp abspath %s => %s', abspath, path)
 
844
        attr = SFTPAttributes()
 
845
        if mode is not None:
 
846
            attr.st_mode = mode
 
847
        omode = (SFTP_FLAG_WRITE | SFTP_FLAG_CREATE 
 
848
                | SFTP_FLAG_TRUNC | SFTP_FLAG_EXCL)
 
849
        try:
 
850
            t, msg = self._get_sftp()._request(CMD_OPEN, path, omode, attr)
 
851
            if t != CMD_HANDLE:
 
852
                raise TransportError('Expected an SFTP handle')
 
853
            handle = msg.get_string()
 
854
            return SFTPFile(self._get_sftp(), handle, 'wb', -1)
 
855
        except (paramiko.SSHException, IOError), e:
 
856
            self._translate_io_exception(e, abspath, ': unable to open',
 
857
                failure_exc=FileExists)
 
858
 
 
859
    def _can_roundtrip_unix_modebits(self):
 
860
        if sys.platform == 'win32':
 
861
            # anyone else?
 
862
            return False
 
863
        else:
 
864
            return True
 
865
 
 
866
# ------------- server test implementation --------------
 
867
import threading
 
868
 
 
869
from bzrlib.tests.stub_sftp import StubServer, StubSFTPServer
 
870
 
 
871
STUB_SERVER_KEY = """
 
872
-----BEGIN RSA PRIVATE KEY-----
 
873
MIICWgIBAAKBgQDTj1bqB4WmayWNPB+8jVSYpZYk80Ujvj680pOTh2bORBjbIAyz
 
874
oWGW+GUjzKxTiiPvVmxFgx5wdsFvF03v34lEVVhMpouqPAYQ15N37K/ir5XY+9m/
 
875
d8ufMCkjeXsQkKqFbAlQcnWMCRnOoPHS3I4vi6hmnDDeeYTSRvfLbW0fhwIBIwKB
 
876
gBIiOqZYaoqbeD9OS9z2K9KR2atlTxGxOJPXiP4ESqP3NVScWNwyZ3NXHpyrJLa0
 
877
EbVtzsQhLn6rF+TzXnOlcipFvjsem3iYzCpuChfGQ6SovTcOjHV9z+hnpXvQ/fon
 
878
soVRZY65wKnF7IAoUwTmJS9opqgrN6kRgCd3DASAMd1bAkEA96SBVWFt/fJBNJ9H
 
879
tYnBKZGw0VeHOYmVYbvMSstssn8un+pQpUm9vlG/bp7Oxd/m+b9KWEh2xPfv6zqU
 
880
avNwHwJBANqzGZa/EpzF4J8pGti7oIAPUIDGMtfIcmqNXVMckrmzQ2vTfqtkEZsA
 
881
4rE1IERRyiJQx6EJsz21wJmGV9WJQ5kCQQDwkS0uXqVdFzgHO6S++tjmjYcxwr3g
 
882
H0CoFYSgbddOT6miqRskOQF3DZVkJT3kyuBgU2zKygz52ukQZMqxCb1fAkASvuTv
 
883
qfpH87Qq5kQhNKdbbwbmd2NxlNabazPijWuphGTdW0VfJdWfklyS2Kr+iqrs/5wV
 
884
HhathJt636Eg7oIjAkA8ht3MQ+XSl9yIJIS8gVpbPxSw5OMfw0PjVE7tBdQruiSc
 
885
nvuQES5C9BMHjF39LZiGH1iLQy7FgdHyoP+eodI7
 
886
-----END RSA PRIVATE KEY-----
 
887
"""
 
888
 
 
889
 
 
890
class SocketListener(threading.Thread):
 
891
 
 
892
    def __init__(self, callback):
 
893
        threading.Thread.__init__(self)
 
894
        self._callback = callback
 
895
        self._socket = socket.socket()
 
896
        self._socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
 
897
        self._socket.bind(('localhost', 0))
 
898
        self._socket.listen(1)
 
899
        self.port = self._socket.getsockname()[1]
 
900
        self._stop_event = threading.Event()
 
901
 
 
902
    def stop(self):
 
903
        # called from outside this thread
 
904
        self._stop_event.set()
 
905
        # use a timeout here, because if the test fails, the server thread may
 
906
        # never notice the stop_event.
 
907
        self.join(5.0)
 
908
        self._socket.close()
 
909
 
 
910
    def run(self):
 
911
        while True:
 
912
            readable, writable_unused, exception_unused = \
 
913
                select.select([self._socket], [], [], 0.1)
 
914
            if self._stop_event.isSet():
 
915
                return
 
916
            if len(readable) == 0:
 
917
                continue
 
918
            try:
 
919
                s, addr_unused = self._socket.accept()
 
920
                # because the loopback socket is inline, and transports are
 
921
                # never explicitly closed, best to launch a new thread.
 
922
                threading.Thread(target=self._callback, args=(s,)).start()
 
923
            except socket.error, x:
 
924
                sys.excepthook(*sys.exc_info())
 
925
                warning('Socket error during accept() within unit test server'
 
926
                        ' thread: %r' % x)
 
927
            except Exception, x:
 
928
                # probably a failed test; unit test thread will log the
 
929
                # failure/error
 
930
                sys.excepthook(*sys.exc_info())
 
931
                warning('Exception from within unit test server thread: %r' % 
 
932
                        x)
 
933
 
 
934
 
 
935
class SocketDelay(object):
 
936
    """A socket decorator to make TCP appear slower.
 
937
 
 
938
    This changes recv, send, and sendall to add a fixed latency to each python
 
939
    call if a new roundtrip is detected. That is, when a recv is called and the
 
940
    flag new_roundtrip is set, latency is charged. Every send and send_all
 
941
    sets this flag.
 
942
 
 
943
    In addition every send, sendall and recv sleeps a bit per character send to
 
944
    simulate bandwidth.
 
945
 
 
946
    Not all methods are implemented, this is deliberate as this class is not a
 
947
    replacement for the builtin sockets layer. fileno is not implemented to
 
948
    prevent the proxy being bypassed. 
 
949
    """
 
950
 
 
951
    simulated_time = 0
 
952
    _proxied_arguments = dict.fromkeys([
 
953
        "close", "getpeername", "getsockname", "getsockopt", "gettimeout",
 
954
        "setblocking", "setsockopt", "settimeout", "shutdown"])
 
955
 
 
956
    def __init__(self, sock, latency, bandwidth=1.0, 
 
957
                 really_sleep=True):
 
958
        """ 
 
959
        :param bandwith: simulated bandwith (MegaBit)
 
960
        :param really_sleep: If set to false, the SocketDelay will just
 
961
        increase a counter, instead of calling time.sleep. This is useful for
 
962
        unittesting the SocketDelay.
 
963
        """
 
964
        self.sock = sock
 
965
        self.latency = latency
 
966
        self.really_sleep = really_sleep
 
967
        self.time_per_byte = 1 / (bandwidth / 8.0 * 1024 * 1024) 
 
968
        self.new_roundtrip = False
 
969
 
 
970
    def sleep(self, s):
 
971
        if self.really_sleep:
 
972
            time.sleep(s)
 
973
        else:
 
974
            SocketDelay.simulated_time += s
 
975
 
 
976
    def __getattr__(self, attr):
 
977
        if attr in SocketDelay._proxied_arguments:
 
978
            return getattr(self.sock, attr)
 
979
        raise AttributeError("'SocketDelay' object has no attribute %r" %
 
980
                             attr)
 
981
 
 
982
    def dup(self):
 
983
        return SocketDelay(self.sock.dup(), self.latency, self.time_per_byte,
 
984
                           self._sleep)
 
985
 
 
986
    def recv(self, *args):
 
987
        data = self.sock.recv(*args)
 
988
        if data and self.new_roundtrip:
 
989
            self.new_roundtrip = False
 
990
            self.sleep(self.latency)
 
991
        self.sleep(len(data) * self.time_per_byte)
 
992
        return data
 
993
 
 
994
    def sendall(self, data, flags=0):
 
995
        if not self.new_roundtrip:
 
996
            self.new_roundtrip = True
 
997
            self.sleep(self.latency)
 
998
        self.sleep(len(data) * self.time_per_byte)
 
999
        return self.sock.sendall(data, flags)
 
1000
 
 
1001
    def send(self, data, flags=0):
 
1002
        if not self.new_roundtrip:
 
1003
            self.new_roundtrip = True
 
1004
            self.sleep(self.latency)
 
1005
        bytes_sent = self.sock.send(data, flags)
 
1006
        self.sleep(bytes_sent * self.time_per_byte)
 
1007
        return bytes_sent
 
1008
 
 
1009
 
 
1010
class SFTPServer(Server):
 
1011
    """Common code for SFTP server facilities."""
 
1012
 
 
1013
    def __init__(self, server_interface=StubServer):
 
1014
        self._original_vendor = None
 
1015
        self._homedir = None
 
1016
        self._server_homedir = None
 
1017
        self._listener = None
 
1018
        self._root = None
 
1019
        self._vendor = ssh.ParamikoVendor()
 
1020
        self._server_interface = server_interface
 
1021
        # sftp server logs
 
1022
        self.logs = []
 
1023
        self.add_latency = 0
 
1024
 
 
1025
    def _get_sftp_url(self, path):
 
1026
        """Calculate an sftp url to this server for path."""
 
1027
        return 'sftp://foo:bar@localhost:%d/%s' % (self._listener.port, path)
 
1028
 
 
1029
    def log(self, message):
 
1030
        """StubServer uses this to log when a new server is created."""
 
1031
        self.logs.append(message)
 
1032
 
 
1033
    def _run_server_entry(self, sock):
 
1034
        """Entry point for all implementations of _run_server.
 
1035
        
 
1036
        If self.add_latency is > 0.000001 then sock is given a latency adding
 
1037
        decorator.
 
1038
        """
 
1039
        if self.add_latency > 0.000001:
 
1040
            sock = SocketDelay(sock, self.add_latency)
 
1041
        return self._run_server(sock)
 
1042
 
 
1043
    def _run_server(self, s):
 
1044
        ssh_server = paramiko.Transport(s)
 
1045
        key_file = pathjoin(self._homedir, 'test_rsa.key')
 
1046
        f = open(key_file, 'w')
 
1047
        f.write(STUB_SERVER_KEY)
 
1048
        f.close()
 
1049
        host_key = paramiko.RSAKey.from_private_key_file(key_file)
 
1050
        ssh_server.add_server_key(host_key)
 
1051
        server = self._server_interface(self)
 
1052
        ssh_server.set_subsystem_handler('sftp', paramiko.SFTPServer,
 
1053
                                         StubSFTPServer, root=self._root,
 
1054
                                         home=self._server_homedir)
 
1055
        event = threading.Event()
 
1056
        ssh_server.start_server(event, server)
 
1057
        event.wait(5.0)
 
1058
    
 
1059
    def setUp(self, backing_server=None):
 
1060
        # XXX: TODO: make sftpserver back onto backing_server rather than local
 
1061
        # disk.
 
1062
        if not (backing_server is None or
 
1063
                isinstance(backing_server, local.LocalURLServer)):
 
1064
            raise AssertionError(
 
1065
                "backing_server should not be %r, because this can only serve the "
 
1066
                "local current working directory." % (backing_server,))
 
1067
        self._original_vendor = ssh._ssh_vendor_manager._cached_ssh_vendor
 
1068
        ssh._ssh_vendor_manager._cached_ssh_vendor = self._vendor
 
1069
        if sys.platform == 'win32':
 
1070
            # Win32 needs to use the UNICODE api
 
1071
            self._homedir = getcwd()
 
1072
        else:
 
1073
            # But Linux SFTP servers should just deal in bytestreams
 
1074
            self._homedir = os.getcwd()
 
1075
        if self._server_homedir is None:
 
1076
            self._server_homedir = self._homedir
 
1077
        self._root = '/'
 
1078
        if sys.platform == 'win32':
 
1079
            self._root = ''
 
1080
        self._listener = SocketListener(self._run_server_entry)
 
1081
        self._listener.setDaemon(True)
 
1082
        self._listener.start()
 
1083
 
 
1084
    def tearDown(self):
 
1085
        """See bzrlib.transport.Server.tearDown."""
 
1086
        self._listener.stop()
 
1087
        ssh._ssh_vendor_manager._cached_ssh_vendor = self._original_vendor
 
1088
 
 
1089
    def get_bogus_url(self):
 
1090
        """See bzrlib.transport.Server.get_bogus_url."""
 
1091
        # this is chosen to try to prevent trouble with proxies, wierd dns, etc
 
1092
        # we bind a random socket, so that we get a guaranteed unused port
 
1093
        # we just never listen on that port
 
1094
        s = socket.socket()
 
1095
        s.bind(('localhost', 0))
 
1096
        return 'sftp://%s:%s/' % s.getsockname()
 
1097
 
 
1098
 
 
1099
class SFTPFullAbsoluteServer(SFTPServer):
 
1100
    """A test server for sftp transports, using absolute urls and ssh."""
 
1101
 
 
1102
    def get_url(self):
 
1103
        """See bzrlib.transport.Server.get_url."""
 
1104
        homedir = self._homedir
 
1105
        if sys.platform != 'win32':
 
1106
            # Remove the initial '/' on all platforms but win32
 
1107
            homedir = homedir[1:]
 
1108
        return self._get_sftp_url(urlutils.escape(homedir))
 
1109
 
 
1110
 
 
1111
class SFTPServerWithoutSSH(SFTPServer):
 
1112
    """An SFTP server that uses a simple TCP socket pair rather than SSH."""
 
1113
 
 
1114
    def __init__(self):
 
1115
        super(SFTPServerWithoutSSH, self).__init__()
 
1116
        self._vendor = ssh.LoopbackVendor()
 
1117
 
 
1118
    def _run_server(self, sock):
 
1119
        # Re-import these as locals, so that they're still accessible during
 
1120
        # interpreter shutdown (when all module globals get set to None, leading
 
1121
        # to confusing errors like "'NoneType' object has no attribute 'error'".
 
1122
        class FakeChannel(object):
 
1123
            def get_transport(self):
 
1124
                return self
 
1125
            def get_log_channel(self):
 
1126
                return 'paramiko'
 
1127
            def get_name(self):
 
1128
                return '1'
 
1129
            def get_hexdump(self):
 
1130
                return False
 
1131
            def close(self):
 
1132
                pass
 
1133
 
 
1134
        server = paramiko.SFTPServer(
 
1135
            FakeChannel(), 'sftp', StubServer(self), StubSFTPServer,
 
1136
            root=self._root, home=self._server_homedir)
 
1137
        try:
 
1138
            server.start_subsystem(
 
1139
                'sftp', None, ssh.SocketAsChannelAdapter(sock))
 
1140
        except socket.error, e:
 
1141
            if (len(e.args) > 0) and (e.args[0] == errno.EPIPE):
 
1142
                # it's okay for the client to disconnect abruptly
 
1143
                # (bug in paramiko 1.6: it should absorb this exception)
 
1144
                pass
 
1145
            else:
 
1146
                raise
 
1147
        except Exception, e:
 
1148
            # This typically seems to happen during interpreter shutdown, so
 
1149
            # most of the useful ways to report this error are won't work.
 
1150
            # Writing the exception type, and then the text of the exception,
 
1151
            # seems to be the best we can do.
 
1152
            import sys
 
1153
            sys.stderr.write('\nEXCEPTION %r: ' % (e.__class__,))
 
1154
            sys.stderr.write('%s\n\n' % (e,))
 
1155
        server.finish_subsystem()
 
1156
 
 
1157
 
 
1158
class SFTPAbsoluteServer(SFTPServerWithoutSSH):
 
1159
    """A test server for sftp transports, using absolute urls."""
 
1160
 
 
1161
    def get_url(self):
 
1162
        """See bzrlib.transport.Server.get_url."""
 
1163
        homedir = self._homedir
 
1164
        if sys.platform != 'win32':
 
1165
            # Remove the initial '/' on all platforms but win32
 
1166
            homedir = homedir[1:]
 
1167
        return self._get_sftp_url(urlutils.escape(homedir))
 
1168
 
 
1169
 
 
1170
class SFTPHomeDirServer(SFTPServerWithoutSSH):
 
1171
    """A test server for sftp transports, using homedir relative urls."""
 
1172
 
 
1173
    def get_url(self):
 
1174
        """See bzrlib.transport.Server.get_url."""
 
1175
        return self._get_sftp_url("~/")
 
1176
 
 
1177
 
 
1178
class SFTPSiblingAbsoluteServer(SFTPAbsoluteServer):
 
1179
    """A test server for sftp transports where only absolute paths will work.
 
1180
 
 
1181
    It does this by serving from a deeply-nested directory that doesn't exist.
 
1182
    """
 
1183
 
 
1184
    def setUp(self, backing_server=None):
 
1185
        self._server_homedir = '/dev/noone/runs/tests/here'
 
1186
        super(SFTPSiblingAbsoluteServer, self).setUp(backing_server)
 
1187
 
 
1188
 
 
1189
def get_test_permutations():
 
1190
    """Return the permutations to be used in testing."""
 
1191
    return [(SFTPTransport, SFTPAbsoluteServer),
 
1192
            (SFTPTransport, SFTPHomeDirServer),
 
1193
            (SFTPTransport, SFTPSiblingAbsoluteServer),
 
1194
            ]