/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/transport/sftp.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2006-09-15 17:14:38 UTC
  • mfrom: (1993.2.4 test-setup-skip)
  • Revision ID: pqm@pqm.ubuntu.com-20060915171438-a30aecb7d5eb20be
(jam,moy) skip tests when dependencies aren't available

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005 Robey Pointer <robey@lag.net>
 
2
# Copyright (C) 2005, 2006 Canonical Ltd
 
3
#
 
4
# This program is free software; you can redistribute it and/or modify
 
5
# it under the terms of the GNU General Public License as published by
 
6
# the Free Software Foundation; either version 2 of the License, or
 
7
# (at your option) any later version.
 
8
#
 
9
# This program is distributed in the hope that it will be useful,
 
10
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
11
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
12
# GNU General Public License for more details.
 
13
#
 
14
# You should have received a copy of the GNU General Public License
 
15
# along with this program; if not, write to the Free Software
 
16
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
17
 
 
18
"""Implementation of Transport over SFTP, using paramiko."""
 
19
 
 
20
# TODO: Remove the transport-based lock_read and lock_write methods.  They'll
 
21
# then raise TransportNotPossible, which will break remote access to any
 
22
# formats which rely on OS-level locks.  That should be fine as those formats
 
23
# are pretty old, but these combinations may have to be removed from the test
 
24
# suite.  Those formats all date back to 0.7; so we should be able to remove
 
25
# these methods when we officially drop support for those formats.
 
26
 
 
27
import errno
 
28
import os
 
29
import random
 
30
import select
 
31
import socket
 
32
import stat
 
33
import subprocess
 
34
import sys
 
35
import time
 
36
import urllib
 
37
import urlparse
 
38
import weakref
 
39
 
 
40
from bzrlib.errors import (FileExists, 
 
41
                           NoSuchFile, PathNotChild,
 
42
                           TransportError,
 
43
                           LockError, 
 
44
                           PathError,
 
45
                           ParamikoNotPresent,
 
46
                           UnknownSSH,
 
47
                           )
 
48
from bzrlib.osutils import pathjoin, fancy_rename, getcwd
 
49
from bzrlib.trace import mutter, warning
 
50
from bzrlib.transport import (
 
51
    register_urlparse_netloc_protocol,
 
52
    Server,
 
53
    split_url,
 
54
    ssh,
 
55
    Transport,
 
56
    )
 
57
import bzrlib.urlutils as urlutils
 
58
 
 
59
try:
 
60
    import paramiko
 
61
except ImportError, e:
 
62
    raise ParamikoNotPresent(e)
 
63
else:
 
64
    from paramiko.sftp import (SFTP_FLAG_WRITE, SFTP_FLAG_CREATE,
 
65
                               SFTP_FLAG_EXCL, SFTP_FLAG_TRUNC,
 
66
                               CMD_HANDLE, CMD_OPEN)
 
67
    from paramiko.sftp_attr import SFTPAttributes
 
68
    from paramiko.sftp_file import SFTPFile
 
69
 
 
70
 
 
71
register_urlparse_netloc_protocol('sftp')
 
72
 
 
73
 
 
74
# This is a weakref dictionary, so that we can reuse connections
 
75
# that are still active. Long term, it might be nice to have some
 
76
# sort of expiration policy, such as disconnect if inactive for
 
77
# X seconds. But that requires a lot more fanciness.
 
78
_connected_hosts = weakref.WeakValueDictionary()
 
79
 
 
80
 
 
81
_paramiko_version = getattr(paramiko, '__version_info__', (0, 0, 0))
 
82
# don't use prefetch unless paramiko version >= 1.5.5 (there were bugs earlier)
 
83
_default_do_prefetch = (_paramiko_version >= (1, 5, 5))
 
84
 
 
85
 
 
86
def clear_connection_cache():
 
87
    """Remove all hosts from the SFTP connection cache.
 
88
 
 
89
    Primarily useful for test cases wanting to force garbage collection.
 
90
    """
 
91
    _connected_hosts.clear()
 
92
 
 
93
 
 
94
class SFTPLock(object):
 
95
    """This fakes a lock in a remote location.
 
96
    
 
97
    A present lock is indicated just by the existence of a file.  This
 
98
    doesn't work well on all transports and they are only used in 
 
99
    deprecated storage formats.
 
100
    """
 
101
    
 
102
    __slots__ = ['path', 'lock_path', 'lock_file', 'transport']
 
103
 
 
104
    def __init__(self, path, transport):
 
105
        assert isinstance(transport, SFTPTransport)
 
106
 
 
107
        self.lock_file = None
 
108
        self.path = path
 
109
        self.lock_path = path + '.write-lock'
 
110
        self.transport = transport
 
111
        try:
 
112
            # RBC 20060103 FIXME should we be using private methods here ?
 
113
            abspath = transport._remote_path(self.lock_path)
 
114
            self.lock_file = transport._sftp_open_exclusive(abspath)
 
115
        except FileExists:
 
116
            raise LockError('File %r already locked' % (self.path,))
 
117
 
 
118
    def __del__(self):
 
119
        """Should this warn, or actually try to cleanup?"""
 
120
        if self.lock_file:
 
121
            warning("SFTPLock %r not explicitly unlocked" % (self.path,))
 
122
            self.unlock()
 
123
 
 
124
    def unlock(self):
 
125
        if not self.lock_file:
 
126
            return
 
127
        self.lock_file.close()
 
128
        self.lock_file = None
 
129
        try:
 
130
            self.transport.delete(self.lock_path)
 
131
        except (NoSuchFile,):
 
132
            # What specific errors should we catch here?
 
133
            pass
 
134
 
 
135
 
 
136
class SFTPUrlHandling(Transport):
 
137
    """Mix-in that does common handling of SSH/SFTP URLs."""
 
138
 
 
139
    def __init__(self, base):
 
140
        self._parse_url(base)
 
141
        base = self._unparse_url(self._path)
 
142
        if base[-1] != '/':
 
143
            base += '/'
 
144
        super(SFTPUrlHandling, self).__init__(base)
 
145
 
 
146
    def _parse_url(self, url):
 
147
        (self._scheme,
 
148
         self._username, self._password,
 
149
         self._host, self._port, self._path) = self._split_url(url)
 
150
 
 
151
    def _unparse_url(self, path):
 
152
        """Return a URL for a path relative to this transport.
 
153
        """
 
154
        path = urllib.quote(path)
 
155
        # handle homedir paths
 
156
        if not path.startswith('/'):
 
157
            path = "/~/" + path
 
158
        netloc = urllib.quote(self._host)
 
159
        if self._username is not None:
 
160
            netloc = '%s@%s' % (urllib.quote(self._username), netloc)
 
161
        if self._port is not None:
 
162
            netloc = '%s:%d' % (netloc, self._port)
 
163
        return urlparse.urlunparse((self._scheme, netloc, path, '', '', ''))
 
164
 
 
165
    def _split_url(self, url):
 
166
        (scheme, username, password, host, port, path) = split_url(url)
 
167
        ## assert scheme == 'sftp'
 
168
 
 
169
        # the initial slash should be removed from the path, and treated
 
170
        # as a homedir relative path (the path begins with a double slash
 
171
        # if it is absolute).
 
172
        # see draft-ietf-secsh-scp-sftp-ssh-uri-03.txt
 
173
        # RBC 20060118 we are not using this as its too user hostile. instead
 
174
        # we are following lftp and using /~/foo to mean '~/foo'.
 
175
        # handle homedir paths
 
176
        if path.startswith('/~/'):
 
177
            path = path[3:]
 
178
        elif path == '/~':
 
179
            path = ''
 
180
        return (scheme, username, password, host, port, path)
 
181
 
 
182
    def _remote_path(self, relpath):
 
183
        """Return the path to be passed along the sftp protocol for relpath.
 
184
        
 
185
        :param relpath: is a urlencoded string.
 
186
        """
 
187
        return self._combine_paths(self._path, relpath)
 
188
 
 
189
 
 
190
class SFTPTransport(SFTPUrlHandling):
 
191
    """Transport implementation for SFTP access."""
 
192
 
 
193
    _do_prefetch = _default_do_prefetch
 
194
    # TODO: jam 20060717 Conceivably these could be configurable, either
 
195
    #       by auto-tuning at run-time, or by a configuration (per host??)
 
196
    #       but the performance curve is pretty flat, so just going with
 
197
    #       reasonable defaults.
 
198
    _max_readv_combine = 200
 
199
    # Having to round trip to the server means waiting for a response,
 
200
    # so it is better to download extra bytes.
 
201
    # 8KiB had good performance for both local and remote network operations
 
202
    _bytes_to_read_before_seek = 8192
 
203
 
 
204
    # The sftp spec says that implementations SHOULD allow reads
 
205
    # to be at least 32K. paramiko.readv() does an async request
 
206
    # for the chunks. So we need to keep it within a single request
 
207
    # size for paramiko <= 1.6.1. paramiko 1.6.2 will probably chop
 
208
    # up the request itself, rather than us having to worry about it
 
209
    _max_request_size = 32768
 
210
 
 
211
    def __init__(self, base, clone_from=None):
 
212
        super(SFTPTransport, self).__init__(base)
 
213
        if clone_from is None:
 
214
            self._sftp_connect()
 
215
        else:
 
216
            # use the same ssh connection, etc
 
217
            self._sftp = clone_from._sftp
 
218
        # super saves 'self.base'
 
219
    
 
220
    def should_cache(self):
 
221
        """
 
222
        Return True if the data pulled across should be cached locally.
 
223
        """
 
224
        return True
 
225
 
 
226
    def clone(self, offset=None):
 
227
        """
 
228
        Return a new SFTPTransport with root at self.base + offset.
 
229
        We share the same SFTP session between such transports, because it's
 
230
        fairly expensive to set them up.
 
231
        """
 
232
        if offset is None:
 
233
            return SFTPTransport(self.base, self)
 
234
        else:
 
235
            return SFTPTransport(self.abspath(offset), self)
 
236
 
 
237
    def abspath(self, relpath):
 
238
        """
 
239
        Return the full url to the given relative path.
 
240
        
 
241
        @param relpath: the relative path or path components
 
242
        @type relpath: str or list
 
243
        """
 
244
        return self._unparse_url(self._remote_path(relpath))
 
245
    
 
246
    def _remote_path(self, relpath):
 
247
        """Return the path to be passed along the sftp protocol for relpath.
 
248
        
 
249
        relpath is a urlencoded string.
 
250
 
 
251
        :return: a path prefixed with / for regular abspath-based urls, or a
 
252
            path that does not begin with / for urls which begin with /~/.
 
253
        """
 
254
        # FIXME: share the common code across transports
 
255
        assert isinstance(relpath, basestring)
 
256
        basepath = self._path.split('/')
 
257
        if relpath.startswith('/'):
 
258
            basepath = ['', '']
 
259
        relpath = urlutils.unescape(relpath).split('/')
 
260
        if len(basepath) > 0 and basepath[-1] == '':
 
261
            basepath = basepath[:-1]
 
262
 
 
263
        for p in relpath:
 
264
            if p == '..':
 
265
                if len(basepath) == 0:
 
266
                    # In most filesystems, a request for the parent
 
267
                    # of root, just returns root.
 
268
                    continue
 
269
                basepath.pop()
 
270
            elif p == '.':
 
271
                continue # No-op
 
272
            elif p != '':
 
273
                basepath.append(p)
 
274
 
 
275
        path = '/'.join(basepath)
 
276
        # mutter('relpath => remotepath %s => %s', relpath, path)
 
277
        return path
 
278
 
 
279
    def relpath(self, abspath):
 
280
        scheme, username, password, host, port, path = self._split_url(abspath)
 
281
        error = []
 
282
        if (username != self._username):
 
283
            error.append('username mismatch')
 
284
        if (host != self._host):
 
285
            error.append('host mismatch')
 
286
        if (port != self._port):
 
287
            error.append('port mismatch')
 
288
        if (not path.startswith(self._path)):
 
289
            error.append('path mismatch')
 
290
        if error:
 
291
            extra = ': ' + ', '.join(error)
 
292
            raise PathNotChild(abspath, self.base, extra=extra)
 
293
        pl = len(self._path)
 
294
        return path[pl:].strip('/')
 
295
 
 
296
    def has(self, relpath):
 
297
        """
 
298
        Does the target location exist?
 
299
        """
 
300
        try:
 
301
            self._sftp.stat(self._remote_path(relpath))
 
302
            return True
 
303
        except IOError:
 
304
            return False
 
305
 
 
306
    def get(self, relpath):
 
307
        """
 
308
        Get the file at the given relative path.
 
309
 
 
310
        :param relpath: The relative path to the file
 
311
        """
 
312
        try:
 
313
            path = self._remote_path(relpath)
 
314
            f = self._sftp.file(path, mode='rb')
 
315
            if self._do_prefetch and (getattr(f, 'prefetch', None) is not None):
 
316
                f.prefetch()
 
317
            return f
 
318
        except (IOError, paramiko.SSHException), e:
 
319
            self._translate_io_exception(e, path, ': error retrieving')
 
320
 
 
321
    def readv(self, relpath, offsets):
 
322
        """See Transport.readv()"""
 
323
        # We overload the default readv() because we want to use a file
 
324
        # that does not have prefetch enabled.
 
325
        # Also, if we have a new paramiko, it implements an async readv()
 
326
        if not offsets:
 
327
            return
 
328
 
 
329
        try:
 
330
            path = self._remote_path(relpath)
 
331
            fp = self._sftp.file(path, mode='rb')
 
332
            readv = getattr(fp, 'readv', None)
 
333
            if readv:
 
334
                return self._sftp_readv(fp, offsets)
 
335
            mutter('seek and read %s offsets', len(offsets))
 
336
            return self._seek_and_read(fp, offsets)
 
337
        except (IOError, paramiko.SSHException), e:
 
338
            self._translate_io_exception(e, path, ': error retrieving')
 
339
 
 
340
    def _sftp_readv(self, fp, offsets):
 
341
        """Use the readv() member of fp to do async readv.
 
342
 
 
343
        And then read them using paramiko.readv(). paramiko.readv()
 
344
        does not support ranges > 64K, so it caps the request size, and
 
345
        just reads until it gets all the stuff it wants
 
346
        """
 
347
        offsets = list(offsets)
 
348
        sorted_offsets = sorted(offsets)
 
349
 
 
350
        # The algorithm works as follows:
 
351
        # 1) Coalesce nearby reads into a single chunk
 
352
        #    This generates a list of combined regions, the total size
 
353
        #    and the size of the sub regions. This coalescing step is limited
 
354
        #    in the number of nearby chunks to combine, and is allowed to
 
355
        #    skip small breaks in the requests. Limiting it makes sure that
 
356
        #    we can start yielding some data earlier, and skipping means we
 
357
        #    make fewer requests. (Beneficial even when using async)
 
358
        # 2) Break up this combined regions into chunks that are smaller
 
359
        #    than 64KiB. Technically the limit is 65536, but we are a
 
360
        #    little bit conservative. This is because sftp has a maximum
 
361
        #    return chunk size of 64KiB (max size of an unsigned short)
 
362
        # 3) Issue a readv() to paramiko to create an async request for
 
363
        #    all of this data
 
364
        # 4) Read in the data as it comes back, until we've read one
 
365
        #    continuous section as determined in step 1
 
366
        # 5) Break up the full sections into hunks for the original requested
 
367
        #    offsets. And put them in a cache
 
368
        # 6) Check if the next request is in the cache, and if it is, remove
 
369
        #    it from the cache, and yield its data. Continue until no more
 
370
        #    entries are in the cache.
 
371
        # 7) loop back to step 4 until all data has been read
 
372
        #
 
373
        # TODO: jam 20060725 This could be optimized one step further, by
 
374
        #       attempting to yield whatever data we have read, even before
 
375
        #       the first coallesced section has been fully processed.
 
376
 
 
377
        # When coalescing for use with readv(), we don't really need to
 
378
        # use any fudge factor, because the requests are made asynchronously
 
379
        coalesced = list(self._coalesce_offsets(sorted_offsets,
 
380
                               limit=self._max_readv_combine,
 
381
                               fudge_factor=0,
 
382
                               ))
 
383
        requests = []
 
384
        for c_offset in coalesced:
 
385
            start = c_offset.start
 
386
            size = c_offset.length
 
387
 
 
388
            # We need to break this up into multiple requests
 
389
            while size > 0:
 
390
                next_size = min(size, self._max_request_size)
 
391
                requests.append((start, next_size))
 
392
                size -= next_size
 
393
                start += next_size
 
394
 
 
395
        mutter('SFTP.readv() %s offsets => %s coalesced => %s requests',
 
396
                len(offsets), len(coalesced), len(requests))
 
397
 
 
398
        # Queue the current read until we have read the full coalesced section
 
399
        cur_data = []
 
400
        cur_data_len = 0
 
401
        cur_coalesced_stack = iter(coalesced)
 
402
        cur_coalesced = cur_coalesced_stack.next()
 
403
 
 
404
        # Cache the results, but only until they have been fulfilled
 
405
        data_map = {}
 
406
        # turn the list of offsets into a stack
 
407
        offset_stack = iter(offsets)
 
408
        cur_offset_and_size = offset_stack.next()
 
409
 
 
410
        for data in fp.readv(requests):
 
411
            cur_data += data
 
412
            cur_data_len += len(data)
 
413
 
 
414
            if cur_data_len < cur_coalesced.length:
 
415
                continue
 
416
            assert cur_data_len == cur_coalesced.length, \
 
417
                "Somehow we read too much: %s != %s" % (cur_data_len,
 
418
                                                        cur_coalesced.length)
 
419
            all_data = ''.join(cur_data)
 
420
            cur_data = []
 
421
            cur_data_len = 0
 
422
 
 
423
            for suboffset, subsize in cur_coalesced.ranges:
 
424
                key = (cur_coalesced.start+suboffset, subsize)
 
425
                data_map[key] = all_data[suboffset:suboffset+subsize]
 
426
 
 
427
            # Now that we've read some data, see if we can yield anything back
 
428
            while cur_offset_and_size in data_map:
 
429
                this_data = data_map.pop(cur_offset_and_size)
 
430
                yield cur_offset_and_size[0], this_data
 
431
                cur_offset_and_size = offset_stack.next()
 
432
 
 
433
            # Now that we've read all of the data for this coalesced section
 
434
            # on to the next
 
435
            cur_coalesced = cur_coalesced_stack.next()
 
436
 
 
437
    def put_file(self, relpath, f, mode=None):
 
438
        """
 
439
        Copy the file-like object into the location.
 
440
 
 
441
        :param relpath: Location to put the contents, relative to base.
 
442
        :param f:       File-like object.
 
443
        :param mode: The final mode for the file
 
444
        """
 
445
        final_path = self._remote_path(relpath)
 
446
        self._put(final_path, f, mode=mode)
 
447
 
 
448
    def _put(self, abspath, f, mode=None):
 
449
        """Helper function so both put() and copy_abspaths can reuse the code"""
 
450
        tmp_abspath = '%s.tmp.%.9f.%d.%d' % (abspath, time.time(),
 
451
                        os.getpid(), random.randint(0,0x7FFFFFFF))
 
452
        fout = self._sftp_open_exclusive(tmp_abspath, mode=mode)
 
453
        closed = False
 
454
        try:
 
455
            try:
 
456
                fout.set_pipelined(True)
 
457
                self._pump(f, fout)
 
458
            except (IOError, paramiko.SSHException), e:
 
459
                self._translate_io_exception(e, tmp_abspath)
 
460
            # XXX: This doesn't truly help like we would like it to.
 
461
            #      The problem is that openssh strips sticky bits. So while we
 
462
            #      can properly set group write permission, we lose the group
 
463
            #      sticky bit. So it is probably best to stop chmodding, and
 
464
            #      just tell users that they need to set the umask correctly.
 
465
            #      The attr.st_mode = mode, in _sftp_open_exclusive
 
466
            #      will handle when the user wants the final mode to be more 
 
467
            #      restrictive. And then we avoid a round trip. Unless 
 
468
            #      paramiko decides to expose an async chmod()
 
469
 
 
470
            # This is designed to chmod() right before we close.
 
471
            # Because we set_pipelined() earlier, theoretically we might 
 
472
            # avoid the round trip for fout.close()
 
473
            if mode is not None:
 
474
                self._sftp.chmod(tmp_abspath, mode)
 
475
            fout.close()
 
476
            closed = True
 
477
            self._rename_and_overwrite(tmp_abspath, abspath)
 
478
        except Exception, e:
 
479
            # If we fail, try to clean up the temporary file
 
480
            # before we throw the exception
 
481
            # but don't let another exception mess things up
 
482
            # Write out the traceback, because otherwise
 
483
            # the catch and throw destroys it
 
484
            import traceback
 
485
            mutter(traceback.format_exc())
 
486
            try:
 
487
                if not closed:
 
488
                    fout.close()
 
489
                self._sftp.remove(tmp_abspath)
 
490
            except:
 
491
                # raise the saved except
 
492
                raise e
 
493
            # raise the original with its traceback if we can.
 
494
            raise
 
495
 
 
496
    def _put_non_atomic_helper(self, relpath, writer, mode=None,
 
497
                               create_parent_dir=False,
 
498
                               dir_mode=None):
 
499
        abspath = self._remote_path(relpath)
 
500
 
 
501
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
 
502
        #       set the file mode at create time. If it does, use it.
 
503
        #       But for now, we just chmod later anyway.
 
504
 
 
505
        def _open_and_write_file():
 
506
            """Try to open the target file, raise error on failure"""
 
507
            fout = None
 
508
            try:
 
509
                try:
 
510
                    fout = self._sftp.file(abspath, mode='wb')
 
511
                    fout.set_pipelined(True)
 
512
                    writer(fout)
 
513
                except (paramiko.SSHException, IOError), e:
 
514
                    self._translate_io_exception(e, abspath,
 
515
                                                 ': unable to open')
 
516
 
 
517
                # This is designed to chmod() right before we close.
 
518
                # Because we set_pipelined() earlier, theoretically we might 
 
519
                # avoid the round trip for fout.close()
 
520
                if mode is not None:
 
521
                    self._sftp.chmod(abspath, mode)
 
522
            finally:
 
523
                if fout is not None:
 
524
                    fout.close()
 
525
 
 
526
        if not create_parent_dir:
 
527
            _open_and_write_file()
 
528
            return
 
529
 
 
530
        # Try error handling to create the parent directory if we need to
 
531
        try:
 
532
            _open_and_write_file()
 
533
        except NoSuchFile:
 
534
            # Try to create the parent directory, and then go back to
 
535
            # writing the file
 
536
            parent_dir = os.path.dirname(abspath)
 
537
            self._mkdir(parent_dir, dir_mode)
 
538
            _open_and_write_file()
 
539
 
 
540
    def put_file_non_atomic(self, relpath, f, mode=None,
 
541
                            create_parent_dir=False,
 
542
                            dir_mode=None):
 
543
        """Copy the file-like object into the target location.
 
544
 
 
545
        This function is not strictly safe to use. It is only meant to
 
546
        be used when you already know that the target does not exist.
 
547
        It is not safe, because it will open and truncate the remote
 
548
        file. So there may be a time when the file has invalid contents.
 
549
 
 
550
        :param relpath: The remote location to put the contents.
 
551
        :param f:       File-like object.
 
552
        :param mode:    Possible access permissions for new file.
 
553
                        None means do not set remote permissions.
 
554
        :param create_parent_dir: If we cannot create the target file because
 
555
                        the parent directory does not exist, go ahead and
 
556
                        create it, and then try again.
 
557
        """
 
558
        def writer(fout):
 
559
            self._pump(f, fout)
 
560
        self._put_non_atomic_helper(relpath, writer, mode=mode,
 
561
                                    create_parent_dir=create_parent_dir,
 
562
                                    dir_mode=dir_mode)
 
563
 
 
564
    def put_bytes_non_atomic(self, relpath, bytes, mode=None,
 
565
                             create_parent_dir=False,
 
566
                             dir_mode=None):
 
567
        def writer(fout):
 
568
            fout.write(bytes)
 
569
        self._put_non_atomic_helper(relpath, writer, mode=mode,
 
570
                                    create_parent_dir=create_parent_dir,
 
571
                                    dir_mode=dir_mode)
 
572
 
 
573
    def iter_files_recursive(self):
 
574
        """Walk the relative paths of all files in this transport."""
 
575
        queue = list(self.list_dir('.'))
 
576
        while queue:
 
577
            relpath = queue.pop(0)
 
578
            st = self.stat(relpath)
 
579
            if stat.S_ISDIR(st.st_mode):
 
580
                for i, basename in enumerate(self.list_dir(relpath)):
 
581
                    queue.insert(i, relpath+'/'+basename)
 
582
            else:
 
583
                yield relpath
 
584
 
 
585
    def _mkdir(self, abspath, mode=None):
 
586
        if mode is None:
 
587
            local_mode = 0777
 
588
        else:
 
589
            local_mode = mode
 
590
        try:
 
591
            self._sftp.mkdir(abspath, local_mode)
 
592
            if mode is not None:
 
593
                self._sftp.chmod(abspath, mode=mode)
 
594
        except (paramiko.SSHException, IOError), e:
 
595
            self._translate_io_exception(e, abspath, ': unable to mkdir',
 
596
                failure_exc=FileExists)
 
597
 
 
598
    def mkdir(self, relpath, mode=None):
 
599
        """Create a directory at the given path."""
 
600
        self._mkdir(self._remote_path(relpath), mode=mode)
 
601
 
 
602
    def _translate_io_exception(self, e, path, more_info='', 
 
603
                                failure_exc=PathError):
 
604
        """Translate a paramiko or IOError into a friendlier exception.
 
605
 
 
606
        :param e: The original exception
 
607
        :param path: The path in question when the error is raised
 
608
        :param more_info: Extra information that can be included,
 
609
                          such as what was going on
 
610
        :param failure_exc: Paramiko has the super fun ability to raise completely
 
611
                           opaque errors that just set "e.args = ('Failure',)" with
 
612
                           no more information.
 
613
                           If this parameter is set, it defines the exception 
 
614
                           to raise in these cases.
 
615
        """
 
616
        # paramiko seems to generate detailless errors.
 
617
        self._translate_error(e, path, raise_generic=False)
 
618
        if getattr(e, 'args', None) is not None:
 
619
            if (e.args == ('No such file or directory',) or
 
620
                e.args == ('No such file',)):
 
621
                raise NoSuchFile(path, str(e) + more_info)
 
622
            if (e.args == ('mkdir failed',)):
 
623
                raise FileExists(path, str(e) + more_info)
 
624
            # strange but true, for the paramiko server.
 
625
            if (e.args == ('Failure',)):
 
626
                raise failure_exc(path, str(e) + more_info)
 
627
            mutter('Raising exception with args %s', e.args)
 
628
        if getattr(e, 'errno', None) is not None:
 
629
            mutter('Raising exception with errno %s', e.errno)
 
630
        raise e
 
631
 
 
632
    def append_file(self, relpath, f, mode=None):
 
633
        """
 
634
        Append the text in the file-like object into the final
 
635
        location.
 
636
        """
 
637
        try:
 
638
            path = self._remote_path(relpath)
 
639
            fout = self._sftp.file(path, 'ab')
 
640
            if mode is not None:
 
641
                self._sftp.chmod(path, mode)
 
642
            result = fout.tell()
 
643
            self._pump(f, fout)
 
644
            return result
 
645
        except (IOError, paramiko.SSHException), e:
 
646
            self._translate_io_exception(e, relpath, ': unable to append')
 
647
 
 
648
    def rename(self, rel_from, rel_to):
 
649
        """Rename without special overwriting"""
 
650
        try:
 
651
            self._sftp.rename(self._remote_path(rel_from),
 
652
                              self._remote_path(rel_to))
 
653
        except (IOError, paramiko.SSHException), e:
 
654
            self._translate_io_exception(e, rel_from,
 
655
                    ': unable to rename to %r' % (rel_to))
 
656
 
 
657
    def _rename_and_overwrite(self, abs_from, abs_to):
 
658
        """Do a fancy rename on the remote server.
 
659
        
 
660
        Using the implementation provided by osutils.
 
661
        """
 
662
        try:
 
663
            fancy_rename(abs_from, abs_to,
 
664
                    rename_func=self._sftp.rename,
 
665
                    unlink_func=self._sftp.remove)
 
666
        except (IOError, paramiko.SSHException), e:
 
667
            self._translate_io_exception(e, abs_from, ': unable to rename to %r' % (abs_to))
 
668
 
 
669
    def move(self, rel_from, rel_to):
 
670
        """Move the item at rel_from to the location at rel_to"""
 
671
        path_from = self._remote_path(rel_from)
 
672
        path_to = self._remote_path(rel_to)
 
673
        self._rename_and_overwrite(path_from, path_to)
 
674
 
 
675
    def delete(self, relpath):
 
676
        """Delete the item at relpath"""
 
677
        path = self._remote_path(relpath)
 
678
        try:
 
679
            self._sftp.remove(path)
 
680
        except (IOError, paramiko.SSHException), e:
 
681
            self._translate_io_exception(e, path, ': unable to delete')
 
682
            
 
683
    def listable(self):
 
684
        """Return True if this store supports listing."""
 
685
        return True
 
686
 
 
687
    def list_dir(self, relpath):
 
688
        """
 
689
        Return a list of all files at the given location.
 
690
        """
 
691
        # does anything actually use this?
 
692
        # -- Unknown
 
693
        # This is at least used by copy_tree for remote upgrades.
 
694
        # -- David Allouche 2006-08-11
 
695
        path = self._remote_path(relpath)
 
696
        try:
 
697
            entries = self._sftp.listdir(path)
 
698
        except (IOError, paramiko.SSHException), e:
 
699
            self._translate_io_exception(e, path, ': failed to list_dir')
 
700
        return [urlutils.escape(entry) for entry in entries]
 
701
 
 
702
    def rmdir(self, relpath):
 
703
        """See Transport.rmdir."""
 
704
        path = self._remote_path(relpath)
 
705
        try:
 
706
            return self._sftp.rmdir(path)
 
707
        except (IOError, paramiko.SSHException), e:
 
708
            self._translate_io_exception(e, path, ': failed to rmdir')
 
709
 
 
710
    def stat(self, relpath):
 
711
        """Return the stat information for a file."""
 
712
        path = self._remote_path(relpath)
 
713
        try:
 
714
            return self._sftp.stat(path)
 
715
        except (IOError, paramiko.SSHException), e:
 
716
            self._translate_io_exception(e, path, ': unable to stat')
 
717
 
 
718
    def lock_read(self, relpath):
 
719
        """
 
720
        Lock the given file for shared (read) access.
 
721
        :return: A lock object, which has an unlock() member function
 
722
        """
 
723
        # FIXME: there should be something clever i can do here...
 
724
        class BogusLock(object):
 
725
            def __init__(self, path):
 
726
                self.path = path
 
727
            def unlock(self):
 
728
                pass
 
729
        return BogusLock(relpath)
 
730
 
 
731
    def lock_write(self, relpath):
 
732
        """
 
733
        Lock the given file for exclusive (write) access.
 
734
        WARNING: many transports do not support this, so trying avoid using it
 
735
 
 
736
        :return: A lock object, which has an unlock() member function
 
737
        """
 
738
        # This is a little bit bogus, but basically, we create a file
 
739
        # which should not already exist, and if it does, we assume
 
740
        # that there is a lock, and if it doesn't, the we assume
 
741
        # that we have taken the lock.
 
742
        return SFTPLock(relpath, self)
 
743
 
 
744
    def _sftp_connect(self):
 
745
        """Connect to the remote sftp server.
 
746
        After this, self._sftp should have a valid connection (or
 
747
        we raise an TransportError 'could not connect').
 
748
 
 
749
        TODO: Raise a more reasonable ConnectionFailed exception
 
750
        """
 
751
        self._sftp = _sftp_connect(self._host, self._port, self._username,
 
752
                self._password)
 
753
 
 
754
    def _sftp_open_exclusive(self, abspath, mode=None):
 
755
        """Open a remote path exclusively.
 
756
 
 
757
        SFTP supports O_EXCL (SFTP_FLAG_EXCL), which fails if
 
758
        the file already exists. However it does not expose this
 
759
        at the higher level of SFTPClient.open(), so we have to
 
760
        sneak away with it.
 
761
 
 
762
        WARNING: This breaks the SFTPClient abstraction, so it
 
763
        could easily break against an updated version of paramiko.
 
764
 
 
765
        :param abspath: The remote absolute path where the file should be opened
 
766
        :param mode: The mode permissions bits for the new file
 
767
        """
 
768
        # TODO: jam 20060816 Paramiko >= 1.6.2 (probably earlier) supports
 
769
        #       using the 'x' flag to indicate SFTP_FLAG_EXCL.
 
770
        #       However, there is no way to set the permission mode at open 
 
771
        #       time using the sftp_client.file() functionality.
 
772
        path = self._sftp._adjust_cwd(abspath)
 
773
        # mutter('sftp abspath %s => %s', abspath, path)
 
774
        attr = SFTPAttributes()
 
775
        if mode is not None:
 
776
            attr.st_mode = mode
 
777
        omode = (SFTP_FLAG_WRITE | SFTP_FLAG_CREATE 
 
778
                | SFTP_FLAG_TRUNC | SFTP_FLAG_EXCL)
 
779
        try:
 
780
            t, msg = self._sftp._request(CMD_OPEN, path, omode, attr)
 
781
            if t != CMD_HANDLE:
 
782
                raise TransportError('Expected an SFTP handle')
 
783
            handle = msg.get_string()
 
784
            return SFTPFile(self._sftp, handle, 'wb', -1)
 
785
        except (paramiko.SSHException, IOError), e:
 
786
            self._translate_io_exception(e, abspath, ': unable to open',
 
787
                failure_exc=FileExists)
 
788
 
 
789
    def _can_roundtrip_unix_modebits(self):
 
790
        if sys.platform == 'win32':
 
791
            # anyone else?
 
792
            return False
 
793
        else:
 
794
            return True
 
795
 
 
796
# ------------- server test implementation --------------
 
797
import threading
 
798
 
 
799
from bzrlib.tests.stub_sftp import StubServer, StubSFTPServer
 
800
 
 
801
STUB_SERVER_KEY = """
 
802
-----BEGIN RSA PRIVATE KEY-----
 
803
MIICWgIBAAKBgQDTj1bqB4WmayWNPB+8jVSYpZYk80Ujvj680pOTh2bORBjbIAyz
 
804
oWGW+GUjzKxTiiPvVmxFgx5wdsFvF03v34lEVVhMpouqPAYQ15N37K/ir5XY+9m/
 
805
d8ufMCkjeXsQkKqFbAlQcnWMCRnOoPHS3I4vi6hmnDDeeYTSRvfLbW0fhwIBIwKB
 
806
gBIiOqZYaoqbeD9OS9z2K9KR2atlTxGxOJPXiP4ESqP3NVScWNwyZ3NXHpyrJLa0
 
807
EbVtzsQhLn6rF+TzXnOlcipFvjsem3iYzCpuChfGQ6SovTcOjHV9z+hnpXvQ/fon
 
808
soVRZY65wKnF7IAoUwTmJS9opqgrN6kRgCd3DASAMd1bAkEA96SBVWFt/fJBNJ9H
 
809
tYnBKZGw0VeHOYmVYbvMSstssn8un+pQpUm9vlG/bp7Oxd/m+b9KWEh2xPfv6zqU
 
810
avNwHwJBANqzGZa/EpzF4J8pGti7oIAPUIDGMtfIcmqNXVMckrmzQ2vTfqtkEZsA
 
811
4rE1IERRyiJQx6EJsz21wJmGV9WJQ5kCQQDwkS0uXqVdFzgHO6S++tjmjYcxwr3g
 
812
H0CoFYSgbddOT6miqRskOQF3DZVkJT3kyuBgU2zKygz52ukQZMqxCb1fAkASvuTv
 
813
qfpH87Qq5kQhNKdbbwbmd2NxlNabazPijWuphGTdW0VfJdWfklyS2Kr+iqrs/5wV
 
814
HhathJt636Eg7oIjAkA8ht3MQ+XSl9yIJIS8gVpbPxSw5OMfw0PjVE7tBdQruiSc
 
815
nvuQES5C9BMHjF39LZiGH1iLQy7FgdHyoP+eodI7
 
816
-----END RSA PRIVATE KEY-----
 
817
"""
 
818
 
 
819
 
 
820
class SocketListener(threading.Thread):
 
821
 
 
822
    def __init__(self, callback):
 
823
        threading.Thread.__init__(self)
 
824
        self._callback = callback
 
825
        self._socket = socket.socket()
 
826
        self._socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
 
827
        self._socket.bind(('localhost', 0))
 
828
        self._socket.listen(1)
 
829
        self.port = self._socket.getsockname()[1]
 
830
        self._stop_event = threading.Event()
 
831
 
 
832
    def stop(self):
 
833
        # called from outside this thread
 
834
        self._stop_event.set()
 
835
        # use a timeout here, because if the test fails, the server thread may
 
836
        # never notice the stop_event.
 
837
        self.join(5.0)
 
838
        self._socket.close()
 
839
 
 
840
    def run(self):
 
841
        while True:
 
842
            readable, writable_unused, exception_unused = \
 
843
                select.select([self._socket], [], [], 0.1)
 
844
            if self._stop_event.isSet():
 
845
                return
 
846
            if len(readable) == 0:
 
847
                continue
 
848
            try:
 
849
                s, addr_unused = self._socket.accept()
 
850
                # because the loopback socket is inline, and transports are
 
851
                # never explicitly closed, best to launch a new thread.
 
852
                threading.Thread(target=self._callback, args=(s,)).start()
 
853
            except socket.error, x:
 
854
                sys.excepthook(*sys.exc_info())
 
855
                warning('Socket error during accept() within unit test server'
 
856
                        ' thread: %r' % x)
 
857
            except Exception, x:
 
858
                # probably a failed test; unit test thread will log the
 
859
                # failure/error
 
860
                sys.excepthook(*sys.exc_info())
 
861
                warning('Exception from within unit test server thread: %r' % 
 
862
                        x)
 
863
 
 
864
 
 
865
class SocketDelay(object):
 
866
    """A socket decorator to make TCP appear slower.
 
867
 
 
868
    This changes recv, send, and sendall to add a fixed latency to each python
 
869
    call if a new roundtrip is detected. That is, when a recv is called and the
 
870
    flag new_roundtrip is set, latency is charged. Every send and send_all
 
871
    sets this flag.
 
872
 
 
873
    In addition every send, sendall and recv sleeps a bit per character send to
 
874
    simulate bandwidth.
 
875
 
 
876
    Not all methods are implemented, this is deliberate as this class is not a
 
877
    replacement for the builtin sockets layer. fileno is not implemented to
 
878
    prevent the proxy being bypassed. 
 
879
    """
 
880
 
 
881
    simulated_time = 0
 
882
    _proxied_arguments = dict.fromkeys([
 
883
        "close", "getpeername", "getsockname", "getsockopt", "gettimeout",
 
884
        "setblocking", "setsockopt", "settimeout", "shutdown"])
 
885
 
 
886
    def __init__(self, sock, latency, bandwidth=1.0, 
 
887
                 really_sleep=True):
 
888
        """ 
 
889
        :param bandwith: simulated bandwith (MegaBit)
 
890
        :param really_sleep: If set to false, the SocketDelay will just
 
891
        increase a counter, instead of calling time.sleep. This is useful for
 
892
        unittesting the SocketDelay.
 
893
        """
 
894
        self.sock = sock
 
895
        self.latency = latency
 
896
        self.really_sleep = really_sleep
 
897
        self.time_per_byte = 1 / (bandwidth / 8.0 * 1024 * 1024) 
 
898
        self.new_roundtrip = False
 
899
 
 
900
    def sleep(self, s):
 
901
        if self.really_sleep:
 
902
            time.sleep(s)
 
903
        else:
 
904
            SocketDelay.simulated_time += s
 
905
 
 
906
    def __getattr__(self, attr):
 
907
        if attr in SocketDelay._proxied_arguments:
 
908
            return getattr(self.sock, attr)
 
909
        raise AttributeError("'SocketDelay' object has no attribute %r" %
 
910
                             attr)
 
911
 
 
912
    def dup(self):
 
913
        return SocketDelay(self.sock.dup(), self.latency, self.time_per_byte,
 
914
                           self._sleep)
 
915
 
 
916
    def recv(self, *args):
 
917
        data = self.sock.recv(*args)
 
918
        if data and self.new_roundtrip:
 
919
            self.new_roundtrip = False
 
920
            self.sleep(self.latency)
 
921
        self.sleep(len(data) * self.time_per_byte)
 
922
        return data
 
923
 
 
924
    def sendall(self, data, flags=0):
 
925
        if not self.new_roundtrip:
 
926
            self.new_roundtrip = True
 
927
            self.sleep(self.latency)
 
928
        self.sleep(len(data) * self.time_per_byte)
 
929
        return self.sock.sendall(data, flags)
 
930
 
 
931
    def send(self, data, flags=0):
 
932
        if not self.new_roundtrip:
 
933
            self.new_roundtrip = True
 
934
            self.sleep(self.latency)
 
935
        bytes_sent = self.sock.send(data, flags)
 
936
        self.sleep(bytes_sent * self.time_per_byte)
 
937
        return bytes_sent
 
938
 
 
939
 
 
940
class SFTPServer(Server):
 
941
    """Common code for SFTP server facilities."""
 
942
 
 
943
    def __init__(self):
 
944
        self._original_vendor = None
 
945
        self._homedir = None
 
946
        self._server_homedir = None
 
947
        self._listener = None
 
948
        self._root = None
 
949
        self._vendor = ssh.ParamikoVendor()
 
950
        # sftp server logs
 
951
        self.logs = []
 
952
        self.add_latency = 0
 
953
 
 
954
    def _get_sftp_url(self, path):
 
955
        """Calculate an sftp url to this server for path."""
 
956
        return 'sftp://foo:bar@localhost:%d/%s' % (self._listener.port, path)
 
957
 
 
958
    def log(self, message):
 
959
        """StubServer uses this to log when a new server is created."""
 
960
        self.logs.append(message)
 
961
 
 
962
    def _run_server_entry(self, sock):
 
963
        """Entry point for all implementations of _run_server.
 
964
        
 
965
        If self.add_latency is > 0.000001 then sock is given a latency adding
 
966
        decorator.
 
967
        """
 
968
        if self.add_latency > 0.000001:
 
969
            sock = SocketDelay(sock, self.add_latency)
 
970
        return self._run_server(sock)
 
971
 
 
972
    def _run_server(self, s):
 
973
        ssh_server = paramiko.Transport(s)
 
974
        key_file = pathjoin(self._homedir, 'test_rsa.key')
 
975
        f = open(key_file, 'w')
 
976
        f.write(STUB_SERVER_KEY)
 
977
        f.close()
 
978
        host_key = paramiko.RSAKey.from_private_key_file(key_file)
 
979
        ssh_server.add_server_key(host_key)
 
980
        server = StubServer(self)
 
981
        ssh_server.set_subsystem_handler('sftp', paramiko.SFTPServer,
 
982
                                         StubSFTPServer, root=self._root,
 
983
                                         home=self._server_homedir)
 
984
        event = threading.Event()
 
985
        ssh_server.start_server(event, server)
 
986
        event.wait(5.0)
 
987
    
 
988
    def setUp(self):
 
989
        self._original_vendor = ssh._ssh_vendor
 
990
        ssh._ssh_vendor = self._vendor
 
991
        if sys.platform == 'win32':
 
992
            # Win32 needs to use the UNICODE api
 
993
            self._homedir = getcwd()
 
994
        else:
 
995
            # But Linux SFTP servers should just deal in bytestreams
 
996
            self._homedir = os.getcwd()
 
997
        if self._server_homedir is None:
 
998
            self._server_homedir = self._homedir
 
999
        self._root = '/'
 
1000
        if sys.platform == 'win32':
 
1001
            self._root = ''
 
1002
        self._listener = SocketListener(self._run_server_entry)
 
1003
        self._listener.setDaemon(True)
 
1004
        self._listener.start()
 
1005
 
 
1006
    def tearDown(self):
 
1007
        """See bzrlib.transport.Server.tearDown."""
 
1008
        self._listener.stop()
 
1009
        ssh._ssh_vendor = self._original_vendor
 
1010
 
 
1011
    def get_bogus_url(self):
 
1012
        """See bzrlib.transport.Server.get_bogus_url."""
 
1013
        # this is chosen to try to prevent trouble with proxies, wierd dns, etc
 
1014
        # we bind a random socket, so that we get a guaranteed unused port
 
1015
        # we just never listen on that port
 
1016
        s = socket.socket()
 
1017
        s.bind(('localhost', 0))
 
1018
        return 'sftp://%s:%s/' % s.getsockname()
 
1019
 
 
1020
 
 
1021
class SFTPFullAbsoluteServer(SFTPServer):
 
1022
    """A test server for sftp transports, using absolute urls and ssh."""
 
1023
 
 
1024
    def get_url(self):
 
1025
        """See bzrlib.transport.Server.get_url."""
 
1026
        return self._get_sftp_url(urlutils.escape(self._homedir[1:]))
 
1027
 
 
1028
 
 
1029
class SFTPServerWithoutSSH(SFTPServer):
 
1030
    """An SFTP server that uses a simple TCP socket pair rather than SSH."""
 
1031
 
 
1032
    def __init__(self):
 
1033
        super(SFTPServerWithoutSSH, self).__init__()
 
1034
        self._vendor = ssh.LoopbackVendor()
 
1035
 
 
1036
    def _run_server(self, sock):
 
1037
        # Re-import these as locals, so that they're still accessible during
 
1038
        # interpreter shutdown (when all module globals get set to None, leading
 
1039
        # to confusing errors like "'NoneType' object has no attribute 'error'".
 
1040
        import socket, errno
 
1041
        class FakeChannel(object):
 
1042
            def get_transport(self):
 
1043
                return self
 
1044
            def get_log_channel(self):
 
1045
                return 'paramiko'
 
1046
            def get_name(self):
 
1047
                return '1'
 
1048
            def get_hexdump(self):
 
1049
                return False
 
1050
            def close(self):
 
1051
                pass
 
1052
 
 
1053
        server = paramiko.SFTPServer(FakeChannel(), 'sftp', StubServer(self), StubSFTPServer,
 
1054
                                     root=self._root, home=self._server_homedir)
 
1055
        try:
 
1056
            server.start_subsystem('sftp', None, sock)
 
1057
        except socket.error, e:
 
1058
            if (len(e.args) > 0) and (e.args[0] == errno.EPIPE):
 
1059
                # it's okay for the client to disconnect abruptly
 
1060
                # (bug in paramiko 1.6: it should absorb this exception)
 
1061
                pass
 
1062
            else:
 
1063
                raise
 
1064
        except Exception, e:
 
1065
            import sys; sys.stderr.write('\nEXCEPTION %r\n\n' % e.__class__)
 
1066
        server.finish_subsystem()
 
1067
 
 
1068
 
 
1069
class SFTPAbsoluteServer(SFTPServerWithoutSSH):
 
1070
    """A test server for sftp transports, using absolute urls."""
 
1071
 
 
1072
    def get_url(self):
 
1073
        """See bzrlib.transport.Server.get_url."""
 
1074
        if sys.platform == 'win32':
 
1075
            return self._get_sftp_url(urlutils.escape(self._homedir))
 
1076
        else:
 
1077
            return self._get_sftp_url(urlutils.escape(self._homedir[1:]))
 
1078
 
 
1079
 
 
1080
class SFTPHomeDirServer(SFTPServerWithoutSSH):
 
1081
    """A test server for sftp transports, using homedir relative urls."""
 
1082
 
 
1083
    def get_url(self):
 
1084
        """See bzrlib.transport.Server.get_url."""
 
1085
        return self._get_sftp_url("~/")
 
1086
 
 
1087
 
 
1088
class SFTPSiblingAbsoluteServer(SFTPAbsoluteServer):
 
1089
    """A test servere for sftp transports, using absolute urls to non-home."""
 
1090
 
 
1091
    def setUp(self):
 
1092
        self._server_homedir = '/dev/noone/runs/tests/here'
 
1093
        super(SFTPSiblingAbsoluteServer, self).setUp()
 
1094
 
 
1095
 
 
1096
def _sftp_connect(host, port, username, password):
 
1097
    """Connect to the remote sftp server.
 
1098
 
 
1099
    :raises: a TransportError 'could not connect'.
 
1100
 
 
1101
    :returns: an paramiko.sftp_client.SFTPClient
 
1102
 
 
1103
    TODO: Raise a more reasonable ConnectionFailed exception
 
1104
    """
 
1105
    idx = (host, port, username)
 
1106
    try:
 
1107
        return _connected_hosts[idx]
 
1108
    except KeyError:
 
1109
        pass
 
1110
    
 
1111
    sftp = _sftp_connect_uncached(host, port, username, password)
 
1112
    _connected_hosts[idx] = sftp
 
1113
    return sftp
 
1114
 
 
1115
def _sftp_connect_uncached(host, port, username, password):
 
1116
    vendor = ssh._get_ssh_vendor()
 
1117
    sftp = vendor.connect_sftp(username, password, host, port)
 
1118
    return sftp
 
1119
 
 
1120
 
 
1121
def get_test_permutations():
 
1122
    """Return the permutations to be used in testing."""
 
1123
    return [(SFTPTransport, SFTPAbsoluteServer),
 
1124
            (SFTPTransport, SFTPHomeDirServer),
 
1125
            (SFTPTransport, SFTPSiblingAbsoluteServer),
 
1126
            ]