/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/transport/sftp.py

[merge] robertc's integration, updated tests to check for retcode=3

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011, 2016, 2017 Canonical Ltd
2
 
#
 
1
# Copyright (C) 2005 Robey Pointer <robey@lag.net>, Canonical Ltd
 
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
#
 
7
 
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
#
 
12
 
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
"""Implementation of Transport over SFTP, using paramiko."""
18
18
 
19
 
from __future__ import absolute_import
20
 
 
21
 
# TODO: Remove the transport-based lock_read and lock_write methods.  They'll
22
 
# then raise TransportNotPossible, which will break remote access to any
23
 
# formats which rely on OS-level locks.  That should be fine as those formats
24
 
# are pretty old, but these combinations may have to be removed from the test
25
 
# suite.  Those formats all date back to 0.7; so we should be able to remove
26
 
# these methods when we officially drop support for those formats.
27
 
 
28
 
import bisect
29
19
import errno
30
 
import itertools
 
20
import getpass
31
21
import os
32
 
import random
 
22
import re
33
23
import stat
34
24
import sys
35
 
import time
36
 
import warnings
37
 
 
38
 
from .. import (
39
 
    config,
40
 
    debug,
41
 
    errors,
42
 
    urlutils,
43
 
    )
44
 
from ..errors import (FileExists,
45
 
                      NoSuchFile,
46
 
                      TransportError,
47
 
                      LockError,
48
 
                      PathError,
49
 
                      ParamikoNotPresent,
50
 
                      )
51
 
from ..osutils import fancy_rename
52
 
from ..sixish import (
53
 
    zip,
54
 
    )
55
 
from ..trace import mutter, warning
56
 
from ..transport import (
57
 
    FileFileStream,
58
 
    _file_streams,
59
 
    ssh,
60
 
    ConnectedTransport,
61
 
    )
62
 
 
63
 
# Disable one particular warning that comes from paramiko in Python2.5; if
64
 
# this is emitted at the wrong time it tends to cause spurious test failures
65
 
# or at least noise in the test case::
66
 
#
67
 
# [1770/7639 in 86s, 1 known failures, 50 skipped, 2 missing features]
68
 
# test_permissions.TestSftpPermissions.test_new_files
69
 
# /var/lib/python-support/python2.5/paramiko/message.py:226: DeprecationWarning: integer argument expected, got float
70
 
#  self.packet.write(struct.pack('>I', n))
71
 
warnings.filterwarnings('ignore',
72
 
                        'integer argument expected, got float',
73
 
                        category=DeprecationWarning,
74
 
                        module='paramiko.message')
 
25
import urllib
 
26
 
 
27
from bzrlib.errors import (FileExists, 
 
28
                           TransportNotPossible, NoSuchFile, NonRelativePath,
 
29
                           TransportError)
 
30
from bzrlib.config import config_dir
 
31
from bzrlib.trace import mutter, warning, error
 
32
from bzrlib.transport import Transport, register_transport
75
33
 
76
34
try:
77
35
    import paramiko
78
 
except ImportError as e:
79
 
    raise ParamikoNotPresent(e)
80
 
else:
81
 
    from paramiko.sftp import (SFTP_FLAG_WRITE, SFTP_FLAG_CREATE,
82
 
                               SFTP_FLAG_EXCL, SFTP_FLAG_TRUNC,
83
 
                               CMD_HANDLE, CMD_OPEN)
84
 
    from paramiko.sftp_attr import SFTPAttributes
85
 
    from paramiko.sftp_file import SFTPFile
86
 
 
87
 
 
88
 
# GZ 2017-05-25: Some dark hackery to monkeypatch out issues with paramiko's
89
 
# Python 3 compatibility code. Replace broken b() and asbytes() code.
90
 
try:
91
 
    from paramiko.py3compat import b as _bad
92
 
    from paramiko.common import asbytes as _bad_asbytes
93
36
except ImportError:
 
37
    error('The SFTP transport requires paramiko.')
 
38
    raise
 
39
 
 
40
 
 
41
SYSTEM_HOSTKEYS = {}
 
42
BZR_HOSTKEYS = {}
 
43
 
 
44
def load_host_keys():
 
45
    """
 
46
    Load system host keys (probably doesn't work on windows) and any
 
47
    "discovered" keys from previous sessions.
 
48
    """
 
49
    global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
 
50
    try:
 
51
        SYSTEM_HOSTKEYS = paramiko.util.load_host_keys(os.path.expanduser('~/.ssh/known_hosts'))
 
52
    except Exception, e:
 
53
        mutter('failed to load system host keys: ' + str(e))
 
54
    bzr_hostkey_path = os.path.join(config_dir(), 'ssh_host_keys')
 
55
    try:
 
56
        BZR_HOSTKEYS = paramiko.util.load_host_keys(bzr_hostkey_path)
 
57
    except Exception, e:
 
58
        mutter('failed to load bzr host keys: ' + str(e))
 
59
        save_host_keys()
 
60
 
 
61
def save_host_keys():
 
62
    """
 
63
    Save "discovered" host keys in $(config)/ssh_host_keys/.
 
64
    """
 
65
    global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
 
66
    bzr_hostkey_path = os.path.join(config_dir(), 'ssh_host_keys')
 
67
    if not os.path.isdir(config_dir()):
 
68
        os.mkdir(config_dir())
 
69
    try:
 
70
        f = open(bzr_hostkey_path, 'w')
 
71
        f.write('# SSH host keys collected by bzr\n')
 
72
        for hostname, keys in BZR_HOSTKEYS.iteritems():
 
73
            for keytype, key in keys.iteritems():
 
74
                f.write('%s %s %s\n' % (hostname, keytype, key.get_base64()))
 
75
        f.close()
 
76
    except IOError, e:
 
77
        mutter('failed to save bzr host keys: ' + str(e))
 
78
 
 
79
 
 
80
 
 
81
class SFTPTransportError (TransportError):
94
82
    pass
95
 
else:
96
 
    def _b_for_broken_paramiko(s, encoding='utf8'):
97
 
        """Hacked b() that does not raise TypeError."""
98
 
        # https://github.com/paramiko/paramiko/issues/967
99
 
        if not isinstance(s, bytes):
100
 
            encode = getattr(s, 'encode', None)
101
 
            if encode is not None:
102
 
                return encode(encoding)
103
 
            # Would like to pass buffer objects along, but have to realise.
104
 
            tobytes = getattr(s, 'tobytes', None)
105
 
            if tobytes is not None:
106
 
                return tobytes()
107
 
        return s
108
 
 
109
 
    def _asbytes_for_broken_paramiko(s):
110
 
        """Hacked asbytes() that does not raise Exception."""
111
 
        # https://github.com/paramiko/paramiko/issues/968
112
 
        if not isinstance(s, bytes):
113
 
            encode = getattr(s, 'encode', None)
114
 
            if encode is not None:
115
 
                return encode('utf8')
116
 
            asbytes = getattr(s, 'asbytes', None)
117
 
            if asbytes is not None:
118
 
                return asbytes()
119
 
        return s
120
 
 
121
 
    _bad.__code__ = _b_for_broken_paramiko.__code__
122
 
    _bad_asbytes.__code__ = _asbytes_for_broken_paramiko.__code__
123
 
 
124
 
 
125
 
class SFTPLock(object):
126
 
    """This fakes a lock in a remote location.
127
 
 
128
 
    A present lock is indicated just by the existence of a file.  This
129
 
    doesn't work well on all transports and they are only used in
130
 
    deprecated storage formats.
131
 
    """
132
 
 
133
 
    __slots__ = ['path', 'lock_path', 'lock_file', 'transport']
134
 
 
135
 
    def __init__(self, path, transport):
136
 
        self.lock_file = None
137
 
        self.path = path
138
 
        self.lock_path = path + '.write-lock'
139
 
        self.transport = transport
140
 
        try:
141
 
            # RBC 20060103 FIXME should we be using private methods here ?
142
 
            abspath = transport._remote_path(self.lock_path)
143
 
            self.lock_file = transport._sftp_open_exclusive(abspath)
144
 
        except FileExists:
145
 
            raise LockError('File %r already locked' % (self.path,))
146
 
 
147
 
    def unlock(self):
148
 
        if not self.lock_file:
149
 
            return
150
 
        self.lock_file.close()
151
 
        self.lock_file = None
152
 
        try:
153
 
            self.transport.delete(self.lock_path)
154
 
        except (NoSuchFile,):
155
 
            # What specific errors should we catch here?
156
 
            pass
157
 
 
158
 
 
159
 
class _SFTPReadvHelper(object):
160
 
    """A class to help with managing the state of a readv request."""
161
 
 
162
 
    # See _get_requests for an explanation.
163
 
    _max_request_size = 32768
164
 
 
165
 
    def __init__(self, original_offsets, relpath, _report_activity):
166
 
        """Create a new readv helper.
167
 
 
168
 
        :param original_offsets: The original requests given by the caller of
169
 
            readv()
170
 
        :param relpath: The name of the file (if known)
171
 
        :param _report_activity: A Transport._report_activity bound method,
172
 
            to be called as data arrives.
173
 
        """
174
 
        self.original_offsets = list(original_offsets)
175
 
        self.relpath = relpath
176
 
        self._report_activity = _report_activity
177
 
 
178
 
    def _get_requests(self):
179
 
        """Break up the offsets into individual requests over sftp.
180
 
 
181
 
        The SFTP spec only requires implementers to support 32kB requests. We
182
 
        could try something larger (openssh supports 64kB), but then we have to
183
 
        handle requests that fail.
184
 
        So instead, we just break up our maximum chunks into 32kB chunks, and
185
 
        asyncronously requests them.
186
 
        Newer versions of paramiko would do the chunking for us, but we want to
187
 
        start processing results right away, so we do it ourselves.
188
 
        """
189
 
        # TODO: Because we issue async requests, we don't 'fudge' any extra
190
 
        #       data.  I'm not 100% sure that is the best choice.
191
 
 
192
 
        # The first thing we do, is to collapse the individual requests as much
193
 
        # as possible, so we don't issues requests <32kB
194
 
        sorted_offsets = sorted(self.original_offsets)
195
 
        coalesced = list(ConnectedTransport._coalesce_offsets(sorted_offsets,
196
 
                                                              limit=0, fudge_factor=0))
197
 
        requests = []
198
 
        for c_offset in coalesced:
199
 
            start = c_offset.start
200
 
            size = c_offset.length
201
 
 
202
 
            # Break this up into 32kB requests
203
 
            while size > 0:
204
 
                next_size = min(size, self._max_request_size)
205
 
                requests.append((start, next_size))
206
 
                size -= next_size
207
 
                start += next_size
208
 
        if 'sftp' in debug.debug_flags:
209
 
            mutter('SFTP.readv(%s) %s offsets => %s coalesced => %s requests',
210
 
                   self.relpath, len(sorted_offsets), len(coalesced),
211
 
                   len(requests))
212
 
        return requests
213
 
 
214
 
    def request_and_yield_offsets(self, fp):
215
 
        """Request the data from the remote machine, yielding the results.
216
 
 
217
 
        :param fp: A Paramiko SFTPFile object that supports readv.
218
 
        :return: Yield the data requested by the original readv caller, one by
219
 
            one.
220
 
        """
221
 
        requests = self._get_requests()
222
 
        offset_iter = iter(self.original_offsets)
223
 
        cur_offset, cur_size = next(offset_iter)
224
 
        # paramiko .readv() yields strings that are in the order of the requests
225
 
        # So we track the current request to know where the next data is
226
 
        # being returned from.
227
 
        input_start = None
228
 
        last_end = None
229
 
        buffered_data = []
230
 
        buffered_len = 0
231
 
 
232
 
        # This is used to buffer chunks which we couldn't process yet
233
 
        # It is (start, end, data) tuples.
234
 
        data_chunks = []
235
 
        # Create an 'unlimited' data stream, so we stop based on requests,
236
 
        # rather than just because the data stream ended. This lets us detect
237
 
        # short readv.
238
 
        data_stream = itertools.chain(fp.readv(requests),
239
 
                                      itertools.repeat(None))
240
 
        for (start, length), data in zip(requests, data_stream):
241
 
            if data is None:
242
 
                if cur_coalesced is not None:
243
 
                    raise errors.ShortReadvError(self.relpath,
244
 
                                                 start, length, len(data))
245
 
            if len(data) != length:
246
 
                raise errors.ShortReadvError(self.relpath,
247
 
                                             start, length, len(data))
248
 
            self._report_activity(length, 'read')
249
 
            if last_end is None:
250
 
                # This is the first request, just buffer it
251
 
                buffered_data = [data]
252
 
                buffered_len = length
253
 
                input_start = start
254
 
            elif start == last_end:
255
 
                # The data we are reading fits neatly on the previous
256
 
                # buffer, so this is all part of a larger coalesced range.
257
 
                buffered_data.append(data)
258
 
                buffered_len += length
 
83
 
 
84
 
 
85
class SFTPTransport (Transport):
 
86
    """
 
87
    Transport implementation for SFTP access.
 
88
    """
 
89
 
 
90
    _url_matcher = re.compile(r'^sftp://([^:@]*(:[^@]*)?@)?(.*?)(:\d+)?(/.*)?$')
 
91
    
 
92
    def __init__(self, base, clone_from=None):
 
93
        assert base.startswith('sftp://')
 
94
        super(SFTPTransport, self).__init__(base)
 
95
        self._parse_url(base)
 
96
        if clone_from is None:
 
97
            self._sftp_connect()
 
98
        else:
 
99
            # use the same ssh connection, etc
 
100
            self._sftp = clone_from._sftp
 
101
        # super saves 'self.base'
 
102
    
 
103
    def should_cache(self):
 
104
        """
 
105
        Return True if the data pulled across should be cached locally.
 
106
        """
 
107
        return True
 
108
 
 
109
    def clone(self, offset=None):
 
110
        """
 
111
        Return a new SFTPTransport with root at self.base + offset.
 
112
        We share the same SFTP session between such transports, because it's
 
113
        fairly expensive to set them up.
 
114
        """
 
115
        if offset is None:
 
116
            return SFTPTransport(self.base, self)
 
117
        else:
 
118
            return SFTPTransport(self.abspath(offset), self)
 
119
 
 
120
    def abspath(self, relpath):
 
121
        """
 
122
        Return the full url to the given relative path.
 
123
        
 
124
        @param relpath: the relative path or path components
 
125
        @type relpath: str or list
 
126
        """
 
127
        return self._unparse_url(self._abspath(relpath))
 
128
    
 
129
    def _abspath(self, relpath):
 
130
        """Return the absolute path segment without the SFTP URL."""
 
131
        # FIXME: share the common code across transports
 
132
        assert isinstance(relpath, basestring)
 
133
        relpath = [urllib.unquote(relpath)]
 
134
        basepath = self._path.split('/')
 
135
        if len(basepath) > 0 and basepath[-1] == '':
 
136
            basepath = basepath[:-1]
 
137
 
 
138
        for p in relpath:
 
139
            if p == '..':
 
140
                if len(basepath) == 0:
 
141
                    # In most filesystems, a request for the parent
 
142
                    # of root, just returns root.
 
143
                    continue
 
144
                basepath.pop()
 
145
            elif p == '.':
 
146
                continue # No-op
259
147
            else:
260
 
                # We have an 'interrupt' in the data stream. So we know we are
261
 
                # at a request boundary.
262
 
                if buffered_len > 0:
263
 
                    # We haven't consumed the buffer so far, so put it into
264
 
                    # data_chunks, and continue.
265
 
                    buffered = b''.join(buffered_data)
266
 
                    data_chunks.append((input_start, buffered))
267
 
                input_start = start
268
 
                buffered_data = [data]
269
 
                buffered_len = length
270
 
            last_end = start + length
271
 
            if input_start == cur_offset and cur_size <= buffered_len:
272
 
                # Simplify the next steps a bit by transforming buffered_data
273
 
                # into a single string. We also have the nice property that
274
 
                # when there is only one string ''.join([x]) == x, so there is
275
 
                # no data copying.
276
 
                buffered = b''.join(buffered_data)
277
 
                # Clean out buffered data so that we keep memory
278
 
                # consumption low
279
 
                del buffered_data[:]
280
 
                buffered_offset = 0
281
 
                # TODO: We *could* also consider the case where cur_offset is in
282
 
                #       in the buffered range, even though it doesn't *start*
283
 
                #       the buffered range. But for packs we pretty much always
284
 
                #       read in order, so you won't get any extra data in the
285
 
                #       middle.
286
 
                while (input_start == cur_offset
287
 
                       and (buffered_offset + cur_size) <= buffered_len):
288
 
                    # We've buffered enough data to process this request, spit it
289
 
                    # out
290
 
                    cur_data = buffered[buffered_offset:buffered_offset + cur_size]
291
 
                    # move the direct pointer into our buffered data
292
 
                    buffered_offset += cur_size
293
 
                    # Move the start-of-buffer pointer
294
 
                    input_start += cur_size
295
 
                    # Yield the requested data
296
 
                    yield cur_offset, cur_data
297
 
                    try:
298
 
                        cur_offset, cur_size = next(offset_iter)
299
 
                    except StopIteration:
300
 
                        return
301
 
                # at this point, we've consumed as much of buffered as we can,
302
 
                # so break off the portion that we consumed
303
 
                if buffered_offset == len(buffered_data):
304
 
                    # No tail to leave behind
305
 
                    buffered_data = []
306
 
                    buffered_len = 0
307
 
                else:
308
 
                    buffered = buffered[buffered_offset:]
309
 
                    buffered_data = [buffered]
310
 
                    buffered_len = len(buffered)
311
 
        # now that the data stream is done, close the handle
312
 
        fp.close()
313
 
        if buffered_len:
314
 
            buffered = b''.join(buffered_data)
315
 
            del buffered_data[:]
316
 
            data_chunks.append((input_start, buffered))
317
 
        if data_chunks:
318
 
            if 'sftp' in debug.debug_flags:
319
 
                mutter('SFTP readv left with %d out-of-order bytes',
320
 
                       sum(len(x[1]) for x in data_chunks))
321
 
            # We've processed all the readv data, at this point, anything we
322
 
            # couldn't process is in data_chunks. This doesn't happen often, so
323
 
            # this code path isn't optimized
324
 
            # We use an interesting process for data_chunks
325
 
            # Specifically if we have "bisect_left([(start, len, entries)],
326
 
            #                                       (qstart,)])
327
 
            # If start == qstart, then we get the specific node. Otherwise we
328
 
            # get the previous node
329
 
            while True:
330
 
                idx = bisect.bisect_left(data_chunks, (cur_offset,))
331
 
                if idx < len(data_chunks) and data_chunks[idx][0] == cur_offset:
332
 
                    # The data starts here
333
 
                    data = data_chunks[idx][1][:cur_size]
334
 
                elif idx > 0:
335
 
                    # The data is in a portion of a previous page
336
 
                    idx -= 1
337
 
                    sub_offset = cur_offset - data_chunks[idx][0]
338
 
                    data = data_chunks[idx][1]
339
 
                    data = data[sub_offset:sub_offset + cur_size]
340
 
                else:
341
 
                    # We are missing the page where the data should be found,
342
 
                    # something is wrong
343
 
                    data = ''
344
 
                if len(data) != cur_size:
345
 
                    raise AssertionError('We must have miscalulated.'
346
 
                                         ' We expected %d bytes, but only found %d'
347
 
                                         % (cur_size, len(data)))
348
 
                yield cur_offset, data
349
 
                try:
350
 
                    cur_offset, cur_size = next(offset_iter)
351
 
                except StopIteration:
352
 
                    return
353
 
 
354
 
 
355
 
class SFTPTransport(ConnectedTransport):
356
 
    """Transport implementation for SFTP access."""
357
 
 
358
 
    # TODO: jam 20060717 Conceivably these could be configurable, either
359
 
    #       by auto-tuning at run-time, or by a configuration (per host??)
360
 
    #       but the performance curve is pretty flat, so just going with
361
 
    #       reasonable defaults.
362
 
    _max_readv_combine = 200
363
 
    # Having to round trip to the server means waiting for a response,
364
 
    # so it is better to download extra bytes.
365
 
    # 8KiB had good performance for both local and remote network operations
366
 
    _bytes_to_read_before_seek = 8192
367
 
 
368
 
    # The sftp spec says that implementations SHOULD allow reads
369
 
    # to be at least 32K. paramiko.readv() does an async request
370
 
    # for the chunks. So we need to keep it within a single request
371
 
    # size for paramiko <= 1.6.1. paramiko 1.6.2 will probably chop
372
 
    # up the request itself, rather than us having to worry about it
373
 
    _max_request_size = 32768
374
 
 
375
 
    def _remote_path(self, relpath):
376
 
        """Return the path to be passed along the sftp protocol for relpath.
377
 
 
378
 
        :param relpath: is a urlencoded string.
379
 
        """
380
 
        remote_path = self._parsed_url.clone(relpath).path
381
 
        # the initial slash should be removed from the path, and treated as a
382
 
        # homedir relative path (the path begins with a double slash if it is
383
 
        # absolute).  see draft-ietf-secsh-scp-sftp-ssh-uri-03.txt
384
 
        # RBC 20060118 we are not using this as its too user hostile. instead
385
 
        # we are following lftp and using /~/foo to mean '~/foo'
386
 
        # vila--20070602 and leave absolute paths begin with a single slash.
387
 
        if remote_path.startswith('/~/'):
388
 
            remote_path = remote_path[3:]
389
 
        elif remote_path == '/~':
390
 
            remote_path = ''
391
 
        return remote_path
392
 
 
393
 
    def _create_connection(self, credentials=None):
394
 
        """Create a new connection with the provided credentials.
395
 
 
396
 
        :param credentials: The credentials needed to establish the connection.
397
 
 
398
 
        :return: The created connection and its associated credentials.
399
 
 
400
 
        The credentials are only the password as it may have been entered
401
 
        interactively by the user and may be different from the one provided
402
 
        in base url at transport creation time.
403
 
        """
404
 
        if credentials is None:
405
 
            password = self._parsed_url.password
406
 
        else:
407
 
            password = credentials
408
 
 
409
 
        vendor = ssh._get_ssh_vendor()
410
 
        user = self._parsed_url.user
411
 
        if user is None:
412
 
            auth = config.AuthenticationConfig()
413
 
            user = auth.get_user('ssh', self._parsed_url.host,
414
 
                                 self._parsed_url.port)
415
 
        connection = vendor.connect_sftp(self._parsed_url.user, password,
416
 
                                         self._parsed_url.host, self._parsed_url.port)
417
 
        return connection, (user, password)
418
 
 
419
 
    def disconnect(self):
420
 
        connection = self._get_connection()
421
 
        if connection is not None:
422
 
            connection.close()
423
 
 
424
 
    def _get_sftp(self):
425
 
        """Ensures that a connection is established"""
426
 
        connection = self._get_connection()
427
 
        if connection is None:
428
 
            # First connection ever
429
 
            connection, credentials = self._create_connection()
430
 
            self._set_connection(connection, credentials)
431
 
        return connection
 
148
                basepath.append(p)
 
149
 
 
150
        path = '/'.join(basepath)
 
151
        if len(path) and path[0] != '/':
 
152
            path = '/' + path
 
153
        return path
 
154
 
 
155
    def relpath(self, abspath):
 
156
        # FIXME: this is identical to HttpTransport -- share it
 
157
        if not abspath.startswith(self.base):
 
158
            raise NonRelativePath('path %r is not under base URL %r'
 
159
                           % (abspath, self.base))
 
160
        pl = len(self.base)
 
161
        return abspath[pl:].lstrip('/')
432
162
 
433
163
    def has(self, relpath):
434
164
        """
435
165
        Does the target location exist?
436
166
        """
437
167
        try:
438
 
            self._get_sftp().stat(self._remote_path(relpath))
439
 
            # stat result is about 20 bytes, let's say
440
 
            self._report_activity(20, 'read')
 
168
            self._sftp.stat(self._abspath(relpath))
441
169
            return True
442
170
        except IOError:
443
171
            return False
444
172
 
445
 
    def get(self, relpath):
446
 
        """Get the file at the given relative path.
 
173
    def get(self, relpath, decode=False):
 
174
        """
 
175
        Get the file at the given relative path.
447
176
 
448
177
        :param relpath: The relative path to the file
449
178
        """
450
179
        try:
451
 
            path = self._remote_path(relpath)
452
 
            f = self._get_sftp().file(path, mode='rb')
453
 
            size = f.stat().st_size
454
 
            if getattr(f, 'prefetch', None) is not None:
455
 
                f.prefetch(size)
456
 
            return f
457
 
        except (IOError, paramiko.SSHException) as e:
458
 
            self._translate_io_exception(e, path, ': error retrieving',
459
 
                                         failure_exc=errors.ReadError)
460
 
 
461
 
    def get_bytes(self, relpath):
462
 
        # reimplement this here so that we can report how many bytes came back
463
 
        with self.get(relpath) as f:
464
 
            bytes = f.read()
465
 
            self._report_activity(len(bytes), 'read')
466
 
            return bytes
467
 
 
468
 
    def _readv(self, relpath, offsets):
469
 
        """See Transport.readv()"""
470
 
        # We overload the default readv() because we want to use a file
471
 
        # that does not have prefetch enabled.
472
 
        # Also, if we have a new paramiko, it implements an async readv()
473
 
        if not offsets:
474
 
            return
475
 
 
476
 
        try:
477
 
            path = self._remote_path(relpath)
478
 
            fp = self._get_sftp().file(path, mode='rb')
479
 
            readv = getattr(fp, 'readv', None)
480
 
            if readv:
481
 
                return self._sftp_readv(fp, offsets, relpath)
482
 
            if 'sftp' in debug.debug_flags:
483
 
                mutter('seek and read %s offsets', len(offsets))
484
 
            return self._seek_and_read(fp, offsets, relpath)
485
 
        except (IOError, paramiko.SSHException) as e:
486
 
            self._translate_io_exception(e, path, ': error retrieving')
487
 
 
488
 
    def recommended_page_size(self):
489
 
        """See Transport.recommended_page_size().
490
 
 
491
 
        For SFTP we suggest a large page size to reduce the overhead
492
 
        introduced by latency.
493
 
        """
494
 
        return 64 * 1024
495
 
 
496
 
    def _sftp_readv(self, fp, offsets, relpath):
497
 
        """Use the readv() member of fp to do async readv.
498
 
 
499
 
        Then read them using paramiko.readv(). paramiko.readv()
500
 
        does not support ranges > 64K, so it caps the request size, and
501
 
        just reads until it gets all the stuff it wants.
502
 
        """
503
 
        helper = _SFTPReadvHelper(offsets, relpath, self._report_activity)
504
 
        return helper.request_and_yield_offsets(fp)
505
 
 
506
 
    def put_file(self, relpath, f, mode=None):
507
 
        """
508
 
        Copy the file-like object into the location.
 
180
            path = self._abspath(relpath)
 
181
            return self._sftp.file(path)
 
182
        except (IOError, paramiko.SSHException), x:
 
183
            raise NoSuchFile('Error retrieving %s: %s' % (path, str(x)), x)
 
184
 
 
185
    def get_partial(self, relpath, start, length=None):
 
186
        """
 
187
        Get just part of a file.
 
188
 
 
189
        :param relpath: Path to the file, relative to base
 
190
        :param start: The starting position to read from
 
191
        :param length: The length to read. A length of None indicates
 
192
                       read to the end of the file.
 
193
        :return: A file-like object containing at least the specified bytes.
 
194
                 Some implementations may return objects which can be read
 
195
                 past this length, but this is not guaranteed.
 
196
        """
 
197
        f = self.get(relpath)
 
198
        f.seek(start)
 
199
        return f
 
200
 
 
201
    def put(self, relpath, f):
 
202
        """
 
203
        Copy the file-like or string object into the location.
509
204
 
510
205
        :param relpath: Location to put the contents, relative to base.
511
 
        :param f:       File-like object.
512
 
        :param mode: The final mode for the file
 
206
        :param f:       File-like or string object.
513
207
        """
514
 
        final_path = self._remote_path(relpath)
515
 
        return self._put(final_path, f, mode=mode)
516
 
 
517
 
    def _put(self, abspath, f, mode=None):
518
 
        """Helper function so both put() and copy_abspaths can reuse the code"""
519
 
        tmp_abspath = '%s.tmp.%.9f.%d.%d' % (abspath, time.time(),
520
 
                                             os.getpid(), random.randint(0, 0x7FFFFFFF))
521
 
        fout = self._sftp_open_exclusive(tmp_abspath, mode=mode)
522
 
        closed = False
523
 
        try:
524
 
            try:
525
 
                fout.set_pipelined(True)
526
 
                length = self._pump(f, fout)
527
 
            except (IOError, paramiko.SSHException) as e:
528
 
                self._translate_io_exception(e, tmp_abspath)
529
 
            # XXX: This doesn't truly help like we would like it to.
530
 
            #      The problem is that openssh strips sticky bits. So while we
531
 
            #      can properly set group write permission, we lose the group
532
 
            #      sticky bit. So it is probably best to stop chmodding, and
533
 
            #      just tell users that they need to set the umask correctly.
534
 
            #      The attr.st_mode = mode, in _sftp_open_exclusive
535
 
            #      will handle when the user wants the final mode to be more
536
 
            #      restrictive. And then we avoid a round trip. Unless
537
 
            #      paramiko decides to expose an async chmod()
538
 
 
539
 
            # This is designed to chmod() right before we close.
540
 
            # Because we set_pipelined() earlier, theoretically we might
541
 
            # avoid the round trip for fout.close()
542
 
            if mode is not None:
543
 
                self._get_sftp().chmod(tmp_abspath, mode)
 
208
        # FIXME: should do something atomic or locking here, this is unsafe
 
209
        try:
 
210
            path = self._abspath(relpath)
 
211
            fout = self._sftp.file(path, 'wb')
 
212
        except IOError, e:
 
213
            self._translate_io_exception(e, relpath)
 
214
        except (IOError, paramiko.SSHException), x:
 
215
            raise SFTPTransportError('Unable to write file %r' % (path,), x)
 
216
        try:
 
217
            self._pump(f, fout)
 
218
        finally:
544
219
            fout.close()
545
 
            closed = True
546
 
            self._rename_and_overwrite(tmp_abspath, abspath)
547
 
            return length
548
 
        except Exception as e:
549
 
            # If we fail, try to clean up the temporary file
550
 
            # before we throw the exception
551
 
            # but don't let another exception mess things up
552
 
            # Write out the traceback, because otherwise
553
 
            # the catch and throw destroys it
554
 
            import traceback
555
 
            mutter(traceback.format_exc())
556
 
            try:
557
 
                if not closed:
558
 
                    fout.close()
559
 
                self._get_sftp().remove(tmp_abspath)
560
 
            except:
561
 
                # raise the saved except
562
 
                raise e
563
 
            # raise the original with its traceback if we can.
564
 
            raise
565
 
 
566
 
    def _put_non_atomic_helper(self, relpath, writer, mode=None,
567
 
                               create_parent_dir=False,
568
 
                               dir_mode=None):
569
 
        abspath = self._remote_path(relpath)
570
 
 
571
 
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
572
 
        #       set the file mode at create time. If it does, use it.
573
 
        #       But for now, we just chmod later anyway.
574
 
 
575
 
        def _open_and_write_file():
576
 
            """Try to open the target file, raise error on failure"""
577
 
            fout = None
578
 
            try:
579
 
                try:
580
 
                    fout = self._get_sftp().file(abspath, mode='wb')
581
 
                    fout.set_pipelined(True)
582
 
                    writer(fout)
583
 
                except (paramiko.SSHException, IOError) as e:
584
 
                    self._translate_io_exception(e, abspath,
585
 
                                                 ': unable to open')
586
 
 
587
 
                # This is designed to chmod() right before we close.
588
 
                # Because we set_pipelined() earlier, theoretically we might
589
 
                # avoid the round trip for fout.close()
590
 
                if mode is not None:
591
 
                    self._get_sftp().chmod(abspath, mode)
592
 
            finally:
593
 
                if fout is not None:
594
 
                    fout.close()
595
 
 
596
 
        if not create_parent_dir:
597
 
            _open_and_write_file()
598
 
            return
599
 
 
600
 
        # Try error handling to create the parent directory if we need to
601
 
        try:
602
 
            _open_and_write_file()
603
 
        except NoSuchFile:
604
 
            # Try to create the parent directory, and then go back to
605
 
            # writing the file
606
 
            parent_dir = os.path.dirname(abspath)
607
 
            self._mkdir(parent_dir, dir_mode)
608
 
            _open_and_write_file()
609
 
 
610
 
    def put_file_non_atomic(self, relpath, f, mode=None,
611
 
                            create_parent_dir=False,
612
 
                            dir_mode=None):
613
 
        """Copy the file-like object into the target location.
614
 
 
615
 
        This function is not strictly safe to use. It is only meant to
616
 
        be used when you already know that the target does not exist.
617
 
        It is not safe, because it will open and truncate the remote
618
 
        file. So there may be a time when the file has invalid contents.
619
 
 
620
 
        :param relpath: The remote location to put the contents.
621
 
        :param f:       File-like object.
622
 
        :param mode:    Possible access permissions for new file.
623
 
                        None means do not set remote permissions.
624
 
        :param create_parent_dir: If we cannot create the target file because
625
 
                        the parent directory does not exist, go ahead and
626
 
                        create it, and then try again.
627
 
        """
628
 
        def writer(fout):
629
 
            self._pump(f, fout)
630
 
        self._put_non_atomic_helper(relpath, writer, mode=mode,
631
 
                                    create_parent_dir=create_parent_dir,
632
 
                                    dir_mode=dir_mode)
633
 
 
634
 
    def put_bytes_non_atomic(self, relpath, raw_bytes, mode=None,
635
 
                             create_parent_dir=False,
636
 
                             dir_mode=None):
637
 
        if not isinstance(raw_bytes, bytes):
638
 
            raise TypeError(
639
 
                'raw_bytes must be a plain string, not %s' % type(raw_bytes))
640
 
 
641
 
        def writer(fout):
642
 
            fout.write(raw_bytes)
643
 
        self._put_non_atomic_helper(relpath, writer, mode=mode,
644
 
                                    create_parent_dir=create_parent_dir,
645
 
                                    dir_mode=dir_mode)
646
220
 
647
221
    def iter_files_recursive(self):
648
222
        """Walk the relative paths of all files in this transport."""
649
 
        # progress is handled by list_dir
650
223
        queue = list(self.list_dir('.'))
651
224
        while queue:
652
 
            relpath = queue.pop(0)
 
225
            relpath = urllib.quote(queue.pop(0))
653
226
            st = self.stat(relpath)
654
227
            if stat.S_ISDIR(st.st_mode):
655
228
                for i, basename in enumerate(self.list_dir(relpath)):
656
 
                    queue.insert(i, relpath + '/' + basename)
 
229
                    queue.insert(i, relpath+'/'+basename)
657
230
            else:
658
231
                yield relpath
659
232
 
660
 
    def _mkdir(self, abspath, mode=None):
661
 
        if mode is None:
662
 
            local_mode = 0o777
663
 
        else:
664
 
            local_mode = mode
665
 
        try:
666
 
            self._report_activity(len(abspath), 'write')
667
 
            self._get_sftp().mkdir(abspath, local_mode)
668
 
            self._report_activity(1, 'read')
669
 
            if mode is not None:
670
 
                # chmod a dir through sftp will erase any sgid bit set
671
 
                # on the server side.  So, if the bit mode are already
672
 
                # set, avoid the chmod.  If the mode is not fine but
673
 
                # the sgid bit is set, report a warning to the user
674
 
                # with the umask fix.
675
 
                stat = self._get_sftp().lstat(abspath)
676
 
                mode = mode & 0o777  # can't set special bits anyway
677
 
                if mode != stat.st_mode & 0o777:
678
 
                    if stat.st_mode & 0o6000:
679
 
                        warning('About to chmod %s over sftp, which will result'
680
 
                                ' in its suid or sgid bits being cleared.  If'
681
 
                                ' you want to preserve those bits, change your '
682
 
                                ' environment on the server to use umask 0%03o.'
683
 
                                % (abspath, 0o777 - mode))
684
 
                    self._get_sftp().chmod(abspath, mode=mode)
685
 
        except (paramiko.SSHException, IOError) as e:
686
 
            self._translate_io_exception(e, abspath, ': unable to mkdir',
687
 
                                         failure_exc=FileExists)
688
 
 
689
 
    def mkdir(self, relpath, mode=None):
 
233
    def mkdir(self, relpath):
690
234
        """Create a directory at the given path."""
691
 
        self._mkdir(self._remote_path(relpath), mode=mode)
692
 
 
693
 
    def open_write_stream(self, relpath, mode=None):
694
 
        """See Transport.open_write_stream."""
695
 
        # initialise the file to zero-length
696
 
        # this is three round trips, but we don't use this
697
 
        # api more than once per write_group at the moment so
698
 
        # it is a tolerable overhead. Better would be to truncate
699
 
        # the file after opening. RBC 20070805
700
 
        self.put_bytes_non_atomic(relpath, b"", mode)
701
 
        abspath = self._remote_path(relpath)
702
 
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
703
 
        #       set the file mode at create time. If it does, use it.
704
 
        #       But for now, we just chmod later anyway.
705
 
        handle = None
706
235
        try:
707
 
            handle = self._get_sftp().file(abspath, mode='wb')
708
 
            handle.set_pipelined(True)
709
 
        except (paramiko.SSHException, IOError) as e:
710
 
            self._translate_io_exception(e, abspath,
711
 
                                         ': unable to open')
712
 
        _file_streams[self.abspath(relpath)] = handle
713
 
        return FileFileStream(self, relpath, handle)
714
 
 
715
 
    def _translate_io_exception(self, e, path, more_info='',
716
 
                                failure_exc=PathError):
717
 
        """Translate a paramiko or IOError into a friendlier exception.
718
 
 
719
 
        :param e: The original exception
720
 
        :param path: The path in question when the error is raised
721
 
        :param more_info: Extra information that can be included,
722
 
                          such as what was going on
723
 
        :param failure_exc: Paramiko has the super fun ability to raise completely
724
 
                           opaque errors that just set "e.args = ('Failure',)" with
725
 
                           no more information.
726
 
                           If this parameter is set, it defines the exception
727
 
                           to raise in these cases.
728
 
        """
 
236
            path = self._abspath(relpath)
 
237
            self._sftp.mkdir(path)
 
238
        except IOError, e:
 
239
            self._translate_io_exception(e, relpath)
 
240
        except (IOError, paramiko.SSHException), x:
 
241
            raise SFTPTransportError('Unable to mkdir %r' % (path,), x)
 
242
 
 
243
    def _translate_io_exception(self, e, relpath):
729
244
        # paramiko seems to generate detailless errors.
730
 
        self._translate_error(e, path, raise_generic=False)
731
 
        if getattr(e, 'args', None) is not None:
732
 
            if (e.args == ('No such file or directory',) or
733
 
                    e.args == ('No such file',)):
734
 
                raise NoSuchFile(path, str(e) + more_info)
735
 
            if (e.args == ('mkdir failed',) or
736
 
                    e.args[0].startswith('syserr: File exists')):
737
 
                raise FileExists(path, str(e) + more_info)
738
 
            # strange but true, for the paramiko server.
739
 
            if (e.args == ('Failure',)):
740
 
                raise failure_exc(path, str(e) + more_info)
741
 
            # Can be something like args = ('Directory not empty:
742
 
            # '/srv/bazaar.launchpad.net/blah...: '
743
 
            # [Errno 39] Directory not empty',)
744
 
            if (e.args[0].startswith('Directory not empty: ')
745
 
                    or getattr(e, 'errno', None) == errno.ENOTEMPTY):
746
 
                raise errors.DirectoryNotEmpty(path, str(e))
747
 
            if e.args == ('Operation unsupported',):
748
 
                raise errors.TransportNotPossible()
749
 
            mutter('Raising exception with args %s', e.args)
750
 
        if getattr(e, 'errno', None) is not None:
751
 
            mutter('Raising exception with errno %s', e.errno)
752
 
        raise e
 
245
        if (e.errno == errno.ENOENT or
 
246
            e.args == ('No such file or directory',) or
 
247
            e.args == ('No such file',)):
 
248
            raise NoSuchFile(relpath)
 
249
        if (e.args == ('mkdir failed',)):
 
250
            raise FileExists(relpath)
 
251
        # strange but true, for the paramiko server.
 
252
        if (e.args == ('Failure',)):
 
253
            raise FileExists(relpath)
 
254
        raise
753
255
 
754
 
    def append_file(self, relpath, f, mode=None):
 
256
    def append(self, relpath, f):
755
257
        """
756
258
        Append the text in the file-like object into the final
757
259
        location.
758
260
        """
759
261
        try:
760
 
            path = self._remote_path(relpath)
761
 
            fout = self._get_sftp().file(path, 'ab')
762
 
            if mode is not None:
763
 
                self._get_sftp().chmod(path, mode)
764
 
            result = fout.tell()
 
262
            path = self._abspath(relpath)
 
263
            fout = self._sftp.file(path, 'ab')
765
264
            self._pump(f, fout)
766
 
            return result
767
 
        except (IOError, paramiko.SSHException) as e:
768
 
            self._translate_io_exception(e, relpath, ': unable to append')
769
 
 
770
 
    def rename(self, rel_from, rel_to):
771
 
        """Rename without special overwriting"""
772
 
        try:
773
 
            self._get_sftp().rename(self._remote_path(rel_from),
774
 
                                    self._remote_path(rel_to))
775
 
        except (IOError, paramiko.SSHException) as e:
776
 
            self._translate_io_exception(e, rel_from,
777
 
                                         ': unable to rename to %r' % (rel_to))
778
 
 
779
 
    def _rename_and_overwrite(self, abs_from, abs_to):
780
 
        """Do a fancy rename on the remote server.
781
 
 
782
 
        Using the implementation provided by osutils.
783
 
        """
784
 
        try:
785
 
            sftp = self._get_sftp()
786
 
            fancy_rename(abs_from, abs_to,
787
 
                         rename_func=sftp.rename,
788
 
                         unlink_func=sftp.remove)
789
 
        except (IOError, paramiko.SSHException) as e:
790
 
            self._translate_io_exception(e, abs_from,
791
 
                                         ': unable to rename to %r' % (abs_to))
 
265
        except (IOError, paramiko.SSHException), x:
 
266
            raise SFTPTransportError('Unable to append file %r' % (path,), x)
 
267
 
 
268
    def copy(self, rel_from, rel_to):
 
269
        """Copy the item at rel_from to the location at rel_to"""
 
270
        path_from = self._abspath(rel_from)
 
271
        path_to = self._abspath(rel_to)
 
272
        try:
 
273
            fin = self._sftp.file(path_from, 'rb')
 
274
            try:
 
275
                fout = self._sftp.file(path_to, 'wb')
 
276
                try:
 
277
                    fout.set_pipelined(True)
 
278
                    self._pump(fin, fout)
 
279
                finally:
 
280
                    fout.close()
 
281
            finally:
 
282
                fin.close()
 
283
        except (IOError, paramiko.SSHException), x:
 
284
            raise SFTPTransportError('Unable to copy %r to %r' % (path_from, path_to), x)
792
285
 
793
286
    def move(self, rel_from, rel_to):
794
287
        """Move the item at rel_from to the location at rel_to"""
795
 
        path_from = self._remote_path(rel_from)
796
 
        path_to = self._remote_path(rel_to)
797
 
        self._rename_and_overwrite(path_from, path_to)
 
288
        path_from = self._abspath(rel_from)
 
289
        path_to = self._abspath(rel_to)
 
290
        try:
 
291
            self._sftp.rename(path_from, path_to)
 
292
        except (IOError, paramiko.SSHException), x:
 
293
            raise SFTPTransportError('Unable to move %r to %r' % (path_from, path_to), x)
798
294
 
799
295
    def delete(self, relpath):
800
296
        """Delete the item at relpath"""
801
 
        path = self._remote_path(relpath)
 
297
        path = self._abspath(relpath)
802
298
        try:
803
 
            self._get_sftp().remove(path)
804
 
        except (IOError, paramiko.SSHException) as e:
805
 
            self._translate_io_exception(e, path, ': unable to delete')
806
 
 
807
 
    def external_url(self):
808
 
        """See breezy.transport.Transport.external_url."""
809
 
        # the external path for SFTP is the base
810
 
        return self.base
811
 
 
 
299
            self._sftp.remove(path)
 
300
        except (IOError, paramiko.SSHException), x:
 
301
            raise SFTPTransportError('Unable to delete %r' % (path,), x)
 
302
            
812
303
    def listable(self):
813
304
        """Return True if this store supports listing."""
814
305
        return True
818
309
        Return a list of all files at the given location.
819
310
        """
820
311
        # does anything actually use this?
821
 
        # -- Unknown
822
 
        # This is at least used by copy_tree for remote upgrades.
823
 
        # -- David Allouche 2006-08-11
824
 
        path = self._remote_path(relpath)
825
 
        try:
826
 
            entries = self._get_sftp().listdir(path)
827
 
            self._report_activity(sum(map(len, entries)), 'read')
828
 
        except (IOError, paramiko.SSHException) as e:
829
 
            self._translate_io_exception(e, path, ': failed to list_dir')
830
 
        return [urlutils.escape(entry) for entry in entries]
831
 
 
832
 
    def rmdir(self, relpath):
833
 
        """See Transport.rmdir."""
834
 
        path = self._remote_path(relpath)
835
 
        try:
836
 
            return self._get_sftp().rmdir(path)
837
 
        except (IOError, paramiko.SSHException) as e:
838
 
            self._translate_io_exception(e, path, ': failed to rmdir')
 
312
        path = self._abspath(relpath)
 
313
        try:
 
314
            return self._sftp.listdir(path)
 
315
        except (IOError, paramiko.SSHException), x:
 
316
            raise SFTPTransportError('Unable to list folder %r' % (path,), x)
839
317
 
840
318
    def stat(self, relpath):
841
319
        """Return the stat information for a file."""
842
 
        path = self._remote_path(relpath)
843
 
        try:
844
 
            return self._get_sftp().lstat(path)
845
 
        except (IOError, paramiko.SSHException) as e:
846
 
            self._translate_io_exception(e, path, ': unable to stat')
847
 
 
848
 
    def readlink(self, relpath):
849
 
        """See Transport.readlink."""
850
 
        path = self._remote_path(relpath)
851
 
        try:
852
 
            return self._get_sftp().readlink(self._remote_path(path))
853
 
        except (IOError, paramiko.SSHException) as e:
854
 
            self._translate_io_exception(e, path, ': unable to readlink')
855
 
 
856
 
    def symlink(self, source, link_name):
857
 
        """See Transport.symlink."""
858
 
        try:
859
 
            conn = self._get_sftp()
860
 
            sftp_retval = conn.symlink(source, self._remote_path(link_name))
861
 
        except (IOError, paramiko.SSHException) as e:
862
 
            self._translate_io_exception(e, link_name,
863
 
                                         ': unable to create symlink to %r' % (source))
 
320
        path = self._abspath(relpath)
 
321
        try:
 
322
            return self._sftp.stat(path)
 
323
        except (IOError, paramiko.SSHException), x:
 
324
            raise SFTPTransportError('Unable to stat %r' % (path,), x)
864
325
 
865
326
    def lock_read(self, relpath):
866
327
        """
867
328
        Lock the given file for shared (read) access.
868
 
        :return: A lock object, which has an unlock() member function
 
329
        :return: A lock object, which should be passed to Transport.unlock()
869
330
        """
870
331
        # FIXME: there should be something clever i can do here...
871
332
        class BogusLock(object):
872
333
            def __init__(self, path):
873
334
                self.path = path
874
 
 
875
335
            def unlock(self):
876
336
                pass
877
 
 
878
 
            def __exit__(self, exc_type, exc_val, exc_tb):
879
 
                return False
880
 
 
881
 
            def __enter__(self):
882
 
                pass
883
337
        return BogusLock(relpath)
884
338
 
885
339
    def lock_write(self, relpath):
887
341
        Lock the given file for exclusive (write) access.
888
342
        WARNING: many transports do not support this, so trying avoid using it
889
343
 
890
 
        :return: A lock object, which has an unlock() member function
891
 
        """
892
 
        # This is a little bit bogus, but basically, we create a file
893
 
        # which should not already exist, and if it does, we assume
894
 
        # that there is a lock, and if it doesn't, the we assume
895
 
        # that we have taken the lock.
896
 
        return SFTPLock(relpath, self)
897
 
 
898
 
    def _sftp_open_exclusive(self, abspath, mode=None):
899
 
        """Open a remote path exclusively.
900
 
 
901
 
        SFTP supports O_EXCL (SFTP_FLAG_EXCL), which fails if
902
 
        the file already exists. However it does not expose this
903
 
        at the higher level of SFTPClient.open(), so we have to
904
 
        sneak away with it.
905
 
 
906
 
        WARNING: This breaks the SFTPClient abstraction, so it
907
 
        could easily break against an updated version of paramiko.
908
 
 
909
 
        :param abspath: The remote absolute path where the file should be opened
910
 
        :param mode: The mode permissions bits for the new file
911
 
        """
912
 
        # TODO: jam 20060816 Paramiko >= 1.6.2 (probably earlier) supports
913
 
        #       using the 'x' flag to indicate SFTP_FLAG_EXCL.
914
 
        #       However, there is no way to set the permission mode at open
915
 
        #       time using the sftp_client.file() functionality.
916
 
        path = self._get_sftp()._adjust_cwd(abspath)
917
 
        # mutter('sftp abspath %s => %s', abspath, path)
918
 
        attr = SFTPAttributes()
919
 
        if mode is not None:
920
 
            attr.st_mode = mode
921
 
        omode = (SFTP_FLAG_WRITE | SFTP_FLAG_CREATE
922
 
                 | SFTP_FLAG_TRUNC | SFTP_FLAG_EXCL)
923
 
        try:
924
 
            t, msg = self._get_sftp()._request(CMD_OPEN, path, omode, attr)
925
 
            if t != CMD_HANDLE:
926
 
                raise TransportError('Expected an SFTP handle')
927
 
            handle = msg.get_string()
928
 
            return SFTPFile(self._get_sftp(), handle, 'wb', -1)
929
 
        except (paramiko.SSHException, IOError) as e:
930
 
            self._translate_io_exception(e, abspath, ': unable to open',
931
 
                                         failure_exc=FileExists)
932
 
 
933
 
    def _can_roundtrip_unix_modebits(self):
934
 
        if sys.platform == 'win32':
935
 
            # anyone else?
936
 
            return False
937
 
        else:
 
344
        :return: A lock object, which should be passed to Transport.unlock()
 
345
        """
 
346
        # FIXME: there should be something clever i can do here...
 
347
        class BogusLock(object):
 
348
            def __init__(self, path):
 
349
                self.path = path
 
350
            def unlock(self):
 
351
                pass
 
352
        return BogusLock(relpath)
 
353
 
 
354
 
 
355
    def _unparse_url(self, path=None):
 
356
        if path is None:
 
357
            path = self._path
 
358
        if self._port == 22:
 
359
            return 'sftp://%s@%s%s' % (self._username, self._host, path)
 
360
        return 'sftp://%s@%s:%d%s' % (self._username, self._host, self._port, path)
 
361
 
 
362
    def _parse_url(self, url):
 
363
        assert url[:7] == 'sftp://'
 
364
        m = self._url_matcher.match(url)
 
365
        if m is None:
 
366
            raise SFTPTransportError('Unable to parse SFTP URL %r' % (url,))
 
367
        self._username, self._password, self._host, self._port, self._path = m.groups()
 
368
        if self._username is None:
 
369
            self._username = getpass.getuser()
 
370
        else:
 
371
            self._username = self._username[:-1]
 
372
        if self._password:
 
373
            self._password = self._password[1:]
 
374
            self._username = self._username[len(self._password)+1:]
 
375
        if self._port is None:
 
376
            self._port = 22
 
377
        else:
 
378
            self._port = int(self._port[1:])
 
379
        if (self._path is None) or (self._path == ''):
 
380
            self._path = '/'
 
381
 
 
382
    def _sftp_connect(self):
 
383
        global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
 
384
        
 
385
        load_host_keys()
 
386
        
 
387
        try:
 
388
            t = paramiko.Transport((self._host, self._port))
 
389
            t.start_client()
 
390
        except paramiko.SSHException:
 
391
            raise SFTPTransportError('Unable to reach SSH host %s:%d' % (self._host, self._port))
 
392
            
 
393
        server_key = t.get_remote_server_key()
 
394
        server_key_hex = paramiko.util.hexify(server_key.get_fingerprint())
 
395
        keytype = server_key.get_name()
 
396
        if SYSTEM_HOSTKEYS.has_key(self._host) and SYSTEM_HOSTKEYS[self._host].has_key(keytype):
 
397
            our_server_key = SYSTEM_HOSTKEYS[self._host][keytype]
 
398
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
 
399
        elif BZR_HOSTKEYS.has_key(self._host) and BZR_HOSTKEYS[self._host].has_key(keytype):
 
400
            our_server_key = BZR_HOSTKEYS[self._host][keytype]
 
401
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
 
402
        else:
 
403
            warning('Adding %s host key for %s: %s' % (keytype, self._host, server_key_hex))
 
404
            if not BZR_HOSTKEYS.has_key(self._host):
 
405
                BZR_HOSTKEYS[self._host] = {}
 
406
            BZR_HOSTKEYS[self._host][keytype] = server_key
 
407
            our_server_key = server_key
 
408
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
 
409
            save_host_keys()
 
410
        if server_key != our_server_key:
 
411
            filename1 = os.path.expanduser('~/.ssh/known_hosts')
 
412
            filename2 = os.path.join(config_dir(), 'ssh_host_keys')
 
413
            raise SFTPTransportError('Host keys for %s do not match!  %s != %s' % \
 
414
                (self._host, our_server_key_hex, server_key_hex),
 
415
                ['Try editing %s or %s' % (filename1, filename2)])
 
416
 
 
417
        self._sftp_auth(t, self._username, self._host)
 
418
        
 
419
        try:
 
420
            self._sftp = t.open_sftp_client()
 
421
        except paramiko.SSHException:
 
422
            raise BzrError('Unable to find path %s on SFTP server %s' % \
 
423
                (self._path, self._host))
 
424
 
 
425
    def _sftp_auth(self, transport, username, host):
 
426
        agent = paramiko.Agent()
 
427
        for key in agent.get_keys():
 
428
            mutter('Trying SSH agent key %s' % paramiko.util.hexify(key.get_fingerprint()))
 
429
            try:
 
430
                transport.auth_publickey(self._username, key)
 
431
                return
 
432
            except paramiko.SSHException, e:
 
433
                pass
 
434
        
 
435
        # okay, try finding id_rsa or id_dss?  (posix only)
 
436
        if self._try_pkey_auth(transport, paramiko.RSAKey, 'id_rsa'):
 
437
            return
 
438
        if self._try_pkey_auth(transport, paramiko.DSSKey, 'id_dsa'):
 
439
            return
 
440
 
 
441
        if self._password:
 
442
            try:
 
443
                transport.auth_password(self._username, self._password)
 
444
                return
 
445
            except paramiko.SSHException, e:
 
446
                pass
 
447
 
 
448
        # give up and ask for a password
 
449
        password = getpass.getpass('SSH %s@%s password: ' % (self._username, self._host))
 
450
        try:
 
451
            transport.auth_password(self._username, password)
 
452
        except paramiko.SSHException:
 
453
            raise SFTPTransportError('Unable to authenticate to SSH host as %s@%s' % \
 
454
                (self._username, self._host))
 
455
 
 
456
    def _try_pkey_auth(self, transport, pkey_class, filename):
 
457
        filename = os.path.expanduser('~/.ssh/' + filename)
 
458
        try:
 
459
            key = pkey_class.from_private_key_file(filename)
 
460
            transport.auth_publickey(self._username, key)
938
461
            return True
939
 
 
940
 
 
941
 
def get_test_permutations():
942
 
    """Return the permutations to be used in testing."""
943
 
    from ..tests import stub_sftp
944
 
    return [(SFTPTransport, stub_sftp.SFTPAbsoluteServer),
945
 
            (SFTPTransport, stub_sftp.SFTPHomeDirServer),
946
 
            (SFTPTransport, stub_sftp.SFTPSiblingAbsoluteServer),
947
 
            ]
 
462
        except paramiko.PasswordRequiredException:
 
463
            password = getpass.getpass('SSH %s password: ' % (os.path.basename(filename),))
 
464
            try:
 
465
                key = pkey_class.from_private_key_file(filename, password)
 
466
                transport.auth_publickey(self._username, key)
 
467
                return True
 
468
            except paramiko.SSHException:
 
469
                mutter('SSH authentication via %s key failed.' % (os.path.basename(filename),))
 
470
        except paramiko.SSHException:
 
471
            mutter('SSH authentication via %s key failed.' % (os.path.basename(filename),))
 
472
        except IOError:
 
473
            pass
 
474
        return False