/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/smart/repository.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2008-03-16 14:01:20 UTC
  • mfrom: (3280.2.5 integration)
  • Revision ID: pqm@pqm.ubuntu.com-20080316140120-i3yq8yr1l66m11h7
Start 1.4 development

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006-2010 Canonical Ltd
 
1
# Copyright (C) 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
"""Server-side repository related request implmentations."""
18
18
 
19
19
import bz2
 
20
from cStringIO import StringIO
20
21
import os
21
 
import Queue
22
22
import sys
23
23
import tempfile
24
 
import threading
 
24
import tarfile
25
25
 
26
 
from bzrlib import (
27
 
    bencode,
28
 
    errors,
29
 
    graph,
30
 
    osutils,
31
 
    pack,
32
 
    ui,
33
 
    versionedfile,
34
 
    )
 
26
from bzrlib import errors
35
27
from bzrlib.bzrdir import BzrDir
 
28
from bzrlib.pack import ContainerSerialiser
36
29
from bzrlib.smart.request import (
37
30
    FailedSmartServerResponse,
38
31
    SmartServerRequest,
39
32
    SuccessfulSmartServerResponse,
40
33
    )
41
 
from bzrlib.repository import _strip_NULL_ghosts, network_format_registry
42
34
from bzrlib import revision as _mod_revision
43
 
from bzrlib.versionedfile import (
44
 
    NetworkRecordStream,
45
 
    record_to_fulltext_bytes,
46
 
    )
47
35
 
48
36
 
49
37
class SmartServerRepositoryRequest(SmartServerRequest):
51
39
 
52
40
    def do(self, path, *args):
53
41
        """Execute a repository request.
54
 
 
55
 
        All Repository requests take a path to the repository as their first
56
 
        argument.  The repository must be at the exact path given by the
57
 
        client - no searching is done.
 
42
        
 
43
        The repository must be at the exact path - no searching is done.
58
44
 
59
45
        The actual logic is delegated to self.do_repository_request.
60
46
 
61
 
        :param client_path: The path for the repository as received from the
62
 
            client.
63
 
        :return: A SmartServerResponse from self.do_repository_request().
 
47
        :param path: The path for the repository.
 
48
        :return: A smart server from self.do_repository_request().
64
49
        """
65
 
        transport = self.transport_from_client_path(path)
 
50
        transport = self._backing_transport.clone(path)
66
51
        bzrdir = BzrDir.open_from_transport(transport)
67
52
        # Save the repository for use with do_body.
68
53
        self._repository = bzrdir.open_repository()
74
59
        # is expected)
75
60
        return None
76
61
 
77
 
    def recreate_search(self, repository, search_bytes, discard_excess=False):
78
 
        """Recreate a search from its serialised form.
79
 
 
80
 
        :param discard_excess: If True, and the search refers to data we don't
81
 
            have, just silently accept that fact - the verb calling
82
 
            recreate_search trusts that clients will look for missing things
83
 
            they expected and get it from elsewhere.
84
 
        """
85
 
        lines = search_bytes.split('\n')
86
 
        if lines[0] == 'ancestry-of':
87
 
            heads = lines[1:]
88
 
            search_result = graph.PendingAncestryResult(heads, repository)
89
 
            return search_result, None
90
 
        elif lines[0] == 'search':
91
 
            return self.recreate_search_from_recipe(repository, lines[1:],
92
 
                discard_excess=discard_excess)
93
 
        else:
94
 
            return (None, FailedSmartServerResponse(('BadSearch',)))
95
 
 
96
 
    def recreate_search_from_recipe(self, repository, lines,
97
 
        discard_excess=False):
98
 
        """Recreate a specific revision search (vs a from-tip search).
99
 
 
100
 
        :param discard_excess: If True, and the search refers to data we don't
101
 
            have, just silently accept that fact - the verb calling
102
 
            recreate_search trusts that clients will look for missing things
103
 
            they expected and get it from elsewhere.
104
 
        """
 
62
    def recreate_search(self, repository, recipe_bytes):
 
63
        lines = recipe_bytes.split('\n')
105
64
        start_keys = set(lines[0].split(' '))
106
65
        exclude_keys = set(lines[1].split(' '))
107
66
        revision_count = int(lines[2])
116
75
                    break
117
76
                search.stop_searching_any(exclude_keys.intersection(next_revs))
118
77
            search_result = search.get_result()
119
 
            if (not discard_excess and
120
 
                search_result.get_recipe()[3] != revision_count):
 
78
            if search_result.get_recipe()[2] != revision_count:
121
79
                # we got back a different amount of data than expected, this
122
80
                # gets reported as NoSuchRevision, because less revisions
123
81
                # indicates missing revisions, and more should never happen as
124
82
                # the excludes list considers ghosts and ensures that ghost
125
83
                # filling races are not a problem.
126
84
                return (None, FailedSmartServerResponse(('NoSuchRevision',)))
127
 
            return (search_result, None)
128
 
        finally:
129
 
            repository.unlock()
130
 
 
131
 
 
132
 
class SmartServerRepositoryReadLocked(SmartServerRepositoryRequest):
133
 
    """Calls self.do_readlocked_repository_request."""
134
 
 
135
 
    def do_repository_request(self, repository, *args):
136
 
        """Read lock a repository for do_readlocked_repository_request."""
137
 
        repository.lock_read()
138
 
        try:
139
 
            return self.do_readlocked_repository_request(repository, *args)
 
85
            return (search, None)
140
86
        finally:
141
87
            repository.unlock()
142
88
 
143
89
 
144
90
class SmartServerRepositoryGetParentMap(SmartServerRepositoryRequest):
145
91
    """Bzr 1.2+ - get parent data for revisions during a graph search."""
146
 
 
147
 
    no_extra_results = False
148
 
 
 
92
    
149
93
    def do_repository_request(self, repository, *revision_ids):
150
94
        """Get parent details for some revisions.
151
 
 
 
95
        
152
96
        All the parents for revision_ids are returned. Additionally up to 64KB
153
97
        of additional parent data found by performing a breadth first search
154
98
        from revision_ids is returned. The verb takes a body containing the
155
99
        current search state, see do_body for details.
156
100
 
157
 
        If 'include-missing:' is in revision_ids, ghosts encountered in the
158
 
        graph traversal for getting parent data are included in the result with
159
 
        a prefix of 'missing:'.
160
 
 
161
101
        :param repository: The repository to query in.
162
102
        :param revision_ids: The utf8 encoded revision_id to answer for.
163
103
        """
182
122
    def _do_repository_request(self, body_bytes):
183
123
        repository = self._repository
184
124
        revision_ids = set(self._revision_ids)
185
 
        include_missing = 'include-missing:' in revision_ids
186
 
        if include_missing:
187
 
            revision_ids.remove('include-missing:')
188
 
        body_lines = body_bytes.split('\n')
189
 
        search_result, error = self.recreate_search_from_recipe(
190
 
            repository, body_lines)
 
125
        search, error = self.recreate_search(repository, body_bytes)
191
126
        if error is not None:
192
127
            return error
193
128
        # TODO might be nice to start up the search again; but thats not
194
129
        # written or tested yet.
195
 
        client_seen_revs = set(search_result.get_keys())
 
130
        client_seen_revs = set(search.get_result().get_keys())
196
131
        # Always include the requested ids.
197
132
        client_seen_revs.difference_update(revision_ids)
198
133
        lines = []
205
140
        while next_revs:
206
141
            queried_revs.update(next_revs)
207
142
            parent_map = repo_graph.get_parent_map(next_revs)
208
 
            current_revs = next_revs
209
143
            next_revs = set()
210
 
            for revision_id in current_revs:
211
 
                missing_rev = False
212
 
                parents = parent_map.get(revision_id)
213
 
                if parents is not None:
214
 
                    # adjust for the wire
215
 
                    if parents == (_mod_revision.NULL_REVISION,):
216
 
                        parents = ()
217
 
                    # prepare the next query
218
 
                    next_revs.update(parents)
219
 
                    encoded_id = revision_id
220
 
                else:
221
 
                    missing_rev = True
222
 
                    encoded_id = "missing:" + revision_id
223
 
                    parents = []
224
 
                if (revision_id not in client_seen_revs and
225
 
                    (not missing_rev or include_missing)):
 
144
            for revision_id, parents in parent_map.iteritems():
 
145
                # adjust for the wire
 
146
                if parents == (_mod_revision.NULL_REVISION,):
 
147
                    parents = ()
 
148
                # prepare the next query
 
149
                next_revs.update(parents)
 
150
                if revision_id not in client_seen_revs:
226
151
                    # Client does not have this revision, give it to it.
227
152
                    # add parents to the result
228
 
                    result[encoded_id] = parents
 
153
                    result[revision_id] = parents
229
154
                    # Approximate the serialized cost of this revision_id.
230
 
                    size_so_far += 2 + len(encoded_id) + sum(map(len, parents))
 
155
                    size_so_far += 2 + len(revision_id) + sum(map(len, parents))
231
156
            # get all the directly asked for parents, and then flesh out to
232
157
            # 64K (compressed) or so. We do one level of depth at a time to
233
158
            # stay in sync with the client. The 250000 magic number is
234
159
            # estimated compression ratio taken from bzr.dev itself.
235
 
            if self.no_extra_results or (
236
 
                first_loop_done and size_so_far > 250000):
 
160
            if first_loop_done and size_so_far > 250000:
237
161
                next_revs = set()
238
162
                break
239
163
            # don't query things we've already queried
249
173
            ('ok', ), bz2.compress('\n'.join(lines)))
250
174
 
251
175
 
252
 
class SmartServerRepositoryGetRevisionGraph(SmartServerRepositoryReadLocked):
253
 
 
254
 
    def do_readlocked_repository_request(self, repository, revision_id):
 
176
class SmartServerRepositoryGetRevisionGraph(SmartServerRepositoryRequest):
 
177
    
 
178
    def do_repository_request(self, repository, revision_id):
255
179
        """Return the result of repository.get_revision_graph(revision_id).
256
 
 
257
 
        Deprecated as of bzr 1.4, but supported for older clients.
258
 
 
 
180
        
259
181
        :param repository: The repository to query in.
260
182
        :param revision_id: The utf8 encoded revision_id to get a graph from.
261
183
        :return: A smart server response where the body contains an utf8
265
187
            revision_id = None
266
188
 
267
189
        lines = []
268
 
        graph = repository.get_graph()
269
 
        if revision_id:
270
 
            search_ids = [revision_id]
271
 
        else:
272
 
            search_ids = repository.all_revision_ids()
273
 
        search = graph._make_breadth_first_searcher(search_ids)
274
 
        transitive_ids = set()
275
 
        map(transitive_ids.update, list(search))
276
 
        parent_map = graph.get_parent_map(transitive_ids)
277
 
        revision_graph = _strip_NULL_ghosts(parent_map)
278
 
        if revision_id and revision_id not in revision_graph:
 
190
        try:
 
191
            revision_graph = repository.get_revision_graph(revision_id)
 
192
        except errors.NoSuchRevision:
279
193
            # Note that we return an empty body, rather than omitting the body.
280
194
            # This way the client knows that it can always expect to find a body
281
195
            # in the response for this method, even in the error case.
287
201
        return SuccessfulSmartServerResponse(('ok', ), '\n'.join(lines))
288
202
 
289
203
 
290
 
class SmartServerRepositoryGetRevIdForRevno(SmartServerRepositoryReadLocked):
291
 
 
292
 
    def do_readlocked_repository_request(self, repository, revno,
293
 
            known_pair):
294
 
        """Find the revid for a given revno, given a known revno/revid pair.
295
 
        
296
 
        New in 1.17.
297
 
        """
298
 
        try:
299
 
            found_flag, result = repository.get_rev_id_for_revno(revno, known_pair)
300
 
        except errors.RevisionNotPresent, err:
301
 
            if err.revision_id != known_pair[1]:
302
 
                raise AssertionError(
303
 
                    'get_rev_id_for_revno raised RevisionNotPresent for '
304
 
                    'non-initial revision: ' + err.revision_id)
305
 
            return FailedSmartServerResponse(
306
 
                ('nosuchrevision', err.revision_id))
307
 
        if found_flag:
308
 
            return SuccessfulSmartServerResponse(('ok', result))
309
 
        else:
310
 
            earliest_revno, earliest_revid = result
311
 
            return SuccessfulSmartServerResponse(
312
 
                ('history-incomplete', earliest_revno, earliest_revid))
313
 
 
314
 
 
315
204
class SmartServerRequestHasRevision(SmartServerRepositoryRequest):
316
205
 
317
206
    def do_repository_request(self, repository, revision_id):
342
231
              firstrev: 1234.230 0
343
232
              latestrev: 345.700 3600
344
233
              revisions: 2
 
234
              size:45
345
235
 
346
236
              But containing only fields returned by the gather_stats() call
347
237
        """
408
298
        return SuccessfulSmartServerResponse(('ok', token))
409
299
 
410
300
 
411
 
class SmartServerRepositoryGetStream(SmartServerRepositoryRequest):
412
 
 
413
 
    def do_repository_request(self, repository, to_network_name):
414
 
        """Get a stream for inserting into a to_format repository.
415
 
 
416
 
        :param repository: The repository to stream from.
417
 
        :param to_network_name: The network name of the format of the target
418
 
            repository.
419
 
        """
420
 
        self._to_format = network_format_registry.get(to_network_name)
421
 
        if self._should_fake_unknown():
422
 
            return FailedSmartServerResponse(
423
 
                ('UnknownMethod', 'Repository.get_stream'))
424
 
        return None # Signal that we want a body.
425
 
 
426
 
    def _should_fake_unknown(self):
427
 
        """Return True if we should return UnknownMethod to the client.
428
 
        
429
 
        This is a workaround for bugs in pre-1.19 clients that claim to
430
 
        support receiving streams of CHK repositories.  The pre-1.19 client
431
 
        expects inventory records to be serialized in the format defined by
432
 
        to_network_name, but in pre-1.19 (at least) that format definition
433
 
        tries to use the xml5 serializer, which does not correctly handle
434
 
        rich-roots.  After 1.19 the client can also accept inventory-deltas
435
 
        (which avoids this issue), and those clients will use the
436
 
        Repository.get_stream_1.19 verb instead of this one.
437
 
        So: if this repository is CHK, and the to_format doesn't match,
438
 
        we should just fake an UnknownSmartMethod error so that the client
439
 
        will fallback to VFS, rather than sending it a stream we know it
440
 
        cannot handle.
441
 
        """
442
 
        from_format = self._repository._format
443
 
        to_format = self._to_format
444
 
        if not from_format.supports_chks:
445
 
            # Source not CHK: that's ok
446
 
            return False
447
 
        if (to_format.supports_chks and
448
 
            from_format.repository_class is to_format.repository_class and
449
 
            from_format._serializer == to_format._serializer):
450
 
            # Source is CHK, but target matches: that's ok
451
 
            # (e.g. 2a->2a, or CHK2->2a)
452
 
            return False
453
 
        # Source is CHK, and target is not CHK or incompatible CHK.  We can't
454
 
        # generate a compatible stream.
455
 
        return True
456
 
 
457
 
    def do_body(self, body_bytes):
458
 
        repository = self._repository
459
 
        repository.lock_read()
460
 
        try:
461
 
            search_result, error = self.recreate_search(repository, body_bytes,
462
 
                discard_excess=True)
463
 
            if error is not None:
464
 
                repository.unlock()
465
 
                return error
466
 
            source = repository._get_source(self._to_format)
467
 
            stream = source.get_stream(search_result)
468
 
        except Exception:
469
 
            exc_info = sys.exc_info()
470
 
            try:
471
 
                # On non-error, unlocking is done by the body stream handler.
472
 
                repository.unlock()
473
 
            finally:
474
 
                raise exc_info[0], exc_info[1], exc_info[2]
475
 
        return SuccessfulSmartServerResponse(('ok',),
476
 
            body_stream=self.body_stream(stream, repository))
477
 
 
478
 
    def body_stream(self, stream, repository):
479
 
        byte_stream = _stream_to_byte_stream(stream, repository._format)
480
 
        try:
481
 
            for bytes in byte_stream:
482
 
                yield bytes
483
 
        except errors.RevisionNotPresent, e:
484
 
            # This shouldn't be able to happen, but as we don't buffer
485
 
            # everything it can in theory happen.
486
 
            repository.unlock()
487
 
            yield FailedSmartServerResponse(('NoSuchRevision', e.revision_id))
488
 
        else:
489
 
            repository.unlock()
490
 
 
491
 
 
492
 
class SmartServerRepositoryGetStream_1_19(SmartServerRepositoryGetStream):
493
 
 
494
 
    def _should_fake_unknown(self):
495
 
        """Returns False; we don't need to workaround bugs in 1.19+ clients."""
496
 
        return False
497
 
 
498
 
 
499
 
def _stream_to_byte_stream(stream, src_format):
500
 
    """Convert a record stream to a self delimited byte stream."""
501
 
    pack_writer = pack.ContainerSerialiser()
502
 
    yield pack_writer.begin()
503
 
    yield pack_writer.bytes_record(src_format.network_name(), '')
504
 
    for substream_type, substream in stream:
505
 
        for record in substream:
506
 
            if record.storage_kind in ('chunked', 'fulltext'):
507
 
                serialised = record_to_fulltext_bytes(record)
508
 
            elif record.storage_kind == 'inventory-delta':
509
 
                serialised = record_to_inventory_delta_bytes(record)
510
 
            elif record.storage_kind == 'absent':
511
 
                raise ValueError("Absent factory for %s" % (record.key,))
512
 
            else:
513
 
                serialised = record.get_bytes_as(record.storage_kind)
514
 
            if serialised:
515
 
                # Some streams embed the whole stream into the wire
516
 
                # representation of the first record, which means that
517
 
                # later records have no wire representation: we skip them.
518
 
                yield pack_writer.bytes_record(serialised, [(substream_type,)])
519
 
    yield pack_writer.end()
520
 
 
521
 
 
522
 
class _ByteStreamDecoder(object):
523
 
    """Helper for _byte_stream_to_stream.
524
 
 
525
 
    The expected usage of this class is via the function _byte_stream_to_stream
526
 
    which creates a _ByteStreamDecoder, pops off the stream format and then
527
 
    yields the output of record_stream(), the main entry point to
528
 
    _ByteStreamDecoder.
529
 
 
530
 
    Broadly this class has to unwrap two layers of iterators:
531
 
    (type, substream)
532
 
    (substream details)
533
 
 
534
 
    This is complicated by wishing to return type, iterator_for_type, but
535
 
    getting the data for iterator_for_type when we find out type: we can't
536
 
    simply pass a generator down to the NetworkRecordStream parser, instead
537
 
    we have a little local state to seed each NetworkRecordStream instance,
538
 
    and gather the type that we'll be yielding.
539
 
 
540
 
    :ivar byte_stream: The byte stream being decoded.
541
 
    :ivar stream_decoder: A pack parser used to decode the bytestream
542
 
    :ivar current_type: The current type, used to join adjacent records of the
543
 
        same type into a single stream.
544
 
    :ivar first_bytes: The first bytes to give the next NetworkRecordStream.
545
 
    """
546
 
 
547
 
    def __init__(self, byte_stream):
548
 
        """Create a _ByteStreamDecoder."""
549
 
        self.stream_decoder = pack.ContainerPushParser()
550
 
        self.current_type = None
551
 
        self.first_bytes = None
552
 
        self.byte_stream = byte_stream
553
 
 
554
 
    def iter_stream_decoder(self):
555
 
        """Iterate the contents of the pack from stream_decoder."""
556
 
        # dequeue pending items
557
 
        for record in self.stream_decoder.read_pending_records():
558
 
            yield record
559
 
        # Pull bytes of the wire, decode them to records, yield those records.
560
 
        for bytes in self.byte_stream:
561
 
            self.stream_decoder.accept_bytes(bytes)
562
 
            for record in self.stream_decoder.read_pending_records():
563
 
                yield record
564
 
 
565
 
    def iter_substream_bytes(self):
566
 
        if self.first_bytes is not None:
567
 
            yield self.first_bytes
568
 
            # If we run out of pack records, single the outer layer to stop.
569
 
            self.first_bytes = None
570
 
        for record in self.iter_pack_records:
571
 
            record_names, record_bytes = record
572
 
            record_name, = record_names
573
 
            substream_type = record_name[0]
574
 
            if substream_type != self.current_type:
575
 
                # end of a substream, seed the next substream.
576
 
                self.current_type = substream_type
577
 
                self.first_bytes = record_bytes
578
 
                return
579
 
            yield record_bytes
580
 
 
581
 
    def record_stream(self):
582
 
        """Yield substream_type, substream from the byte stream."""
583
 
        self.seed_state()
584
 
        # Make and consume sub generators, one per substream type:
585
 
        while self.first_bytes is not None:
586
 
            substream = NetworkRecordStream(self.iter_substream_bytes())
587
 
            # after substream is fully consumed, self.current_type is set to
588
 
            # the next type, and self.first_bytes is set to the matching bytes.
589
 
            yield self.current_type, substream.read()
590
 
 
591
 
    def seed_state(self):
592
 
        """Prepare the _ByteStreamDecoder to decode from the pack stream."""
593
 
        # Set a single generator we can use to get data from the pack stream.
594
 
        self.iter_pack_records = self.iter_stream_decoder()
595
 
        # Seed the very first subiterator with content; after this each one
596
 
        # seeds the next.
597
 
        list(self.iter_substream_bytes())
598
 
 
599
 
 
600
 
def _byte_stream_to_stream(byte_stream):
601
 
    """Convert a byte stream into a format and a stream.
602
 
 
603
 
    :param byte_stream: A bytes iterator, as output by _stream_to_byte_stream.
604
 
    :return: (RepositoryFormat, stream_generator)
605
 
    """
606
 
    decoder = _ByteStreamDecoder(byte_stream)
607
 
    for bytes in byte_stream:
608
 
        decoder.stream_decoder.accept_bytes(bytes)
609
 
        for record in decoder.stream_decoder.read_pending_records(max=1):
610
 
            record_names, src_format_name = record
611
 
            src_format = network_format_registry.get(src_format_name)
612
 
            return src_format, decoder.record_stream()
613
 
 
614
 
 
615
301
class SmartServerRepositoryUnlock(SmartServerRepositoryRequest):
616
302
 
617
303
    def do_repository_request(self, repository, token):
624
310
        return SuccessfulSmartServerResponse(('ok',))
625
311
 
626
312
 
627
 
class SmartServerRepositorySetMakeWorkingTrees(SmartServerRepositoryRequest):
628
 
 
629
 
    def do_repository_request(self, repository, str_bool_new_value):
630
 
        if str_bool_new_value == 'True':
631
 
            new_value = True
632
 
        else:
633
 
            new_value = False
634
 
        repository.set_make_working_trees(new_value)
635
 
        return SuccessfulSmartServerResponse(('ok',))
636
 
 
637
 
 
638
313
class SmartServerRepositoryTarball(SmartServerRepositoryRequest):
639
314
    """Get the raw repository files as a tarball.
640
315
 
641
316
    The returned tarball contains a .bzr control directory which in turn
642
317
    contains a repository.
643
 
 
644
 
    This takes one parameter, compression, which currently must be
 
318
    
 
319
    This takes one parameter, compression, which currently must be 
645
320
    "", "gz", or "bz2".
646
321
 
647
322
    This is used to implement the Repository.copy_content_into operation.
648
323
    """
649
324
 
650
325
    def do_repository_request(self, repository, compression):
 
326
        from bzrlib import osutils
 
327
        repo_transport = repository.control_files._transport
651
328
        tmp_dirname, tmp_repo = self._copy_to_tempdir(repository)
652
329
        try:
653
330
            controldir_name = tmp_dirname + '/.bzr'
656
333
            osutils.rmtree(tmp_dirname)
657
334
 
658
335
    def _copy_to_tempdir(self, from_repo):
659
 
        tmp_dirname = osutils.mkdtemp(prefix='tmpbzrclone')
 
336
        tmp_dirname = tempfile.mkdtemp(prefix='tmpbzrclone')
660
337
        tmp_bzrdir = from_repo.bzrdir._format.initialize(tmp_dirname)
661
338
        tmp_repo = from_repo._format.initialize(tmp_bzrdir)
662
339
        from_repo.copy_content_into(tmp_repo)
669
346
            # all finished; write the tempfile out to the network
670
347
            temp.seek(0)
671
348
            return SuccessfulSmartServerResponse(('ok',), temp.read())
672
 
            # FIXME: Don't read the whole thing into memory here; rather stream
673
 
            # it out from the file onto the network. mbp 20070411
 
349
            # FIXME: Don't read the whole thing into memory here; rather stream it
 
350
            # out from the file onto the network. mbp 20070411
674
351
        finally:
675
352
            temp.close()
676
353
 
677
354
    def _tarball_of_dir(self, dirname, compression, ofile):
678
 
        import tarfile
679
355
        filename = os.path.basename(ofile.name)
680
356
        tarball = tarfile.open(fileobj=ofile, name=filename,
681
357
            mode='w|' + compression)
687
363
            dirname = dirname.encode(sys.getfilesystemencoding())
688
364
            # python's tarball module includes the whole path by default so
689
365
            # override it
690
 
            if not dirname.endswith('.bzr'):
691
 
                raise ValueError(dirname)
 
366
            assert dirname.endswith('.bzr')
692
367
            tarball.add(dirname, '.bzr') # recursive by default
693
368
        finally:
694
369
            tarball.close()
695
370
 
696
371
 
697
 
class SmartServerRepositoryInsertStreamLocked(SmartServerRepositoryRequest):
698
 
    """Insert a record stream from a RemoteSink into a repository.
699
 
 
700
 
    This gets bytes pushed to it by the network infrastructure and turns that
701
 
    into a bytes iterator using a thread. That is then processed by
702
 
    _byte_stream_to_stream.
703
 
 
704
 
    New in 1.14.
705
 
    """
706
 
 
707
 
    def do_repository_request(self, repository, resume_tokens, lock_token):
708
 
        """StreamSink.insert_stream for a remote repository."""
709
 
        repository.lock_write(token=lock_token)
710
 
        self.do_insert_stream_request(repository, resume_tokens)
711
 
 
712
 
    def do_insert_stream_request(self, repository, resume_tokens):
713
 
        tokens = [token for token in resume_tokens.split(' ') if token]
714
 
        self.tokens = tokens
715
 
        self.repository = repository
716
 
        self.queue = Queue.Queue()
717
 
        self.insert_thread = threading.Thread(target=self._inserter_thread)
718
 
        self.insert_thread.start()
719
 
 
720
 
    def do_chunk(self, body_stream_chunk):
721
 
        self.queue.put(body_stream_chunk)
722
 
 
723
 
    def _inserter_thread(self):
724
 
        try:
725
 
            src_format, stream = _byte_stream_to_stream(
726
 
                self.blocking_byte_stream())
727
 
            self.insert_result = self.repository._get_sink().insert_stream(
728
 
                stream, src_format, self.tokens)
729
 
            self.insert_ok = True
730
 
        except:
731
 
            self.insert_exception = sys.exc_info()
732
 
            self.insert_ok = False
733
 
 
734
 
    def blocking_byte_stream(self):
735
 
        while True:
736
 
            bytes = self.queue.get()
737
 
            if bytes is StopIteration:
738
 
                return
739
 
            else:
740
 
                yield bytes
741
 
 
742
 
    def do_end(self):
743
 
        self.queue.put(StopIteration)
744
 
        if self.insert_thread is not None:
745
 
            self.insert_thread.join()
746
 
        if not self.insert_ok:
747
 
            exc_info = self.insert_exception
748
 
            raise exc_info[0], exc_info[1], exc_info[2]
749
 
        write_group_tokens, missing_keys = self.insert_result
750
 
        if write_group_tokens or missing_keys:
751
 
            # bzip needed? missing keys should typically be a small set.
752
 
            # Should this be a streaming body response ?
753
 
            missing_keys = sorted(missing_keys)
754
 
            bytes = bencode.bencode((write_group_tokens, missing_keys))
755
 
            self.repository.unlock()
756
 
            return SuccessfulSmartServerResponse(('missing-basis', bytes))
757
 
        else:
758
 
            self.repository.unlock()
759
 
            return SuccessfulSmartServerResponse(('ok', ))
760
 
 
761
 
 
762
 
class SmartServerRepositoryInsertStream_1_19(SmartServerRepositoryInsertStreamLocked):
763
 
    """Insert a record stream from a RemoteSink into a repository.
764
 
 
765
 
    Same as SmartServerRepositoryInsertStreamLocked, except:
766
 
     - the lock token argument is optional
767
 
     - servers that implement this verb accept 'inventory-delta' records in the
768
 
       stream.
769
 
 
770
 
    New in 1.19.
771
 
    """
772
 
 
773
 
    def do_repository_request(self, repository, resume_tokens, lock_token=None):
774
 
        """StreamSink.insert_stream for a remote repository."""
775
 
        SmartServerRepositoryInsertStreamLocked.do_repository_request(
776
 
            self, repository, resume_tokens, lock_token)
777
 
 
778
 
 
779
 
class SmartServerRepositoryInsertStream(SmartServerRepositoryInsertStreamLocked):
780
 
    """Insert a record stream from a RemoteSink into an unlocked repository.
781
 
 
782
 
    This is the same as SmartServerRepositoryInsertStreamLocked, except it
783
 
    takes no lock_tokens; i.e. it works with an unlocked (or lock-free, e.g.
784
 
    like pack format) repository.
785
 
 
786
 
    New in 1.13.
787
 
    """
788
 
 
789
 
    def do_repository_request(self, repository, resume_tokens):
790
 
        """StreamSink.insert_stream for a remote repository."""
791
 
        repository.lock_write()
792
 
        self.do_insert_stream_request(repository, resume_tokens)
793
 
 
 
372
class SmartServerRepositoryStreamKnitDataForRevisions(SmartServerRepositoryRequest):
 
373
    """Bzr <= 1.1 streaming pull, buffers all data on server."""
 
374
 
 
375
    def do_repository_request(self, repository, *revision_ids):
 
376
        repository.lock_read()
 
377
        try:
 
378
            return self._do_repository_request(repository, revision_ids)
 
379
        finally:
 
380
            repository.unlock()
 
381
 
 
382
    def _do_repository_request(self, repository, revision_ids):
 
383
        stream = repository.get_data_stream_for_search(
 
384
            repository.revision_ids_to_search_result(set(revision_ids)))
 
385
        buffer = StringIO()
 
386
        pack = ContainerSerialiser()
 
387
        buffer.write(pack.begin())
 
388
        try:
 
389
            try:
 
390
                for name_tuple, bytes in stream:
 
391
                    buffer.write(pack.bytes_record(bytes, [name_tuple]))
 
392
            except:
 
393
                # Undo the lock_read that happens once the iterator from
 
394
                # get_data_stream is started.
 
395
                repository.unlock()
 
396
                raise
 
397
        except errors.RevisionNotPresent, e:
 
398
            return FailedSmartServerResponse(('NoSuchRevision', e.revision_id))
 
399
        buffer.write(pack.end())
 
400
        return SuccessfulSmartServerResponse(('ok',), buffer.getvalue())
 
401
 
 
402
 
 
403
class SmartServerRepositoryStreamRevisionsChunked(SmartServerRepositoryRequest):
 
404
    """Bzr 1.1+ streaming pull."""
 
405
 
 
406
    def do_body(self, body_bytes):
 
407
        repository = self._repository
 
408
        repository.lock_read()
 
409
        try:
 
410
            search, error = self.recreate_search(repository, body_bytes)
 
411
            if error is not None:
 
412
                repository.unlock()
 
413
                return error
 
414
            stream = repository.get_data_stream_for_search(search.get_result())
 
415
        except Exception:
 
416
            # On non-error, unlocking is done by the body stream handler.
 
417
            repository.unlock()
 
418
            raise
 
419
        return SuccessfulSmartServerResponse(('ok',),
 
420
            body_stream=self.body_stream(stream, repository))
 
421
 
 
422
    def body_stream(self, stream, repository):
 
423
        pack = ContainerSerialiser()
 
424
        yield pack.begin()
 
425
        try:
 
426
            for name_tuple, bytes in stream:
 
427
                yield pack.bytes_record(bytes, [name_tuple])
 
428
        except errors.RevisionNotPresent, e:
 
429
            # This shouldn't be able to happen, but as we don't buffer
 
430
            # everything it can in theory happen.
 
431
            yield FailedSmartServerResponse(('NoSuchRevision', e.revision_id))
 
432
        repository.unlock()
 
433
        pack.end()
794
434