/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/fetch.py

  • Committer: Martin Pool
  • Date: 2009-03-12 05:11:05 UTC
  • mto: This revision was merged to the branch mainline in revision 4144.
  • Revision ID: mbp@sourcefrog.net-20090312051105-ee7vcl1ocgxntxmk
Split debug flags into their own help topic

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2008, 2009 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
"""Copying of history from one branch to another.
25
25
 
26
26
import operator
27
27
 
28
 
from bzrlib.lazy_import import lazy_import
29
 
lazy_import(globals(), """
30
 
from bzrlib import (
31
 
    tsort,
32
 
    versionedfile,
33
 
    )
34
 
""")
35
28
import bzrlib
36
29
from bzrlib import (
37
30
    errors,
38
 
    ui,
 
31
    symbol_versioning,
39
32
    )
 
33
from bzrlib.errors import InstallFailed
 
34
from bzrlib.progress import ProgressPhase
40
35
from bzrlib.revision import NULL_REVISION
 
36
from bzrlib.tsort import topo_sort
41
37
from bzrlib.trace import mutter
 
38
import bzrlib.ui
 
39
from bzrlib.versionedfile import FulltextContentFactory
42
40
 
43
41
 
44
42
class RepoFetcher(object):
49
47
    """
50
48
 
51
49
    def __init__(self, to_repository, from_repository, last_revision=None,
52
 
        find_ghosts=True, fetch_spec=None):
 
50
        pb=None, find_ghosts=True, fetch_spec=None):
53
51
        """Create a repo fetcher.
54
52
 
55
53
        :param last_revision: If set, try to limit to the data this revision
56
54
            references.
57
55
        :param find_ghosts: If True search the entire history for ghosts.
 
56
        :param _write_group_acquired_callable: Don't use; this parameter only
 
57
            exists to facilitate a hack done in InterPackRepo.fetch.  We would
 
58
            like to remove this parameter.
 
59
        :param pb: ProgressBar object to use; deprecated and ignored.
 
60
            This method will just create one on top of the stack.
58
61
        """
59
 
        # repository.fetch has the responsibility for short-circuiting
60
 
        # attempts to copy between a repository and itself.
 
62
        if pb is not None:
 
63
            symbol_versioning.warn(
 
64
                symbol_versioning.deprecated_in((1, 14, 0))
 
65
                % "pb parameter to RepoFetcher.__init__")
 
66
            # and for simplicity it is in fact ignored
 
67
        if to_repository.has_same_location(from_repository):
 
68
            # repository.fetch should be taking care of this case.
 
69
            raise errors.BzrError('RepoFetcher run '
 
70
                    'between two objects at the same location: '
 
71
                    '%r and %r' % (to_repository, from_repository))
61
72
        self.to_repository = to_repository
62
73
        self.from_repository = from_repository
63
74
        self.sink = to_repository._get_sink()
66
77
        self._fetch_spec = fetch_spec
67
78
        self.find_ghosts = find_ghosts
68
79
        self.from_repository.lock_read()
69
 
        mutter("Using fetch logic to copy between %s(%s) and %s(%s)",
70
 
               self.from_repository, self.from_repository._format,
71
 
               self.to_repository, self.to_repository._format)
72
80
        try:
73
81
            self.__fetch()
74
82
        finally:
88
96
        # assert not missing
89
97
        self.count_total = 0
90
98
        self.file_ids_names = {}
91
 
        pb = ui.ui_factory.nested_progress_bar()
92
 
        pb.show_pct = pb.show_count = False
93
 
        try:
94
 
            pb.update("Finding revisions", 0, 2)
95
 
            search = self._revids_to_fetch()
96
 
            if search is None:
97
 
                return
98
 
            pb.update("Fetching revisions", 1, 2)
99
 
            self._fetch_everything_for_search(search)
100
 
        finally:
101
 
            pb.finished()
 
99
        search = self._revids_to_fetch()
 
100
        if search is None:
 
101
            return
 
102
        self._fetch_everything_for_search(search)
102
103
 
103
104
    def _fetch_everything_for_search(self, search):
104
105
        """Fetch all data for the given set of revisions."""
115
116
            raise errors.IncompatibleRepositories(
116
117
                self.from_repository, self.to_repository,
117
118
                "different rich-root support")
118
 
        pb = ui.ui_factory.nested_progress_bar()
 
119
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
119
120
        try:
120
 
            pb.update("Get stream source")
121
121
            source = self.from_repository._get_source(
122
122
                self.to_repository._format)
123
123
            stream = source.get_stream(search)
124
124
            from_format = self.from_repository._format
125
 
            pb.update("Inserting stream")
126
125
            resume_tokens, missing_keys = self.sink.insert_stream(
127
126
                stream, from_format, [])
128
 
            if self.to_repository._fallback_repositories:
129
 
                missing_keys.update(
130
 
                    self._parent_inventories(search.get_keys()))
131
127
            if missing_keys:
132
 
                pb.update("Missing keys")
133
128
                stream = source.get_stream_for_missing_keys(missing_keys)
134
 
                pb.update("Inserting missing keys")
135
129
                resume_tokens, missing_keys = self.sink.insert_stream(
136
130
                    stream, from_format, resume_tokens)
137
131
            if missing_keys:
142
136
                raise AssertionError(
143
137
                    "second push failed to commit the fetch %r." % (
144
138
                        resume_tokens,))
145
 
            pb.update("Finishing stream")
146
139
            self.sink.finished()
147
140
        finally:
148
141
            pb.finished()
159
152
        if self._last_revision is NULL_REVISION:
160
153
            # explicit limit of no revisions needed
161
154
            return None
162
 
        return self.to_repository.search_missing_revision_ids(
163
 
            self.from_repository, self._last_revision,
164
 
            find_ghosts=self.find_ghosts)
165
 
 
166
 
    def _parent_inventories(self, revision_ids):
167
 
        # Find all the parent revisions referenced by the stream, but
168
 
        # not present in the stream, and make sure we send their
169
 
        # inventories.
170
 
        parent_maps = self.to_repository.get_parent_map(revision_ids)
171
 
        parents = set()
172
 
        map(parents.update, parent_maps.itervalues())
173
 
        parents.discard(NULL_REVISION)
174
 
        parents.difference_update(revision_ids)
175
 
        missing_keys = set(('inventories', rev_id) for rev_id in parents)
176
 
        return missing_keys
 
155
        if (self._last_revision is not None and
 
156
            self.to_repository.has_revision(self._last_revision)):
 
157
            return None
 
158
        try:
 
159
            return self.to_repository.search_missing_revision_ids(
 
160
                self.from_repository, self._last_revision,
 
161
                find_ghosts=self.find_ghosts)
 
162
        except errors.NoSuchRevision, e:
 
163
            raise InstallFailed([self._last_revision])
177
164
 
178
165
 
179
166
class Inter1and2Helper(object):
210
197
 
211
198
    def _find_root_ids(self, revs, parent_map, graph):
212
199
        revision_root = {}
 
200
        planned_versions = {}
213
201
        for tree in self.iter_rev_trees(revs):
214
202
            revision_id = tree.inventory.root.revision
215
203
            root_id = tree.get_root_id()
 
204
            planned_versions.setdefault(root_id, []).append(revision_id)
216
205
            revision_root[revision_id] = root_id
217
206
        # Find out which parents we don't already know root ids for
218
207
        parents = set()
224
213
        for tree in self.iter_rev_trees(parents):
225
214
            root_id = tree.get_root_id()
226
215
            revision_root[tree.get_revision_id()] = root_id
227
 
        return revision_root
 
216
        return revision_root, planned_versions
228
217
 
229
218
    def generate_root_texts(self, revs):
230
219
        """Generate VersionedFiles for all root ids.
233
222
        """
234
223
        graph = self.source.get_graph()
235
224
        parent_map = graph.get_parent_map(revs)
236
 
        rev_order = tsort.topo_sort(parent_map)
237
 
        rev_id_to_root_id = self._find_root_ids(revs, parent_map, graph)
 
225
        rev_order = topo_sort(parent_map)
 
226
        rev_id_to_root_id, root_id_to_rev_ids = self._find_root_ids(
 
227
            revs, parent_map, graph)
238
228
        root_id_order = [(rev_id_to_root_id[rev_id], rev_id) for rev_id in
239
229
            rev_order]
240
230
        # Guaranteed stable, this groups all the file id operations together
243
233
        # yet, and are unlikely to in non-rich-root environments anyway.
244
234
        root_id_order.sort(key=operator.itemgetter(0))
245
235
        # Create a record stream containing the roots to create.
246
 
        if len(revs) > 100:
247
 
            # XXX: not covered by tests, should have a flag to always run
248
 
            # this. -- mbp 20100129
249
 
            graph = self.source_repo.get_known_graph_ancestry(revs)
250
 
        new_roots_stream = _new_root_data_stream(
251
 
            root_id_order, rev_id_to_root_id, parent_map, self.source, graph)
252
 
        return [('texts', new_roots_stream)]
253
 
 
254
 
 
255
 
def _get_rich_root_heads_graph(source_repo, revision_ids):
256
 
    """Get a Graph object suitable for asking heads() for new rich roots."""
257
 
    return 
258
 
 
259
 
 
260
 
def _new_root_data_stream(
261
 
    root_keys_to_create, rev_id_to_root_id_map, parent_map, repo, graph=None):
262
 
    """Generate a texts substream of synthesised root entries.
263
 
 
264
 
    Used in fetches that do rich-root upgrades.
265
 
    
266
 
    :param root_keys_to_create: iterable of (root_id, rev_id) pairs describing
267
 
        the root entries to create.
268
 
    :param rev_id_to_root_id_map: dict of known rev_id -> root_id mappings for
269
 
        calculating the parents.  If a parent rev_id is not found here then it
270
 
        will be recalculated.
271
 
    :param parent_map: a parent map for all the revisions in
272
 
        root_keys_to_create.
273
 
    :param graph: a graph to use instead of repo.get_graph().
274
 
    """
275
 
    for root_key in root_keys_to_create:
276
 
        root_id, rev_id = root_key
277
 
        parent_keys = _parent_keys_for_root_version(
278
 
            root_id, rev_id, rev_id_to_root_id_map, parent_map, repo, graph)
279
 
        yield versionedfile.FulltextContentFactory(
280
 
            root_key, parent_keys, None, '')
281
 
 
282
 
 
283
 
def _parent_keys_for_root_version(
284
 
    root_id, rev_id, rev_id_to_root_id_map, parent_map, repo, graph=None):
285
 
    """Get the parent keys for a given root id.
286
 
    
287
 
    A helper function for _new_root_data_stream.
288
 
    """
289
 
    # Include direct parents of the revision, but only if they used the same
290
 
    # root_id and are heads.
291
 
    rev_parents = parent_map[rev_id]
292
 
    parent_ids = []
293
 
    for parent_id in rev_parents:
294
 
        if parent_id == NULL_REVISION:
295
 
            continue
296
 
        if parent_id not in rev_id_to_root_id_map:
297
 
            # We probably didn't read this revision, go spend the extra effort
298
 
            # to actually check
299
 
            try:
300
 
                tree = repo.revision_tree(parent_id)
301
 
            except errors.NoSuchRevision:
302
 
                # Ghost, fill out rev_id_to_root_id in case we encounter this
303
 
                # again.
304
 
                # But set parent_root_id to None since we don't really know
305
 
                parent_root_id = None
306
 
            else:
307
 
                parent_root_id = tree.get_root_id()
308
 
            rev_id_to_root_id_map[parent_id] = None
309
 
            # XXX: why not:
310
 
            #   rev_id_to_root_id_map[parent_id] = parent_root_id
311
 
            # memory consumption maybe?
312
 
        else:
313
 
            parent_root_id = rev_id_to_root_id_map[parent_id]
314
 
        if root_id == parent_root_id:
315
 
            # With stacking we _might_ want to refer to a non-local revision,
316
 
            # but this code path only applies when we have the full content
317
 
            # available, so ghosts really are ghosts, not just the edge of
318
 
            # local data.
319
 
            parent_ids.append(parent_id)
320
 
        else:
321
 
            # root_id may be in the parent anyway.
322
 
            try:
323
 
                tree = repo.revision_tree(parent_id)
324
 
            except errors.NoSuchRevision:
325
 
                # ghost, can't refer to it.
326
 
                pass
327
 
            else:
328
 
                try:
329
 
                    parent_ids.append(tree.inventory[root_id].revision)
330
 
                except errors.NoSuchId:
331
 
                    # not in the tree
332
 
                    pass
333
 
    # Drop non-head parents
334
 
    if graph is None:
335
 
        graph = repo.get_graph()
336
 
    heads = graph.heads(parent_ids)
337
 
    selected_ids = []
338
 
    for parent_id in parent_ids:
339
 
        if parent_id in heads and parent_id not in selected_ids:
340
 
            selected_ids.append(parent_id)
341
 
    parent_keys = [(root_id, parent_id) for parent_id in selected_ids]
342
 
    return parent_keys
 
236
        def yield_roots():
 
237
            for key in root_id_order:
 
238
                root_id, rev_id = key
 
239
                rev_parents = parent_map[rev_id]
 
240
                # We drop revision parents with different file-ids, because
 
241
                # that represents a rename of the root to a different location
 
242
                # - its not actually a parent for us. (We could look for that
 
243
                # file id in the revision tree at considerably more expense,
 
244
                # but for now this is sufficient (and reconcile will catch and
 
245
                # correct this anyway).
 
246
                # When a parent revision is a ghost, we guess that its root id
 
247
                # was unchanged (rather than trimming it from the parent list).
 
248
                parent_keys = tuple((root_id, parent) for parent in rev_parents
 
249
                    if parent != NULL_REVISION and
 
250
                        rev_id_to_root_id.get(parent, root_id) == root_id)
 
251
                yield FulltextContentFactory(key, parent_keys, None, '')
 
252
        return [('texts', yield_roots())]