80
77
    def _reconcile(self):
 
81
78
        """Helper function for performing reconciliation."""
 
82
 
        self._reconcile_branch()
 
83
 
        self._reconcile_repository()
 
85
 
    def _reconcile_branch(self):
 
87
 
            self.branch = self.bzrdir.open_branch()
 
88
 
        except errors.NotBranchError:
 
89
 
            # Nothing to check here
 
90
 
            self.fixed_branch_history = None
 
92
 
        ui.ui_factory.note('Reconciling branch %s' % self.branch.base)
 
93
 
        branch_reconciler = self.branch.reconcile(thorough=True)
 
94
 
        self.fixed_branch_history = branch_reconciler.fixed_history
 
96
 
    def _reconcile_repository(self):
 
97
79
        self.repo = self.bzrdir.find_repository()
 
98
 
        ui.ui_factory.note('Reconciling repository %s' %
 
 
80
        self.pb.note('Reconciling repository %s',
 
 
81
                     self.repo.bzrdir.root_transport.base)
 
100
82
        self.pb.update("Reconciling repository", 0, 1)
 
101
83
        repo_reconciler = self.repo.reconcile(thorough=True)
 
102
84
        self.inconsistent_parents = repo_reconciler.inconsistent_parents
 
103
85
        self.garbage_inventories = repo_reconciler.garbage_inventories
 
104
86
        if repo_reconciler.aborted:
 
106
88
                'Reconcile aborted: revision index has inconsistent parents.')
 
108
90
                'Run "bzr check" for more details.')
 
110
 
            ui.ui_factory.note('Reconciliation complete.')
 
113
 
class BranchReconciler(object):
 
114
 
    """Reconciler that works on a branch."""
 
116
 
    def __init__(self, a_branch, thorough=False):
 
117
 
        self.fixed_history = None
 
118
 
        self.thorough = thorough
 
119
 
        self.branch = a_branch
 
122
 
        operation = cleanup.OperationWithCleanups(self._reconcile)
 
123
 
        self.add_cleanup = operation.add_cleanup
 
124
 
        operation.run_simple()
 
126
 
    def _reconcile(self):
 
127
 
        self.branch.lock_write()
 
128
 
        self.add_cleanup(self.branch.unlock)
 
129
 
        self.pb = ui.ui_factory.nested_progress_bar()
 
130
 
        self.add_cleanup(self.pb.finished)
 
131
 
        self._reconcile_steps()
 
133
 
    def _reconcile_steps(self):
 
134
 
        self._reconcile_revision_history()
 
136
 
    def _reconcile_revision_history(self):
 
137
 
        repo = self.branch.repository
 
138
 
        last_revno, last_revision_id = self.branch.last_revision_info()
 
141
 
            for revid in repo.iter_reverse_revision_history(
 
143
 
                real_history.append(revid)
 
144
 
        except errors.RevisionNotPresent:
 
145
 
            pass # Hit a ghost left hand parent
 
146
 
        real_history.reverse()
 
147
 
        if last_revno != len(real_history):
 
148
 
            self.fixed_history = True
 
149
 
            # Technically for Branch5 formats, it is more efficient to use
 
150
 
            # set_revision_history, as this will regenerate it again.
 
151
 
            # Not really worth a whole BranchReconciler class just for this,
 
153
 
            ui.ui_factory.note('Fixing last revision info %s => %s' % (
 
154
 
                 last_revno, len(real_history)))
 
155
 
            self.branch.set_last_revision_info(len(real_history),
 
158
 
            self.fixed_history = False
 
159
 
            ui.ui_factory.note('revision_history ok.')
 
 
92
            self.pb.note('Reconciliation complete.')
 
162
95
class RepoReconciler(object):
 
163
96
    """Reconciler that reconciles a repository.
 
165
98
    The goal of repository reconciliation is to make any derived data
 
166
 
    consistent with the core data committed by a user. This can involve
 
 
99
    consistent with the core data committed by a user. This can involve 
 
167
100
    reindexing, or removing unreferenced data if that can interfere with
 
168
101
    queries in a given repository.
 
 
234
165
            # put a revision into the graph.
 
235
166
            self._graph_revision(rev_id)
 
236
167
        self._check_garbage_inventories()
 
237
 
        # if there are no inconsistent_parents and
 
 
168
        # if there are no inconsistent_parents and 
 
238
169
        # (no garbage inventories or we are not doing a thorough check)
 
239
 
        if (not self.inconsistent_parents and
 
 
170
        if (not self.inconsistent_parents and 
 
240
171
            (not self.garbage_inventories or not self.thorough)):
 
241
 
            ui.ui_factory.note('Inventory ok.')
 
 
172
            self.pb.note('Inventory ok.')
 
243
 
        self.pb.update('Backing up inventory', 0, 0)
 
244
 
        self.repo._backup_inventory()
 
245
 
        ui.ui_factory.note('Backup inventory created.')
 
246
 
        new_inventories = self.repo._temp_inventories()
 
 
174
        self.pb.update('Backing up inventory...', 0, 0)
 
 
175
        self.repo.control_weaves.copy(self.inventory, 'inventory.backup', self.repo.get_transaction())
 
 
176
        self.pb.note('Backup Inventory created.')
 
 
177
        # asking for '' should never return a non-empty weave
 
 
178
        new_inventory_vf = self.repo.control_weaves.get_empty('inventory.new',
 
 
179
            self.repo.get_transaction())
 
248
181
        # we have topological order of revisions and non ghost parents ready.
 
249
182
        self._setup_steps(len(self._rev_graph))
 
250
 
        revision_keys = [(rev_id,) for rev_id in topo_sort(self._rev_graph)]
 
251
 
        stream = self._change_inv_parents(
 
252
 
            self.inventory.get_record_stream(revision_keys, 'unordered', True),
 
253
 
            self._new_inv_parents,
 
255
 
        new_inventories.insert_record_stream(stream)
 
256
 
        # if this worked, the set of new_inventories.keys should equal
 
 
183
        for rev_id in TopoSorter(self._rev_graph.items()).iter_topo_order():
 
 
184
            parents = self._rev_graph[rev_id]
 
 
185
            # double check this really is in topological order.
 
 
186
            unavailable = [p for p in parents if p not in new_inventory_vf]
 
 
187
            assert len(unavailable) == 0
 
 
188
            # this entry has all the non ghost parents in the inventory
 
 
190
            self._reweave_step('adding inventories')
 
 
191
            if isinstance(new_inventory_vf, WeaveFile):
 
 
192
                # It's really a WeaveFile, but we call straight into the
 
 
193
                # Weave's add method to disable the auto-write-out behaviour.
 
 
194
                # This is done to avoid a revision_count * time-to-write additional overhead on 
 
 
196
                new_inventory_vf._check_write_ok()
 
 
197
                Weave._add_lines(new_inventory_vf, rev_id, parents,
 
 
198
                    self.inventory.get_lines(rev_id), None, None, None, False, True)
 
 
200
                new_inventory_vf.add_lines(rev_id, parents, self.inventory.get_lines(rev_id))
 
 
202
        if isinstance(new_inventory_vf, WeaveFile):
 
 
203
            new_inventory_vf._save()
 
 
204
        # if this worked, the set of new_inventory_vf.names should equal
 
258
 
        if not (set(new_inventories.keys()) ==
 
259
 
            set([(revid,) for revid in self.pending])):
 
260
 
            raise AssertionError()
 
 
206
        assert set(new_inventory_vf.versions()) == self.pending
 
261
207
        self.pb.update('Writing weave')
 
262
 
        self.repo._activate_new_inventory()
 
 
208
        self.repo.control_weaves.copy(new_inventory_vf, 'inventory', self.repo.get_transaction())
 
 
209
        self.repo.control_weaves.delete('inventory.new', self.repo.get_transaction())
 
263
210
        self.inventory = None
 
264
 
        ui.ui_factory.note('Inventory regenerated.')
 
266
 
    def _new_inv_parents(self, revision_key):
 
267
 
        """Lookup ghost-filtered parents for revision_key."""
 
268
 
        # Use the filtered ghostless parents list:
 
269
 
        return tuple([(revid,) for revid in self._rev_graph[revision_key[-1]]])
 
271
 
    def _change_inv_parents(self, stream, get_parents, all_revision_keys):
 
272
 
        """Adapt a record stream to reconcile the parents."""
 
273
 
        for record in stream:
 
274
 
            wanted_parents = get_parents(record.key)
 
275
 
            if wanted_parents and wanted_parents[0] not in all_revision_keys:
 
276
 
                # The check for the left most parent only handles knit
 
277
 
                # compressors, but this code only applies to knit and weave
 
278
 
                # repositories anyway.
 
279
 
                bytes = record.get_bytes_as('fulltext')
 
280
 
                yield FulltextContentFactory(record.key, wanted_parents, record.sha1, bytes)
 
282
 
                adapted_record = AdapterFactory(record.key, wanted_parents, record)
 
284
 
            self._reweave_step('adding inventories')
 
 
211
        self.pb.note('Inventory regenerated.')
 
286
213
    def _setup_steps(self, new_total):
 
287
214
        """Setup the markers we need to control the progress bar."""
 
 
294
221
        # analyse revision id rev_id and put it in the stack.
 
295
222
        self._reweave_step('loading revisions')
 
296
223
        rev = self.repo.get_revision_reconcile(rev_id)
 
 
224
        assert rev.revision_id == rev_id
 
298
226
        for parent in rev.parent_ids:
 
299
227
            if self._parent_is_available(parent):
 
300
228
                parents.append(parent)
 
302
230
                mutter('found ghost %s', parent)
 
303
 
        self._rev_graph[rev_id] = parents
 
 
231
        self._rev_graph[rev_id] = parents   
 
 
232
        if self._parents_are_inconsistent(rev_id, parents):
 
 
233
            self.inconsistent_parents += 1
 
 
234
            mutter('Inconsistent inventory parents: id {%s} '
 
 
235
                   'inventory claims %r, '
 
 
236
                   'available parents are %r, '
 
 
237
                   'unavailable parents are %r',
 
 
239
                   set(self.inventory.get_parents(rev_id)),
 
 
241
                   set(rev.parent_ids).difference(set(parents)))
 
 
243
    def _parents_are_inconsistent(self, rev_id, parents):
 
 
244
        """Return True if the parents list of rev_id does not match the weave.
 
 
246
        This detects inconsistencies based on the self.thorough value:
 
 
247
        if thorough is on, the first parent value is checked as well as ghost
 
 
249
        Otherwise only the ghost differences are evaluated.
 
 
251
        weave_parents = self.inventory.get_parents(rev_id)
 
 
252
        weave_missing_old_ghosts = set(weave_parents) != set(parents)
 
 
253
        first_parent_is_wrong = (
 
 
254
            len(weave_parents) and len(parents) and
 
 
255
            parents[0] != weave_parents[0])
 
 
257
            return weave_missing_old_ghosts or first_parent_is_wrong
 
 
259
            return weave_missing_old_ghosts
 
305
261
    def _check_garbage_inventories(self):
 
306
262
        """Check for garbage inventories which we cannot trust
 
 
355
309
    def _load_indexes(self):
 
356
310
        """Load indexes for the reconciliation."""
 
357
311
        self.transaction = self.repo.get_transaction()
 
358
 
        self.pb.update('Reading indexes', 0, 2)
 
359
 
        self.inventory = self.repo.inventories
 
360
 
        self.pb.update('Reading indexes', 1, 2)
 
 
312
        self.pb.update('Reading indexes.', 0, 2)
 
 
313
        self.inventory = self.repo.get_inventory_weave()
 
 
314
        self.pb.update('Reading indexes.', 1, 2)
 
361
315
        self.repo._check_for_inconsistent_revision_parents()
 
362
 
        self.revisions = self.repo.revisions
 
363
 
        self.pb.update('Reading indexes', 2, 2)
 
 
316
        self.revisions = self.repo._revision_store.get_revision_file(self.transaction)
 
 
317
        self.pb.update('Reading indexes.', 2, 2)
 
365
319
    def _gc_inventory(self):
 
366
320
        """Remove inventories that are not referenced from the revision store."""
 
367
 
        self.pb.update('Checking unused inventories', 0, 1)
 
 
321
        self.pb.update('Checking unused inventories.', 0, 1)
 
368
322
        self._check_garbage_inventories()
 
369
 
        self.pb.update('Checking unused inventories', 1, 3)
 
 
323
        self.pb.update('Checking unused inventories.', 1, 3)
 
370
324
        if not self.garbage_inventories:
 
371
 
            ui.ui_factory.note('Inventory ok.')
 
 
325
            self.pb.note('Inventory ok.')
 
373
 
        self.pb.update('Backing up inventory', 0, 0)
 
374
 
        self.repo._backup_inventory()
 
375
 
        ui.ui_factory.note('Backup Inventory created')
 
 
327
        self.pb.update('Backing up inventory...', 0, 0)
 
 
328
        self.repo.control_weaves.copy(self.inventory, 'inventory.backup', self.transaction)
 
 
329
        self.pb.note('Backup Inventory created.')
 
376
330
        # asking for '' should never return a non-empty weave
 
377
 
        new_inventories = self.repo._temp_inventories()
 
 
331
        new_inventory_vf = self.repo.control_weaves.get_empty('inventory.new',
 
378
334
        # we have topological order of revisions and non ghost parents ready.
 
379
 
        graph = self.revisions.get_parent_map(self.revisions.keys())
 
380
 
        revision_keys = topo_sort(graph)
 
381
 
        revision_ids = [key[-1] for key in revision_keys]
 
382
 
        self._setup_steps(len(revision_keys))
 
383
 
        stream = self._change_inv_parents(
 
384
 
            self.inventory.get_record_stream(revision_keys, 'unordered', True),
 
387
 
        new_inventories.insert_record_stream(stream)
 
 
335
        self._setup_steps(len(self.revisions))
 
 
336
        for rev_id in TopoSorter(self.revisions.get_graph().items()).iter_topo_order():
 
 
337
            parents = self.revisions.get_parents(rev_id)
 
 
338
            # double check this really is in topological order.
 
 
339
            unavailable = [p for p in parents if p not in new_inventory_vf]
 
 
340
            assert len(unavailable) == 0
 
 
341
            # this entry has all the non ghost parents in the inventory
 
 
343
            self._reweave_step('adding inventories')
 
 
344
            # ugly but needed, weaves are just way tooooo slow else.
 
 
345
            new_inventory_vf.add_lines(rev_id, parents, self.inventory.get_lines(rev_id))
 
388
347
        # if this worked, the set of new_inventory_vf.names should equal
 
389
 
        # the revisionds list
 
390
 
        if not(set(new_inventories.keys()) == set(revision_keys)):
 
391
 
            raise AssertionError()
 
 
349
        assert set(new_inventory_vf.versions()) == set(self.revisions.versions())
 
392
350
        self.pb.update('Writing weave')
 
393
 
        self.repo._activate_new_inventory()
 
 
351
        self.repo.control_weaves.copy(new_inventory_vf, 'inventory', self.transaction)
 
 
352
        self.repo.control_weaves.delete('inventory.new', self.transaction)
 
394
353
        self.inventory = None
 
395
 
        ui.ui_factory.note('Inventory regenerated.')
 
 
354
        self.pb.note('Inventory regenerated.')
 
 
356
    def _check_garbage_inventories(self):
 
 
357
        """Check for garbage inventories which we cannot trust
 
 
359
        We cant trust them because their pre-requisite file data may not
 
 
360
        be present - all we know is that their revision was not installed.
 
 
362
        inventories = set(self.inventory.versions())
 
 
363
        revisions = set(self.revisions.versions())
 
 
364
        garbage = inventories.difference(revisions)
 
 
365
        self.garbage_inventories = len(garbage)
 
 
366
        for revision_id in garbage:
 
 
367
            mutter('Garbage inventory {%s} found.', revision_id)
 
397
369
    def _fix_text_parents(self):
 
398
370
        """Fix bad versionedfile parent entries.
 
 
404
376
        parent lists, and replaces the versionedfile with a corrected version.
 
406
378
        transaction = self.repo.get_transaction()
 
407
 
        versions = [key[-1] for key in self.revisions.keys()]
 
 
379
        versions = self.revisions.versions()
 
408
380
        mutter('Prepopulating revision text cache with %d revisions',
 
410
382
        vf_checker = self.repo._get_versioned_file_checker()
 
411
 
        bad_parents, unused_versions = vf_checker.check_file_version_parents(
 
412
 
            self.repo.texts, self.pb)
 
413
 
        text_index = vf_checker.text_index
 
414
 
        per_id_bad_parents = {}
 
415
 
        for key in unused_versions:
 
416
 
            # Ensure that every file with unused versions gets rewritten.
 
417
 
            # NB: This is really not needed, reconcile != pack.
 
418
 
            per_id_bad_parents[key[0]] = {}
 
419
 
        # Generate per-knit/weave data.
 
420
 
        for key, details in bad_parents.iteritems():
 
423
 
            knit_parents = tuple([parent[-1] for parent in details[0]])
 
424
 
            correct_parents = tuple([parent[-1] for parent in details[1]])
 
425
 
            file_details = per_id_bad_parents.setdefault(file_id, {})
 
426
 
            file_details[rev_id] = (knit_parents, correct_parents)
 
427
 
        file_id_versions = {}
 
428
 
        for text_key in text_index:
 
429
 
            versions_list = file_id_versions.setdefault(text_key[0], [])
 
430
 
            versions_list.append(text_key[1])
 
431
 
        # Do the reconcile of individual weaves.
 
432
 
        for num, file_id in enumerate(per_id_bad_parents):
 
 
383
        # List all weaves before altering, to avoid race conditions when we
 
 
384
        # delete unused weaves.
 
 
385
        weaves = list(enumerate(self.repo.weave_store))
 
 
386
        for num, file_id in weaves:
 
433
387
            self.pb.update('Fixing text parents', num,
 
434
 
                           len(per_id_bad_parents))
 
435
 
            versions_with_bad_parents = per_id_bad_parents[file_id]
 
436
 
            id_unused_versions = set(key[-1] for key in unused_versions
 
437
 
                if key[0] == file_id)
 
438
 
            if file_id in file_id_versions:
 
439
 
                file_versions = file_id_versions[file_id]
 
441
 
                # This id was present in the disk store but is not referenced
 
442
 
                # by any revision at all.
 
444
 
            self._fix_text_parent(file_id, versions_with_bad_parents,
 
445
 
                 id_unused_versions, file_versions)
 
 
388
                           len(self.repo.weave_store))
 
 
389
            vf = self.repo.weave_store.get_weave(file_id, transaction)
 
 
390
            versions_with_bad_parents, unused_versions = \
 
 
391
                vf_checker.check_file_version_parents(vf, file_id)
 
 
392
            if (len(versions_with_bad_parents) == 0 and
 
 
393
                len(unused_versions) == 0):
 
 
395
            full_text_versions = set()
 
 
396
            self._fix_text_parent(file_id, vf, versions_with_bad_parents,
 
 
397
                full_text_versions, unused_versions)
 
447
 
    def _fix_text_parent(self, file_id, versions_with_bad_parents,
 
448
 
            unused_versions, all_versions):
 
 
399
    def _fix_text_parent(self, file_id, vf, versions_with_bad_parents,
 
 
400
            full_text_versions, unused_versions):
 
449
401
        """Fix bad versionedfile entries in a single versioned file."""
 
450
402
        mutter('fixing text parent: %r (%d versions)', file_id,
 
451
403
                len(versions_with_bad_parents))
 
452
 
        mutter('(%d are unused)', len(unused_versions))
 
453
 
        new_file_id = 'temp:%s' % file_id
 
 
404
        mutter('(%d need to be full texts, %d are unused)',
 
 
405
                len(full_text_versions), len(unused_versions))
 
 
406
        new_vf = self.repo.weave_store.get_empty('temp:%s' % file_id,
 
456
 
        for version in all_versions:
 
 
409
        for version in vf.versions():
 
457
410
            if version in unused_versions:
 
459
412
            elif version in versions_with_bad_parents:
 
460
413
                parents = versions_with_bad_parents[version][1]
 
462
 
                pmap = self.repo.texts.get_parent_map([(file_id, version)])
 
463
 
                parents = [key[-1] for key in pmap[(file_id, version)]]
 
464
 
            new_parents[(new_file_id, version)] = [
 
465
 
                (new_file_id, parent) for parent in parents]
 
466
 
            needed_keys.add((file_id, version))
 
467
 
        def fix_parents(stream):
 
468
 
            for record in stream:
 
469
 
                bytes = record.get_bytes_as('fulltext')
 
470
 
                new_key = (new_file_id, record.key[-1])
 
471
 
                parents = new_parents[new_key]
 
472
 
                yield FulltextContentFactory(new_key, parents, record.sha1, bytes)
 
473
 
        stream = self.repo.texts.get_record_stream(needed_keys, 'topological', True)
 
474
 
        self.repo._remove_file_id(new_file_id)
 
475
 
        self.repo.texts.insert_record_stream(fix_parents(stream))
 
476
 
        self.repo._remove_file_id(file_id)
 
478
 
            self.repo._move_file_id(new_file_id, file_id)
 
 
415
                parents = vf.get_parents(version)
 
 
416
            new_parents[version] = parents
 
 
417
        if not len(new_parents):
 
 
418
            # No used versions, remove the VF.
 
 
419
            self.repo.weave_store.delete(file_id, self.transaction)
 
 
421
        for version in TopoSorter(new_parents.items()).iter_topo_order():
 
 
422
            lines = vf.get_lines(version)
 
 
423
            parents = new_parents[version]
 
 
424
            if parents and (parents[0] in full_text_versions):
 
 
425
                # Force this record to be a fulltext, not a delta.
 
 
426
                new_vf._add(version, lines, parents, False,
 
 
427
                    None, None, None, False)
 
 
429
                new_vf.add_lines(version, parents, lines)
 
 
430
        self.repo.weave_store.copy(new_vf, file_id, self.transaction)
 
 
431
        self.repo.weave_store.delete('temp:%s' % file_id, self.transaction)
 
481
434
class PackReconciler(RepoReconciler):
 
 
503
456
        collection = self.repo._pack_collection
 
504
457
        collection.ensure_loaded()
 
505
458
        collection.lock_names()
 
506
 
        self.add_cleanup(collection._unlock_names)
 
507
 
        packs = collection.all_packs()
 
508
 
        all_revisions = self.repo.all_revision_ids()
 
509
 
        total_inventories = len(list(
 
510
 
            collection.inventory_index.combined_index.iter_all_entries()))
 
511
 
        if len(all_revisions):
 
512
 
            new_pack =  self.repo._reconcile_pack(collection, packs,
 
513
 
                ".reconcile", all_revisions, self.pb)
 
514
 
            if new_pack is not None:
 
 
460
            packs = collection.all_packs()
 
 
461
            all_revisions = self.repo.all_revision_ids()
 
 
462
            total_inventories = len(list(
 
 
463
                collection.inventory_index.combined_index.iter_all_entries()))
 
 
464
            if len(all_revisions):
 
 
465
                self._packer = repofmt.pack_repo.ReconcilePacker(
 
 
466
                    collection, packs, ".reconcile", all_revisions)
 
 
467
                new_pack = self._packer.pack(pb=self.pb)
 
 
468
                if new_pack is not None:
 
 
469
                    self._discard_and_save(packs)
 
 
471
                # only make a new pack when there is data to copy.
 
515
472
                self._discard_and_save(packs)
 
517
 
            # only make a new pack when there is data to copy.
 
518
 
            self._discard_and_save(packs)
 
519
 
        self.garbage_inventories = total_inventories - len(list(
 
520
 
            collection.inventory_index.combined_index.iter_all_entries()))
 
 
473
            self.garbage_inventories = total_inventories - len(list(
 
 
474
                collection.inventory_index.combined_index.iter_all_entries()))
 
 
476
            collection._unlock_names()
 
522
478
    def _discard_and_save(self, packs):
 
523
479
        """Discard some packs from the repository.