/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

mergeĀ latestĀ iter-merge-sorted-revisions

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
65
65
lazy_import(globals(), """
66
66
 
67
67
from bzrlib import (
68
 
    bzrdir,
69
68
    config,
70
69
    diff,
71
70
    errors,
72
 
    foreign,
73
71
    repository as _mod_repository,
74
72
    revision as _mod_revision,
75
73
    revisionspec,
83
81
    )
84
82
from bzrlib.osutils import (
85
83
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
84
    get_terminal_encoding,
88
 
    re_compile_checked,
89
85
    terminal_width,
90
86
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
94
 
    )
95
87
 
96
88
 
97
89
def find_touching_revisions(branch, file_id):
109
101
    last_path = None
110
102
    revno = 1
111
103
    for revision_id in branch.revision_history():
112
 
        this_inv = branch.repository.get_inventory(revision_id)
 
104
        this_inv = branch.repository.get_revision_inventory(revision_id)
113
105
        if file_id in this_inv:
114
106
            this_ie = this_inv[file_id]
115
107
            this_path = this_inv.id2path(file_id)
159
151
             show_diff=False):
160
152
    """Write out human-readable log of commits to this branch.
161
153
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
154
    :param lf: The LogFormatter object showing the output.
168
155
 
169
156
    :param specific_fileid: If not None, list only the commits affecting the
186
173
 
187
174
    :param show_diff: If True, output a diff after each revision.
188
175
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
 
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    'exclude_common_ancestry': False,
224
 
    '_match_using_deltas': True,
225
 
    }
226
 
 
227
 
 
228
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
229
 
                          start_revision=None, end_revision=None, limit=None,
230
 
                          message_search=None, levels=1, generate_tags=True,
231
 
                          delta_type=None,
232
 
                          diff_type=None, _match_using_deltas=True,
233
 
                          exclude_common_ancestry=False,
234
 
                          ):
235
 
    """Convenience function for making a logging request dictionary.
236
 
 
237
 
    Using this function may make code slightly safer by ensuring
238
 
    parameters have the correct names. It also provides a reference
239
 
    point for documenting the supported parameters.
240
 
 
241
 
    :param direction: 'reverse' (default) is latest to earliest;
242
 
      'forward' is earliest to latest.
243
 
 
244
 
    :param specific_fileids: If not None, only include revisions
245
 
      affecting the specified files, rather than all revisions.
246
 
 
247
 
    :param start_revision: If not None, only generate
248
 
      revisions >= start_revision
249
 
 
250
 
    :param end_revision: If not None, only generate
251
 
      revisions <= end_revision
252
 
 
253
 
    :param limit: If set, generate only 'limit' revisions, all revisions
254
 
      are shown if None or 0.
255
 
 
256
 
    :param message_search: If not None, only include revisions with
257
 
      matching commit messages
258
 
 
259
 
    :param levels: the number of levels of revisions to
260
 
      generate; 1 for just the mainline; 0 for all levels.
261
 
 
262
 
    :param generate_tags: If True, include tags for matched revisions.
263
 
 
264
 
    :param delta_type: Either 'full', 'partial' or None.
265
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
266
 
      'partial' means filter the delta using specific_fileids;
267
 
      None means do not generate any delta.
268
 
 
269
 
    :param diff_type: Either 'full', 'partial' or None.
270
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
271
 
      'partial' means filter the diff using specific_fileids;
272
 
      None means do not generate any diff.
273
 
 
274
 
    :param _match_using_deltas: a private parameter controlling the
275
 
      algorithm used for matching specific_fileids. This parameter
276
 
      may be removed in the future so bzrlib client code should NOT
277
 
      use it.
278
 
 
279
 
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
280
 
      range operator or as a graph difference.
281
 
    """
282
 
    return {
283
 
        'direction': direction,
284
 
        'specific_fileids': specific_fileids,
285
 
        'start_revision': start_revision,
286
 
        'end_revision': end_revision,
287
 
        'limit': limit,
288
 
        'message_search': message_search,
289
 
        'levels': levels,
290
 
        'generate_tags': generate_tags,
291
 
        'delta_type': delta_type,
292
 
        'diff_type': diff_type,
293
 
        'exclude_common_ancestry': exclude_common_ancestry,
294
 
        # Add 'private' attributes for features that may be deprecated
295
 
        '_match_using_deltas': _match_using_deltas,
296
 
    }
297
 
 
298
 
 
299
 
def _apply_log_request_defaults(rqst):
300
 
    """Apply default values to a request dictionary."""
301
 
    result = _DEFAULT_REQUEST_PARAMS
302
 
    if rqst:
303
 
        result.update(rqst)
304
 
    return result
305
 
 
306
 
 
307
 
class LogGenerator(object):
308
 
    """A generator of log revisions."""
309
 
 
310
 
    def iter_log_revisions(self):
311
 
        """Iterate over LogRevision objects.
312
 
 
313
 
        :return: An iterator yielding LogRevision objects.
314
 
        """
315
 
        raise NotImplementedError(self.iter_log_revisions)
316
 
 
317
 
 
318
 
class Logger(object):
319
 
    """An object that generates, formats and displays a log."""
320
 
 
321
 
    def __init__(self, branch, rqst):
322
 
        """Create a Logger.
323
 
 
324
 
        :param branch: the branch to log
325
 
        :param rqst: A dictionary specifying the query parameters.
326
 
          See make_log_request_dict() for supported values.
327
 
        """
328
 
        self.branch = branch
329
 
        self.rqst = _apply_log_request_defaults(rqst)
330
 
 
331
 
    def show(self, lf):
332
 
        """Display the log.
333
 
 
334
 
        :param lf: The LogFormatter object to send the output to.
335
 
        """
336
 
        if not isinstance(lf, LogFormatter):
337
 
            warn("not a LogFormatter instance: %r" % lf)
338
 
 
339
 
        self.branch.lock_read()
340
 
        try:
341
 
            if getattr(lf, 'begin_log', None):
342
 
                lf.begin_log()
343
 
            self._show_body(lf)
344
 
            if getattr(lf, 'end_log', None):
345
 
                lf.end_log()
346
 
        finally:
347
 
            self.branch.unlock()
348
 
 
349
 
    def _show_body(self, lf):
350
 
        """Show the main log output.
351
 
 
352
 
        Subclasses may wish to override this.
353
 
        """
354
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
355
 
        # (There's no point generating stuff if the formatter can't display it.)
356
 
        rqst = self.rqst
357
 
        rqst['levels'] = lf.get_levels()
358
 
        if not getattr(lf, 'supports_tags', False):
359
 
            rqst['generate_tags'] = False
360
 
        if not getattr(lf, 'supports_delta', False):
361
 
            rqst['delta_type'] = None
362
 
        if not getattr(lf, 'supports_diff', False):
363
 
            rqst['diff_type'] = None
364
 
 
365
 
        # Find and print the interesting revisions
366
 
        generator = self._generator_factory(self.branch, rqst)
367
 
        for lr in generator.iter_log_revisions():
 
176
    branch.lock_read()
 
177
    try:
 
178
        if getattr(lf, 'begin_log', None):
 
179
            lf.begin_log()
 
180
 
 
181
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
182
                  start_revision, end_revision, search, limit, show_diff)
 
183
 
 
184
        if getattr(lf, 'end_log', None):
 
185
            lf.end_log()
 
186
    finally:
 
187
        branch.unlock()
 
188
 
 
189
 
 
190
def _show_log(branch,
 
191
             lf,
 
192
             specific_fileid=None,
 
193
             verbose=False,
 
194
             direction='reverse',
 
195
             start_revision=None,
 
196
             end_revision=None,
 
197
             search=None,
 
198
             limit=None,
 
199
             show_diff=False):
 
200
    """Worker function for show_log - see show_log."""
 
201
    if not isinstance(lf, LogFormatter):
 
202
        warn("not a LogFormatter instance: %r" % lf)
 
203
    if specific_fileid:
 
204
        trace.mutter('get log for file_id %r', specific_fileid)
 
205
 
 
206
    # Consult the LogFormatter about what it needs and can handle
 
207
    levels_to_display = lf.get_levels()
 
208
    generate_merge_revisions = levels_to_display != 1
 
209
    allow_single_merge_revision = True
 
210
    if not getattr(lf, 'supports_merge_revisions', False):
 
211
        allow_single_merge_revision = getattr(lf,
 
212
            'supports_single_merge_revision', False)
 
213
    view_revisions = calculate_view_revisions(branch, start_revision,
 
214
                                              end_revision, direction,
 
215
                                              specific_fileid,
 
216
                                              generate_merge_revisions,
 
217
                                              allow_single_merge_revision)
 
218
    rev_tag_dict = {}
 
219
    generate_tags = getattr(lf, 'supports_tags', False)
 
220
    if generate_tags and branch.supports_tags():
 
221
        rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
222
    else:
 
223
        rev_tag_dict = {}
 
224
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
 
225
    generate_diff = show_diff and getattr(lf, 'supports_diff', False)
 
226
 
 
227
    # Find and print the interesting revisions
 
228
    repo = branch.repository
 
229
    log_count = 0
 
230
    revision_iterator = _create_log_revision_iterator(branch,
 
231
        start_revision, end_revision, direction, specific_fileid, search,
 
232
        generate_merge_revisions, allow_single_merge_revision,
 
233
        generate_delta, limited_output=limit > 0)
 
234
    for revs in revision_iterator:
 
235
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
236
            # Note: 0 levels means show everything; merge_depth counts from 0
 
237
            if levels_to_display != 0 and merge_depth >= levels_to_display:
 
238
                continue
 
239
            if generate_diff:
 
240
                diff = _format_diff(repo, rev, rev_id, specific_fileid)
 
241
            else:
 
242
                diff = None
 
243
            lr = LogRevision(rev, revno, merge_depth, delta,
 
244
                             rev_tag_dict.get(rev_id), diff)
368
245
            lf.log_revision(lr)
369
 
        lf.show_advice()
370
 
 
371
 
    def _generator_factory(self, branch, rqst):
372
 
        """Make the LogGenerator object to use.
373
 
        
374
 
        Subclasses may wish to override this.
375
 
        """
376
 
        return _DefaultLogGenerator(branch, rqst)
 
246
            if limit:
 
247
                log_count += 1
 
248
                if log_count >= limit:
 
249
                    return
 
250
 
 
251
 
 
252
def _format_diff(repo, rev, rev_id, specific_fileid):
 
253
    if len(rev.parent_ids) == 0:
 
254
        ancestor_id = _mod_revision.NULL_REVISION
 
255
    else:
 
256
        ancestor_id = rev.parent_ids[0]
 
257
    tree_1 = repo.revision_tree(ancestor_id)
 
258
    tree_2 = repo.revision_tree(rev_id)
 
259
    if specific_fileid:
 
260
        specific_files = [tree_2.id2path(specific_fileid)]
 
261
    else:
 
262
        specific_files = None
 
263
    s = StringIO()
 
264
    diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
265
        new_label='')
 
266
    return s.getvalue()
377
267
 
378
268
 
379
269
class _StartNotLinearAncestor(Exception):
380
270
    """Raised when a start revision is not found walking left-hand history."""
381
271
 
382
272
 
383
 
class _DefaultLogGenerator(LogGenerator):
384
 
    """The default generator of log revisions."""
385
 
 
386
 
    def __init__(self, branch, rqst):
387
 
        self.branch = branch
388
 
        self.rqst = rqst
389
 
        if rqst.get('generate_tags') and branch.supports_tags():
390
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
391
 
        else:
392
 
            self.rev_tag_dict = {}
393
 
 
394
 
    def iter_log_revisions(self):
395
 
        """Iterate over LogRevision objects.
396
 
 
397
 
        :return: An iterator yielding LogRevision objects.
398
 
        """
399
 
        rqst = self.rqst
400
 
        levels = rqst.get('levels')
401
 
        limit = rqst.get('limit')
402
 
        diff_type = rqst.get('diff_type')
403
 
        log_count = 0
404
 
        revision_iterator = self._create_log_revision_iterator()
405
 
        for revs in revision_iterator:
406
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
407
 
                # 0 levels means show everything; merge_depth counts from 0
408
 
                if levels != 0 and merge_depth >= levels:
409
 
                    continue
410
 
                if diff_type is None:
411
 
                    diff = None
412
 
                else:
413
 
                    diff = self._format_diff(rev, rev_id, diff_type)
414
 
                yield LogRevision(rev, revno, merge_depth, delta,
415
 
                    self.rev_tag_dict.get(rev_id), diff)
416
 
                if limit:
417
 
                    log_count += 1
418
 
                    if log_count >= limit:
419
 
                        return
420
 
 
421
 
    def _format_diff(self, rev, rev_id, diff_type):
422
 
        repo = self.branch.repository
423
 
        if len(rev.parent_ids) == 0:
424
 
            ancestor_id = _mod_revision.NULL_REVISION
425
 
        else:
426
 
            ancestor_id = rev.parent_ids[0]
427
 
        tree_1 = repo.revision_tree(ancestor_id)
428
 
        tree_2 = repo.revision_tree(rev_id)
429
 
        file_ids = self.rqst.get('specific_fileids')
430
 
        if diff_type == 'partial' and file_ids is not None:
431
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
432
 
        else:
433
 
            specific_files = None
434
 
        s = StringIO()
435
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
436
 
            new_label='')
437
 
        return s.getvalue()
438
 
 
439
 
    def _create_log_revision_iterator(self):
440
 
        """Create a revision iterator for log.
441
 
 
442
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
443
 
            delta).
444
 
        """
445
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
446
 
            self.branch, self.rqst.get('start_revision'),
447
 
            self.rqst.get('end_revision'))
448
 
        if self.rqst.get('_match_using_deltas'):
449
 
            return self._log_revision_iterator_using_delta_matching()
450
 
        else:
451
 
            # We're using the per-file-graph algorithm. This scales really
452
 
            # well but only makes sense if there is a single file and it's
453
 
            # not a directory
454
 
            file_count = len(self.rqst.get('specific_fileids'))
455
 
            if file_count != 1:
456
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
457
 
                    "when logging %d files" % file_count)
458
 
            return self._log_revision_iterator_using_per_file_graph()
459
 
 
460
 
    def _log_revision_iterator_using_delta_matching(self):
461
 
        # Get the base revisions, filtering by the revision range
462
 
        rqst = self.rqst
463
 
        generate_merge_revisions = rqst.get('levels') != 1
464
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
465
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
466
 
        view_revisions = _calc_view_revisions(
467
 
            self.branch, self.start_rev_id, self.end_rev_id,
468
 
            rqst.get('direction'),
469
 
            generate_merge_revisions=generate_merge_revisions,
470
 
            delayed_graph_generation=delayed_graph_generation,
471
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
472
 
 
473
 
        # Apply the other filters
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'),
476
 
            file_ids=rqst.get('specific_fileids'),
477
 
            direction=rqst.get('direction'))
478
 
 
479
 
    def _log_revision_iterator_using_per_file_graph(self):
480
 
        # Get the base revisions, filtering by the revision range.
481
 
        # Note that we always generate the merge revisions because
482
 
        # filter_revisions_touching_file_id() requires them ...
483
 
        rqst = self.rqst
484
 
        view_revisions = _calc_view_revisions(
485
 
            self.branch, self.start_rev_id, self.end_rev_id,
486
 
            rqst.get('direction'), generate_merge_revisions=True,
487
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
273
def _create_log_revision_iterator(branch, start_revision, end_revision,
 
274
    direction, specific_fileid, search, generate_merge_revisions,
 
275
    allow_single_merge_revision, generate_delta, limited_output=False):
 
276
    """Create a revision iterator for log.
 
277
 
 
278
    :param branch: The branch being logged.
 
279
    :param start_revision: If not None, only show revisions >= start_revision
 
280
    :param end_revision: If not None, only show revisions <= end_revision
 
281
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
282
        earliest to latest.
 
283
    :param specific_fileid: If not None, list only the commits affecting the
 
284
        specified file.
 
285
    :param search: If not None, only show revisions with matching commit
 
286
        messages.
 
287
    :param generate_merge_revisions: If False, show only mainline revisions.
 
288
    :param allow_single_merge_revision: If True, logging of a single
 
289
        revision off the mainline is to be allowed
 
290
    :param generate_delta: Whether to generate a delta for each revision.
 
291
    :param limited_output: if True, the user only wants a limited result
 
292
 
 
293
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
294
        delta).
 
295
    """
 
296
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
297
        end_revision)
 
298
 
 
299
    # Decide how file-ids are matched: delta-filtering vs per-file graph.
 
300
    # Delta filtering allows revisions to be displayed incrementally
 
301
    # though the total time is much slower for huge repositories: log -v
 
302
    # is the *lower* performance bound. At least until the split
 
303
    # inventory format arrives, per-file-graph needs to remain the
 
304
    # default when no limits are given. Delta filtering should give more
 
305
    # accurate results (e.g. inclusion of FILE deletions) so arguably
 
306
    # it should always be used in the future.
 
307
    use_deltas_for_matching = specific_fileid and (
 
308
            generate_delta or start_rev_id or end_rev_id)
 
309
    delayed_graph_generation = not specific_fileid and (
 
310
            start_rev_id or end_rev_id or limited_output)
 
311
    generate_merges = generate_merge_revisions or (specific_fileid and
 
312
        not use_deltas_for_matching)
 
313
    view_revisions = _calc_view_revisions(branch, start_rev_id, end_rev_id,
 
314
        direction, generate_merges, allow_single_merge_revision,
 
315
        delayed_graph_generation=delayed_graph_generation)
 
316
    search_deltas_for_fileids = None
 
317
    if use_deltas_for_matching:
 
318
        search_deltas_for_fileids = set([specific_fileid])
 
319
    elif specific_fileid:
488
320
        if not isinstance(view_revisions, list):
489
321
            view_revisions = list(view_revisions)
490
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
491
 
            rqst.get('specific_fileids')[0], view_revisions,
492
 
            include_merges=rqst.get('levels') != 1)
493
 
        return make_log_rev_iterator(self.branch, view_revisions,
494
 
            rqst.get('delta_type'), rqst.get('message_search'))
 
322
        view_revisions = _filter_revisions_touching_file_id(branch,
 
323
            specific_fileid, view_revisions,
 
324
            include_merges=generate_merge_revisions)
 
325
    return make_log_rev_iterator(branch, view_revisions, generate_delta,
 
326
        search, file_ids=search_deltas_for_fileids, direction=direction)
495
327
 
496
328
 
497
329
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
498
 
                         generate_merge_revisions,
499
 
                         delayed_graph_generation=False,
500
 
                         exclude_common_ancestry=False,
501
 
                         ):
 
330
    generate_merge_revisions, allow_single_merge_revision,
 
331
    delayed_graph_generation=False):
502
332
    """Calculate the revisions to view.
503
333
 
504
334
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
505
335
             a list of the same tuples.
506
336
    """
507
 
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
508
 
        raise errors.BzrCommandError(
509
 
            '--exclude-common-ancestry requires two different revisions')
510
 
    if direction not in ('reverse', 'forward'):
511
 
        raise ValueError('invalid direction %r' % direction)
512
337
    br_revno, br_rev_id = branch.last_revision_info()
513
338
    if br_revno == 0:
514
339
        return []
515
340
 
516
 
    if (end_rev_id and start_rev_id == end_rev_id
517
 
        and (not generate_merge_revisions
518
 
             or not _has_merges(branch, end_rev_id))):
519
 
        # If a single revision is requested, check we can handle it
520
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
521
 
                                           br_revno)
522
 
    elif not generate_merge_revisions:
523
 
        # If we only want to see linear revisions, we can iterate ...
524
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
525
 
                                             direction)
526
 
        if direction == 'forward':
527
 
            iter_revs = reversed(iter_revs)
528
 
    else:
529
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
530
 
                                            direction, delayed_graph_generation,
531
 
                                            exclude_common_ancestry)
532
 
        if direction == 'forward':
533
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
534
 
    return iter_revs
535
 
 
536
 
 
537
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
538
 
    if rev_id == br_rev_id:
539
 
        # It's the tip
540
 
        return [(br_rev_id, br_revno, 0)]
541
 
    else:
542
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
543
 
        revno_str = '.'.join(str(n) for n in revno)
544
 
        return [(rev_id, revno_str, 0)]
545
 
 
546
 
 
547
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
548
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
549
 
    # If a start limit was given and it's not obviously an
550
 
    # ancestor of the end limit, check it before outputting anything
551
 
    if direction == 'forward' or (start_rev_id
552
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
553
 
        try:
554
 
            result = list(result)
555
 
        except _StartNotLinearAncestor:
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' left-hand history of end revision.')
558
 
    return result
559
 
 
560
 
 
561
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
562
 
                            delayed_graph_generation,
563
 
                            exclude_common_ancestry=False):
 
341
    # If a single revision is requested, check we can handle it
 
342
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
 
343
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
 
344
    if generate_single_revision:
 
345
        if end_rev_id == br_rev_id:
 
346
            # It's the tip
 
347
            return [(br_rev_id, br_revno, 0)]
 
348
        else:
 
349
            revno = branch.revision_id_to_dotted_revno(end_rev_id)
 
350
            if len(revno) > 1 and not allow_single_merge_revision:
 
351
                # It's a merge revision and the log formatter is
 
352
                # completely brain dead. This "feature" of allowing
 
353
                # log formatters incapable of displaying dotted revnos
 
354
                # ought to be deprecated IMNSHO. IGC 20091022
 
355
                raise errors.BzrCommandError('Selected log formatter only'
 
356
                    ' supports mainline revisions.')
 
357
            revno_str = '.'.join(str(n) for n in revno)
 
358
            return [(end_rev_id, revno_str, 0)]
 
359
 
 
360
    # If we only want to see linear revisions, we can iterate ...
 
361
    if not generate_merge_revisions:
 
362
        result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
363
        # If a start limit was given and it's not obviously an
 
364
        # ancestor of the end limit, check it before outputting anything
 
365
        if direction == 'forward' or (start_rev_id
 
366
            and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
367
            try:
 
368
                result = list(result)
 
369
            except _StartNotLinearAncestor:
 
370
                raise errors.BzrCommandError('Start revision not found in'
 
371
                    ' left-hand history of end revision.')
 
372
        if direction == 'forward':
 
373
            result = reversed(list(result))
 
374
        return result
 
375
 
564
376
    # On large trees, generating the merge graph can take 30-60 seconds
565
377
    # so we delay doing it until a merge is detected, incrementally
566
378
    # returning initial (non-merge) revisions while we can.
567
 
 
568
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
569
 
    # couple of seconds only should be needed to load the whole graph and the
570
 
    # other graph operations needed are even faster than that -- vila 100201
571
379
    initial_revisions = []
572
380
    if delayed_graph_generation:
573
381
        try:
574
 
            for rev_id, revno, depth in  _linear_view_revisions(
575
 
                branch, start_rev_id, end_rev_id):
 
382
            for rev_id, revno, depth in \
 
383
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
576
384
                if _has_merges(branch, rev_id):
577
 
                    # The end_rev_id can be nested down somewhere. We need an
578
 
                    # explicit ancestry check. There is an ambiguity here as we
579
 
                    # may not raise _StartNotLinearAncestor for a revision that
580
 
                    # is an ancestor but not a *linear* one. But since we have
581
 
                    # loaded the graph to do the check (or calculate a dotted
582
 
                    # revno), we may as well accept to show the log...  We need
583
 
                    # the check only if start_rev_id is not None as all
584
 
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
585
 
                    # -- vila 20100319
586
 
                    graph = branch.repository.get_graph()
587
 
                    if (start_rev_id is not None
588
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
589
 
                        raise _StartNotLinearAncestor()
590
 
                    # Since we collected the revisions so far, we need to
591
 
                    # adjust end_rev_id.
592
385
                    end_rev_id = rev_id
593
386
                    break
594
387
                else:
595
388
                    initial_revisions.append((rev_id, revno, depth))
596
389
            else:
597
390
                # No merged revisions found
598
 
                return initial_revisions
 
391
                if direction == 'reverse':
 
392
                    return initial_revisions
 
393
                elif direction == 'forward':
 
394
                    return reversed(initial_revisions)
 
395
                else:
 
396
                    raise ValueError('invalid direction %r' % direction)
599
397
        except _StartNotLinearAncestor:
600
398
            # A merge was never detected so the lower revision limit can't
601
399
            # be nested down somewhere
602
400
            raise errors.BzrCommandError('Start revision not found in'
603
401
                ' history of end revision.')
604
402
 
605
 
    # We exit the loop above because we encounter a revision with merges, from
606
 
    # this revision, we need to switch to _graph_view_revisions.
607
 
 
608
403
    # A log including nested merges is required. If the direction is reverse,
609
404
    # we rebase the initial merge depths so that the development line is
610
405
    # shown naturally, i.e. just like it is for linear logging. We can easily
612
407
    # indented at the end seems slightly nicer in that case.
613
408
    view_revisions = chain(iter(initial_revisions),
614
409
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
615
 
                              rebase_initial_depths=(direction == 'reverse'),
616
 
                              exclude_common_ancestry=exclude_common_ancestry))
617
 
    return view_revisions
 
410
        rebase_initial_depths=direction == 'reverse'))
 
411
    if direction == 'reverse':
 
412
        return view_revisions
 
413
    elif direction == 'forward':
 
414
        # Forward means oldest first, adjusting for depth.
 
415
        view_revisions = reverse_by_depth(list(view_revisions))
 
416
        return _rebase_merge_depth(view_revisions)
 
417
    else:
 
418
        raise ValueError('invalid direction %r' % direction)
618
419
 
619
420
 
620
421
def _has_merges(branch, rev_id):
638
439
        else:
639
440
            # not obvious
640
441
            return False
641
 
    # if either start or end is not specified then we use either the first or
642
 
    # the last revision and *they* are obvious ancestors.
643
442
    return True
644
443
 
645
444
 
678
477
 
679
478
 
680
479
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
681
 
                          rebase_initial_depths=True,
682
 
                          exclude_common_ancestry=False):
 
480
    rebase_initial_depths=True):
683
481
    """Calculate revisions to view including merges, newest to oldest.
684
482
 
685
483
    :param branch: the branch
689
487
      revision is found?
690
488
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
691
489
    """
692
 
    if exclude_common_ancestry:
693
 
        stop_rule = 'with-merges-without-common-ancestry'
694
 
    else:
695
 
        stop_rule = 'with-merges'
696
490
    view_revisions = branch.iter_merge_sorted_revisions(
697
491
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
698
 
        stop_rule=stop_rule)
 
492
        stop_rule="with-merges")
699
493
    if not rebase_initial_depths:
700
494
        for (rev_id, merge_depth, revno, end_of_merge
701
495
             ) in view_revisions:
712
506
                depth_adjustment = merge_depth
713
507
            if depth_adjustment:
714
508
                if merge_depth < depth_adjustment:
715
 
                    # From now on we reduce the depth adjustement, this can be
716
 
                    # surprising for users. The alternative requires two passes
717
 
                    # which breaks the fast display of the first revision
718
 
                    # though.
719
509
                    depth_adjustment = merge_depth
720
510
                merge_depth -= depth_adjustment
721
511
            yield rev_id, '.'.join(map(str, revno)), merge_depth
722
512
 
723
513
 
724
 
@deprecated_function(deprecated_in((2, 2, 0)))
725
514
def calculate_view_revisions(branch, start_revision, end_revision, direction,
726
 
        specific_fileid, generate_merge_revisions):
 
515
        specific_fileid, generate_merge_revisions, allow_single_merge_revision):
727
516
    """Calculate the revisions to view.
728
517
 
729
518
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
730
519
             a list of the same tuples.
731
520
    """
 
521
    # This method is no longer called by the main code path.
 
522
    # It is retained for API compatibility and may be deprecated
 
523
    # soon. IGC 20090116
732
524
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
733
525
        end_revision)
734
526
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
735
 
        direction, generate_merge_revisions or specific_fileid))
 
527
        direction, generate_merge_revisions or specific_fileid,
 
528
        allow_single_merge_revision))
736
529
    if specific_fileid:
737
530
        view_revisions = _filter_revisions_touching_file_id(branch,
738
531
            specific_fileid, view_revisions,
757
550
    :param branch: The branch being logged.
758
551
    :param view_revisions: The revisions being viewed.
759
552
    :param generate_delta: Whether to generate a delta for each revision.
760
 
      Permitted values are None, 'full' and 'partial'.
761
553
    :param search: A user text search string.
762
554
    :param file_ids: If non empty, only revisions matching one or more of
763
555
      the file-ids are to be kept.
802
594
    """
803
595
    if search is None:
804
596
        return log_rev_iterator
805
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
806
 
            'log message filter')
 
597
    # Compile the search now to get early errors.
 
598
    searchRE = re.compile(search, re.IGNORECASE)
807
599
    return _filter_message_re(searchRE, log_rev_iterator)
808
600
 
809
601
 
822
614
 
823
615
    :param branch: The branch being logged.
824
616
    :param generate_delta: Whether to generate a delta for each revision.
825
 
      Permitted values are None, 'full' and 'partial'.
826
617
    :param search: A user text search string.
827
618
    :param log_rev_iterator: An input iterator containing all revisions that
828
619
        could be displayed, in lists.
838
629
        generate_delta, fileids, direction)
839
630
 
840
631
 
841
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
632
def _generate_deltas(repository, log_rev_iterator, always_delta, fileids,
842
633
    direction):
843
634
    """Create deltas for each batch of revisions in log_rev_iterator.
844
 
 
 
635
    
845
636
    If we're only generating deltas for the sake of filtering against
846
637
    file-ids, we stop generating deltas once all file-ids reach the
847
638
    appropriate life-cycle point. If we're receiving data newest to
862
653
        if check_fileids and not fileid_set:
863
654
            return
864
655
        revisions = [rev[1] for rev in revs]
 
656
        deltas = repository.get_deltas_for_revisions(revisions)
865
657
        new_revs = []
866
 
        if delta_type == 'full' and not check_fileids:
867
 
            deltas = repository.get_deltas_for_revisions(revisions)
868
 
            for rev, delta in izip(revs, deltas):
869
 
                new_revs.append((rev[0], rev[1], delta))
870
 
        else:
871
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
872
 
            for rev, delta in izip(revs, deltas):
873
 
                if check_fileids:
874
 
                    if delta is None or not delta.has_changed():
875
 
                        continue
876
 
                    else:
877
 
                        _update_fileids(delta, fileid_set, stop_on)
878
 
                        if delta_type is None:
879
 
                            delta = None
880
 
                        elif delta_type == 'full':
881
 
                            # If the file matches all the time, rebuilding
882
 
                            # a full delta like this in addition to a partial
883
 
                            # one could be slow. However, it's likely that
884
 
                            # most revisions won't get this far, making it
885
 
                            # faster to filter on the partial deltas and
886
 
                            # build the occasional full delta than always
887
 
                            # building full deltas and filtering those.
888
 
                            rev_id = rev[0][0]
889
 
                            delta = repository.get_revision_delta(rev_id)
890
 
                new_revs.append((rev[0], rev[1], delta))
 
658
        for rev, delta in izip(revs, deltas):
 
659
            if check_fileids:
 
660
                if not _delta_matches_fileids(delta, fileid_set, stop_on):
 
661
                    continue
 
662
                elif not always_delta:
 
663
                    # Delta was created just for matching - ditch it
 
664
                    # Note: It would probably be a better UI to return
 
665
                    # a delta filtered by the file-ids, rather than
 
666
                    # None at all. That functional enhancement can
 
667
                    # come later ...
 
668
                    delta = None
 
669
            new_revs.append((rev[0], rev[1], delta))
891
670
        yield new_revs
892
671
 
893
672
 
894
 
def _update_fileids(delta, fileids, stop_on):
895
 
    """Update the set of file-ids to search based on file lifecycle events.
 
673
def _delta_matches_fileids(delta, fileids, stop_on='add'):
 
674
    """Check is a delta matches one of more file-ids.
896
675
    
897
 
    :param fileids: a set of fileids to update
 
676
    :param fileids: a set of fileids to match against.
898
677
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
899
678
      fileids set once their add or remove entry is detected respectively
900
679
    """
901
 
    if stop_on == 'add':
902
 
        for item in delta.added:
903
 
            if item[1] in fileids:
904
 
                fileids.remove(item[1])
905
 
    elif stop_on == 'delete':
906
 
        for item in delta.removed:
907
 
            if item[1] in fileids:
908
 
                fileids.remove(item[1])
 
680
    if not fileids:
 
681
        return False
 
682
    result = False
 
683
    for item in delta.added:
 
684
        if item[1] in fileids:
 
685
            if stop_on == 'add':
 
686
                fileids.remove(item[1])
 
687
            result = True
 
688
    for item in delta.removed:
 
689
        if item[1] in fileids:
 
690
            if stop_on == 'delete':
 
691
                fileids.remove(item[1])
 
692
            result = True
 
693
    if result:
 
694
        return True
 
695
    for l in (delta.modified, delta.renamed, delta.kind_changed):
 
696
        for item in l:
 
697
            if item[1] in fileids:
 
698
                return True
 
699
    return False
909
700
 
910
701
 
911
702
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
955
746
def _get_revision_limits(branch, start_revision, end_revision):
956
747
    """Get and check revision limits.
957
748
 
958
 
    :param  branch: The branch containing the revisions.
 
749
    :param  branch: The branch containing the revisions. 
959
750
 
960
751
    :param  start_revision: The first revision to be logged.
961
752
            For backwards compatibility this may be a mainline integer revno,
1004
795
 
1005
796
def _get_mainline_revs(branch, start_revision, end_revision):
1006
797
    """Get the mainline revisions from the branch.
1007
 
 
 
798
    
1008
799
    Generates the list of mainline revisions for the branch.
1009
 
 
1010
 
    :param  branch: The branch containing the revisions.
 
800
    
 
801
    :param  branch: The branch containing the revisions. 
1011
802
 
1012
803
    :param  start_revision: The first revision to be logged.
1013
804
            For backwards compatibility this may be a mainline integer revno,
1023
814
    if branch_revno == 0:
1024
815
        return None, None, None, None
1025
816
 
1026
 
    # For mainline generation, map start_revision and end_revision to
1027
 
    # mainline revnos. If the revision is not on the mainline choose the
1028
 
    # appropriate extreme of the mainline instead - the extra will be
 
817
    # For mainline generation, map start_revision and end_revision to 
 
818
    # mainline revnos. If the revision is not on the mainline choose the 
 
819
    # appropriate extreme of the mainline instead - the extra will be 
1029
820
    # filtered later.
1030
821
    # Also map the revisions to rev_ids, to be used in the later filtering
1031
822
    # stage.
1084
875
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1085
876
 
1086
877
 
1087
 
@deprecated_function(deprecated_in((2, 2, 0)))
1088
878
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1089
879
    """Filter view_revisions based on revision ranges.
1090
880
 
1091
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
881
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
1092
882
            tuples to be filtered.
1093
883
 
1094
884
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1099
889
 
1100
890
    :return: The filtered view_revisions.
1101
891
    """
 
892
    # This method is no longer called by the main code path.
 
893
    # It may be removed soon. IGC 20090127
1102
894
    if start_rev_id or end_rev_id:
1103
895
        revision_ids = [r for r, n, d in view_revisions]
1104
896
        if start_rev_id:
1112
904
                end_index = revision_ids.index(end_rev_id)
1113
905
            else:
1114
906
                end_index = len(view_revisions) - 1
1115
 
        # To include the revisions merged into the last revision,
 
907
        # To include the revisions merged into the last revision, 
1116
908
        # extend end_rev_id down to, but not including, the next rev
1117
909
        # with the same or lesser merge_depth
1118
910
        end_merge_depth = view_revisions[end_index][2]
1169
961
    # Lookup all possible text keys to determine which ones actually modified
1170
962
    # the file.
1171
963
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1172
 
    next_keys = None
1173
964
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1174
965
    # memory consumption. GraphIndex *does* like to look for a few keys in
1175
966
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1210
1001
    return result
1211
1002
 
1212
1003
 
1213
 
@deprecated_function(deprecated_in((2, 2, 0)))
1214
1004
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1215
1005
                       include_merges=True):
1216
1006
    """Produce an iterator of revisions to show
1217
1007
    :return: an iterator of (revision_id, revno, merge_depth)
1218
1008
    (if there is no revno for a revision, None is supplied)
1219
1009
    """
 
1010
    # This method is no longer called by the main code path.
 
1011
    # It is retained for API compatibility and may be deprecated
 
1012
    # soon. IGC 20090127
1220
1013
    if not include_merges:
1221
1014
        revision_ids = mainline_revs[1:]
1222
1015
        if direction == 'reverse':
1286
1079
    """A revision to be logged (by LogFormatter.log_revision).
1287
1080
 
1288
1081
    A simple wrapper for the attributes of a revision to be logged.
1289
 
    The attributes may or may not be populated, as determined by the
 
1082
    The attributes may or may not be populated, as determined by the 
1290
1083
    logging options and the log formatter capabilities.
1291
1084
    """
1292
1085
 
1308
1101
    If the LogFormatter needs to be informed of the beginning or end of
1309
1102
    a log it should implement the begin_log and/or end_log hook methods.
1310
1103
 
1311
 
    A LogFormatter should define the following supports_XXX flags
 
1104
    A LogFormatter should define the following supports_XXX flags 
1312
1105
    to indicate which LogRevision attributes it supports:
1313
1106
 
1314
1107
    - supports_delta must be True if this log formatter supports delta.
1315
1108
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1316
1109
        attribute describes whether the 'short_status' format (1) or the long
1317
1110
        one (2) should be used.
1318
 
 
1319
 
    - supports_merge_revisions must be True if this log formatter supports
1320
 
        merge revisions.  If not, then only mainline revisions will be passed
1321
 
        to the formatter.
 
1111
 
 
1112
    - supports_merge_revisions must be True if this log formatter supports 
 
1113
        merge revisions.  If not, and if supports_single_merge_revision is
 
1114
        also not True, then only mainline revisions will be passed to the 
 
1115
        formatter.
1322
1116
 
1323
1117
    - preferred_levels is the number of levels this formatter defaults to.
1324
1118
        The default value is zero meaning display all levels.
1325
1119
        This value is only relevant if supports_merge_revisions is True.
1326
1120
 
 
1121
    - supports_single_merge_revision must be True if this log formatter
 
1122
        supports logging only a single merge revision.  This flag is
 
1123
        only relevant if supports_merge_revisions is not True.
 
1124
 
1327
1125
    - supports_tags must be True if this log formatter supports tags.
1328
1126
        Otherwise the tags attribute may not be populated.
1329
1127
 
1334
1132
    the properties_handler_registry. The registered function
1335
1133
    must respect the following interface description:
1336
1134
        def my_show_properties(properties_dict):
1337
 
            # code that returns a dict {'name':'value'} of the properties
 
1135
            # code that returns a dict {'name':'value'} of the properties 
1338
1136
            # to be shown
1339
1137
    """
1340
1138
    preferred_levels = 0
1341
1139
 
1342
1140
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1343
 
                 delta_format=None, levels=None, show_advice=False,
1344
 
                 to_exact_file=None):
 
1141
                 delta_format=None, levels=None):
1345
1142
        """Create a LogFormatter.
1346
1143
 
1347
1144
        :param to_file: the file to output to
1348
 
        :param to_exact_file: if set, gives an output stream to which 
1349
 
             non-Unicode diffs are written.
1350
1145
        :param show_ids: if True, revision-ids are to be displayed
1351
1146
        :param show_timezone: the timezone to use
1352
1147
        :param delta_format: the level of delta information to display
1353
 
          or None to leave it to the formatter to decide
 
1148
          or None to leave it u to the formatter to decide
1354
1149
        :param levels: the number of levels to display; None or -1 to
1355
1150
          let the log formatter decide.
1356
 
        :param show_advice: whether to show advice at the end of the
1357
 
          log or not
1358
1151
        """
1359
1152
        self.to_file = to_file
1360
 
        # 'exact' stream used to show diff, it should print content 'as is'
1361
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1362
 
        if to_exact_file is not None:
1363
 
            self.to_exact_file = to_exact_file
1364
 
        else:
1365
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1366
 
            # for code that expects to get diffs to pass in the exact file
1367
 
            # stream
1368
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1369
1153
        self.show_ids = show_ids
1370
1154
        self.show_timezone = show_timezone
1371
1155
        if delta_format is None:
1373
1157
            delta_format = 2 # long format
1374
1158
        self.delta_format = delta_format
1375
1159
        self.levels = levels
1376
 
        self._show_advice = show_advice
1377
 
        self._merge_count = 0
1378
1160
 
1379
1161
    def get_levels(self):
1380
1162
        """Get the number of levels to display or 0 for all."""
1381
1163
        if getattr(self, 'supports_merge_revisions', False):
1382
1164
            if self.levels is None or self.levels == -1:
1383
 
                self.levels = self.preferred_levels
1384
 
        else:
1385
 
            self.levels = 1
1386
 
        return self.levels
 
1165
                return self.preferred_levels
 
1166
            else:
 
1167
                return self.levels
 
1168
        return 1
1387
1169
 
1388
1170
    def log_revision(self, revision):
1389
1171
        """Log a revision.
1392
1174
        """
1393
1175
        raise NotImplementedError('not implemented in abstract base')
1394
1176
 
1395
 
    def show_advice(self):
1396
 
        """Output user advice, if any, when the log is completed."""
1397
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1398
 
            advice_sep = self.get_advice_separator()
1399
 
            if advice_sep:
1400
 
                self.to_file.write(advice_sep)
1401
 
            self.to_file.write(
1402
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1403
 
 
1404
 
    def get_advice_separator(self):
1405
 
        """Get the text separating the log from the closing advice."""
1406
 
        return ''
1407
 
 
1408
1177
    def short_committer(self, rev):
1409
1178
        name, address = config.parse_username(rev.committer)
1410
1179
        if name:
1412
1181
        return address
1413
1182
 
1414
1183
    def short_author(self, rev):
1415
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1184
        name, address = config.parse_username(rev.get_apparent_author())
1416
1185
        if name:
1417
1186
            return name
1418
1187
        return address
1419
1188
 
1420
 
    def merge_marker(self, revision):
1421
 
        """Get the merge marker to include in the output or '' if none."""
1422
 
        if len(revision.rev.parent_ids) > 1:
1423
 
            self._merge_count += 1
1424
 
            return ' [merge]'
1425
 
        else:
1426
 
            return ''
1427
 
 
1428
1189
    def show_properties(self, revision, indent):
1429
1190
        """Displays the custom properties returned by each registered handler.
1430
 
 
1431
 
        If a registered handler raises an error it is propagated.
1432
 
        """
1433
 
        for line in self.custom_properties(revision):
1434
 
            self.to_file.write("%s%s\n" % (indent, line))
1435
 
 
1436
 
    def custom_properties(self, revision):
1437
 
        """Format the custom properties returned by each registered handler.
1438
 
 
1439
 
        If a registered handler raises an error it is propagated.
1440
 
 
1441
 
        :return: a list of formatted lines (excluding trailing newlines)
1442
 
        """
1443
 
        lines = self._foreign_info_properties(revision)
 
1191
        
 
1192
        If a registered handler raises an error it is propagated.
 
1193
        """
1444
1194
        for key, handler in properties_handler_registry.iteritems():
1445
 
            lines.extend(self._format_properties(handler(revision)))
1446
 
        return lines
1447
 
 
1448
 
    def _foreign_info_properties(self, rev):
1449
 
        """Custom log displayer for foreign revision identifiers.
1450
 
 
1451
 
        :param rev: Revision object.
1452
 
        """
1453
 
        # Revision comes directly from a foreign repository
1454
 
        if isinstance(rev, foreign.ForeignRevision):
1455
 
            return self._format_properties(
1456
 
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1457
 
 
1458
 
        # Imported foreign revision revision ids always contain :
1459
 
        if not ":" in rev.revision_id:
1460
 
            return []
1461
 
 
1462
 
        # Revision was once imported from a foreign repository
1463
 
        try:
1464
 
            foreign_revid, mapping = \
1465
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1466
 
        except errors.InvalidRevisionId:
1467
 
            return []
1468
 
 
1469
 
        return self._format_properties(
1470
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1471
 
 
1472
 
    def _format_properties(self, properties):
1473
 
        lines = []
1474
 
        for key, value in properties.items():
1475
 
            lines.append(key + ': ' + value)
1476
 
        return lines
 
1195
            for key, value in handler(revision).items():
 
1196
                self.to_file.write(indent + key + ': ' + value + '\n')
1477
1197
 
1478
1198
    def show_diff(self, to_file, diff, indent):
1479
1199
        for l in diff.rstrip().split('\n'):
1480
1200
            to_file.write(indent + '%s\n' % (l,))
1481
1201
 
1482
1202
 
1483
 
# Separator between revisions in long format
1484
 
_LONG_SEP = '-' * 60
1485
 
 
1486
 
 
1487
1203
class LongLogFormatter(LogFormatter):
1488
1204
 
1489
1205
    supports_merge_revisions = True
1490
 
    preferred_levels = 1
1491
1206
    supports_delta = True
1492
1207
    supports_tags = True
1493
1208
    supports_diff = True
1494
1209
 
1495
 
    def __init__(self, *args, **kwargs):
1496
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1497
 
        if self.show_timezone == 'original':
1498
 
            self.date_string = self._date_string_original_timezone
1499
 
        else:
1500
 
            self.date_string = self._date_string_with_timezone
1501
 
 
1502
 
    def _date_string_with_timezone(self, rev):
1503
 
        return format_date(rev.timestamp, rev.timezone or 0,
1504
 
                           self.show_timezone)
1505
 
 
1506
 
    def _date_string_original_timezone(self, rev):
1507
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1508
 
            rev.timezone or 0)
1509
 
 
1510
1210
    def log_revision(self, revision):
1511
1211
        """Log a revision, either merged or not."""
1512
1212
        indent = '    ' * revision.merge_depth
1513
 
        lines = [_LONG_SEP]
 
1213
        to_file = self.to_file
 
1214
        to_file.write(indent + '-' * 60 + '\n')
1514
1215
        if revision.revno is not None:
1515
 
            lines.append('revno: %s%s' % (revision.revno,
1516
 
                self.merge_marker(revision)))
 
1216
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
1517
1217
        if revision.tags:
1518
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1218
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
1519
1219
        if self.show_ids:
1520
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
1220
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
 
1221
            to_file.write('\n')
1521
1222
            for parent_id in revision.rev.parent_ids:
1522
 
                lines.append('parent: %s' % (parent_id,))
1523
 
        lines.extend(self.custom_properties(revision.rev))
 
1223
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
1224
        self.show_properties(revision.rev, indent)
1524
1225
 
1525
 
        committer = revision.rev.committer
1526
 
        authors = revision.rev.get_apparent_authors()
1527
 
        if authors != [committer]:
1528
 
            lines.append('author: %s' % (", ".join(authors),))
1529
 
        lines.append('committer: %s' % (committer,))
 
1226
        author = revision.rev.properties.get('author', None)
 
1227
        if author is not None:
 
1228
            to_file.write(indent + 'author: %s\n' % (author,))
 
1229
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
1530
1230
 
1531
1231
        branch_nick = revision.rev.properties.get('branch-nick', None)
1532
1232
        if branch_nick is not None:
1533
 
            lines.append('branch nick: %s' % (branch_nick,))
1534
 
 
1535
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1536
 
 
1537
 
        lines.append('message:')
 
1233
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
 
1234
 
 
1235
        date_str = format_date(revision.rev.timestamp,
 
1236
                               revision.rev.timezone or 0,
 
1237
                               self.show_timezone)
 
1238
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
 
1239
 
 
1240
        to_file.write(indent + 'message:\n')
1538
1241
        if not revision.rev.message:
1539
 
            lines.append('  (no message)')
 
1242
            to_file.write(indent + '  (no message)\n')
1540
1243
        else:
1541
1244
            message = revision.rev.message.rstrip('\r\n')
1542
1245
            for l in message.split('\n'):
1543
 
                lines.append('  %s' % (l,))
1544
 
 
1545
 
        # Dump the output, appending the delta and diff if requested
1546
 
        to_file = self.to_file
1547
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1246
                to_file.write(indent + '  %s\n' % (l,))
1548
1247
        if revision.delta is not None:
1549
 
            # Use the standard status output to display changes
1550
 
            from bzrlib.delta import report_delta
1551
 
            report_delta(to_file, revision.delta, short_status=False, 
1552
 
                         show_ids=self.show_ids, indent=indent)
 
1248
            # We don't respect delta_format for compatibility
 
1249
            revision.delta.show(to_file, self.show_ids, indent=indent,
 
1250
                                short_status=False)
1553
1251
        if revision.diff is not None:
1554
1252
            to_file.write(indent + 'diff:\n')
1555
 
            to_file.flush()
1556
1253
            # Note: we explicitly don't indent the diff (relative to the
1557
1254
            # revision information) so that the output can be fed to patch -p0
1558
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1559
 
            self.to_exact_file.flush()
1560
 
 
1561
 
    def get_advice_separator(self):
1562
 
        """Get the text separating the log from the closing advice."""
1563
 
        return '-' * 60 + '\n'
 
1255
            self.show_diff(to_file, revision.diff, indent)
1564
1256
 
1565
1257
 
1566
1258
class ShortLogFormatter(LogFormatter):
1596
1288
        offset = ' ' * (revno_width + 1)
1597
1289
 
1598
1290
        to_file = self.to_file
 
1291
        is_merge = ''
 
1292
        if len(revision.rev.parent_ids) > 1:
 
1293
            is_merge = ' [merge]'
1599
1294
        tags = ''
1600
1295
        if revision.tags:
1601
1296
            tags = ' {%s}' % (', '.join(revision.tags))
1605
1300
                            revision.rev.timezone or 0,
1606
1301
                            self.show_timezone, date_fmt="%Y-%m-%d",
1607
1302
                            show_offset=False),
1608
 
                tags, self.merge_marker(revision)))
1609
 
        self.show_properties(revision.rev, indent+offset)
 
1303
                tags, is_merge))
1610
1304
        if self.show_ids:
1611
1305
            to_file.write(indent + offset + 'revision-id:%s\n'
1612
1306
                          % (revision.rev.revision_id,))
1618
1312
                to_file.write(indent + offset + '%s\n' % (l,))
1619
1313
 
1620
1314
        if revision.delta is not None:
1621
 
            # Use the standard status output to display changes
1622
 
            from bzrlib.delta import report_delta
1623
 
            report_delta(to_file, revision.delta, 
1624
 
                         short_status=self.delta_format==1, 
1625
 
                         show_ids=self.show_ids, indent=indent + offset)
 
1315
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
 
1316
                                short_status=self.delta_format==1)
1626
1317
        if revision.diff is not None:
1627
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
1318
            self.show_diff(to_file, revision.diff, '      ')
1628
1319
        to_file.write('\n')
1629
1320
 
1630
1321
 
1636
1327
 
1637
1328
    def __init__(self, *args, **kwargs):
1638
1329
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1639
 
        width = terminal_width()
1640
 
        if width is not None:
1641
 
            # we need one extra space for terminals that wrap on last char
1642
 
            width = width - 1
1643
 
        self._max_chars = width
 
1330
        self._max_chars = terminal_width() - 1
1644
1331
 
1645
1332
    def truncate(self, str, max_len):
1646
 
        if max_len is None or len(str) <= max_len:
 
1333
        if len(str) <= max_len:
1647
1334
            return str
1648
 
        return str[:max_len-3] + '...'
 
1335
        return str[:max_len-3]+'...'
1649
1336
 
1650
1337
    def date_string(self, rev):
1651
1338
        return format_date(rev.timestamp, rev.timezone or 0,
1680
1367
            out.append("%s:" % revno)
1681
1368
        out.append(self.truncate(self.short_author(rev), 20))
1682
1369
        out.append(self.date_string(rev))
1683
 
        if len(rev.parent_ids) > 1:
1684
 
            out.append('[merge]')
1685
1370
        if tags:
1686
1371
            tag_str = '{%s}' % (', '.join(tags))
1687
1372
            out.append(tag_str)
1689
1374
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1690
1375
 
1691
1376
 
1692
 
class GnuChangelogLogFormatter(LogFormatter):
1693
 
 
1694
 
    supports_merge_revisions = True
1695
 
    supports_delta = True
1696
 
 
1697
 
    def log_revision(self, revision):
1698
 
        """Log a revision, either merged or not."""
1699
 
        to_file = self.to_file
1700
 
 
1701
 
        date_str = format_date(revision.rev.timestamp,
1702
 
                               revision.rev.timezone or 0,
1703
 
                               self.show_timezone,
1704
 
                               date_fmt='%Y-%m-%d',
1705
 
                               show_offset=False)
1706
 
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
1707
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1708
 
 
1709
 
        if revision.delta is not None and revision.delta.has_changed():
1710
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1711
 
                path, = c[:1]
1712
 
                to_file.write('\t* %s:\n' % (path,))
1713
 
            for c in revision.delta.renamed:
1714
 
                oldpath,newpath = c[:2]
1715
 
                # For renamed files, show both the old and the new path
1716
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1717
 
            to_file.write('\n')
1718
 
 
1719
 
        if not revision.rev.message:
1720
 
            to_file.write('\tNo commit message\n')
1721
 
        else:
1722
 
            message = revision.rev.message.rstrip('\r\n')
1723
 
            for l in message.split('\n'):
1724
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1725
 
            to_file.write('\n')
1726
 
 
1727
 
 
1728
1377
def line_log(rev, max_chars):
1729
1378
    lf = LineLogFormatter(None)
1730
1379
    return lf.log_string(None, rev, max_chars)
1754
1403
                                'Detailed log format')
1755
1404
log_formatter_registry.register('line', LineLogFormatter,
1756
1405
                                'Log format with one line per revision')
1757
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1758
 
                                'Format used by GNU ChangeLog files')
1759
1406
 
1760
1407
 
1761
1408
def register_formatter(name, formatter):
1930
1577
        lf.log_revision(lr)
1931
1578
 
1932
1579
 
1933
 
def _get_info_for_log_files(revisionspec_list, file_list):
1934
 
    """Find file-ids and kinds given a list of files and a revision range.
1935
 
 
1936
 
    We search for files at the end of the range. If not found there,
1937
 
    we try the start of the range.
1938
 
 
1939
 
    :param revisionspec_list: revision range as parsed on the command line
1940
 
    :param file_list: the list of paths given on the command line;
1941
 
      the first of these can be a branch location or a file path,
1942
 
      the remainder must be file paths
1943
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1944
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1945
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1946
 
      branch will be read-locked.
 
1580
def _get_fileid_to_log(revision, tree, b, fp):
 
1581
    """Find the file-id to log for a file path in a revision range.
 
1582
 
 
1583
    :param revision: the revision range as parsed on the command line
 
1584
    :param tree: the working tree, if any
 
1585
    :param b: the branch
 
1586
    :param fp: file path
1947
1587
    """
1948
 
    from builtins import _get_revision_range, safe_relpath_files
1949
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1950
 
    b.lock_read()
1951
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1952
 
    # those paths might be deleted ones, they might be on a case-insensitive
1953
 
    # filesystem and/or they might be in silly locations (like another branch).
1954
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1955
 
    # file2 implicitly in the same dir as file1 or should its directory be
1956
 
    # taken from the current tree somehow?) For now, this solves the common
1957
 
    # case of running log in a nested directory, assuming paths beyond the
1958
 
    # first one haven't been deleted ...
1959
 
    if tree:
1960
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1961
 
    else:
1962
 
        relpaths = [path] + file_list[1:]
1963
 
    info_list = []
1964
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1965
 
        "log")
1966
 
    if relpaths in ([], [u'']):
1967
 
        return b, [], start_rev_info, end_rev_info
1968
 
    if start_rev_info is None and end_rev_info is None:
 
1588
    if revision is None:
1969
1589
        if tree is None:
1970
1590
            tree = b.basis_tree()
1971
 
        tree1 = None
1972
 
        for fp in relpaths:
1973
 
            file_id = tree.path2id(fp)
1974
 
            kind = _get_kind_for_file_id(tree, file_id)
1975
 
            if file_id is None:
1976
 
                # go back to when time began
1977
 
                if tree1 is None:
1978
 
                    try:
1979
 
                        rev1 = b.get_rev_id(1)
1980
 
                    except errors.NoSuchRevision:
1981
 
                        # No history at all
1982
 
                        file_id = None
1983
 
                        kind = None
1984
 
                    else:
1985
 
                        tree1 = b.repository.revision_tree(rev1)
1986
 
                if tree1:
1987
 
                    file_id = tree1.path2id(fp)
1988
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1989
 
            info_list.append((fp, file_id, kind))
 
1591
        file_id = tree.path2id(fp)
 
1592
        if file_id is None:
 
1593
            # go back to when time began
 
1594
            try:
 
1595
                rev1 = b.get_rev_id(1)
 
1596
            except errors.NoSuchRevision:
 
1597
                # No history at all
 
1598
                file_id = None
 
1599
            else:
 
1600
                tree = b.repository.revision_tree(rev1)
 
1601
                file_id = tree.path2id(fp)
1990
1602
 
1991
 
    elif start_rev_info == end_rev_info:
 
1603
    elif len(revision) == 1:
1992
1604
        # One revision given - file must exist in it
1993
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1994
 
        for fp in relpaths:
1995
 
            file_id = tree.path2id(fp)
1996
 
            kind = _get_kind_for_file_id(tree, file_id)
1997
 
            info_list.append((fp, file_id, kind))
 
1605
        tree = revision[0].as_tree(b)
 
1606
        file_id = tree.path2id(fp)
1998
1607
 
1999
 
    else:
 
1608
    elif len(revision) == 2:
2000
1609
        # Revision range given. Get the file-id from the end tree.
2001
1610
        # If that fails, try the start tree.
2002
 
        rev_id = end_rev_info.rev_id
 
1611
        rev_id = revision[1].as_revision_id(b)
2003
1612
        if rev_id is None:
2004
1613
            tree = b.basis_tree()
2005
1614
        else:
2006
 
            tree = b.repository.revision_tree(rev_id)
2007
 
        tree1 = None
2008
 
        for fp in relpaths:
 
1615
            tree = revision[1].as_tree(b)
 
1616
        file_id = tree.path2id(fp)
 
1617
        if file_id is None:
 
1618
            rev_id = revision[0].as_revision_id(b)
 
1619
            if rev_id is None:
 
1620
                rev1 = b.get_rev_id(1)
 
1621
                tree = b.repository.revision_tree(rev1)
 
1622
            else:
 
1623
                tree = revision[0].as_tree(b)
2009
1624
            file_id = tree.path2id(fp)
2010
 
            kind = _get_kind_for_file_id(tree, file_id)
2011
 
            if file_id is None:
2012
 
                if tree1 is None:
2013
 
                    rev_id = start_rev_info.rev_id
2014
 
                    if rev_id is None:
2015
 
                        rev1 = b.get_rev_id(1)
2016
 
                        tree1 = b.repository.revision_tree(rev1)
2017
 
                    else:
2018
 
                        tree1 = b.repository.revision_tree(rev_id)
2019
 
                file_id = tree1.path2id(fp)
2020
 
                kind = _get_kind_for_file_id(tree1, file_id)
2021
 
            info_list.append((fp, file_id, kind))
2022
 
    return b, info_list, start_rev_info, end_rev_info
2023
 
 
2024
 
 
2025
 
def _get_kind_for_file_id(tree, file_id):
2026
 
    """Return the kind of a file-id or None if it doesn't exist."""
2027
 
    if file_id is not None:
2028
 
        return tree.kind(file_id)
2029
1625
    else:
2030
 
        return None
 
1626
        raise errors.BzrCommandError(
 
1627
            'bzr log --revision takes one or two values.')
 
1628
    return file_id
2031
1629
 
2032
1630
 
2033
1631
properties_handler_registry = registry.Registry()
2034
 
 
2035
 
# Use the properties handlers to print out bug information if available
2036
 
def _bugs_properties_handler(revision):
2037
 
    if revision.properties.has_key('bugs'):
2038
 
        bug_lines = revision.properties['bugs'].split('\n')
2039
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2040
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2041
 
                          len(row) > 1 and row[1] == 'fixed']
2042
 
 
2043
 
        if fixed_bug_urls:
2044
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2045
 
    return {}
2046
 
 
2047
 
properties_handler_registry.register('bugs_properties_handler',
2048
 
                                     _bugs_properties_handler)
 
1632
properties_handler_registry.register_lazy("foreign",
 
1633
                                          "bzrlib.foreign",
 
1634
                                          "show_foreign_properties")
2049
1635
 
2050
1636
 
2051
1637
# adapters which revision ids to log are filtered. When log is called, the