/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Martin Pool
  • Date: 2009-01-23 18:44:10 UTC
  • mto: This revision was merged to the branch mainline in revision 3959.
  • Revision ID: mbp@sourcefrog.net-20090123184410-8no3skbgeghur5jh
More documentation and links about writing plugins

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
50
50
"""
51
51
 
52
52
import codecs
53
 
from cStringIO import StringIO
54
53
from itertools import (
55
 
    chain,
56
54
    izip,
57
55
    )
58
56
import re
65
63
lazy_import(globals(), """
66
64
 
67
65
from bzrlib import (
68
 
    bzrdir,
69
66
    config,
70
 
    diff,
71
67
    errors,
72
 
    foreign,
73
68
    repository as _mod_repository,
74
69
    revision as _mod_revision,
75
70
    revisionspec,
83
78
    )
84
79
from bzrlib.osutils import (
85
80
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
81
    get_terminal_encoding,
88
 
    re_compile_checked,
89
82
    terminal_width,
90
83
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
94
 
    )
95
84
 
96
85
 
97
86
def find_touching_revisions(branch, file_id):
109
98
    last_path = None
110
99
    revno = 1
111
100
    for revision_id in branch.revision_history():
112
 
        this_inv = branch.repository.get_inventory(revision_id)
 
101
        this_inv = branch.repository.get_revision_inventory(revision_id)
113
102
        if file_id in this_inv:
114
103
            this_ie = this_inv[file_id]
115
104
            this_path = this_inv.id2path(file_id)
155
144
             start_revision=None,
156
145
             end_revision=None,
157
146
             search=None,
158
 
             limit=None,
159
 
             show_diff=False):
 
147
             limit=None):
160
148
    """Write out human-readable log of commits to this branch.
161
149
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
150
    :param lf: The LogFormatter object showing the output.
168
151
 
169
152
    :param specific_fileid: If not None, list only the commits affecting the
183
166
 
184
167
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
185
168
        if None or 0.
186
 
 
187
 
    :param show_diff: If True, output a diff after each revision.
188
 
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
 
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    'exclude_common_ancestry': False,
224
 
    '_match_using_deltas': True,
225
 
    }
226
 
 
227
 
 
228
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
229
 
                          start_revision=None, end_revision=None, limit=None,
230
 
                          message_search=None, levels=1, generate_tags=True,
231
 
                          delta_type=None,
232
 
                          diff_type=None, _match_using_deltas=True,
233
 
                          exclude_common_ancestry=False,
234
 
                          ):
235
 
    """Convenience function for making a logging request dictionary.
236
 
 
237
 
    Using this function may make code slightly safer by ensuring
238
 
    parameters have the correct names. It also provides a reference
239
 
    point for documenting the supported parameters.
240
 
 
241
 
    :param direction: 'reverse' (default) is latest to earliest;
242
 
      'forward' is earliest to latest.
243
 
 
244
 
    :param specific_fileids: If not None, only include revisions
245
 
      affecting the specified files, rather than all revisions.
246
 
 
247
 
    :param start_revision: If not None, only generate
248
 
      revisions >= start_revision
249
 
 
250
 
    :param end_revision: If not None, only generate
251
 
      revisions <= end_revision
252
 
 
253
 
    :param limit: If set, generate only 'limit' revisions, all revisions
254
 
      are shown if None or 0.
255
 
 
256
 
    :param message_search: If not None, only include revisions with
257
 
      matching commit messages
258
 
 
259
 
    :param levels: the number of levels of revisions to
260
 
      generate; 1 for just the mainline; 0 for all levels.
261
 
 
262
 
    :param generate_tags: If True, include tags for matched revisions.
263
 
 
264
 
    :param delta_type: Either 'full', 'partial' or None.
265
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
266
 
      'partial' means filter the delta using specific_fileids;
267
 
      None means do not generate any delta.
268
 
 
269
 
    :param diff_type: Either 'full', 'partial' or None.
270
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
271
 
      'partial' means filter the diff using specific_fileids;
272
 
      None means do not generate any diff.
273
 
 
274
 
    :param _match_using_deltas: a private parameter controlling the
275
 
      algorithm used for matching specific_fileids. This parameter
276
 
      may be removed in the future so bzrlib client code should NOT
277
 
      use it.
278
 
 
279
 
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
280
 
      range operator or as a graph difference.
281
 
    """
282
 
    return {
283
 
        'direction': direction,
284
 
        'specific_fileids': specific_fileids,
285
 
        'start_revision': start_revision,
286
 
        'end_revision': end_revision,
287
 
        'limit': limit,
288
 
        'message_search': message_search,
289
 
        'levels': levels,
290
 
        'generate_tags': generate_tags,
291
 
        'delta_type': delta_type,
292
 
        'diff_type': diff_type,
293
 
        'exclude_common_ancestry': exclude_common_ancestry,
294
 
        # Add 'private' attributes for features that may be deprecated
295
 
        '_match_using_deltas': _match_using_deltas,
296
 
    }
297
 
 
298
 
 
299
 
def _apply_log_request_defaults(rqst):
300
 
    """Apply default values to a request dictionary."""
301
 
    result = _DEFAULT_REQUEST_PARAMS
302
 
    if rqst:
303
 
        result.update(rqst)
304
 
    return result
305
 
 
306
 
 
307
 
class LogGenerator(object):
308
 
    """A generator of log revisions."""
309
 
 
310
 
    def iter_log_revisions(self):
311
 
        """Iterate over LogRevision objects.
312
 
 
313
 
        :return: An iterator yielding LogRevision objects.
314
 
        """
315
 
        raise NotImplementedError(self.iter_log_revisions)
316
 
 
317
 
 
318
 
class Logger(object):
319
 
    """An object that generates, formats and displays a log."""
320
 
 
321
 
    def __init__(self, branch, rqst):
322
 
        """Create a Logger.
323
 
 
324
 
        :param branch: the branch to log
325
 
        :param rqst: A dictionary specifying the query parameters.
326
 
          See make_log_request_dict() for supported values.
327
 
        """
328
 
        self.branch = branch
329
 
        self.rqst = _apply_log_request_defaults(rqst)
330
 
 
331
 
    def show(self, lf):
332
 
        """Display the log.
333
 
 
334
 
        :param lf: The LogFormatter object to send the output to.
335
 
        """
336
 
        if not isinstance(lf, LogFormatter):
337
 
            warn("not a LogFormatter instance: %r" % lf)
338
 
 
339
 
        self.branch.lock_read()
340
 
        try:
341
 
            if getattr(lf, 'begin_log', None):
342
 
                lf.begin_log()
343
 
            self._show_body(lf)
344
 
            if getattr(lf, 'end_log', None):
345
 
                lf.end_log()
346
 
        finally:
347
 
            self.branch.unlock()
348
 
 
349
 
    def _show_body(self, lf):
350
 
        """Show the main log output.
351
 
 
352
 
        Subclasses may wish to override this.
353
 
        """
354
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
355
 
        # (There's no point generating stuff if the formatter can't display it.)
356
 
        rqst = self.rqst
357
 
        rqst['levels'] = lf.get_levels()
358
 
        if not getattr(lf, 'supports_tags', False):
359
 
            rqst['generate_tags'] = False
360
 
        if not getattr(lf, 'supports_delta', False):
361
 
            rqst['delta_type'] = None
362
 
        if not getattr(lf, 'supports_diff', False):
363
 
            rqst['diff_type'] = None
364
 
 
365
 
        # Find and print the interesting revisions
366
 
        generator = self._generator_factory(self.branch, rqst)
367
 
        for lr in generator.iter_log_revisions():
 
169
    """
 
170
    branch.lock_read()
 
171
    try:
 
172
        if getattr(lf, 'begin_log', None):
 
173
            lf.begin_log()
 
174
 
 
175
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
176
                  start_revision, end_revision, search, limit)
 
177
 
 
178
        if getattr(lf, 'end_log', None):
 
179
            lf.end_log()
 
180
    finally:
 
181
        branch.unlock()
 
182
 
 
183
 
 
184
def _show_log(branch,
 
185
             lf,
 
186
             specific_fileid=None,
 
187
             verbose=False,
 
188
             direction='reverse',
 
189
             start_revision=None,
 
190
             end_revision=None,
 
191
             search=None,
 
192
             limit=None):
 
193
    """Worker function for show_log - see show_log."""
 
194
    if not isinstance(lf, LogFormatter):
 
195
        warn("not a LogFormatter instance: %r" % lf)
 
196
 
 
197
    if specific_fileid:
 
198
        trace.mutter('get log for file_id %r', specific_fileid)
 
199
    generate_merge_revisions = getattr(lf, 'supports_merge_revisions', False)
 
200
    allow_single_merge_revision = getattr(lf,
 
201
        'supports_single_merge_revision', False)
 
202
    view_revisions = calculate_view_revisions(branch, start_revision,
 
203
                                              end_revision, direction,
 
204
                                              specific_fileid,
 
205
                                              generate_merge_revisions,
 
206
                                              allow_single_merge_revision)
 
207
    rev_tag_dict = {}
 
208
    generate_tags = getattr(lf, 'supports_tags', False)
 
209
    if generate_tags:
 
210
        if branch.supports_tags():
 
211
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
212
 
 
213
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
 
214
 
 
215
    # now we just print all the revisions
 
216
    log_count = 0
 
217
    revision_iterator = make_log_rev_iterator(branch, view_revisions,
 
218
        generate_delta, search)
 
219
    for revs in revision_iterator:
 
220
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
221
            lr = LogRevision(rev, revno, merge_depth, delta,
 
222
                             rev_tag_dict.get(rev_id))
368
223
            lf.log_revision(lr)
369
 
        lf.show_advice()
370
 
 
371
 
    def _generator_factory(self, branch, rqst):
372
 
        """Make the LogGenerator object to use.
373
 
        
374
 
        Subclasses may wish to override this.
375
 
        """
376
 
        return _DefaultLogGenerator(branch, rqst)
377
 
 
378
 
 
379
 
class _StartNotLinearAncestor(Exception):
380
 
    """Raised when a start revision is not found walking left-hand history."""
381
 
 
382
 
 
383
 
class _DefaultLogGenerator(LogGenerator):
384
 
    """The default generator of log revisions."""
385
 
 
386
 
    def __init__(self, branch, rqst):
387
 
        self.branch = branch
388
 
        self.rqst = rqst
389
 
        if rqst.get('generate_tags') and branch.supports_tags():
390
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
391
 
        else:
392
 
            self.rev_tag_dict = {}
393
 
 
394
 
    def iter_log_revisions(self):
395
 
        """Iterate over LogRevision objects.
396
 
 
397
 
        :return: An iterator yielding LogRevision objects.
398
 
        """
399
 
        rqst = self.rqst
400
 
        levels = rqst.get('levels')
401
 
        limit = rqst.get('limit')
402
 
        diff_type = rqst.get('diff_type')
403
 
        log_count = 0
404
 
        revision_iterator = self._create_log_revision_iterator()
405
 
        for revs in revision_iterator:
406
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
407
 
                # 0 levels means show everything; merge_depth counts from 0
408
 
                if levels != 0 and merge_depth >= levels:
409
 
                    continue
410
 
                if diff_type is None:
411
 
                    diff = None
412
 
                else:
413
 
                    diff = self._format_diff(rev, rev_id, diff_type)
414
 
                yield LogRevision(rev, revno, merge_depth, delta,
415
 
                    self.rev_tag_dict.get(rev_id), diff)
416
 
                if limit:
417
 
                    log_count += 1
418
 
                    if log_count >= limit:
419
 
                        return
420
 
 
421
 
    def _format_diff(self, rev, rev_id, diff_type):
422
 
        repo = self.branch.repository
423
 
        if len(rev.parent_ids) == 0:
424
 
            ancestor_id = _mod_revision.NULL_REVISION
425
 
        else:
426
 
            ancestor_id = rev.parent_ids[0]
427
 
        tree_1 = repo.revision_tree(ancestor_id)
428
 
        tree_2 = repo.revision_tree(rev_id)
429
 
        file_ids = self.rqst.get('specific_fileids')
430
 
        if diff_type == 'partial' and file_ids is not None:
431
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
432
 
        else:
433
 
            specific_files = None
434
 
        s = StringIO()
435
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
436
 
            new_label='')
437
 
        return s.getvalue()
438
 
 
439
 
    def _create_log_revision_iterator(self):
440
 
        """Create a revision iterator for log.
441
 
 
442
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
443
 
            delta).
444
 
        """
445
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
446
 
            self.branch, self.rqst.get('start_revision'),
447
 
            self.rqst.get('end_revision'))
448
 
        if self.rqst.get('_match_using_deltas'):
449
 
            return self._log_revision_iterator_using_delta_matching()
450
 
        else:
451
 
            # We're using the per-file-graph algorithm. This scales really
452
 
            # well but only makes sense if there is a single file and it's
453
 
            # not a directory
454
 
            file_count = len(self.rqst.get('specific_fileids'))
455
 
            if file_count != 1:
456
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
457
 
                    "when logging %d files" % file_count)
458
 
            return self._log_revision_iterator_using_per_file_graph()
459
 
 
460
 
    def _log_revision_iterator_using_delta_matching(self):
461
 
        # Get the base revisions, filtering by the revision range
462
 
        rqst = self.rqst
463
 
        generate_merge_revisions = rqst.get('levels') != 1
464
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
465
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
466
 
        view_revisions = _calc_view_revisions(
467
 
            self.branch, self.start_rev_id, self.end_rev_id,
468
 
            rqst.get('direction'),
469
 
            generate_merge_revisions=generate_merge_revisions,
470
 
            delayed_graph_generation=delayed_graph_generation,
471
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
472
 
 
473
 
        # Apply the other filters
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'),
476
 
            file_ids=rqst.get('specific_fileids'),
477
 
            direction=rqst.get('direction'))
478
 
 
479
 
    def _log_revision_iterator_using_per_file_graph(self):
480
 
        # Get the base revisions, filtering by the revision range.
481
 
        # Note that we always generate the merge revisions because
482
 
        # filter_revisions_touching_file_id() requires them ...
483
 
        rqst = self.rqst
484
 
        view_revisions = _calc_view_revisions(
485
 
            self.branch, self.start_rev_id, self.end_rev_id,
486
 
            rqst.get('direction'), generate_merge_revisions=True,
487
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
488
 
        if not isinstance(view_revisions, list):
489
 
            view_revisions = list(view_revisions)
490
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
491
 
            rqst.get('specific_fileids')[0], view_revisions,
492
 
            include_merges=rqst.get('levels') != 1)
493
 
        return make_log_rev_iterator(self.branch, view_revisions,
494
 
            rqst.get('delta_type'), rqst.get('message_search'))
495
 
 
496
 
 
497
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
498
 
                         generate_merge_revisions,
499
 
                         delayed_graph_generation=False,
500
 
                         exclude_common_ancestry=False,
501
 
                         ):
502
 
    """Calculate the revisions to view.
503
 
 
504
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
505
 
             a list of the same tuples.
506
 
    """
507
 
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
508
 
        raise errors.BzrCommandError(
509
 
            '--exclude-common-ancestry requires two different revisions')
510
 
    if direction not in ('reverse', 'forward'):
511
 
        raise ValueError('invalid direction %r' % direction)
512
 
    br_revno, br_rev_id = branch.last_revision_info()
513
 
    if br_revno == 0:
514
 
        return []
515
 
 
516
 
    if (end_rev_id and start_rev_id == end_rev_id
517
 
        and (not generate_merge_revisions
518
 
             or not _has_merges(branch, end_rev_id))):
519
 
        # If a single revision is requested, check we can handle it
520
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
521
 
                                           br_revno)
522
 
    elif not generate_merge_revisions:
523
 
        # If we only want to see linear revisions, we can iterate ...
524
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
525
 
                                             direction)
526
 
        if direction == 'forward':
527
 
            iter_revs = reversed(iter_revs)
528
 
    else:
529
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
530
 
                                            direction, delayed_graph_generation,
531
 
                                            exclude_common_ancestry)
532
 
        if direction == 'forward':
533
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
534
 
    return iter_revs
535
 
 
536
 
 
537
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
538
 
    if rev_id == br_rev_id:
539
 
        # It's the tip
540
 
        return [(br_rev_id, br_revno, 0)]
541
 
    else:
542
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
543
 
        revno_str = '.'.join(str(n) for n in revno)
544
 
        return [(rev_id, revno_str, 0)]
545
 
 
546
 
 
547
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
548
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
549
 
    # If a start limit was given and it's not obviously an
550
 
    # ancestor of the end limit, check it before outputting anything
551
 
    if direction == 'forward' or (start_rev_id
552
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
553
 
        try:
554
 
            result = list(result)
555
 
        except _StartNotLinearAncestor:
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' left-hand history of end revision.')
558
 
    return result
559
 
 
560
 
 
561
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
562
 
                            delayed_graph_generation,
563
 
                            exclude_common_ancestry=False):
564
 
    # On large trees, generating the merge graph can take 30-60 seconds
565
 
    # so we delay doing it until a merge is detected, incrementally
566
 
    # returning initial (non-merge) revisions while we can.
567
 
 
568
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
569
 
    # couple of seconds only should be needed to load the whole graph and the
570
 
    # other graph operations needed are even faster than that -- vila 100201
571
 
    initial_revisions = []
572
 
    if delayed_graph_generation:
573
 
        try:
574
 
            for rev_id, revno, depth in  _linear_view_revisions(
575
 
                branch, start_rev_id, end_rev_id):
576
 
                if _has_merges(branch, rev_id):
577
 
                    # The end_rev_id can be nested down somewhere. We need an
578
 
                    # explicit ancestry check. There is an ambiguity here as we
579
 
                    # may not raise _StartNotLinearAncestor for a revision that
580
 
                    # is an ancestor but not a *linear* one. But since we have
581
 
                    # loaded the graph to do the check (or calculate a dotted
582
 
                    # revno), we may as well accept to show the log...  We need
583
 
                    # the check only if start_rev_id is not None as all
584
 
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
585
 
                    # -- vila 20100319
586
 
                    graph = branch.repository.get_graph()
587
 
                    if (start_rev_id is not None
588
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
589
 
                        raise _StartNotLinearAncestor()
590
 
                    # Since we collected the revisions so far, we need to
591
 
                    # adjust end_rev_id.
592
 
                    end_rev_id = rev_id
593
 
                    break
594
 
                else:
595
 
                    initial_revisions.append((rev_id, revno, depth))
596
 
            else:
597
 
                # No merged revisions found
598
 
                return initial_revisions
599
 
        except _StartNotLinearAncestor:
600
 
            # A merge was never detected so the lower revision limit can't
601
 
            # be nested down somewhere
602
 
            raise errors.BzrCommandError('Start revision not found in'
603
 
                ' history of end revision.')
604
 
 
605
 
    # We exit the loop above because we encounter a revision with merges, from
606
 
    # this revision, we need to switch to _graph_view_revisions.
607
 
 
608
 
    # A log including nested merges is required. If the direction is reverse,
609
 
    # we rebase the initial merge depths so that the development line is
610
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
611
 
    # make forward the exact opposite display, but showing the merge revisions
612
 
    # indented at the end seems slightly nicer in that case.
613
 
    view_revisions = chain(iter(initial_revisions),
614
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
615
 
                              rebase_initial_depths=(direction == 'reverse'),
616
 
                              exclude_common_ancestry=exclude_common_ancestry))
617
 
    return view_revisions
618
 
 
619
 
 
620
 
def _has_merges(branch, rev_id):
621
 
    """Does a revision have multiple parents or not?"""
622
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
623
 
    return len(parents) > 1
624
 
 
625
 
 
626
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
627
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
628
 
    if start_rev_id and end_rev_id:
629
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
630
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
631
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
632
 
            # both on mainline
633
 
            return start_dotted[0] <= end_dotted[0]
634
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
635
 
            start_dotted[0:1] == end_dotted[0:1]):
636
 
            # both on same development line
637
 
            return start_dotted[2] <= end_dotted[2]
638
 
        else:
639
 
            # not obvious
640
 
            return False
641
 
    # if either start or end is not specified then we use either the first or
642
 
    # the last revision and *they* are obvious ancestors.
643
 
    return True
644
 
 
645
 
 
646
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
647
 
    """Calculate a sequence of revisions to view, newest to oldest.
648
 
 
649
 
    :param start_rev_id: the lower revision-id
650
 
    :param end_rev_id: the upper revision-id
651
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
652
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
653
 
      is not found walking the left-hand history
654
 
    """
655
 
    br_revno, br_rev_id = branch.last_revision_info()
656
 
    repo = branch.repository
657
 
    if start_rev_id is None and end_rev_id is None:
658
 
        cur_revno = br_revno
659
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
660
 
            yield revision_id, str(cur_revno), 0
661
 
            cur_revno -= 1
662
 
    else:
663
 
        if end_rev_id is None:
664
 
            end_rev_id = br_rev_id
665
 
        found_start = start_rev_id is None
666
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
667
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
668
 
            revno_str = '.'.join(str(n) for n in revno)
669
 
            if not found_start and revision_id == start_rev_id:
670
 
                yield revision_id, revno_str, 0
671
 
                found_start = True
672
 
                break
673
 
            else:
674
 
                yield revision_id, revno_str, 0
675
 
        else:
676
 
            if not found_start:
677
 
                raise _StartNotLinearAncestor()
678
 
 
679
 
 
680
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
681
 
                          rebase_initial_depths=True,
682
 
                          exclude_common_ancestry=False):
683
 
    """Calculate revisions to view including merges, newest to oldest.
684
 
 
685
 
    :param branch: the branch
686
 
    :param start_rev_id: the lower revision-id
687
 
    :param end_rev_id: the upper revision-id
688
 
    :param rebase_initial_depth: should depths be rebased until a mainline
689
 
      revision is found?
690
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
691
 
    """
692
 
    if exclude_common_ancestry:
693
 
        stop_rule = 'with-merges-without-common-ancestry'
694
 
    else:
695
 
        stop_rule = 'with-merges'
696
 
    view_revisions = branch.iter_merge_sorted_revisions(
697
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
698
 
        stop_rule=stop_rule)
699
 
    if not rebase_initial_depths:
700
 
        for (rev_id, merge_depth, revno, end_of_merge
701
 
             ) in view_revisions:
702
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
703
 
    else:
704
 
        # We're following a development line starting at a merged revision.
705
 
        # We need to adjust depths down by the initial depth until we find
706
 
        # a depth less than it. Then we use that depth as the adjustment.
707
 
        # If and when we reach the mainline, depth adjustment ends.
708
 
        depth_adjustment = None
709
 
        for (rev_id, merge_depth, revno, end_of_merge
710
 
             ) in view_revisions:
711
 
            if depth_adjustment is None:
712
 
                depth_adjustment = merge_depth
713
 
            if depth_adjustment:
714
 
                if merge_depth < depth_adjustment:
715
 
                    # From now on we reduce the depth adjustement, this can be
716
 
                    # surprising for users. The alternative requires two passes
717
 
                    # which breaks the fast display of the first revision
718
 
                    # though.
719
 
                    depth_adjustment = merge_depth
720
 
                merge_depth -= depth_adjustment
721
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
722
 
 
723
 
 
724
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
224
            if limit:
 
225
                log_count += 1
 
226
                if log_count >= limit:
 
227
                    return
 
228
 
 
229
 
725
230
def calculate_view_revisions(branch, start_revision, end_revision, direction,
726
 
        specific_fileid, generate_merge_revisions):
727
 
    """Calculate the revisions to view.
728
 
 
729
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
730
 
             a list of the same tuples.
731
 
    """
732
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
733
 
        end_revision)
734
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
735
 
        direction, generate_merge_revisions or specific_fileid))
 
231
                             specific_fileid, generate_merge_revisions,
 
232
                             allow_single_merge_revision):
 
233
    if (    not generate_merge_revisions
 
234
        and start_revision is end_revision is None
 
235
        and direction == 'reverse'
 
236
        and specific_fileid is None):
 
237
        return _linear_view_revisions(branch)
 
238
 
 
239
    mainline_revs, rev_nos, start_rev_id, end_rev_id = _get_mainline_revs(
 
240
        branch, start_revision, end_revision)
 
241
    if not mainline_revs:
 
242
        return []
 
243
 
 
244
    generate_single_revision = False
 
245
    if ((not generate_merge_revisions)
 
246
        and ((start_rev_id and (start_rev_id not in rev_nos))
 
247
            or (end_rev_id and (end_rev_id not in rev_nos)))):
 
248
        generate_single_revision = ((start_rev_id == end_rev_id)
 
249
            and allow_single_merge_revision)
 
250
        if not generate_single_revision:
 
251
            raise errors.BzrCommandError('Selected log formatter only supports'
 
252
                ' mainline revisions.')
 
253
        generate_merge_revisions = generate_single_revision
 
254
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
 
255
                          direction, include_merges=generate_merge_revisions)
 
256
 
 
257
    if direction == 'reverse':
 
258
        start_rev_id, end_rev_id = end_rev_id, start_rev_id
 
259
    view_revisions = _filter_revision_range(list(view_revs_iter),
 
260
                                            start_rev_id,
 
261
                                            end_rev_id)
 
262
    if view_revisions and generate_single_revision:
 
263
        view_revisions = view_revisions[0:1]
736
264
    if specific_fileid:
737
265
        view_revisions = _filter_revisions_touching_file_id(branch,
738
 
            specific_fileid, view_revisions,
739
 
            include_merges=generate_merge_revisions)
740
 
    return _rebase_merge_depth(view_revisions)
741
 
 
742
 
 
743
 
def _rebase_merge_depth(view_revisions):
744
 
    """Adjust depths upwards so the top level is 0."""
745
 
    # If either the first or last revision have a merge_depth of 0, we're done
 
266
                                                            specific_fileid,
 
267
                                                            view_revisions)
 
268
 
 
269
    # rebase merge_depth - unless there are no revisions or 
 
270
    # either the first or last revision have merge_depth = 0.
746
271
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
747
272
        min_depth = min([d for r,n,d in view_revisions])
748
273
        if min_depth != 0:
750
275
    return view_revisions
751
276
 
752
277
 
753
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
754
 
        file_ids=None, direction='reverse'):
 
278
def _linear_view_revisions(branch):
 
279
    start_revno, start_revision_id = branch.last_revision_info()
 
280
    repo = branch.repository
 
281
    revision_ids = repo.iter_reverse_revision_history(start_revision_id)
 
282
    for num, revision_id in enumerate(revision_ids):
 
283
        yield revision_id, str(start_revno - num), 0
 
284
 
 
285
 
 
286
def make_log_rev_iterator(branch, view_revisions, generate_delta, search):
755
287
    """Create a revision iterator for log.
756
288
 
757
289
    :param branch: The branch being logged.
758
290
    :param view_revisions: The revisions being viewed.
759
291
    :param generate_delta: Whether to generate a delta for each revision.
760
 
      Permitted values are None, 'full' and 'partial'.
761
292
    :param search: A user text search string.
762
 
    :param file_ids: If non empty, only revisions matching one or more of
763
 
      the file-ids are to be kept.
764
 
    :param direction: the direction in which view_revisions is sorted
765
293
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
766
294
        delta).
767
295
    """
778
306
                yield (view, None, None)
779
307
        log_rev_iterator = iter([_convert()])
780
308
    for adapter in log_adapters:
781
 
        # It would be nicer if log adapters were first class objects
782
 
        # with custom parameters. This will do for now. IGC 20090127
783
 
        if adapter == _make_delta_filter:
784
 
            log_rev_iterator = adapter(branch, generate_delta,
785
 
                search, log_rev_iterator, file_ids, direction)
786
 
        else:
787
 
            log_rev_iterator = adapter(branch, generate_delta,
788
 
                search, log_rev_iterator)
 
309
        log_rev_iterator = adapter(branch, generate_delta, search,
 
310
            log_rev_iterator)
789
311
    return log_rev_iterator
790
312
 
791
313
 
802
324
    """
803
325
    if search is None:
804
326
        return log_rev_iterator
805
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
806
 
            'log message filter')
 
327
    # Compile the search now to get early errors.
 
328
    searchRE = re.compile(search, re.IGNORECASE)
807
329
    return _filter_message_re(searchRE, log_rev_iterator)
808
330
 
809
331
 
816
338
        yield new_revs
817
339
 
818
340
 
819
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
820
 
    fileids=None, direction='reverse'):
 
341
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator):
821
342
    """Add revision deltas to a log iterator if needed.
822
343
 
823
344
    :param branch: The branch being logged.
824
345
    :param generate_delta: Whether to generate a delta for each revision.
825
 
      Permitted values are None, 'full' and 'partial'.
826
346
    :param search: A user text search string.
827
347
    :param log_rev_iterator: An input iterator containing all revisions that
828
348
        could be displayed, in lists.
829
 
    :param fileids: If non empty, only revisions matching one or more of
830
 
      the file-ids are to be kept.
831
 
    :param direction: the direction in which view_revisions is sorted
832
349
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
833
350
        delta).
834
351
    """
835
 
    if not generate_delta and not fileids:
 
352
    if not generate_delta:
836
353
        return log_rev_iterator
837
 
    return _generate_deltas(branch.repository, log_rev_iterator,
838
 
        generate_delta, fileids, direction)
839
 
 
840
 
 
841
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
842
 
    direction):
843
 
    """Create deltas for each batch of revisions in log_rev_iterator.
844
 
 
845
 
    If we're only generating deltas for the sake of filtering against
846
 
    file-ids, we stop generating deltas once all file-ids reach the
847
 
    appropriate life-cycle point. If we're receiving data newest to
848
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
849
 
    """
850
 
    check_fileids = fileids is not None and len(fileids) > 0
851
 
    if check_fileids:
852
 
        fileid_set = set(fileids)
853
 
        if direction == 'reverse':
854
 
            stop_on = 'add'
855
 
        else:
856
 
            stop_on = 'remove'
857
 
    else:
858
 
        fileid_set = None
 
354
    return _generate_deltas(branch.repository, log_rev_iterator)
 
355
 
 
356
 
 
357
def _generate_deltas(repository, log_rev_iterator):
 
358
    """Create deltas for each batch of revisions in log_rev_iterator."""
859
359
    for revs in log_rev_iterator:
860
 
        # If we were matching against fileids and we've run out,
861
 
        # there's nothing left to do
862
 
        if check_fileids and not fileid_set:
863
 
            return
864
360
        revisions = [rev[1] for rev in revs]
865
 
        new_revs = []
866
 
        if delta_type == 'full' and not check_fileids:
867
 
            deltas = repository.get_deltas_for_revisions(revisions)
868
 
            for rev, delta in izip(revs, deltas):
869
 
                new_revs.append((rev[0], rev[1], delta))
870
 
        else:
871
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
872
 
            for rev, delta in izip(revs, deltas):
873
 
                if check_fileids:
874
 
                    if delta is None or not delta.has_changed():
875
 
                        continue
876
 
                    else:
877
 
                        _update_fileids(delta, fileid_set, stop_on)
878
 
                        if delta_type is None:
879
 
                            delta = None
880
 
                        elif delta_type == 'full':
881
 
                            # If the file matches all the time, rebuilding
882
 
                            # a full delta like this in addition to a partial
883
 
                            # one could be slow. However, it's likely that
884
 
                            # most revisions won't get this far, making it
885
 
                            # faster to filter on the partial deltas and
886
 
                            # build the occasional full delta than always
887
 
                            # building full deltas and filtering those.
888
 
                            rev_id = rev[0][0]
889
 
                            delta = repository.get_revision_delta(rev_id)
890
 
                new_revs.append((rev[0], rev[1], delta))
891
 
        yield new_revs
892
 
 
893
 
 
894
 
def _update_fileids(delta, fileids, stop_on):
895
 
    """Update the set of file-ids to search based on file lifecycle events.
896
 
    
897
 
    :param fileids: a set of fileids to update
898
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
899
 
      fileids set once their add or remove entry is detected respectively
900
 
    """
901
 
    if stop_on == 'add':
902
 
        for item in delta.added:
903
 
            if item[1] in fileids:
904
 
                fileids.remove(item[1])
905
 
    elif stop_on == 'delete':
906
 
        for item in delta.removed:
907
 
            if item[1] in fileids:
908
 
                fileids.remove(item[1])
 
361
        deltas = repository.get_deltas_for_revisions(revisions)
 
362
        revs = [(rev[0], rev[1], delta) for rev, delta in izip(revs, deltas)]
 
363
        yield revs
909
364
 
910
365
 
911
366
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
952
407
            num = min(int(num * 1.5), 200)
953
408
 
954
409
 
955
 
def _get_revision_limits(branch, start_revision, end_revision):
956
 
    """Get and check revision limits.
957
 
 
958
 
    :param  branch: The branch containing the revisions.
959
 
 
960
 
    :param  start_revision: The first revision to be logged.
961
 
            For backwards compatibility this may be a mainline integer revno,
962
 
            but for merge revision support a RevisionInfo is expected.
963
 
 
964
 
    :param  end_revision: The last revision to be logged.
965
 
            For backwards compatibility this may be a mainline integer revno,
966
 
            but for merge revision support a RevisionInfo is expected.
967
 
 
968
 
    :return: (start_rev_id, end_rev_id) tuple.
969
 
    """
970
 
    branch_revno, branch_rev_id = branch.last_revision_info()
971
 
    start_rev_id = None
972
 
    if start_revision is None:
973
 
        start_revno = 1
974
 
    else:
975
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
976
 
            start_rev_id = start_revision.rev_id
977
 
            start_revno = start_revision.revno or 1
978
 
        else:
979
 
            branch.check_real_revno(start_revision)
980
 
            start_revno = start_revision
981
 
            start_rev_id = branch.get_rev_id(start_revno)
982
 
 
983
 
    end_rev_id = None
984
 
    if end_revision is None:
985
 
        end_revno = branch_revno
986
 
    else:
987
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
988
 
            end_rev_id = end_revision.rev_id
989
 
            end_revno = end_revision.revno or branch_revno
990
 
        else:
991
 
            branch.check_real_revno(end_revision)
992
 
            end_revno = end_revision
993
 
            end_rev_id = branch.get_rev_id(end_revno)
994
 
 
995
 
    if branch_revno != 0:
996
 
        if (start_rev_id == _mod_revision.NULL_REVISION
997
 
            or end_rev_id == _mod_revision.NULL_REVISION):
998
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
999
 
        if start_revno > end_revno:
1000
 
            raise errors.BzrCommandError("Start revision must be older than "
1001
 
                                         "the end revision.")
1002
 
    return (start_rev_id, end_rev_id)
1003
 
 
1004
 
 
1005
410
def _get_mainline_revs(branch, start_revision, end_revision):
1006
411
    """Get the mainline revisions from the branch.
1007
 
 
 
412
    
1008
413
    Generates the list of mainline revisions for the branch.
1009
 
 
1010
 
    :param  branch: The branch containing the revisions.
 
414
    
 
415
    :param  branch: The branch containing the revisions. 
1011
416
 
1012
417
    :param  start_revision: The first revision to be logged.
1013
418
            For backwards compatibility this may be a mainline integer revno,
1023
428
    if branch_revno == 0:
1024
429
        return None, None, None, None
1025
430
 
1026
 
    # For mainline generation, map start_revision and end_revision to
1027
 
    # mainline revnos. If the revision is not on the mainline choose the
1028
 
    # appropriate extreme of the mainline instead - the extra will be
 
431
    # For mainline generation, map start_revision and end_revision to 
 
432
    # mainline revnos. If the revision is not on the mainline choose the 
 
433
    # appropriate extreme of the mainline instead - the extra will be 
1029
434
    # filtered later.
1030
435
    # Also map the revisions to rev_ids, to be used in the later filtering
1031
436
    # stage.
1084
489
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1085
490
 
1086
491
 
1087
 
@deprecated_function(deprecated_in((2, 2, 0)))
1088
492
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1089
493
    """Filter view_revisions based on revision ranges.
1090
494
 
1091
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
495
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
1092
496
            tuples to be filtered.
1093
497
 
1094
498
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1112
516
                end_index = revision_ids.index(end_rev_id)
1113
517
            else:
1114
518
                end_index = len(view_revisions) - 1
1115
 
        # To include the revisions merged into the last revision,
 
519
        # To include the revisions merged into the last revision, 
1116
520
        # extend end_rev_id down to, but not including, the next rev
1117
521
        # with the same or lesser merge_depth
1118
522
        end_merge_depth = view_revisions[end_index][2]
1128
532
    return view_revisions
1129
533
 
1130
534
 
1131
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1132
 
    include_merges=True):
 
535
def _filter_revisions_touching_file_id(branch, file_id, view_revisions):
1133
536
    r"""Return the list of revision ids which touch a given file id.
1134
537
 
1135
538
    The function filters view_revisions and returns a subset.
1162
565
        assumed that view_revisions is in merge_sort order (i.e. newest
1163
566
        revision first ).
1164
567
 
1165
 
    :param include_merges: include merge revisions in the result or not
1166
 
 
1167
568
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1168
569
    """
1169
570
    # Lookup all possible text keys to determine which ones actually modified
1170
571
    # the file.
1171
572
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1172
 
    next_keys = None
1173
573
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1174
574
    # memory consumption. GraphIndex *does* like to look for a few keys in
1175
575
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1204
604
            for idx in xrange(len(current_merge_stack)):
1205
605
                node = current_merge_stack[idx]
1206
606
                if node is not None:
1207
 
                    if include_merges or node[2] == 0:
1208
 
                        result.append(node)
1209
 
                        current_merge_stack[idx] = None
 
607
                    result.append(node)
 
608
                    current_merge_stack[idx] = None
1210
609
    return result
1211
610
 
1212
611
 
1213
 
@deprecated_function(deprecated_in((2, 2, 0)))
1214
612
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1215
613
                       include_merges=True):
1216
614
    """Produce an iterator of revisions to show
1217
615
    :return: an iterator of (revision_id, revno, merge_depth)
1218
616
    (if there is no revno for a revision, None is supplied)
1219
617
    """
1220
 
    if not include_merges:
 
618
    if include_merges is False:
1221
619
        revision_ids = mainline_revs[1:]
1222
620
        if direction == 'reverse':
1223
621
            revision_ids.reverse()
1286
684
    """A revision to be logged (by LogFormatter.log_revision).
1287
685
 
1288
686
    A simple wrapper for the attributes of a revision to be logged.
1289
 
    The attributes may or may not be populated, as determined by the
 
687
    The attributes may or may not be populated, as determined by the 
1290
688
    logging options and the log formatter capabilities.
1291
689
    """
1292
690
 
1293
691
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1294
 
                 tags=None, diff=None):
 
692
                 tags=None):
1295
693
        self.rev = rev
1296
 
        self.revno = str(revno)
 
694
        self.revno = revno
1297
695
        self.merge_depth = merge_depth
1298
696
        self.delta = delta
1299
697
        self.tags = tags
1300
 
        self.diff = diff
1301
698
 
1302
699
 
1303
700
class LogFormatter(object):
1308
705
    If the LogFormatter needs to be informed of the beginning or end of
1309
706
    a log it should implement the begin_log and/or end_log hook methods.
1310
707
 
1311
 
    A LogFormatter should define the following supports_XXX flags
 
708
    A LogFormatter should define the following supports_XXX flags 
1312
709
    to indicate which LogRevision attributes it supports:
1313
710
 
1314
711
    - supports_delta must be True if this log formatter supports delta.
1315
712
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1316
713
        attribute describes whether the 'short_status' format (1) or the long
1317
 
        one (2) should be used.
1318
 
 
1319
 
    - supports_merge_revisions must be True if this log formatter supports
1320
 
        merge revisions.  If not, then only mainline revisions will be passed
1321
 
        to the formatter.
1322
 
 
1323
 
    - preferred_levels is the number of levels this formatter defaults to.
1324
 
        The default value is zero meaning display all levels.
1325
 
        This value is only relevant if supports_merge_revisions is True.
1326
 
 
 
714
        one (2) sould be used.
 
715
 
 
716
    - supports_merge_revisions must be True if this log formatter supports 
 
717
        merge revisions.  If not, and if supports_single_merge_revisions is
 
718
        also not True, then only mainline revisions will be passed to the 
 
719
        formatter.
 
720
    - supports_single_merge_revision must be True if this log formatter
 
721
        supports logging only a single merge revision.  This flag is
 
722
        only relevant if supports_merge_revisions is not True.
1327
723
    - supports_tags must be True if this log formatter supports tags.
1328
724
        Otherwise the tags attribute may not be populated.
1329
725
 
1330
 
    - supports_diff must be True if this log formatter supports diffs.
1331
 
        Otherwise the diff attribute may not be populated.
1332
 
 
1333
726
    Plugins can register functions to show custom revision properties using
1334
727
    the properties_handler_registry. The registered function
1335
728
    must respect the following interface description:
1336
729
        def my_show_properties(properties_dict):
1337
 
            # code that returns a dict {'name':'value'} of the properties
 
730
            # code that returns a dict {'name':'value'} of the properties 
1338
731
            # to be shown
1339
732
    """
1340
 
    preferred_levels = 0
1341
733
 
1342
734
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1343
 
                 delta_format=None, levels=None, show_advice=False,
1344
 
                 to_exact_file=None, author_list_handler=None):
1345
 
        """Create a LogFormatter.
1346
 
 
1347
 
        :param to_file: the file to output to
1348
 
        :param to_exact_file: if set, gives an output stream to which 
1349
 
             non-Unicode diffs are written.
1350
 
        :param show_ids: if True, revision-ids are to be displayed
1351
 
        :param show_timezone: the timezone to use
1352
 
        :param delta_format: the level of delta information to display
1353
 
          or None to leave it to the formatter to decide
1354
 
        :param levels: the number of levels to display; None or -1 to
1355
 
          let the log formatter decide.
1356
 
        :param show_advice: whether to show advice at the end of the
1357
 
          log or not
1358
 
        :param author_list_handler: callable generating a list of
1359
 
          authors to display for a given revision
1360
 
        """
 
735
                 delta_format=None):
1361
736
        self.to_file = to_file
1362
 
        # 'exact' stream used to show diff, it should print content 'as is'
1363
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1364
 
        if to_exact_file is not None:
1365
 
            self.to_exact_file = to_exact_file
1366
 
        else:
1367
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1368
 
            # for code that expects to get diffs to pass in the exact file
1369
 
            # stream
1370
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1371
737
        self.show_ids = show_ids
1372
738
        self.show_timezone = show_timezone
1373
739
        if delta_format is None:
1374
740
            # Ensures backward compatibility
1375
741
            delta_format = 2 # long format
1376
742
        self.delta_format = delta_format
1377
 
        self.levels = levels
1378
 
        self._show_advice = show_advice
1379
 
        self._merge_count = 0
1380
 
        self._author_list_handler = author_list_handler
1381
 
 
1382
 
    def get_levels(self):
1383
 
        """Get the number of levels to display or 0 for all."""
1384
 
        if getattr(self, 'supports_merge_revisions', False):
1385
 
            if self.levels is None or self.levels == -1:
1386
 
                self.levels = self.preferred_levels
1387
 
        else:
1388
 
            self.levels = 1
1389
 
        return self.levels
1390
 
 
1391
 
    def log_revision(self, revision):
1392
 
        """Log a revision.
1393
 
 
1394
 
        :param  revision:   The LogRevision to be logged.
1395
 
        """
1396
 
        raise NotImplementedError('not implemented in abstract base')
1397
 
 
1398
 
    def show_advice(self):
1399
 
        """Output user advice, if any, when the log is completed."""
1400
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1401
 
            advice_sep = self.get_advice_separator()
1402
 
            if advice_sep:
1403
 
                self.to_file.write(advice_sep)
1404
 
            self.to_file.write(
1405
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1406
 
 
1407
 
    def get_advice_separator(self):
1408
 
        """Get the text separating the log from the closing advice."""
1409
 
        return ''
 
743
 
 
744
# TODO: uncomment this block after show() has been removed.
 
745
# Until then defining log_revision would prevent _show_log calling show() 
 
746
# in legacy formatters.
 
747
#    def log_revision(self, revision):
 
748
#        """Log a revision.
 
749
#
 
750
#        :param  revision:   The LogRevision to be logged.
 
751
#        """
 
752
#        raise NotImplementedError('not implemented in abstract base')
1410
753
 
1411
754
    def short_committer(self, rev):
1412
755
        name, address = config.parse_username(rev.committer)
1415
758
        return address
1416
759
 
1417
760
    def short_author(self, rev):
1418
 
        return self.authors(rev, 'first', short=True, sep=', ')
1419
 
 
1420
 
    def authors(self, rev, who, short=False, sep=None):
1421
 
        """Generate list of authors, taking --authors option into account.
1422
 
 
1423
 
        The caller has to specify the name of a author list handler,
1424
 
        as provided by the author list registry, using the ``who``
1425
 
        argument.  That name only sets a default, though: when the
1426
 
        user selected a different author list generation using the
1427
 
        ``--authors`` command line switch, as represented by the
1428
 
        ``author_list_handler`` constructor argument, that value takes
1429
 
        precedence.
1430
 
 
1431
 
        :param rev: The revision for which to generate the list of authors.
1432
 
        :param who: Name of the default handler.
1433
 
        :param short: Whether to shorten names to either name or address.
1434
 
        :param sep: What separator to use for automatic concatenation.
1435
 
        """
1436
 
        if self._author_list_handler is not None:
1437
 
            # The user did specify --authors, which overrides the default
1438
 
            author_list_handler = self._author_list_handler
1439
 
        else:
1440
 
            # The user didn't specify --authors, so we use the caller's default
1441
 
            author_list_handler = author_list_registry.get(who)
1442
 
        names = author_list_handler(rev)
1443
 
        if short:
1444
 
            for i in range(len(names)):
1445
 
                name, address = config.parse_username(names[i])
1446
 
                if name:
1447
 
                    names[i] = name
1448
 
                else:
1449
 
                    names[i] = address
1450
 
        if sep is not None:
1451
 
            names = sep.join(names)
1452
 
        return names
1453
 
 
1454
 
    def merge_marker(self, revision):
1455
 
        """Get the merge marker to include in the output or '' if none."""
1456
 
        if len(revision.rev.parent_ids) > 1:
1457
 
            self._merge_count += 1
1458
 
            return ' [merge]'
1459
 
        else:
1460
 
            return ''
 
761
        name, address = config.parse_username(rev.get_apparent_author())
 
762
        if name:
 
763
            return name
 
764
        return address
1461
765
 
1462
766
    def show_properties(self, revision, indent):
1463
767
        """Displays the custom properties returned by each registered handler.
1464
 
 
1465
 
        If a registered handler raises an error it is propagated.
1466
 
        """
1467
 
        for line in self.custom_properties(revision):
1468
 
            self.to_file.write("%s%s\n" % (indent, line))
1469
 
 
1470
 
    def custom_properties(self, revision):
1471
 
        """Format the custom properties returned by each registered handler.
1472
 
 
1473
 
        If a registered handler raises an error it is propagated.
1474
 
 
1475
 
        :return: a list of formatted lines (excluding trailing newlines)
1476
 
        """
1477
 
        lines = self._foreign_info_properties(revision)
 
768
        
 
769
        If a registered handler raises an error it is propagated.
 
770
        """
1478
771
        for key, handler in properties_handler_registry.iteritems():
1479
 
            lines.extend(self._format_properties(handler(revision)))
1480
 
        return lines
1481
 
 
1482
 
    def _foreign_info_properties(self, rev):
1483
 
        """Custom log displayer for foreign revision identifiers.
1484
 
 
1485
 
        :param rev: Revision object.
1486
 
        """
1487
 
        # Revision comes directly from a foreign repository
1488
 
        if isinstance(rev, foreign.ForeignRevision):
1489
 
            return self._format_properties(
1490
 
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1491
 
 
1492
 
        # Imported foreign revision revision ids always contain :
1493
 
        if not ":" in rev.revision_id:
1494
 
            return []
1495
 
 
1496
 
        # Revision was once imported from a foreign repository
1497
 
        try:
1498
 
            foreign_revid, mapping = \
1499
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1500
 
        except errors.InvalidRevisionId:
1501
 
            return []
1502
 
 
1503
 
        return self._format_properties(
1504
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1505
 
 
1506
 
    def _format_properties(self, properties):
1507
 
        lines = []
1508
 
        for key, value in properties.items():
1509
 
            lines.append(key + ': ' + value)
1510
 
        return lines
1511
 
 
1512
 
    def show_diff(self, to_file, diff, indent):
1513
 
        for l in diff.rstrip().split('\n'):
1514
 
            to_file.write(indent + '%s\n' % (l,))
1515
 
 
1516
 
 
1517
 
# Separator between revisions in long format
1518
 
_LONG_SEP = '-' * 60
 
772
            for key, value in handler(revision).items():
 
773
                self.to_file.write(indent + key + ': ' + value + '\n')
1519
774
 
1520
775
 
1521
776
class LongLogFormatter(LogFormatter):
1522
777
 
1523
778
    supports_merge_revisions = True
1524
 
    preferred_levels = 1
1525
779
    supports_delta = True
1526
780
    supports_tags = True
1527
 
    supports_diff = True
1528
 
 
1529
 
    def __init__(self, *args, **kwargs):
1530
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1531
 
        if self.show_timezone == 'original':
1532
 
            self.date_string = self._date_string_original_timezone
1533
 
        else:
1534
 
            self.date_string = self._date_string_with_timezone
1535
 
 
1536
 
    def _date_string_with_timezone(self, rev):
1537
 
        return format_date(rev.timestamp, rev.timezone or 0,
1538
 
                           self.show_timezone)
1539
 
 
1540
 
    def _date_string_original_timezone(self, rev):
1541
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1542
 
            rev.timezone or 0)
1543
781
 
1544
782
    def log_revision(self, revision):
1545
783
        """Log a revision, either merged or not."""
1546
784
        indent = '    ' * revision.merge_depth
1547
 
        lines = [_LONG_SEP]
 
785
        to_file = self.to_file
 
786
        to_file.write(indent + '-' * 60 + '\n')
1548
787
        if revision.revno is not None:
1549
 
            lines.append('revno: %s%s' % (revision.revno,
1550
 
                self.merge_marker(revision)))
 
788
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
1551
789
        if revision.tags:
1552
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
790
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
1553
791
        if self.show_ids:
1554
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
792
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
 
793
            to_file.write('\n')
1555
794
            for parent_id in revision.rev.parent_ids:
1556
 
                lines.append('parent: %s' % (parent_id,))
1557
 
        lines.extend(self.custom_properties(revision.rev))
 
795
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
796
        self.show_properties(revision.rev, indent)
1558
797
 
1559
 
        committer = revision.rev.committer
1560
 
        authors = self.authors(revision.rev, 'all')
1561
 
        if authors != [committer]:
1562
 
            lines.append('author: %s' % (", ".join(authors),))
1563
 
        lines.append('committer: %s' % (committer,))
 
798
        author = revision.rev.properties.get('author', None)
 
799
        if author is not None:
 
800
            to_file.write(indent + 'author: %s\n' % (author,))
 
801
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
1564
802
 
1565
803
        branch_nick = revision.rev.properties.get('branch-nick', None)
1566
804
        if branch_nick is not None:
1567
 
            lines.append('branch nick: %s' % (branch_nick,))
1568
 
 
1569
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1570
 
 
1571
 
        lines.append('message:')
 
805
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
 
806
 
 
807
        date_str = format_date(revision.rev.timestamp,
 
808
                               revision.rev.timezone or 0,
 
809
                               self.show_timezone)
 
810
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
 
811
 
 
812
        to_file.write(indent + 'message:\n')
1572
813
        if not revision.rev.message:
1573
 
            lines.append('  (no message)')
 
814
            to_file.write(indent + '  (no message)\n')
1574
815
        else:
1575
816
            message = revision.rev.message.rstrip('\r\n')
1576
817
            for l in message.split('\n'):
1577
 
                lines.append('  %s' % (l,))
1578
 
 
1579
 
        # Dump the output, appending the delta and diff if requested
1580
 
        to_file = self.to_file
1581
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
818
                to_file.write(indent + '  %s\n' % (l,))
1582
819
        if revision.delta is not None:
1583
 
            # Use the standard status output to display changes
1584
 
            from bzrlib.delta import report_delta
1585
 
            report_delta(to_file, revision.delta, short_status=False, 
1586
 
                         show_ids=self.show_ids, indent=indent)
1587
 
        if revision.diff is not None:
1588
 
            to_file.write(indent + 'diff:\n')
1589
 
            to_file.flush()
1590
 
            # Note: we explicitly don't indent the diff (relative to the
1591
 
            # revision information) so that the output can be fed to patch -p0
1592
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1593
 
            self.to_exact_file.flush()
1594
 
 
1595
 
    def get_advice_separator(self):
1596
 
        """Get the text separating the log from the closing advice."""
1597
 
        return '-' * 60 + '\n'
 
820
            # We don't respect delta_format for compatibility
 
821
            revision.delta.show(to_file, self.show_ids, indent=indent,
 
822
                                short_status=False)
1598
823
 
1599
824
 
1600
825
class ShortLogFormatter(LogFormatter):
1601
826
 
1602
 
    supports_merge_revisions = True
1603
 
    preferred_levels = 1
1604
827
    supports_delta = True
1605
 
    supports_tags = True
1606
 
    supports_diff = True
1607
 
 
1608
 
    def __init__(self, *args, **kwargs):
1609
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1610
 
        self.revno_width_by_depth = {}
 
828
    supports_single_merge_revision = True
1611
829
 
1612
830
    def log_revision(self, revision):
1613
 
        # We need two indents: one per depth and one for the information
1614
 
        # relative to that indent. Most mainline revnos are 5 chars or
1615
 
        # less while dotted revnos are typically 11 chars or less. Once
1616
 
        # calculated, we need to remember the offset for a given depth
1617
 
        # as we might be starting from a dotted revno in the first column
1618
 
        # and we want subsequent mainline revisions to line up.
1619
 
        depth = revision.merge_depth
1620
 
        indent = '    ' * depth
1621
 
        revno_width = self.revno_width_by_depth.get(depth)
1622
 
        if revno_width is None:
1623
 
            if revision.revno.find('.') == -1:
1624
 
                # mainline revno, e.g. 12345
1625
 
                revno_width = 5
1626
 
            else:
1627
 
                # dotted revno, e.g. 12345.10.55
1628
 
                revno_width = 11
1629
 
            self.revno_width_by_depth[depth] = revno_width
1630
 
        offset = ' ' * (revno_width + 1)
1631
 
 
1632
831
        to_file = self.to_file
1633
 
        tags = ''
1634
 
        if revision.tags:
1635
 
            tags = ' {%s}' % (', '.join(revision.tags))
1636
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1637
 
                revision.revno, self.short_author(revision.rev),
 
832
        is_merge = ''
 
833
        if len(revision.rev.parent_ids) > 1:
 
834
            is_merge = ' [merge]'
 
835
        to_file.write("%5s %s\t%s%s\n" % (revision.revno,
 
836
                self.short_author(revision.rev),
1638
837
                format_date(revision.rev.timestamp,
1639
838
                            revision.rev.timezone or 0,
1640
839
                            self.show_timezone, date_fmt="%Y-%m-%d",
1641
840
                            show_offset=False),
1642
 
                tags, self.merge_marker(revision)))
1643
 
        self.show_properties(revision.rev, indent+offset)
 
841
                is_merge))
1644
842
        if self.show_ids:
1645
 
            to_file.write(indent + offset + 'revision-id:%s\n'
 
843
            to_file.write('      revision-id:%s\n'
1646
844
                          % (revision.rev.revision_id,))
1647
845
        if not revision.rev.message:
1648
 
            to_file.write(indent + offset + '(no message)\n')
 
846
            to_file.write('      (no message)\n')
1649
847
        else:
1650
848
            message = revision.rev.message.rstrip('\r\n')
1651
849
            for l in message.split('\n'):
1652
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
850
                to_file.write('      %s\n' % (l,))
1653
851
 
1654
852
        if revision.delta is not None:
1655
 
            # Use the standard status output to display changes
1656
 
            from bzrlib.delta import report_delta
1657
 
            report_delta(to_file, revision.delta, 
1658
 
                         short_status=self.delta_format==1, 
1659
 
                         show_ids=self.show_ids, indent=indent + offset)
1660
 
        if revision.diff is not None:
1661
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
853
            revision.delta.show(to_file, self.show_ids,
 
854
                                short_status=self.delta_format==1)
1662
855
        to_file.write('\n')
1663
856
 
1664
857
 
1665
858
class LineLogFormatter(LogFormatter):
1666
859
 
1667
 
    supports_merge_revisions = True
1668
 
    preferred_levels = 1
1669
 
    supports_tags = True
 
860
    supports_single_merge_revision = True
1670
861
 
1671
862
    def __init__(self, *args, **kwargs):
1672
863
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1673
 
        width = terminal_width()
1674
 
        if width is not None:
1675
 
            # we need one extra space for terminals that wrap on last char
1676
 
            width = width - 1
1677
 
        self._max_chars = width
 
864
        self._max_chars = terminal_width() - 1
1678
865
 
1679
866
    def truncate(self, str, max_len):
1680
 
        if max_len is None or len(str) <= max_len:
 
867
        if len(str) <= max_len:
1681
868
            return str
1682
 
        return str[:max_len-3] + '...'
 
869
        return str[:max_len-3]+'...'
1683
870
 
1684
871
    def date_string(self, rev):
1685
872
        return format_date(rev.timestamp, rev.timezone or 0,
1693
880
            return rev.message
1694
881
 
1695
882
    def log_revision(self, revision):
1696
 
        indent = '  ' * revision.merge_depth
1697
883
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1698
 
            self._max_chars, revision.tags, indent))
 
884
                                              self._max_chars))
1699
885
        self.to_file.write('\n')
1700
886
 
1701
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
887
    def log_string(self, revno, rev, max_chars):
1702
888
        """Format log info into one string. Truncate tail of string
1703
889
        :param  revno:      revision number or None.
1704
890
                            Revision numbers counts from 1.
1705
 
        :param  rev:        revision object
 
891
        :param  rev:        revision info object
1706
892
        :param  max_chars:  maximum length of resulting string
1707
 
        :param  tags:       list of tags or None
1708
 
        :param  prefix:     string to prefix each line
1709
893
        :return:            formatted truncated string
1710
894
        """
1711
895
        out = []
1714
898
            out.append("%s:" % revno)
1715
899
        out.append(self.truncate(self.short_author(rev), 20))
1716
900
        out.append(self.date_string(rev))
1717
 
        if len(rev.parent_ids) > 1:
1718
 
            out.append('[merge]')
1719
 
        if tags:
1720
 
            tag_str = '{%s}' % (', '.join(tags))
1721
 
            out.append(tag_str)
1722
901
        out.append(rev.get_summary())
1723
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1724
 
 
1725
 
 
1726
 
class GnuChangelogLogFormatter(LogFormatter):
1727
 
 
1728
 
    supports_merge_revisions = True
1729
 
    supports_delta = True
1730
 
 
1731
 
    def log_revision(self, revision):
1732
 
        """Log a revision, either merged or not."""
1733
 
        to_file = self.to_file
1734
 
 
1735
 
        date_str = format_date(revision.rev.timestamp,
1736
 
                               revision.rev.timezone or 0,
1737
 
                               self.show_timezone,
1738
 
                               date_fmt='%Y-%m-%d',
1739
 
                               show_offset=False)
1740
 
        committer_str = self.authors(revision.rev, 'first', sep=', ')
1741
 
        committer_str = committer_str.replace(' <', '  <')
1742
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1743
 
 
1744
 
        if revision.delta is not None and revision.delta.has_changed():
1745
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1746
 
                path, = c[:1]
1747
 
                to_file.write('\t* %s:\n' % (path,))
1748
 
            for c in revision.delta.renamed:
1749
 
                oldpath,newpath = c[:2]
1750
 
                # For renamed files, show both the old and the new path
1751
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1752
 
            to_file.write('\n')
1753
 
 
1754
 
        if not revision.rev.message:
1755
 
            to_file.write('\tNo commit message\n')
1756
 
        else:
1757
 
            message = revision.rev.message.rstrip('\r\n')
1758
 
            for l in message.split('\n'):
1759
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1760
 
            to_file.write('\n')
 
902
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1761
903
 
1762
904
 
1763
905
def line_log(rev, max_chars):
1789
931
                                'Detailed log format')
1790
932
log_formatter_registry.register('line', LineLogFormatter,
1791
933
                                'Log format with one line per revision')
1792
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1793
 
                                'Format used by GNU ChangeLog files')
1794
934
 
1795
935
 
1796
936
def register_formatter(name, formatter):
1809
949
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1810
950
 
1811
951
 
1812
 
def author_list_all(rev):
1813
 
    return rev.get_apparent_authors()[:]
1814
 
 
1815
 
 
1816
 
def author_list_first(rev):
1817
 
    lst = rev.get_apparent_authors()
1818
 
    try:
1819
 
        return [lst[0]]
1820
 
    except IndexError:
1821
 
        return []
1822
 
 
1823
 
 
1824
 
def author_list_committer(rev):
1825
 
    return [rev.committer]
1826
 
 
1827
 
 
1828
 
author_list_registry = registry.Registry()
1829
 
 
1830
 
author_list_registry.register('all', author_list_all,
1831
 
                              'All authors')
1832
 
 
1833
 
author_list_registry.register('first', author_list_first,
1834
 
                              'The first author')
1835
 
 
1836
 
author_list_registry.register('committer', author_list_committer,
1837
 
                              'The committer')
1838
 
 
1839
 
 
1840
952
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1841
953
    # deprecated; for compatibility
1842
954
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1993
1105
        lf.log_revision(lr)
1994
1106
 
1995
1107
 
1996
 
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
1997
 
    """Find file-ids and kinds given a list of files and a revision range.
1998
 
 
1999
 
    We search for files at the end of the range. If not found there,
2000
 
    we try the start of the range.
2001
 
 
2002
 
    :param revisionspec_list: revision range as parsed on the command line
2003
 
    :param file_list: the list of paths given on the command line;
2004
 
      the first of these can be a branch location or a file path,
2005
 
      the remainder must be file paths
2006
 
    :param add_cleanup: When the branch returned is read locked,
2007
 
      an unlock call will be queued to the cleanup.
2008
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
2009
 
      info_list is a list of (relative_path, file_id, kind) tuples where
2010
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
2011
 
      branch will be read-locked.
2012
 
    """
2013
 
    from builtins import _get_revision_range, safe_relpath_files
2014
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
2015
 
    add_cleanup(b.lock_read().unlock)
2016
 
    # XXX: It's damn messy converting a list of paths to relative paths when
2017
 
    # those paths might be deleted ones, they might be on a case-insensitive
2018
 
    # filesystem and/or they might be in silly locations (like another branch).
2019
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
2020
 
    # file2 implicitly in the same dir as file1 or should its directory be
2021
 
    # taken from the current tree somehow?) For now, this solves the common
2022
 
    # case of running log in a nested directory, assuming paths beyond the
2023
 
    # first one haven't been deleted ...
2024
 
    if tree:
2025
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
2026
 
    else:
2027
 
        relpaths = [path] + file_list[1:]
2028
 
    info_list = []
2029
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
2030
 
        "log")
2031
 
    if relpaths in ([], [u'']):
2032
 
        return b, [], start_rev_info, end_rev_info
2033
 
    if start_rev_info is None and end_rev_info is None:
2034
 
        if tree is None:
2035
 
            tree = b.basis_tree()
2036
 
        tree1 = None
2037
 
        for fp in relpaths:
2038
 
            file_id = tree.path2id(fp)
2039
 
            kind = _get_kind_for_file_id(tree, file_id)
2040
 
            if file_id is None:
2041
 
                # go back to when time began
2042
 
                if tree1 is None:
2043
 
                    try:
2044
 
                        rev1 = b.get_rev_id(1)
2045
 
                    except errors.NoSuchRevision:
2046
 
                        # No history at all
2047
 
                        file_id = None
2048
 
                        kind = None
2049
 
                    else:
2050
 
                        tree1 = b.repository.revision_tree(rev1)
2051
 
                if tree1:
2052
 
                    file_id = tree1.path2id(fp)
2053
 
                    kind = _get_kind_for_file_id(tree1, file_id)
2054
 
            info_list.append((fp, file_id, kind))
2055
 
 
2056
 
    elif start_rev_info == end_rev_info:
2057
 
        # One revision given - file must exist in it
2058
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
2059
 
        for fp in relpaths:
2060
 
            file_id = tree.path2id(fp)
2061
 
            kind = _get_kind_for_file_id(tree, file_id)
2062
 
            info_list.append((fp, file_id, kind))
2063
 
 
2064
 
    else:
2065
 
        # Revision range given. Get the file-id from the end tree.
2066
 
        # If that fails, try the start tree.
2067
 
        rev_id = end_rev_info.rev_id
2068
 
        if rev_id is None:
2069
 
            tree = b.basis_tree()
2070
 
        else:
2071
 
            tree = b.repository.revision_tree(rev_id)
2072
 
        tree1 = None
2073
 
        for fp in relpaths:
2074
 
            file_id = tree.path2id(fp)
2075
 
            kind = _get_kind_for_file_id(tree, file_id)
2076
 
            if file_id is None:
2077
 
                if tree1 is None:
2078
 
                    rev_id = start_rev_info.rev_id
2079
 
                    if rev_id is None:
2080
 
                        rev1 = b.get_rev_id(1)
2081
 
                        tree1 = b.repository.revision_tree(rev1)
2082
 
                    else:
2083
 
                        tree1 = b.repository.revision_tree(rev_id)
2084
 
                file_id = tree1.path2id(fp)
2085
 
                kind = _get_kind_for_file_id(tree1, file_id)
2086
 
            info_list.append((fp, file_id, kind))
2087
 
    return b, info_list, start_rev_info, end_rev_info
2088
 
 
2089
 
 
2090
 
def _get_kind_for_file_id(tree, file_id):
2091
 
    """Return the kind of a file-id or None if it doesn't exist."""
2092
 
    if file_id is not None:
2093
 
        return tree.kind(file_id)
2094
 
    else:
2095
 
        return None
2096
 
 
2097
 
 
2098
1108
properties_handler_registry = registry.Registry()
2099
 
 
2100
 
# Use the properties handlers to print out bug information if available
2101
 
def _bugs_properties_handler(revision):
2102
 
    if revision.properties.has_key('bugs'):
2103
 
        bug_lines = revision.properties['bugs'].split('\n')
2104
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2105
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2106
 
                          len(row) > 1 and row[1] == 'fixed']
2107
 
 
2108
 
        if fixed_bug_urls:
2109
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2110
 
    return {}
2111
 
 
2112
 
properties_handler_registry.register('bugs_properties_handler',
2113
 
                                     _bugs_properties_handler)
 
1109
properties_handler_registry.register_lazy("foreign",
 
1110
                                          "bzrlib.foreign",
 
1111
                                          "show_foreign_properties")
2114
1112
 
2115
1113
 
2116
1114
# adapters which revision ids to log are filtered. When log is called, the