/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: INADA Naoki
  • Date: 2011-05-18 06:27:34 UTC
  • mfrom: (5887 +trunk)
  • mto: This revision was merged to the branch mainline in revision 5894.
  • Revision ID: songofacandy@gmail.com-20110518062734-1ilhll0rrqyyp8um
merge from lp:bzr and resolve conflicts.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005-2011 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
 
 
18
 
 
19
"""Code to show logs of changes.
 
20
 
 
21
Various flavors of log can be produced:
 
22
 
 
23
* for one file, or the whole tree, and (not done yet) for
 
24
  files in a given directory
 
25
 
 
26
* in "verbose" mode with a description of what changed from one
 
27
  version to the next
 
28
 
 
29
* with file-ids and revision-ids shown
 
30
 
 
31
Logs are actually written out through an abstract LogFormatter
 
32
interface, which allows for different preferred formats.  Plugins can
 
33
register formats too.
 
34
 
 
35
Logs can be produced in either forward (oldest->newest) or reverse
 
36
(newest->oldest) order.
 
37
 
 
38
Logs can be filtered to show only revisions matching a particular
 
39
search string, or within a particular range of revisions.  The range
 
40
can be given as date/times, which are reduced to revisions before
 
41
calling in here.
 
42
 
 
43
In verbose mode we show a summary of what changed in each particular
 
44
revision.  Note that this is the delta for changes in that revision
 
45
relative to its left-most parent, not the delta relative to the last
 
46
logged revision.  So for example if you ask for a verbose log of
 
47
changes touching hello.c you will get a list of those revisions also
 
48
listing other things that were changed in the same revision, but not
 
49
all the changes since the previous revision that touched hello.c.
 
50
"""
 
51
 
 
52
import codecs
 
53
from cStringIO import StringIO
 
54
from itertools import (
 
55
    chain,
 
56
    izip,
 
57
    )
 
58
import re
 
59
import sys
 
60
from warnings import (
 
61
    warn,
 
62
    )
 
63
 
 
64
from bzrlib.lazy_import import lazy_import
 
65
lazy_import(globals(), """
 
66
 
 
67
from bzrlib import (
 
68
    bzrdir,
 
69
    config,
 
70
    diff,
 
71
    errors,
 
72
    foreign,
 
73
    repository as _mod_repository,
 
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    tsort,
 
77
    )
 
78
""")
 
79
 
 
80
from bzrlib import (
 
81
    registry,
 
82
    )
 
83
from bzrlib.osutils import (
 
84
    format_date,
 
85
    format_date_with_offset_in_original_timezone,
 
86
    get_diff_header_encoding,
 
87
    get_terminal_encoding,
 
88
    terminal_width,
 
89
    )
 
90
from bzrlib.symbol_versioning import (
 
91
    deprecated_function,
 
92
    deprecated_in,
 
93
    )
 
94
 
 
95
 
 
96
def find_touching_revisions(branch, file_id):
 
97
    """Yield a description of revisions which affect the file_id.
 
98
 
 
99
    Each returned element is (revno, revision_id, description)
 
100
 
 
101
    This is the list of revisions where the file is either added,
 
102
    modified, renamed or deleted.
 
103
 
 
104
    TODO: Perhaps some way to limit this to only particular revisions,
 
105
    or to traverse a non-mainline set of revisions?
 
106
    """
 
107
    last_ie = None
 
108
    last_path = None
 
109
    revno = 1
 
110
    for revision_id in branch.revision_history():
 
111
        this_inv = branch.repository.get_inventory(revision_id)
 
112
        if file_id in this_inv:
 
113
            this_ie = this_inv[file_id]
 
114
            this_path = this_inv.id2path(file_id)
 
115
        else:
 
116
            this_ie = this_path = None
 
117
 
 
118
        # now we know how it was last time, and how it is in this revision.
 
119
        # are those two states effectively the same or not?
 
120
 
 
121
        if not this_ie and not last_ie:
 
122
            # not present in either
 
123
            pass
 
124
        elif this_ie and not last_ie:
 
125
            yield revno, revision_id, "added " + this_path
 
126
        elif not this_ie and last_ie:
 
127
            # deleted here
 
128
            yield revno, revision_id, "deleted " + last_path
 
129
        elif this_path != last_path:
 
130
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
 
131
        elif (this_ie.text_size != last_ie.text_size
 
132
              or this_ie.text_sha1 != last_ie.text_sha1):
 
133
            yield revno, revision_id, "modified " + this_path
 
134
 
 
135
        last_ie = this_ie
 
136
        last_path = this_path
 
137
        revno += 1
 
138
 
 
139
 
 
140
def _enumerate_history(branch):
 
141
    rh = []
 
142
    revno = 1
 
143
    for rev_id in branch.revision_history():
 
144
        rh.append((revno, rev_id))
 
145
        revno += 1
 
146
    return rh
 
147
 
 
148
 
 
149
def show_log(branch,
 
150
             lf,
 
151
             specific_fileid=None,
 
152
             verbose=False,
 
153
             direction='reverse',
 
154
             start_revision=None,
 
155
             end_revision=None,
 
156
             search=None,
 
157
             limit=None,
 
158
             show_diff=False):
 
159
    """Write out human-readable log of commits to this branch.
 
160
 
 
161
    This function is being retained for backwards compatibility but
 
162
    should not be extended with new parameters. Use the new Logger class
 
163
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
164
    make_log_request_dict function.
 
165
 
 
166
    :param lf: The LogFormatter object showing the output.
 
167
 
 
168
    :param specific_fileid: If not None, list only the commits affecting the
 
169
        specified file, rather than all commits.
 
170
 
 
171
    :param verbose: If True show added/changed/deleted/renamed files.
 
172
 
 
173
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
174
        earliest to latest.
 
175
 
 
176
    :param start_revision: If not None, only show revisions >= start_revision
 
177
 
 
178
    :param end_revision: If not None, only show revisions <= end_revision
 
179
 
 
180
    :param search: If not None, only show revisions with matching commit
 
181
        messages
 
182
 
 
183
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
184
        if None or 0.
 
185
 
 
186
    :param show_diff: If True, output a diff after each revision.
 
187
    """
 
188
    # Convert old-style parameters to new-style parameters
 
189
    if specific_fileid is not None:
 
190
        file_ids = [specific_fileid]
 
191
    else:
 
192
        file_ids = None
 
193
    if verbose:
 
194
        if file_ids:
 
195
            delta_type = 'partial'
 
196
        else:
 
197
            delta_type = 'full'
 
198
    else:
 
199
        delta_type = None
 
200
    if show_diff:
 
201
        if file_ids:
 
202
            diff_type = 'partial'
 
203
        else:
 
204
            diff_type = 'full'
 
205
    else:
 
206
        diff_type = None
 
207
 
 
208
    # Build the request and execute it
 
209
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
210
        start_revision=start_revision, end_revision=end_revision,
 
211
        limit=limit, message_search=search,
 
212
        delta_type=delta_type, diff_type=diff_type)
 
213
    Logger(branch, rqst).show(lf)
 
214
 
 
215
 
 
216
# Note: This needs to be kept this in sync with the defaults in
 
217
# make_log_request_dict() below
 
218
_DEFAULT_REQUEST_PARAMS = {
 
219
    'direction': 'reverse',
 
220
    'levels': 1,
 
221
    'generate_tags': True,
 
222
    'exclude_common_ancestry': False,
 
223
    '_match_using_deltas': True,
 
224
    }
 
225
 
 
226
 
 
227
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
228
                          start_revision=None, end_revision=None, limit=None,
 
229
                          message_search=None, levels=1, generate_tags=True,
 
230
                          delta_type=None,
 
231
                          diff_type=None, _match_using_deltas=True,
 
232
                          exclude_common_ancestry=False,
 
233
                          ):
 
234
    """Convenience function for making a logging request dictionary.
 
235
 
 
236
    Using this function may make code slightly safer by ensuring
 
237
    parameters have the correct names. It also provides a reference
 
238
    point for documenting the supported parameters.
 
239
 
 
240
    :param direction: 'reverse' (default) is latest to earliest;
 
241
      'forward' is earliest to latest.
 
242
 
 
243
    :param specific_fileids: If not None, only include revisions
 
244
      affecting the specified files, rather than all revisions.
 
245
 
 
246
    :param start_revision: If not None, only generate
 
247
      revisions >= start_revision
 
248
 
 
249
    :param end_revision: If not None, only generate
 
250
      revisions <= end_revision
 
251
 
 
252
    :param limit: If set, generate only 'limit' revisions, all revisions
 
253
      are shown if None or 0.
 
254
 
 
255
    :param message_search: If not None, only include revisions with
 
256
      matching commit messages
 
257
 
 
258
    :param levels: the number of levels of revisions to
 
259
      generate; 1 for just the mainline; 0 for all levels.
 
260
 
 
261
    :param generate_tags: If True, include tags for matched revisions.
 
262
 
 
263
    :param delta_type: Either 'full', 'partial' or None.
 
264
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
265
      'partial' means filter the delta using specific_fileids;
 
266
      None means do not generate any delta.
 
267
 
 
268
    :param diff_type: Either 'full', 'partial' or None.
 
269
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
270
      'partial' means filter the diff using specific_fileids;
 
271
      None means do not generate any diff.
 
272
 
 
273
    :param _match_using_deltas: a private parameter controlling the
 
274
      algorithm used for matching specific_fileids. This parameter
 
275
      may be removed in the future so bzrlib client code should NOT
 
276
      use it.
 
277
 
 
278
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
 
279
      range operator or as a graph difference.
 
280
    """
 
281
    return {
 
282
        'direction': direction,
 
283
        'specific_fileids': specific_fileids,
 
284
        'start_revision': start_revision,
 
285
        'end_revision': end_revision,
 
286
        'limit': limit,
 
287
        'message_search': message_search,
 
288
        'levels': levels,
 
289
        'generate_tags': generate_tags,
 
290
        'delta_type': delta_type,
 
291
        'diff_type': diff_type,
 
292
        'exclude_common_ancestry': exclude_common_ancestry,
 
293
        # Add 'private' attributes for features that may be deprecated
 
294
        '_match_using_deltas': _match_using_deltas,
 
295
    }
 
296
 
 
297
 
 
298
def _apply_log_request_defaults(rqst):
 
299
    """Apply default values to a request dictionary."""
 
300
    result = _DEFAULT_REQUEST_PARAMS.copy()
 
301
    if rqst:
 
302
        result.update(rqst)
 
303
    return result
 
304
 
 
305
 
 
306
class LogGenerator(object):
 
307
    """A generator of log revisions."""
 
308
 
 
309
    def iter_log_revisions(self):
 
310
        """Iterate over LogRevision objects.
 
311
 
 
312
        :return: An iterator yielding LogRevision objects.
 
313
        """
 
314
        raise NotImplementedError(self.iter_log_revisions)
 
315
 
 
316
 
 
317
class Logger(object):
 
318
    """An object that generates, formats and displays a log."""
 
319
 
 
320
    def __init__(self, branch, rqst):
 
321
        """Create a Logger.
 
322
 
 
323
        :param branch: the branch to log
 
324
        :param rqst: A dictionary specifying the query parameters.
 
325
          See make_log_request_dict() for supported values.
 
326
        """
 
327
        self.branch = branch
 
328
        self.rqst = _apply_log_request_defaults(rqst)
 
329
 
 
330
    def show(self, lf):
 
331
        """Display the log.
 
332
 
 
333
        :param lf: The LogFormatter object to send the output to.
 
334
        """
 
335
        if not isinstance(lf, LogFormatter):
 
336
            warn("not a LogFormatter instance: %r" % lf)
 
337
 
 
338
        self.branch.lock_read()
 
339
        try:
 
340
            if getattr(lf, 'begin_log', None):
 
341
                lf.begin_log()
 
342
            self._show_body(lf)
 
343
            if getattr(lf, 'end_log', None):
 
344
                lf.end_log()
 
345
        finally:
 
346
            self.branch.unlock()
 
347
 
 
348
    def _show_body(self, lf):
 
349
        """Show the main log output.
 
350
 
 
351
        Subclasses may wish to override this.
 
352
        """
 
353
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
354
        # (There's no point generating stuff if the formatter can't display it.)
 
355
        rqst = self.rqst
 
356
        rqst['levels'] = lf.get_levels()
 
357
        if not getattr(lf, 'supports_tags', False):
 
358
            rqst['generate_tags'] = False
 
359
        if not getattr(lf, 'supports_delta', False):
 
360
            rqst['delta_type'] = None
 
361
        if not getattr(lf, 'supports_diff', False):
 
362
            rqst['diff_type'] = None
 
363
 
 
364
        # Find and print the interesting revisions
 
365
        generator = self._generator_factory(self.branch, rqst)
 
366
        for lr in generator.iter_log_revisions():
 
367
            lf.log_revision(lr)
 
368
        lf.show_advice()
 
369
 
 
370
    def _generator_factory(self, branch, rqst):
 
371
        """Make the LogGenerator object to use.
 
372
        
 
373
        Subclasses may wish to override this.
 
374
        """
 
375
        return _DefaultLogGenerator(branch, rqst)
 
376
 
 
377
 
 
378
class _StartNotLinearAncestor(Exception):
 
379
    """Raised when a start revision is not found walking left-hand history."""
 
380
 
 
381
 
 
382
class _DefaultLogGenerator(LogGenerator):
 
383
    """The default generator of log revisions."""
 
384
 
 
385
    def __init__(self, branch, rqst):
 
386
        self.branch = branch
 
387
        self.rqst = rqst
 
388
        if rqst.get('generate_tags') and branch.supports_tags():
 
389
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
390
        else:
 
391
            self.rev_tag_dict = {}
 
392
 
 
393
    def iter_log_revisions(self):
 
394
        """Iterate over LogRevision objects.
 
395
 
 
396
        :return: An iterator yielding LogRevision objects.
 
397
        """
 
398
        rqst = self.rqst
 
399
        levels = rqst.get('levels')
 
400
        limit = rqst.get('limit')
 
401
        diff_type = rqst.get('diff_type')
 
402
        log_count = 0
 
403
        revision_iterator = self._create_log_revision_iterator()
 
404
        for revs in revision_iterator:
 
405
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
406
                # 0 levels means show everything; merge_depth counts from 0
 
407
                if levels != 0 and merge_depth >= levels:
 
408
                    continue
 
409
                if diff_type is None:
 
410
                    diff = None
 
411
                else:
 
412
                    diff = self._format_diff(rev, rev_id, diff_type)
 
413
                yield LogRevision(rev, revno, merge_depth, delta,
 
414
                    self.rev_tag_dict.get(rev_id), diff)
 
415
                if limit:
 
416
                    log_count += 1
 
417
                    if log_count >= limit:
 
418
                        return
 
419
 
 
420
    def _format_diff(self, rev, rev_id, diff_type):
 
421
        repo = self.branch.repository
 
422
        if len(rev.parent_ids) == 0:
 
423
            ancestor_id = _mod_revision.NULL_REVISION
 
424
        else:
 
425
            ancestor_id = rev.parent_ids[0]
 
426
        tree_1 = repo.revision_tree(ancestor_id)
 
427
        tree_2 = repo.revision_tree(rev_id)
 
428
        file_ids = self.rqst.get('specific_fileids')
 
429
        if diff_type == 'partial' and file_ids is not None:
 
430
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
431
        else:
 
432
            specific_files = None
 
433
        s = StringIO()
 
434
        path_encoding = get_diff_header_encoding()
 
435
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
436
            new_label='', path_encoding=path_encoding)
 
437
        return s.getvalue()
 
438
 
 
439
    def _create_log_revision_iterator(self):
 
440
        """Create a revision iterator for log.
 
441
 
 
442
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
443
            delta).
 
444
        """
 
445
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
446
            self.branch, self.rqst.get('start_revision'),
 
447
            self.rqst.get('end_revision'))
 
448
        if self.rqst.get('_match_using_deltas'):
 
449
            return self._log_revision_iterator_using_delta_matching()
 
450
        else:
 
451
            # We're using the per-file-graph algorithm. This scales really
 
452
            # well but only makes sense if there is a single file and it's
 
453
            # not a directory
 
454
            file_count = len(self.rqst.get('specific_fileids'))
 
455
            if file_count != 1:
 
456
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
457
                    "when logging %d files" % file_count)
 
458
            return self._log_revision_iterator_using_per_file_graph()
 
459
 
 
460
    def _log_revision_iterator_using_delta_matching(self):
 
461
        # Get the base revisions, filtering by the revision range
 
462
        rqst = self.rqst
 
463
        generate_merge_revisions = rqst.get('levels') != 1
 
464
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
465
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
466
        view_revisions = _calc_view_revisions(
 
467
            self.branch, self.start_rev_id, self.end_rev_id,
 
468
            rqst.get('direction'),
 
469
            generate_merge_revisions=generate_merge_revisions,
 
470
            delayed_graph_generation=delayed_graph_generation,
 
471
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
472
 
 
473
        # Apply the other filters
 
474
        return make_log_rev_iterator(self.branch, view_revisions,
 
475
            rqst.get('delta_type'), rqst.get('message_search'),
 
476
            file_ids=rqst.get('specific_fileids'),
 
477
            direction=rqst.get('direction'))
 
478
 
 
479
    def _log_revision_iterator_using_per_file_graph(self):
 
480
        # Get the base revisions, filtering by the revision range.
 
481
        # Note that we always generate the merge revisions because
 
482
        # filter_revisions_touching_file_id() requires them ...
 
483
        rqst = self.rqst
 
484
        view_revisions = _calc_view_revisions(
 
485
            self.branch, self.start_rev_id, self.end_rev_id,
 
486
            rqst.get('direction'), generate_merge_revisions=True,
 
487
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
488
        if not isinstance(view_revisions, list):
 
489
            view_revisions = list(view_revisions)
 
490
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
491
            rqst.get('specific_fileids')[0], view_revisions,
 
492
            include_merges=rqst.get('levels') != 1)
 
493
        return make_log_rev_iterator(self.branch, view_revisions,
 
494
            rqst.get('delta_type'), rqst.get('message_search'))
 
495
 
 
496
 
 
497
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
498
                         generate_merge_revisions,
 
499
                         delayed_graph_generation=False,
 
500
                         exclude_common_ancestry=False,
 
501
                         ):
 
502
    """Calculate the revisions to view.
 
503
 
 
504
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
505
             a list of the same tuples.
 
506
    """
 
507
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
 
508
        raise errors.BzrCommandError(
 
509
            '--exclude-common-ancestry requires two different revisions')
 
510
    if direction not in ('reverse', 'forward'):
 
511
        raise ValueError('invalid direction %r' % direction)
 
512
    br_revno, br_rev_id = branch.last_revision_info()
 
513
    if br_revno == 0:
 
514
        return []
 
515
 
 
516
    if (end_rev_id and start_rev_id == end_rev_id
 
517
        and (not generate_merge_revisions
 
518
             or not _has_merges(branch, end_rev_id))):
 
519
        # If a single revision is requested, check we can handle it
 
520
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
 
521
                                           br_revno)
 
522
    elif not generate_merge_revisions:
 
523
        # If we only want to see linear revisions, we can iterate ...
 
524
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
525
                                             direction, exclude_common_ancestry)
 
526
        if direction == 'forward':
 
527
            iter_revs = reversed(iter_revs)
 
528
    else:
 
529
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
530
                                            direction, delayed_graph_generation,
 
531
                                            exclude_common_ancestry)
 
532
        if direction == 'forward':
 
533
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
534
    return iter_revs
 
535
 
 
536
 
 
537
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
538
    if rev_id == br_rev_id:
 
539
        # It's the tip
 
540
        return [(br_rev_id, br_revno, 0)]
 
541
    else:
 
542
        revno_str = _compute_revno_str(branch, rev_id)
 
543
        return [(rev_id, revno_str, 0)]
 
544
 
 
545
 
 
546
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction,
 
547
                             exclude_common_ancestry=False):
 
548
    result = _linear_view_revisions(
 
549
        branch, start_rev_id, end_rev_id,
 
550
        exclude_common_ancestry=exclude_common_ancestry)
 
551
    # If a start limit was given and it's not obviously an
 
552
    # ancestor of the end limit, check it before outputting anything
 
553
    if direction == 'forward' or (start_rev_id
 
554
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
555
        try:
 
556
            result = list(result)
 
557
        except _StartNotLinearAncestor:
 
558
            raise errors.BzrCommandError('Start revision not found in'
 
559
                ' left-hand history of end revision.')
 
560
    return result
 
561
 
 
562
 
 
563
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
564
                            delayed_graph_generation,
 
565
                            exclude_common_ancestry=False):
 
566
    # On large trees, generating the merge graph can take 30-60 seconds
 
567
    # so we delay doing it until a merge is detected, incrementally
 
568
    # returning initial (non-merge) revisions while we can.
 
569
 
 
570
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
571
    # couple of seconds only should be needed to load the whole graph and the
 
572
    # other graph operations needed are even faster than that -- vila 100201
 
573
    initial_revisions = []
 
574
    if delayed_graph_generation:
 
575
        try:
 
576
            for rev_id, revno, depth in  _linear_view_revisions(
 
577
                branch, start_rev_id, end_rev_id, exclude_common_ancestry):
 
578
                if _has_merges(branch, rev_id):
 
579
                    # The end_rev_id can be nested down somewhere. We need an
 
580
                    # explicit ancestry check. There is an ambiguity here as we
 
581
                    # may not raise _StartNotLinearAncestor for a revision that
 
582
                    # is an ancestor but not a *linear* one. But since we have
 
583
                    # loaded the graph to do the check (or calculate a dotted
 
584
                    # revno), we may as well accept to show the log...  We need
 
585
                    # the check only if start_rev_id is not None as all
 
586
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
 
587
                    # -- vila 20100319
 
588
                    graph = branch.repository.get_graph()
 
589
                    if (start_rev_id is not None
 
590
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
591
                        raise _StartNotLinearAncestor()
 
592
                    # Since we collected the revisions so far, we need to
 
593
                    # adjust end_rev_id.
 
594
                    end_rev_id = rev_id
 
595
                    break
 
596
                else:
 
597
                    initial_revisions.append((rev_id, revno, depth))
 
598
            else:
 
599
                # No merged revisions found
 
600
                return initial_revisions
 
601
        except _StartNotLinearAncestor:
 
602
            # A merge was never detected so the lower revision limit can't
 
603
            # be nested down somewhere
 
604
            raise errors.BzrCommandError('Start revision not found in'
 
605
                ' history of end revision.')
 
606
 
 
607
    # We exit the loop above because we encounter a revision with merges, from
 
608
    # this revision, we need to switch to _graph_view_revisions.
 
609
 
 
610
    # A log including nested merges is required. If the direction is reverse,
 
611
    # we rebase the initial merge depths so that the development line is
 
612
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
613
    # make forward the exact opposite display, but showing the merge revisions
 
614
    # indented at the end seems slightly nicer in that case.
 
615
    view_revisions = chain(iter(initial_revisions),
 
616
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
617
                              rebase_initial_depths=(direction == 'reverse'),
 
618
                              exclude_common_ancestry=exclude_common_ancestry))
 
619
    return view_revisions
 
620
 
 
621
 
 
622
def _has_merges(branch, rev_id):
 
623
    """Does a revision have multiple parents or not?"""
 
624
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
625
    return len(parents) > 1
 
626
 
 
627
 
 
628
def _compute_revno_str(branch, rev_id):
 
629
    """Compute the revno string from a rev_id.
 
630
 
 
631
    :return: The revno string, or None if the revision is not in the supplied
 
632
        branch.
 
633
    """
 
634
    try:
 
635
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
636
    except errors.NoSuchRevision:
 
637
        # The revision must be outside of this branch
 
638
        return None
 
639
    else:
 
640
        return '.'.join(str(n) for n in revno)
 
641
 
 
642
 
 
643
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
644
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
645
    if start_rev_id and end_rev_id:
 
646
        try:
 
647
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
648
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
649
        except errors.NoSuchRevision:
 
650
            # one or both is not in the branch; not obvious
 
651
            return False
 
652
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
653
            # both on mainline
 
654
            return start_dotted[0] <= end_dotted[0]
 
655
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
656
            start_dotted[0:1] == end_dotted[0:1]):
 
657
            # both on same development line
 
658
            return start_dotted[2] <= end_dotted[2]
 
659
        else:
 
660
            # not obvious
 
661
            return False
 
662
    # if either start or end is not specified then we use either the first or
 
663
    # the last revision and *they* are obvious ancestors.
 
664
    return True
 
665
 
 
666
 
 
667
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
 
668
                           exclude_common_ancestry=False):
 
669
    """Calculate a sequence of revisions to view, newest to oldest.
 
670
 
 
671
    :param start_rev_id: the lower revision-id
 
672
    :param end_rev_id: the upper revision-id
 
673
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
 
674
        the iterated revisions.
 
675
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
676
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
677
        is not found walking the left-hand history
 
678
    """
 
679
    br_revno, br_rev_id = branch.last_revision_info()
 
680
    repo = branch.repository
 
681
    if start_rev_id is None and end_rev_id is None:
 
682
        cur_revno = br_revno
 
683
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
684
            yield revision_id, str(cur_revno), 0
 
685
            cur_revno -= 1
 
686
    else:
 
687
        if end_rev_id is None:
 
688
            end_rev_id = br_rev_id
 
689
        found_start = start_rev_id is None
 
690
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
691
            revno_str = _compute_revno_str(branch, revision_id)
 
692
            if not found_start and revision_id == start_rev_id:
 
693
                if not exclude_common_ancestry:
 
694
                    yield revision_id, revno_str, 0
 
695
                found_start = True
 
696
                break
 
697
            else:
 
698
                yield revision_id, revno_str, 0
 
699
        else:
 
700
            if not found_start:
 
701
                raise _StartNotLinearAncestor()
 
702
 
 
703
 
 
704
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
705
                          rebase_initial_depths=True,
 
706
                          exclude_common_ancestry=False):
 
707
    """Calculate revisions to view including merges, newest to oldest.
 
708
 
 
709
    :param branch: the branch
 
710
    :param start_rev_id: the lower revision-id
 
711
    :param end_rev_id: the upper revision-id
 
712
    :param rebase_initial_depth: should depths be rebased until a mainline
 
713
      revision is found?
 
714
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
715
    """
 
716
    if exclude_common_ancestry:
 
717
        stop_rule = 'with-merges-without-common-ancestry'
 
718
    else:
 
719
        stop_rule = 'with-merges'
 
720
    view_revisions = branch.iter_merge_sorted_revisions(
 
721
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
722
        stop_rule=stop_rule)
 
723
    if not rebase_initial_depths:
 
724
        for (rev_id, merge_depth, revno, end_of_merge
 
725
             ) in view_revisions:
 
726
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
727
    else:
 
728
        # We're following a development line starting at a merged revision.
 
729
        # We need to adjust depths down by the initial depth until we find
 
730
        # a depth less than it. Then we use that depth as the adjustment.
 
731
        # If and when we reach the mainline, depth adjustment ends.
 
732
        depth_adjustment = None
 
733
        for (rev_id, merge_depth, revno, end_of_merge
 
734
             ) in view_revisions:
 
735
            if depth_adjustment is None:
 
736
                depth_adjustment = merge_depth
 
737
            if depth_adjustment:
 
738
                if merge_depth < depth_adjustment:
 
739
                    # From now on we reduce the depth adjustement, this can be
 
740
                    # surprising for users. The alternative requires two passes
 
741
                    # which breaks the fast display of the first revision
 
742
                    # though.
 
743
                    depth_adjustment = merge_depth
 
744
                merge_depth -= depth_adjustment
 
745
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
746
 
 
747
 
 
748
@deprecated_function(deprecated_in((2, 2, 0)))
 
749
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
750
        specific_fileid, generate_merge_revisions):
 
751
    """Calculate the revisions to view.
 
752
 
 
753
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
754
             a list of the same tuples.
 
755
    """
 
756
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
757
        end_revision)
 
758
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
759
        direction, generate_merge_revisions or specific_fileid))
 
760
    if specific_fileid:
 
761
        view_revisions = _filter_revisions_touching_file_id(branch,
 
762
            specific_fileid, view_revisions,
 
763
            include_merges=generate_merge_revisions)
 
764
    return _rebase_merge_depth(view_revisions)
 
765
 
 
766
 
 
767
def _rebase_merge_depth(view_revisions):
 
768
    """Adjust depths upwards so the top level is 0."""
 
769
    # If either the first or last revision have a merge_depth of 0, we're done
 
770
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
 
771
        min_depth = min([d for r,n,d in view_revisions])
 
772
        if min_depth != 0:
 
773
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
 
774
    return view_revisions
 
775
 
 
776
 
 
777
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
778
        file_ids=None, direction='reverse'):
 
779
    """Create a revision iterator for log.
 
780
 
 
781
    :param branch: The branch being logged.
 
782
    :param view_revisions: The revisions being viewed.
 
783
    :param generate_delta: Whether to generate a delta for each revision.
 
784
      Permitted values are None, 'full' and 'partial'.
 
785
    :param search: A user text search string.
 
786
    :param file_ids: If non empty, only revisions matching one or more of
 
787
      the file-ids are to be kept.
 
788
    :param direction: the direction in which view_revisions is sorted
 
789
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
790
        delta).
 
791
    """
 
792
    # Convert view_revisions into (view, None, None) groups to fit with
 
793
    # the standard interface here.
 
794
    if type(view_revisions) == list:
 
795
        # A single batch conversion is faster than many incremental ones.
 
796
        # As we have all the data, do a batch conversion.
 
797
        nones = [None] * len(view_revisions)
 
798
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
799
    else:
 
800
        def _convert():
 
801
            for view in view_revisions:
 
802
                yield (view, None, None)
 
803
        log_rev_iterator = iter([_convert()])
 
804
    for adapter in log_adapters:
 
805
        # It would be nicer if log adapters were first class objects
 
806
        # with custom parameters. This will do for now. IGC 20090127
 
807
        if adapter == _make_delta_filter:
 
808
            log_rev_iterator = adapter(branch, generate_delta,
 
809
                search, log_rev_iterator, file_ids, direction)
 
810
        else:
 
811
            log_rev_iterator = adapter(branch, generate_delta,
 
812
                search, log_rev_iterator)
 
813
    return log_rev_iterator
 
814
 
 
815
 
 
816
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
817
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
818
 
 
819
    :param branch: The branch being logged.
 
820
    :param generate_delta: Whether to generate a delta for each revision.
 
821
    :param search: A user text search string.
 
822
    :param log_rev_iterator: An input iterator containing all revisions that
 
823
        could be displayed, in lists.
 
824
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
825
        delta).
 
826
    """
 
827
    if search is None:
 
828
        return log_rev_iterator
 
829
    searchRE = re.compile(search, re.IGNORECASE)
 
830
    return _filter_message_re(searchRE, log_rev_iterator)
 
831
 
 
832
 
 
833
def _filter_message_re(searchRE, log_rev_iterator):
 
834
    for revs in log_rev_iterator:
 
835
        new_revs = []
 
836
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
837
            if searchRE.search(rev.message):
 
838
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
839
        yield new_revs
 
840
 
 
841
 
 
842
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
843
    fileids=None, direction='reverse'):
 
844
    """Add revision deltas to a log iterator if needed.
 
845
 
 
846
    :param branch: The branch being logged.
 
847
    :param generate_delta: Whether to generate a delta for each revision.
 
848
      Permitted values are None, 'full' and 'partial'.
 
849
    :param search: A user text search string.
 
850
    :param log_rev_iterator: An input iterator containing all revisions that
 
851
        could be displayed, in lists.
 
852
    :param fileids: If non empty, only revisions matching one or more of
 
853
      the file-ids are to be kept.
 
854
    :param direction: the direction in which view_revisions is sorted
 
855
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
856
        delta).
 
857
    """
 
858
    if not generate_delta and not fileids:
 
859
        return log_rev_iterator
 
860
    return _generate_deltas(branch.repository, log_rev_iterator,
 
861
        generate_delta, fileids, direction)
 
862
 
 
863
 
 
864
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
865
    direction):
 
866
    """Create deltas for each batch of revisions in log_rev_iterator.
 
867
 
 
868
    If we're only generating deltas for the sake of filtering against
 
869
    file-ids, we stop generating deltas once all file-ids reach the
 
870
    appropriate life-cycle point. If we're receiving data newest to
 
871
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
872
    """
 
873
    check_fileids = fileids is not None and len(fileids) > 0
 
874
    if check_fileids:
 
875
        fileid_set = set(fileids)
 
876
        if direction == 'reverse':
 
877
            stop_on = 'add'
 
878
        else:
 
879
            stop_on = 'remove'
 
880
    else:
 
881
        fileid_set = None
 
882
    for revs in log_rev_iterator:
 
883
        # If we were matching against fileids and we've run out,
 
884
        # there's nothing left to do
 
885
        if check_fileids and not fileid_set:
 
886
            return
 
887
        revisions = [rev[1] for rev in revs]
 
888
        new_revs = []
 
889
        if delta_type == 'full' and not check_fileids:
 
890
            deltas = repository.get_deltas_for_revisions(revisions)
 
891
            for rev, delta in izip(revs, deltas):
 
892
                new_revs.append((rev[0], rev[1], delta))
 
893
        else:
 
894
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
895
            for rev, delta in izip(revs, deltas):
 
896
                if check_fileids:
 
897
                    if delta is None or not delta.has_changed():
 
898
                        continue
 
899
                    else:
 
900
                        _update_fileids(delta, fileid_set, stop_on)
 
901
                        if delta_type is None:
 
902
                            delta = None
 
903
                        elif delta_type == 'full':
 
904
                            # If the file matches all the time, rebuilding
 
905
                            # a full delta like this in addition to a partial
 
906
                            # one could be slow. However, it's likely that
 
907
                            # most revisions won't get this far, making it
 
908
                            # faster to filter on the partial deltas and
 
909
                            # build the occasional full delta than always
 
910
                            # building full deltas and filtering those.
 
911
                            rev_id = rev[0][0]
 
912
                            delta = repository.get_revision_delta(rev_id)
 
913
                new_revs.append((rev[0], rev[1], delta))
 
914
        yield new_revs
 
915
 
 
916
 
 
917
def _update_fileids(delta, fileids, stop_on):
 
918
    """Update the set of file-ids to search based on file lifecycle events.
 
919
    
 
920
    :param fileids: a set of fileids to update
 
921
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
922
      fileids set once their add or remove entry is detected respectively
 
923
    """
 
924
    if stop_on == 'add':
 
925
        for item in delta.added:
 
926
            if item[1] in fileids:
 
927
                fileids.remove(item[1])
 
928
    elif stop_on == 'delete':
 
929
        for item in delta.removed:
 
930
            if item[1] in fileids:
 
931
                fileids.remove(item[1])
 
932
 
 
933
 
 
934
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
935
    """Extract revision objects from the repository
 
936
 
 
937
    :param branch: The branch being logged.
 
938
    :param generate_delta: Whether to generate a delta for each revision.
 
939
    :param search: A user text search string.
 
940
    :param log_rev_iterator: An input iterator containing all revisions that
 
941
        could be displayed, in lists.
 
942
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
943
        delta).
 
944
    """
 
945
    repository = branch.repository
 
946
    for revs in log_rev_iterator:
 
947
        # r = revision_id, n = revno, d = merge depth
 
948
        revision_ids = [view[0] for view, _, _ in revs]
 
949
        revisions = repository.get_revisions(revision_ids)
 
950
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
951
            izip(revs, revisions)]
 
952
        yield revs
 
953
 
 
954
 
 
955
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
956
    """Group up a single large batch into smaller ones.
 
957
 
 
958
    :param branch: The branch being logged.
 
959
    :param generate_delta: Whether to generate a delta for each revision.
 
960
    :param search: A user text search string.
 
961
    :param log_rev_iterator: An input iterator containing all revisions that
 
962
        could be displayed, in lists.
 
963
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
964
        delta).
 
965
    """
 
966
    repository = branch.repository
 
967
    num = 9
 
968
    for batch in log_rev_iterator:
 
969
        batch = iter(batch)
 
970
        while True:
 
971
            step = [detail for _, detail in zip(range(num), batch)]
 
972
            if len(step) == 0:
 
973
                break
 
974
            yield step
 
975
            num = min(int(num * 1.5), 200)
 
976
 
 
977
 
 
978
def _get_revision_limits(branch, start_revision, end_revision):
 
979
    """Get and check revision limits.
 
980
 
 
981
    :param  branch: The branch containing the revisions.
 
982
 
 
983
    :param  start_revision: The first revision to be logged.
 
984
            For backwards compatibility this may be a mainline integer revno,
 
985
            but for merge revision support a RevisionInfo is expected.
 
986
 
 
987
    :param  end_revision: The last revision to be logged.
 
988
            For backwards compatibility this may be a mainline integer revno,
 
989
            but for merge revision support a RevisionInfo is expected.
 
990
 
 
991
    :return: (start_rev_id, end_rev_id) tuple.
 
992
    """
 
993
    branch_revno, branch_rev_id = branch.last_revision_info()
 
994
    start_rev_id = None
 
995
    if start_revision is None:
 
996
        start_revno = 1
 
997
    else:
 
998
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
999
            start_rev_id = start_revision.rev_id
 
1000
            start_revno = start_revision.revno or 1
 
1001
        else:
 
1002
            branch.check_real_revno(start_revision)
 
1003
            start_revno = start_revision
 
1004
            start_rev_id = branch.get_rev_id(start_revno)
 
1005
 
 
1006
    end_rev_id = None
 
1007
    if end_revision is None:
 
1008
        end_revno = branch_revno
 
1009
    else:
 
1010
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
1011
            end_rev_id = end_revision.rev_id
 
1012
            end_revno = end_revision.revno or branch_revno
 
1013
        else:
 
1014
            branch.check_real_revno(end_revision)
 
1015
            end_revno = end_revision
 
1016
            end_rev_id = branch.get_rev_id(end_revno)
 
1017
 
 
1018
    if branch_revno != 0:
 
1019
        if (start_rev_id == _mod_revision.NULL_REVISION
 
1020
            or end_rev_id == _mod_revision.NULL_REVISION):
 
1021
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
1022
        if start_revno > end_revno:
 
1023
            raise errors.BzrCommandError("Start revision must be older than "
 
1024
                                         "the end revision.")
 
1025
    return (start_rev_id, end_rev_id)
 
1026
 
 
1027
 
 
1028
def _get_mainline_revs(branch, start_revision, end_revision):
 
1029
    """Get the mainline revisions from the branch.
 
1030
 
 
1031
    Generates the list of mainline revisions for the branch.
 
1032
 
 
1033
    :param  branch: The branch containing the revisions.
 
1034
 
 
1035
    :param  start_revision: The first revision to be logged.
 
1036
            For backwards compatibility this may be a mainline integer revno,
 
1037
            but for merge revision support a RevisionInfo is expected.
 
1038
 
 
1039
    :param  end_revision: The last revision to be logged.
 
1040
            For backwards compatibility this may be a mainline integer revno,
 
1041
            but for merge revision support a RevisionInfo is expected.
 
1042
 
 
1043
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
 
1044
    """
 
1045
    branch_revno, branch_last_revision = branch.last_revision_info()
 
1046
    if branch_revno == 0:
 
1047
        return None, None, None, None
 
1048
 
 
1049
    # For mainline generation, map start_revision and end_revision to
 
1050
    # mainline revnos. If the revision is not on the mainline choose the
 
1051
    # appropriate extreme of the mainline instead - the extra will be
 
1052
    # filtered later.
 
1053
    # Also map the revisions to rev_ids, to be used in the later filtering
 
1054
    # stage.
 
1055
    start_rev_id = None
 
1056
    if start_revision is None:
 
1057
        start_revno = 1
 
1058
    else:
 
1059
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
1060
            start_rev_id = start_revision.rev_id
 
1061
            start_revno = start_revision.revno or 1
 
1062
        else:
 
1063
            branch.check_real_revno(start_revision)
 
1064
            start_revno = start_revision
 
1065
 
 
1066
    end_rev_id = None
 
1067
    if end_revision is None:
 
1068
        end_revno = branch_revno
 
1069
    else:
 
1070
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
1071
            end_rev_id = end_revision.rev_id
 
1072
            end_revno = end_revision.revno or branch_revno
 
1073
        else:
 
1074
            branch.check_real_revno(end_revision)
 
1075
            end_revno = end_revision
 
1076
 
 
1077
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1078
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1079
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
1080
    if start_revno > end_revno:
 
1081
        raise errors.BzrCommandError("Start revision must be older than "
 
1082
                                     "the end revision.")
 
1083
 
 
1084
    if end_revno < start_revno:
 
1085
        return None, None, None, None
 
1086
    cur_revno = branch_revno
 
1087
    rev_nos = {}
 
1088
    mainline_revs = []
 
1089
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1090
                        branch_last_revision):
 
1091
        if cur_revno < start_revno:
 
1092
            # We have gone far enough, but we always add 1 more revision
 
1093
            rev_nos[revision_id] = cur_revno
 
1094
            mainline_revs.append(revision_id)
 
1095
            break
 
1096
        if cur_revno <= end_revno:
 
1097
            rev_nos[revision_id] = cur_revno
 
1098
            mainline_revs.append(revision_id)
 
1099
        cur_revno -= 1
 
1100
    else:
 
1101
        # We walked off the edge of all revisions, so we add a 'None' marker
 
1102
        mainline_revs.append(None)
 
1103
 
 
1104
    mainline_revs.reverse()
 
1105
 
 
1106
    # override the mainline to look like the revision history.
 
1107
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
 
1108
 
 
1109
 
 
1110
@deprecated_function(deprecated_in((2, 2, 0)))
 
1111
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
 
1112
    """Filter view_revisions based on revision ranges.
 
1113
 
 
1114
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1115
            tuples to be filtered.
 
1116
 
 
1117
    :param start_rev_id: If not NONE specifies the first revision to be logged.
 
1118
            If NONE then all revisions up to the end_rev_id are logged.
 
1119
 
 
1120
    :param end_rev_id: If not NONE specifies the last revision to be logged.
 
1121
            If NONE then all revisions up to the end of the log are logged.
 
1122
 
 
1123
    :return: The filtered view_revisions.
 
1124
    """
 
1125
    if start_rev_id or end_rev_id:
 
1126
        revision_ids = [r for r, n, d in view_revisions]
 
1127
        if start_rev_id:
 
1128
            start_index = revision_ids.index(start_rev_id)
 
1129
        else:
 
1130
            start_index = 0
 
1131
        if start_rev_id == end_rev_id:
 
1132
            end_index = start_index
 
1133
        else:
 
1134
            if end_rev_id:
 
1135
                end_index = revision_ids.index(end_rev_id)
 
1136
            else:
 
1137
                end_index = len(view_revisions) - 1
 
1138
        # To include the revisions merged into the last revision,
 
1139
        # extend end_rev_id down to, but not including, the next rev
 
1140
        # with the same or lesser merge_depth
 
1141
        end_merge_depth = view_revisions[end_index][2]
 
1142
        try:
 
1143
            for index in xrange(end_index+1, len(view_revisions)+1):
 
1144
                if view_revisions[index][2] <= end_merge_depth:
 
1145
                    end_index = index - 1
 
1146
                    break
 
1147
        except IndexError:
 
1148
            # if the search falls off the end then log to the end as well
 
1149
            end_index = len(view_revisions) - 1
 
1150
        view_revisions = view_revisions[start_index:end_index+1]
 
1151
    return view_revisions
 
1152
 
 
1153
 
 
1154
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1155
    include_merges=True):
 
1156
    r"""Return the list of revision ids which touch a given file id.
 
1157
 
 
1158
    The function filters view_revisions and returns a subset.
 
1159
    This includes the revisions which directly change the file id,
 
1160
    and the revisions which merge these changes. So if the
 
1161
    revision graph is::
 
1162
        A-.
 
1163
        |\ \
 
1164
        B C E
 
1165
        |/ /
 
1166
        D |
 
1167
        |\|
 
1168
        | F
 
1169
        |/
 
1170
        G
 
1171
 
 
1172
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1173
    returned even though it brings the changes to C into the branch starting
 
1174
    with E. (Note that if we were using F as the tip instead of G, then we
 
1175
    would see C, D, F.)
 
1176
 
 
1177
    This will also be restricted based on a subset of the mainline.
 
1178
 
 
1179
    :param branch: The branch where we can get text revision information.
 
1180
 
 
1181
    :param file_id: Filter out revisions that do not touch file_id.
 
1182
 
 
1183
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1184
        tuples. This is the list of revisions which will be filtered. It is
 
1185
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1186
        revision first ).
 
1187
 
 
1188
    :param include_merges: include merge revisions in the result or not
 
1189
 
 
1190
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
 
1191
    """
 
1192
    # Lookup all possible text keys to determine which ones actually modified
 
1193
    # the file.
 
1194
    graph = branch.repository.get_file_graph()
 
1195
    get_parent_map = graph.get_parent_map
 
1196
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1197
    next_keys = None
 
1198
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1199
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1200
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1201
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1202
    #       indexing layer. We might consider passing in hints as to the known
 
1203
    #       access pattern (sparse/clustered, high success rate/low success
 
1204
    #       rate). This particular access is clustered with a low success rate.
 
1205
    modified_text_revisions = set()
 
1206
    chunk_size = 1000
 
1207
    for start in xrange(0, len(text_keys), chunk_size):
 
1208
        next_keys = text_keys[start:start + chunk_size]
 
1209
        # Only keep the revision_id portion of the key
 
1210
        modified_text_revisions.update(
 
1211
            [k[1] for k in get_parent_map(next_keys)])
 
1212
    del text_keys, next_keys
 
1213
 
 
1214
    result = []
 
1215
    # Track what revisions will merge the current revision, replace entries
 
1216
    # with 'None' when they have been added to result
 
1217
    current_merge_stack = [None]
 
1218
    for info in view_revisions:
 
1219
        rev_id, revno, depth = info
 
1220
        if depth == len(current_merge_stack):
 
1221
            current_merge_stack.append(info)
 
1222
        else:
 
1223
            del current_merge_stack[depth + 1:]
 
1224
            current_merge_stack[-1] = info
 
1225
 
 
1226
        if rev_id in modified_text_revisions:
 
1227
            # This needs to be logged, along with the extra revisions
 
1228
            for idx in xrange(len(current_merge_stack)):
 
1229
                node = current_merge_stack[idx]
 
1230
                if node is not None:
 
1231
                    if include_merges or node[2] == 0:
 
1232
                        result.append(node)
 
1233
                        current_merge_stack[idx] = None
 
1234
    return result
 
1235
 
 
1236
 
 
1237
@deprecated_function(deprecated_in((2, 2, 0)))
 
1238
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
 
1239
                       include_merges=True):
 
1240
    """Produce an iterator of revisions to show
 
1241
    :return: an iterator of (revision_id, revno, merge_depth)
 
1242
    (if there is no revno for a revision, None is supplied)
 
1243
    """
 
1244
    if not include_merges:
 
1245
        revision_ids = mainline_revs[1:]
 
1246
        if direction == 'reverse':
 
1247
            revision_ids.reverse()
 
1248
        for revision_id in revision_ids:
 
1249
            yield revision_id, str(rev_nos[revision_id]), 0
 
1250
        return
 
1251
    graph = branch.repository.get_graph()
 
1252
    # This asks for all mainline revisions, which means we only have to spider
 
1253
    # sideways, rather than depth history. That said, its still size-of-history
 
1254
    # and should be addressed.
 
1255
    # mainline_revisions always includes an extra revision at the beginning, so
 
1256
    # don't request it.
 
1257
    parent_map = dict(((key, value) for key, value in
 
1258
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1259
    # filter out ghosts; merge_sort errors on ghosts.
 
1260
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1261
    merge_sorted_revisions = tsort.merge_sort(
 
1262
        rev_graph,
 
1263
        mainline_revs[-1],
 
1264
        mainline_revs,
 
1265
        generate_revno=True)
 
1266
 
 
1267
    if direction == 'forward':
 
1268
        # forward means oldest first.
 
1269
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
 
1270
    elif direction != 'reverse':
 
1271
        raise ValueError('invalid direction %r' % direction)
 
1272
 
 
1273
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1274
         ) in merge_sorted_revisions:
 
1275
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
1276
 
 
1277
 
 
1278
def reverse_by_depth(merge_sorted_revisions, _depth=0):
 
1279
    """Reverse revisions by depth.
 
1280
 
 
1281
    Revisions with a different depth are sorted as a group with the previous
 
1282
    revision of that depth.  There may be no topological justification for this,
 
1283
    but it looks much nicer.
 
1284
    """
 
1285
    # Add a fake revision at start so that we can always attach sub revisions
 
1286
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
 
1287
    zd_revisions = []
 
1288
    for val in merge_sorted_revisions:
 
1289
        if val[2] == _depth:
 
1290
            # Each revision at the current depth becomes a chunk grouping all
 
1291
            # higher depth revisions.
 
1292
            zd_revisions.append([val])
 
1293
        else:
 
1294
            zd_revisions[-1].append(val)
 
1295
    for revisions in zd_revisions:
 
1296
        if len(revisions) > 1:
 
1297
            # We have higher depth revisions, let reverse them locally
 
1298
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
 
1299
    zd_revisions.reverse()
 
1300
    result = []
 
1301
    for chunk in zd_revisions:
 
1302
        result.extend(chunk)
 
1303
    if _depth == 0:
 
1304
        # Top level call, get rid of the fake revisions that have been added
 
1305
        result = [r for r in result if r[0] is not None and r[1] is not None]
 
1306
    return result
 
1307
 
 
1308
 
 
1309
class LogRevision(object):
 
1310
    """A revision to be logged (by LogFormatter.log_revision).
 
1311
 
 
1312
    A simple wrapper for the attributes of a revision to be logged.
 
1313
    The attributes may or may not be populated, as determined by the
 
1314
    logging options and the log formatter capabilities.
 
1315
    """
 
1316
 
 
1317
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
 
1318
                 tags=None, diff=None):
 
1319
        self.rev = rev
 
1320
        if revno is None:
 
1321
            self.revno = None
 
1322
        else:
 
1323
            self.revno = str(revno)
 
1324
        self.merge_depth = merge_depth
 
1325
        self.delta = delta
 
1326
        self.tags = tags
 
1327
        self.diff = diff
 
1328
 
 
1329
 
 
1330
class LogFormatter(object):
 
1331
    """Abstract class to display log messages.
 
1332
 
 
1333
    At a minimum, a derived class must implement the log_revision method.
 
1334
 
 
1335
    If the LogFormatter needs to be informed of the beginning or end of
 
1336
    a log it should implement the begin_log and/or end_log hook methods.
 
1337
 
 
1338
    A LogFormatter should define the following supports_XXX flags
 
1339
    to indicate which LogRevision attributes it supports:
 
1340
 
 
1341
    - supports_delta must be True if this log formatter supports delta.
 
1342
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1343
        attribute describes whether the 'short_status' format (1) or the long
 
1344
        one (2) should be used.
 
1345
 
 
1346
    - supports_merge_revisions must be True if this log formatter supports
 
1347
        merge revisions.  If not, then only mainline revisions will be passed
 
1348
        to the formatter.
 
1349
 
 
1350
    - preferred_levels is the number of levels this formatter defaults to.
 
1351
        The default value is zero meaning display all levels.
 
1352
        This value is only relevant if supports_merge_revisions is True.
 
1353
 
 
1354
    - supports_tags must be True if this log formatter supports tags.
 
1355
        Otherwise the tags attribute may not be populated.
 
1356
 
 
1357
    - supports_diff must be True if this log formatter supports diffs.
 
1358
        Otherwise the diff attribute may not be populated.
 
1359
 
 
1360
    Plugins can register functions to show custom revision properties using
 
1361
    the properties_handler_registry. The registered function
 
1362
    must respect the following interface description:
 
1363
        def my_show_properties(properties_dict):
 
1364
            # code that returns a dict {'name':'value'} of the properties
 
1365
            # to be shown
 
1366
    """
 
1367
    preferred_levels = 0
 
1368
 
 
1369
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1370
                 delta_format=None, levels=None, show_advice=False,
 
1371
                 to_exact_file=None, author_list_handler=None):
 
1372
        """Create a LogFormatter.
 
1373
 
 
1374
        :param to_file: the file to output to
 
1375
        :param to_exact_file: if set, gives an output stream to which 
 
1376
             non-Unicode diffs are written.
 
1377
        :param show_ids: if True, revision-ids are to be displayed
 
1378
        :param show_timezone: the timezone to use
 
1379
        :param delta_format: the level of delta information to display
 
1380
          or None to leave it to the formatter to decide
 
1381
        :param levels: the number of levels to display; None or -1 to
 
1382
          let the log formatter decide.
 
1383
        :param show_advice: whether to show advice at the end of the
 
1384
          log or not
 
1385
        :param author_list_handler: callable generating a list of
 
1386
          authors to display for a given revision
 
1387
        """
 
1388
        self.to_file = to_file
 
1389
        # 'exact' stream used to show diff, it should print content 'as is'
 
1390
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1391
        if to_exact_file is not None:
 
1392
            self.to_exact_file = to_exact_file
 
1393
        else:
 
1394
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1395
            # for code that expects to get diffs to pass in the exact file
 
1396
            # stream
 
1397
            self.to_exact_file = getattr(to_file, 'stream', to_file)
 
1398
        self.show_ids = show_ids
 
1399
        self.show_timezone = show_timezone
 
1400
        if delta_format is None:
 
1401
            # Ensures backward compatibility
 
1402
            delta_format = 2 # long format
 
1403
        self.delta_format = delta_format
 
1404
        self.levels = levels
 
1405
        self._show_advice = show_advice
 
1406
        self._merge_count = 0
 
1407
        self._author_list_handler = author_list_handler
 
1408
 
 
1409
    def get_levels(self):
 
1410
        """Get the number of levels to display or 0 for all."""
 
1411
        if getattr(self, 'supports_merge_revisions', False):
 
1412
            if self.levels is None or self.levels == -1:
 
1413
                self.levels = self.preferred_levels
 
1414
        else:
 
1415
            self.levels = 1
 
1416
        return self.levels
 
1417
 
 
1418
    def log_revision(self, revision):
 
1419
        """Log a revision.
 
1420
 
 
1421
        :param  revision:   The LogRevision to be logged.
 
1422
        """
 
1423
        raise NotImplementedError('not implemented in abstract base')
 
1424
 
 
1425
    def show_advice(self):
 
1426
        """Output user advice, if any, when the log is completed."""
 
1427
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1428
            advice_sep = self.get_advice_separator()
 
1429
            if advice_sep:
 
1430
                self.to_file.write(advice_sep)
 
1431
            self.to_file.write(
 
1432
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1433
 
 
1434
    def get_advice_separator(self):
 
1435
        """Get the text separating the log from the closing advice."""
 
1436
        return ''
 
1437
 
 
1438
    def short_committer(self, rev):
 
1439
        name, address = config.parse_username(rev.committer)
 
1440
        if name:
 
1441
            return name
 
1442
        return address
 
1443
 
 
1444
    def short_author(self, rev):
 
1445
        return self.authors(rev, 'first', short=True, sep=', ')
 
1446
 
 
1447
    def authors(self, rev, who, short=False, sep=None):
 
1448
        """Generate list of authors, taking --authors option into account.
 
1449
 
 
1450
        The caller has to specify the name of a author list handler,
 
1451
        as provided by the author list registry, using the ``who``
 
1452
        argument.  That name only sets a default, though: when the
 
1453
        user selected a different author list generation using the
 
1454
        ``--authors`` command line switch, as represented by the
 
1455
        ``author_list_handler`` constructor argument, that value takes
 
1456
        precedence.
 
1457
 
 
1458
        :param rev: The revision for which to generate the list of authors.
 
1459
        :param who: Name of the default handler.
 
1460
        :param short: Whether to shorten names to either name or address.
 
1461
        :param sep: What separator to use for automatic concatenation.
 
1462
        """
 
1463
        if self._author_list_handler is not None:
 
1464
            # The user did specify --authors, which overrides the default
 
1465
            author_list_handler = self._author_list_handler
 
1466
        else:
 
1467
            # The user didn't specify --authors, so we use the caller's default
 
1468
            author_list_handler = author_list_registry.get(who)
 
1469
        names = author_list_handler(rev)
 
1470
        if short:
 
1471
            for i in range(len(names)):
 
1472
                name, address = config.parse_username(names[i])
 
1473
                if name:
 
1474
                    names[i] = name
 
1475
                else:
 
1476
                    names[i] = address
 
1477
        if sep is not None:
 
1478
            names = sep.join(names)
 
1479
        return names
 
1480
 
 
1481
    def merge_marker(self, revision):
 
1482
        """Get the merge marker to include in the output or '' if none."""
 
1483
        if len(revision.rev.parent_ids) > 1:
 
1484
            self._merge_count += 1
 
1485
            return ' [merge]'
 
1486
        else:
 
1487
            return ''
 
1488
 
 
1489
    def show_properties(self, revision, indent):
 
1490
        """Displays the custom properties returned by each registered handler.
 
1491
 
 
1492
        If a registered handler raises an error it is propagated.
 
1493
        """
 
1494
        for line in self.custom_properties(revision):
 
1495
            self.to_file.write("%s%s\n" % (indent, line))
 
1496
 
 
1497
    def custom_properties(self, revision):
 
1498
        """Format the custom properties returned by each registered handler.
 
1499
 
 
1500
        If a registered handler raises an error it is propagated.
 
1501
 
 
1502
        :return: a list of formatted lines (excluding trailing newlines)
 
1503
        """
 
1504
        lines = self._foreign_info_properties(revision)
 
1505
        for key, handler in properties_handler_registry.iteritems():
 
1506
            lines.extend(self._format_properties(handler(revision)))
 
1507
        return lines
 
1508
 
 
1509
    def _foreign_info_properties(self, rev):
 
1510
        """Custom log displayer for foreign revision identifiers.
 
1511
 
 
1512
        :param rev: Revision object.
 
1513
        """
 
1514
        # Revision comes directly from a foreign repository
 
1515
        if isinstance(rev, foreign.ForeignRevision):
 
1516
            return self._format_properties(
 
1517
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1518
 
 
1519
        # Imported foreign revision revision ids always contain :
 
1520
        if not ":" in rev.revision_id:
 
1521
            return []
 
1522
 
 
1523
        # Revision was once imported from a foreign repository
 
1524
        try:
 
1525
            foreign_revid, mapping = \
 
1526
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1527
        except errors.InvalidRevisionId:
 
1528
            return []
 
1529
 
 
1530
        return self._format_properties(
 
1531
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1532
 
 
1533
    def _format_properties(self, properties):
 
1534
        lines = []
 
1535
        for key, value in properties.items():
 
1536
            lines.append(key + ': ' + value)
 
1537
        return lines
 
1538
 
 
1539
    def show_diff(self, to_file, diff, indent):
 
1540
        for l in diff.rstrip().split('\n'):
 
1541
            to_file.write(indent + '%s\n' % (l,))
 
1542
 
 
1543
 
 
1544
# Separator between revisions in long format
 
1545
_LONG_SEP = '-' * 60
 
1546
 
 
1547
 
 
1548
class LongLogFormatter(LogFormatter):
 
1549
 
 
1550
    supports_merge_revisions = True
 
1551
    preferred_levels = 1
 
1552
    supports_delta = True
 
1553
    supports_tags = True
 
1554
    supports_diff = True
 
1555
 
 
1556
    def __init__(self, *args, **kwargs):
 
1557
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1558
        if self.show_timezone == 'original':
 
1559
            self.date_string = self._date_string_original_timezone
 
1560
        else:
 
1561
            self.date_string = self._date_string_with_timezone
 
1562
 
 
1563
    def _date_string_with_timezone(self, rev):
 
1564
        return format_date(rev.timestamp, rev.timezone or 0,
 
1565
                           self.show_timezone)
 
1566
 
 
1567
    def _date_string_original_timezone(self, rev):
 
1568
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1569
            rev.timezone or 0)
 
1570
 
 
1571
    def log_revision(self, revision):
 
1572
        """Log a revision, either merged or not."""
 
1573
        indent = '    ' * revision.merge_depth
 
1574
        lines = [_LONG_SEP]
 
1575
        if revision.revno is not None:
 
1576
            lines.append('revno: %s%s' % (revision.revno,
 
1577
                self.merge_marker(revision)))
 
1578
        if revision.tags:
 
1579
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1580
        if self.show_ids or revision.revno is None:
 
1581
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
1582
        if self.show_ids:
 
1583
            for parent_id in revision.rev.parent_ids:
 
1584
                lines.append('parent: %s' % (parent_id,))
 
1585
        lines.extend(self.custom_properties(revision.rev))
 
1586
 
 
1587
        committer = revision.rev.committer
 
1588
        authors = self.authors(revision.rev, 'all')
 
1589
        if authors != [committer]:
 
1590
            lines.append('author: %s' % (", ".join(authors),))
 
1591
        lines.append('committer: %s' % (committer,))
 
1592
 
 
1593
        branch_nick = revision.rev.properties.get('branch-nick', None)
 
1594
        if branch_nick is not None:
 
1595
            lines.append('branch nick: %s' % (branch_nick,))
 
1596
 
 
1597
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1598
 
 
1599
        lines.append('message:')
 
1600
        if not revision.rev.message:
 
1601
            lines.append('  (no message)')
 
1602
        else:
 
1603
            message = revision.rev.message.rstrip('\r\n')
 
1604
            for l in message.split('\n'):
 
1605
                lines.append('  %s' % (l,))
 
1606
 
 
1607
        # Dump the output, appending the delta and diff if requested
 
1608
        to_file = self.to_file
 
1609
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1610
        if revision.delta is not None:
 
1611
            # Use the standard status output to display changes
 
1612
            from bzrlib.delta import report_delta
 
1613
            report_delta(to_file, revision.delta, short_status=False, 
 
1614
                         show_ids=self.show_ids, indent=indent)
 
1615
        if revision.diff is not None:
 
1616
            to_file.write(indent + 'diff:\n')
 
1617
            to_file.flush()
 
1618
            # Note: we explicitly don't indent the diff (relative to the
 
1619
            # revision information) so that the output can be fed to patch -p0
 
1620
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1621
            self.to_exact_file.flush()
 
1622
 
 
1623
    def get_advice_separator(self):
 
1624
        """Get the text separating the log from the closing advice."""
 
1625
        return '-' * 60 + '\n'
 
1626
 
 
1627
 
 
1628
class ShortLogFormatter(LogFormatter):
 
1629
 
 
1630
    supports_merge_revisions = True
 
1631
    preferred_levels = 1
 
1632
    supports_delta = True
 
1633
    supports_tags = True
 
1634
    supports_diff = True
 
1635
 
 
1636
    def __init__(self, *args, **kwargs):
 
1637
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1638
        self.revno_width_by_depth = {}
 
1639
 
 
1640
    def log_revision(self, revision):
 
1641
        # We need two indents: one per depth and one for the information
 
1642
        # relative to that indent. Most mainline revnos are 5 chars or
 
1643
        # less while dotted revnos are typically 11 chars or less. Once
 
1644
        # calculated, we need to remember the offset for a given depth
 
1645
        # as we might be starting from a dotted revno in the first column
 
1646
        # and we want subsequent mainline revisions to line up.
 
1647
        depth = revision.merge_depth
 
1648
        indent = '    ' * depth
 
1649
        revno_width = self.revno_width_by_depth.get(depth)
 
1650
        if revno_width is None:
 
1651
            if revision.revno is None or revision.revno.find('.') == -1:
 
1652
                # mainline revno, e.g. 12345
 
1653
                revno_width = 5
 
1654
            else:
 
1655
                # dotted revno, e.g. 12345.10.55
 
1656
                revno_width = 11
 
1657
            self.revno_width_by_depth[depth] = revno_width
 
1658
        offset = ' ' * (revno_width + 1)
 
1659
 
 
1660
        to_file = self.to_file
 
1661
        tags = ''
 
1662
        if revision.tags:
 
1663
            tags = ' {%s}' % (', '.join(revision.tags))
 
1664
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1665
                revision.revno or "", self.short_author(revision.rev),
 
1666
                format_date(revision.rev.timestamp,
 
1667
                            revision.rev.timezone or 0,
 
1668
                            self.show_timezone, date_fmt="%Y-%m-%d",
 
1669
                            show_offset=False),
 
1670
                tags, self.merge_marker(revision)))
 
1671
        self.show_properties(revision.rev, indent+offset)
 
1672
        if self.show_ids or revision.revno is None:
 
1673
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1674
                          % (revision.rev.revision_id,))
 
1675
        if not revision.rev.message:
 
1676
            to_file.write(indent + offset + '(no message)\n')
 
1677
        else:
 
1678
            message = revision.rev.message.rstrip('\r\n')
 
1679
            for l in message.split('\n'):
 
1680
                to_file.write(indent + offset + '%s\n' % (l,))
 
1681
 
 
1682
        if revision.delta is not None:
 
1683
            # Use the standard status output to display changes
 
1684
            from bzrlib.delta import report_delta
 
1685
            report_delta(to_file, revision.delta, 
 
1686
                         short_status=self.delta_format==1, 
 
1687
                         show_ids=self.show_ids, indent=indent + offset)
 
1688
        if revision.diff is not None:
 
1689
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
1690
        to_file.write('\n')
 
1691
 
 
1692
 
 
1693
class LineLogFormatter(LogFormatter):
 
1694
 
 
1695
    supports_merge_revisions = True
 
1696
    preferred_levels = 1
 
1697
    supports_tags = True
 
1698
 
 
1699
    def __init__(self, *args, **kwargs):
 
1700
        super(LineLogFormatter, self).__init__(*args, **kwargs)
 
1701
        width = terminal_width()
 
1702
        if width is not None:
 
1703
            # we need one extra space for terminals that wrap on last char
 
1704
            width = width - 1
 
1705
        self._max_chars = width
 
1706
 
 
1707
    def truncate(self, str, max_len):
 
1708
        if max_len is None or len(str) <= max_len:
 
1709
            return str
 
1710
        return str[:max_len-3] + '...'
 
1711
 
 
1712
    def date_string(self, rev):
 
1713
        return format_date(rev.timestamp, rev.timezone or 0,
 
1714
                           self.show_timezone, date_fmt="%Y-%m-%d",
 
1715
                           show_offset=False)
 
1716
 
 
1717
    def message(self, rev):
 
1718
        if not rev.message:
 
1719
            return '(no message)'
 
1720
        else:
 
1721
            return rev.message
 
1722
 
 
1723
    def log_revision(self, revision):
 
1724
        indent = '  ' * revision.merge_depth
 
1725
        self.to_file.write(self.log_string(revision.revno, revision.rev,
 
1726
            self._max_chars, revision.tags, indent))
 
1727
        self.to_file.write('\n')
 
1728
 
 
1729
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
1730
        """Format log info into one string. Truncate tail of string
 
1731
        :param  revno:      revision number or None.
 
1732
                            Revision numbers counts from 1.
 
1733
        :param  rev:        revision object
 
1734
        :param  max_chars:  maximum length of resulting string
 
1735
        :param  tags:       list of tags or None
 
1736
        :param  prefix:     string to prefix each line
 
1737
        :return:            formatted truncated string
 
1738
        """
 
1739
        out = []
 
1740
        if revno:
 
1741
            # show revno only when is not None
 
1742
            out.append("%s:" % revno)
 
1743
        out.append(self.truncate(self.short_author(rev), 20))
 
1744
        out.append(self.date_string(rev))
 
1745
        if len(rev.parent_ids) > 1:
 
1746
            out.append('[merge]')
 
1747
        if tags:
 
1748
            tag_str = '{%s}' % (', '.join(tags))
 
1749
            out.append(tag_str)
 
1750
        out.append(rev.get_summary())
 
1751
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1752
 
 
1753
 
 
1754
class GnuChangelogLogFormatter(LogFormatter):
 
1755
 
 
1756
    supports_merge_revisions = True
 
1757
    supports_delta = True
 
1758
 
 
1759
    def log_revision(self, revision):
 
1760
        """Log a revision, either merged or not."""
 
1761
        to_file = self.to_file
 
1762
 
 
1763
        date_str = format_date(revision.rev.timestamp,
 
1764
                               revision.rev.timezone or 0,
 
1765
                               self.show_timezone,
 
1766
                               date_fmt='%Y-%m-%d',
 
1767
                               show_offset=False)
 
1768
        committer_str = self.authors(revision.rev, 'first', sep=', ')
 
1769
        committer_str = committer_str.replace(' <', '  <')
 
1770
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1771
 
 
1772
        if revision.delta is not None and revision.delta.has_changed():
 
1773
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1774
                path, = c[:1]
 
1775
                to_file.write('\t* %s:\n' % (path,))
 
1776
            for c in revision.delta.renamed:
 
1777
                oldpath,newpath = c[:2]
 
1778
                # For renamed files, show both the old and the new path
 
1779
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1780
            to_file.write('\n')
 
1781
 
 
1782
        if not revision.rev.message:
 
1783
            to_file.write('\tNo commit message\n')
 
1784
        else:
 
1785
            message = revision.rev.message.rstrip('\r\n')
 
1786
            for l in message.split('\n'):
 
1787
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1788
            to_file.write('\n')
 
1789
 
 
1790
 
 
1791
def line_log(rev, max_chars):
 
1792
    lf = LineLogFormatter(None)
 
1793
    return lf.log_string(None, rev, max_chars)
 
1794
 
 
1795
 
 
1796
class LogFormatterRegistry(registry.Registry):
 
1797
    """Registry for log formatters"""
 
1798
 
 
1799
    def make_formatter(self, name, *args, **kwargs):
 
1800
        """Construct a formatter from arguments.
 
1801
 
 
1802
        :param name: Name of the formatter to construct.  'short', 'long' and
 
1803
            'line' are built-in.
 
1804
        """
 
1805
        return self.get(name)(*args, **kwargs)
 
1806
 
 
1807
    def get_default(self, branch):
 
1808
        return self.get(branch.get_config().log_format())
 
1809
 
 
1810
 
 
1811
log_formatter_registry = LogFormatterRegistry()
 
1812
 
 
1813
 
 
1814
log_formatter_registry.register('short', ShortLogFormatter,
 
1815
                                'Moderately short log format')
 
1816
log_formatter_registry.register('long', LongLogFormatter,
 
1817
                                'Detailed log format')
 
1818
log_formatter_registry.register('line', LineLogFormatter,
 
1819
                                'Log format with one line per revision')
 
1820
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1821
                                'Format used by GNU ChangeLog files')
 
1822
 
 
1823
 
 
1824
def register_formatter(name, formatter):
 
1825
    log_formatter_registry.register(name, formatter)
 
1826
 
 
1827
 
 
1828
def log_formatter(name, *args, **kwargs):
 
1829
    """Construct a formatter from arguments.
 
1830
 
 
1831
    name -- Name of the formatter to construct; currently 'long', 'short' and
 
1832
        'line' are supported.
 
1833
    """
 
1834
    try:
 
1835
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
1836
    except KeyError:
 
1837
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
 
1838
 
 
1839
 
 
1840
def author_list_all(rev):
 
1841
    return rev.get_apparent_authors()[:]
 
1842
 
 
1843
 
 
1844
def author_list_first(rev):
 
1845
    lst = rev.get_apparent_authors()
 
1846
    try:
 
1847
        return [lst[0]]
 
1848
    except IndexError:
 
1849
        return []
 
1850
 
 
1851
 
 
1852
def author_list_committer(rev):
 
1853
    return [rev.committer]
 
1854
 
 
1855
 
 
1856
author_list_registry = registry.Registry()
 
1857
 
 
1858
author_list_registry.register('all', author_list_all,
 
1859
                              'All authors')
 
1860
 
 
1861
author_list_registry.register('first', author_list_first,
 
1862
                              'The first author')
 
1863
 
 
1864
author_list_registry.register('committer', author_list_committer,
 
1865
                              'The committer')
 
1866
 
 
1867
 
 
1868
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
 
1869
    # deprecated; for compatibility
 
1870
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
 
1871
    lf.show(revno, rev, delta)
 
1872
 
 
1873
 
 
1874
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
 
1875
                           log_format='long'):
 
1876
    """Show the change in revision history comparing the old revision history to the new one.
 
1877
 
 
1878
    :param branch: The branch where the revisions exist
 
1879
    :param old_rh: The old revision history
 
1880
    :param new_rh: The new revision history
 
1881
    :param to_file: A file to write the results to. If None, stdout will be used
 
1882
    """
 
1883
    if to_file is None:
 
1884
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
 
1885
            errors='replace')
 
1886
    lf = log_formatter(log_format,
 
1887
                       show_ids=False,
 
1888
                       to_file=to_file,
 
1889
                       show_timezone='original')
 
1890
 
 
1891
    # This is the first index which is different between
 
1892
    # old and new
 
1893
    base_idx = None
 
1894
    for i in xrange(max(len(new_rh),
 
1895
                        len(old_rh))):
 
1896
        if (len(new_rh) <= i
 
1897
            or len(old_rh) <= i
 
1898
            or new_rh[i] != old_rh[i]):
 
1899
            base_idx = i
 
1900
            break
 
1901
 
 
1902
    if base_idx is None:
 
1903
        to_file.write('Nothing seems to have changed\n')
 
1904
        return
 
1905
    ## TODO: It might be nice to do something like show_log
 
1906
    ##       and show the merged entries. But since this is the
 
1907
    ##       removed revisions, it shouldn't be as important
 
1908
    if base_idx < len(old_rh):
 
1909
        to_file.write('*'*60)
 
1910
        to_file.write('\nRemoved Revisions:\n')
 
1911
        for i in range(base_idx, len(old_rh)):
 
1912
            rev = branch.repository.get_revision(old_rh[i])
 
1913
            lr = LogRevision(rev, i+1, 0, None)
 
1914
            lf.log_revision(lr)
 
1915
        to_file.write('*'*60)
 
1916
        to_file.write('\n\n')
 
1917
    if base_idx < len(new_rh):
 
1918
        to_file.write('Added Revisions:\n')
 
1919
        show_log(branch,
 
1920
                 lf,
 
1921
                 None,
 
1922
                 verbose=False,
 
1923
                 direction='forward',
 
1924
                 start_revision=base_idx+1,
 
1925
                 end_revision=len(new_rh),
 
1926
                 search=None)
 
1927
 
 
1928
 
 
1929
def get_history_change(old_revision_id, new_revision_id, repository):
 
1930
    """Calculate the uncommon lefthand history between two revisions.
 
1931
 
 
1932
    :param old_revision_id: The original revision id.
 
1933
    :param new_revision_id: The new revision id.
 
1934
    :param repository: The repository to use for the calculation.
 
1935
 
 
1936
    return old_history, new_history
 
1937
    """
 
1938
    old_history = []
 
1939
    old_revisions = set()
 
1940
    new_history = []
 
1941
    new_revisions = set()
 
1942
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1943
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1944
    stop_revision = None
 
1945
    do_old = True
 
1946
    do_new = True
 
1947
    while do_new or do_old:
 
1948
        if do_new:
 
1949
            try:
 
1950
                new_revision = new_iter.next()
 
1951
            except StopIteration:
 
1952
                do_new = False
 
1953
            else:
 
1954
                new_history.append(new_revision)
 
1955
                new_revisions.add(new_revision)
 
1956
                if new_revision in old_revisions:
 
1957
                    stop_revision = new_revision
 
1958
                    break
 
1959
        if do_old:
 
1960
            try:
 
1961
                old_revision = old_iter.next()
 
1962
            except StopIteration:
 
1963
                do_old = False
 
1964
            else:
 
1965
                old_history.append(old_revision)
 
1966
                old_revisions.add(old_revision)
 
1967
                if old_revision in new_revisions:
 
1968
                    stop_revision = old_revision
 
1969
                    break
 
1970
    new_history.reverse()
 
1971
    old_history.reverse()
 
1972
    if stop_revision is not None:
 
1973
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1974
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1975
    return old_history, new_history
 
1976
 
 
1977
 
 
1978
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1979
    """Show the changes made to a branch.
 
1980
 
 
1981
    :param branch: The branch to show changes about.
 
1982
    :param output: A file-like object to write changes to.
 
1983
    :param old_revno: The revno of the old tip.
 
1984
    :param old_revision_id: The revision_id of the old tip.
 
1985
    """
 
1986
    new_revno, new_revision_id = branch.last_revision_info()
 
1987
    old_history, new_history = get_history_change(old_revision_id,
 
1988
                                                  new_revision_id,
 
1989
                                                  branch.repository)
 
1990
    if old_history == [] and new_history == []:
 
1991
        output.write('Nothing seems to have changed\n')
 
1992
        return
 
1993
 
 
1994
    log_format = log_formatter_registry.get_default(branch)
 
1995
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1996
    if old_history != []:
 
1997
        output.write('*'*60)
 
1998
        output.write('\nRemoved Revisions:\n')
 
1999
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
2000
        output.write('*'*60)
 
2001
        output.write('\n\n')
 
2002
    if new_history != []:
 
2003
        output.write('Added Revisions:\n')
 
2004
        start_revno = new_revno - len(new_history) + 1
 
2005
        show_log(branch, lf, None, verbose=False, direction='forward',
 
2006
                 start_revision=start_revno,)
 
2007
 
 
2008
 
 
2009
def show_flat_log(repository, history, last_revno, lf):
 
2010
    """Show a simple log of the specified history.
 
2011
 
 
2012
    :param repository: The repository to retrieve revisions from.
 
2013
    :param history: A list of revision_ids indicating the lefthand history.
 
2014
    :param last_revno: The revno of the last revision_id in the history.
 
2015
    :param lf: The log formatter to use.
 
2016
    """
 
2017
    start_revno = last_revno - len(history) + 1
 
2018
    revisions = repository.get_revisions(history)
 
2019
    for i, rev in enumerate(revisions):
 
2020
        lr = LogRevision(rev, i + last_revno, 0, None)
 
2021
        lf.log_revision(lr)
 
2022
 
 
2023
 
 
2024
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
 
2025
    """Find file-ids and kinds given a list of files and a revision range.
 
2026
 
 
2027
    We search for files at the end of the range. If not found there,
 
2028
    we try the start of the range.
 
2029
 
 
2030
    :param revisionspec_list: revision range as parsed on the command line
 
2031
    :param file_list: the list of paths given on the command line;
 
2032
      the first of these can be a branch location or a file path,
 
2033
      the remainder must be file paths
 
2034
    :param add_cleanup: When the branch returned is read locked,
 
2035
      an unlock call will be queued to the cleanup.
 
2036
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
2037
      info_list is a list of (relative_path, file_id, kind) tuples where
 
2038
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
2039
      branch will be read-locked.
 
2040
    """
 
2041
    from builtins import _get_revision_range
 
2042
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
2043
    add_cleanup(b.lock_read().unlock)
 
2044
    # XXX: It's damn messy converting a list of paths to relative paths when
 
2045
    # those paths might be deleted ones, they might be on a case-insensitive
 
2046
    # filesystem and/or they might be in silly locations (like another branch).
 
2047
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
2048
    # file2 implicitly in the same dir as file1 or should its directory be
 
2049
    # taken from the current tree somehow?) For now, this solves the common
 
2050
    # case of running log in a nested directory, assuming paths beyond the
 
2051
    # first one haven't been deleted ...
 
2052
    if tree:
 
2053
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
 
2054
    else:
 
2055
        relpaths = [path] + file_list[1:]
 
2056
    info_list = []
 
2057
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
2058
        "log")
 
2059
    if relpaths in ([], [u'']):
 
2060
        return b, [], start_rev_info, end_rev_info
 
2061
    if start_rev_info is None and end_rev_info is None:
 
2062
        if tree is None:
 
2063
            tree = b.basis_tree()
 
2064
        tree1 = None
 
2065
        for fp in relpaths:
 
2066
            file_id = tree.path2id(fp)
 
2067
            kind = _get_kind_for_file_id(tree, file_id)
 
2068
            if file_id is None:
 
2069
                # go back to when time began
 
2070
                if tree1 is None:
 
2071
                    try:
 
2072
                        rev1 = b.get_rev_id(1)
 
2073
                    except errors.NoSuchRevision:
 
2074
                        # No history at all
 
2075
                        file_id = None
 
2076
                        kind = None
 
2077
                    else:
 
2078
                        tree1 = b.repository.revision_tree(rev1)
 
2079
                if tree1:
 
2080
                    file_id = tree1.path2id(fp)
 
2081
                    kind = _get_kind_for_file_id(tree1, file_id)
 
2082
            info_list.append((fp, file_id, kind))
 
2083
 
 
2084
    elif start_rev_info == end_rev_info:
 
2085
        # One revision given - file must exist in it
 
2086
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
2087
        for fp in relpaths:
 
2088
            file_id = tree.path2id(fp)
 
2089
            kind = _get_kind_for_file_id(tree, file_id)
 
2090
            info_list.append((fp, file_id, kind))
 
2091
 
 
2092
    else:
 
2093
        # Revision range given. Get the file-id from the end tree.
 
2094
        # If that fails, try the start tree.
 
2095
        rev_id = end_rev_info.rev_id
 
2096
        if rev_id is None:
 
2097
            tree = b.basis_tree()
 
2098
        else:
 
2099
            tree = b.repository.revision_tree(rev_id)
 
2100
        tree1 = None
 
2101
        for fp in relpaths:
 
2102
            file_id = tree.path2id(fp)
 
2103
            kind = _get_kind_for_file_id(tree, file_id)
 
2104
            if file_id is None:
 
2105
                if tree1 is None:
 
2106
                    rev_id = start_rev_info.rev_id
 
2107
                    if rev_id is None:
 
2108
                        rev1 = b.get_rev_id(1)
 
2109
                        tree1 = b.repository.revision_tree(rev1)
 
2110
                    else:
 
2111
                        tree1 = b.repository.revision_tree(rev_id)
 
2112
                file_id = tree1.path2id(fp)
 
2113
                kind = _get_kind_for_file_id(tree1, file_id)
 
2114
            info_list.append((fp, file_id, kind))
 
2115
    return b, info_list, start_rev_info, end_rev_info
 
2116
 
 
2117
 
 
2118
def _get_kind_for_file_id(tree, file_id):
 
2119
    """Return the kind of a file-id or None if it doesn't exist."""
 
2120
    if file_id is not None:
 
2121
        return tree.kind(file_id)
 
2122
    else:
 
2123
        return None
 
2124
 
 
2125
 
 
2126
properties_handler_registry = registry.Registry()
 
2127
 
 
2128
# Use the properties handlers to print out bug information if available
 
2129
def _bugs_properties_handler(revision):
 
2130
    if revision.properties.has_key('bugs'):
 
2131
        bug_lines = revision.properties['bugs'].split('\n')
 
2132
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2133
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2134
                          len(row) > 1 and row[1] == 'fixed']
 
2135
 
 
2136
        if fixed_bug_urls:
 
2137
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2138
    return {}
 
2139
 
 
2140
properties_handler_registry.register('bugs_properties_handler',
 
2141
                                     _bugs_properties_handler)
 
2142
 
 
2143
 
 
2144
# adapters which revision ids to log are filtered. When log is called, the
 
2145
# log_rev_iterator is adapted through each of these factory methods.
 
2146
# Plugins are welcome to mutate this list in any way they like - as long
 
2147
# as the overall behaviour is preserved. At this point there is no extensible
 
2148
# mechanism for getting parameters to each factory method, and until there is
 
2149
# this won't be considered a stable api.
 
2150
log_adapters = [
 
2151
    # core log logic
 
2152
    _make_batch_filter,
 
2153
    # read revision objects
 
2154
    _make_revision_objects,
 
2155
    # filter on log messages
 
2156
    _make_search_filter,
 
2157
    # generate deltas for things we will show
 
2158
    _make_delta_filter
 
2159
    ]