/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Arnaud Jeansen
  • Date: 2010-03-19 23:58:06 UTC
  • mto: This revision was merged to the branch mainline in revision 5126.
  • Revision ID: arnaud.jeansen@gmail.com-20100319235806-n0owdq874qsrb12u
Go back to unified report_delta method (i.e. former TreeDelta.show())

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005-2010 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
 
 
18
 
 
19
"""Code to show logs of changes.
 
20
 
 
21
Various flavors of log can be produced:
 
22
 
 
23
* for one file, or the whole tree, and (not done yet) for
 
24
  files in a given directory
 
25
 
 
26
* in "verbose" mode with a description of what changed from one
 
27
  version to the next
 
28
 
 
29
* with file-ids and revision-ids shown
 
30
 
 
31
Logs are actually written out through an abstract LogFormatter
 
32
interface, which allows for different preferred formats.  Plugins can
 
33
register formats too.
 
34
 
 
35
Logs can be produced in either forward (oldest->newest) or reverse
 
36
(newest->oldest) order.
 
37
 
 
38
Logs can be filtered to show only revisions matching a particular
 
39
search string, or within a particular range of revisions.  The range
 
40
can be given as date/times, which are reduced to revisions before
 
41
calling in here.
 
42
 
 
43
In verbose mode we show a summary of what changed in each particular
 
44
revision.  Note that this is the delta for changes in that revision
 
45
relative to its left-most parent, not the delta relative to the last
 
46
logged revision.  So for example if you ask for a verbose log of
 
47
changes touching hello.c you will get a list of those revisions also
 
48
listing other things that were changed in the same revision, but not
 
49
all the changes since the previous revision that touched hello.c.
 
50
"""
 
51
 
 
52
import codecs
 
53
from cStringIO import StringIO
 
54
from itertools import (
 
55
    chain,
 
56
    izip,
 
57
    )
 
58
import re
 
59
import sys
 
60
from warnings import (
 
61
    warn,
 
62
    )
 
63
 
 
64
from bzrlib.lazy_import import lazy_import
 
65
lazy_import(globals(), """
 
66
 
 
67
from bzrlib import (
 
68
    bzrdir,
 
69
    config,
 
70
    diff,
 
71
    errors,
 
72
    foreign,
 
73
    repository as _mod_repository,
 
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    trace,
 
77
    tsort,
 
78
    )
 
79
""")
 
80
 
 
81
from bzrlib import (
 
82
    registry,
 
83
    )
 
84
from bzrlib.osutils import (
 
85
    format_date,
 
86
    format_date_with_offset_in_original_timezone,
 
87
    get_terminal_encoding,
 
88
    re_compile_checked,
 
89
    terminal_width,
 
90
    )
 
91
from bzrlib.symbol_versioning import (
 
92
    deprecated_function,
 
93
    deprecated_in,
 
94
    )
 
95
 
 
96
 
 
97
def find_touching_revisions(branch, file_id):
 
98
    """Yield a description of revisions which affect the file_id.
 
99
 
 
100
    Each returned element is (revno, revision_id, description)
 
101
 
 
102
    This is the list of revisions where the file is either added,
 
103
    modified, renamed or deleted.
 
104
 
 
105
    TODO: Perhaps some way to limit this to only particular revisions,
 
106
    or to traverse a non-mainline set of revisions?
 
107
    """
 
108
    last_ie = None
 
109
    last_path = None
 
110
    revno = 1
 
111
    for revision_id in branch.revision_history():
 
112
        this_inv = branch.repository.get_inventory(revision_id)
 
113
        if file_id in this_inv:
 
114
            this_ie = this_inv[file_id]
 
115
            this_path = this_inv.id2path(file_id)
 
116
        else:
 
117
            this_ie = this_path = None
 
118
 
 
119
        # now we know how it was last time, and how it is in this revision.
 
120
        # are those two states effectively the same or not?
 
121
 
 
122
        if not this_ie and not last_ie:
 
123
            # not present in either
 
124
            pass
 
125
        elif this_ie and not last_ie:
 
126
            yield revno, revision_id, "added " + this_path
 
127
        elif not this_ie and last_ie:
 
128
            # deleted here
 
129
            yield revno, revision_id, "deleted " + last_path
 
130
        elif this_path != last_path:
 
131
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
 
132
        elif (this_ie.text_size != last_ie.text_size
 
133
              or this_ie.text_sha1 != last_ie.text_sha1):
 
134
            yield revno, revision_id, "modified " + this_path
 
135
 
 
136
        last_ie = this_ie
 
137
        last_path = this_path
 
138
        revno += 1
 
139
 
 
140
 
 
141
def _enumerate_history(branch):
 
142
    rh = []
 
143
    revno = 1
 
144
    for rev_id in branch.revision_history():
 
145
        rh.append((revno, rev_id))
 
146
        revno += 1
 
147
    return rh
 
148
 
 
149
 
 
150
def show_log(branch,
 
151
             lf,
 
152
             specific_fileid=None,
 
153
             verbose=False,
 
154
             direction='reverse',
 
155
             start_revision=None,
 
156
             end_revision=None,
 
157
             search=None,
 
158
             limit=None,
 
159
             show_diff=False):
 
160
    """Write out human-readable log of commits to this branch.
 
161
 
 
162
    This function is being retained for backwards compatibility but
 
163
    should not be extended with new parameters. Use the new Logger class
 
164
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
165
    make_log_request_dict function.
 
166
 
 
167
    :param lf: The LogFormatter object showing the output.
 
168
 
 
169
    :param specific_fileid: If not None, list only the commits affecting the
 
170
        specified file, rather than all commits.
 
171
 
 
172
    :param verbose: If True show added/changed/deleted/renamed files.
 
173
 
 
174
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
175
        earliest to latest.
 
176
 
 
177
    :param start_revision: If not None, only show revisions >= start_revision
 
178
 
 
179
    :param end_revision: If not None, only show revisions <= end_revision
 
180
 
 
181
    :param search: If not None, only show revisions with matching commit
 
182
        messages
 
183
 
 
184
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
185
        if None or 0.
 
186
 
 
187
    :param show_diff: If True, output a diff after each revision.
 
188
    """
 
189
    # Convert old-style parameters to new-style parameters
 
190
    if specific_fileid is not None:
 
191
        file_ids = [specific_fileid]
 
192
    else:
 
193
        file_ids = None
 
194
    if verbose:
 
195
        if file_ids:
 
196
            delta_type = 'partial'
 
197
        else:
 
198
            delta_type = 'full'
 
199
    else:
 
200
        delta_type = None
 
201
    if show_diff:
 
202
        if file_ids:
 
203
            diff_type = 'partial'
 
204
        else:
 
205
            diff_type = 'full'
 
206
    else:
 
207
        diff_type = None
 
208
 
 
209
    # Build the request and execute it
 
210
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
211
        start_revision=start_revision, end_revision=end_revision,
 
212
        limit=limit, message_search=search,
 
213
        delta_type=delta_type, diff_type=diff_type)
 
214
    Logger(branch, rqst).show(lf)
 
215
 
 
216
 
 
217
# Note: This needs to be kept this in sync with the defaults in
 
218
# make_log_request_dict() below
 
219
_DEFAULT_REQUEST_PARAMS = {
 
220
    'direction': 'reverse',
 
221
    'levels': 1,
 
222
    'generate_tags': True,
 
223
    '_match_using_deltas': True,
 
224
    }
 
225
 
 
226
 
 
227
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
228
    start_revision=None, end_revision=None, limit=None,
 
229
    message_search=None, levels=1, generate_tags=True, delta_type=None,
 
230
    diff_type=None, _match_using_deltas=True):
 
231
    """Convenience function for making a logging request dictionary.
 
232
 
 
233
    Using this function may make code slightly safer by ensuring
 
234
    parameters have the correct names. It also provides a reference
 
235
    point for documenting the supported parameters.
 
236
 
 
237
    :param direction: 'reverse' (default) is latest to earliest;
 
238
      'forward' is earliest to latest.
 
239
 
 
240
    :param specific_fileids: If not None, only include revisions
 
241
      affecting the specified files, rather than all revisions.
 
242
 
 
243
    :param start_revision: If not None, only generate
 
244
      revisions >= start_revision
 
245
 
 
246
    :param end_revision: If not None, only generate
 
247
      revisions <= end_revision
 
248
 
 
249
    :param limit: If set, generate only 'limit' revisions, all revisions
 
250
      are shown if None or 0.
 
251
 
 
252
    :param message_search: If not None, only include revisions with
 
253
      matching commit messages
 
254
 
 
255
    :param levels: the number of levels of revisions to
 
256
      generate; 1 for just the mainline; 0 for all levels.
 
257
 
 
258
    :param generate_tags: If True, include tags for matched revisions.
 
259
 
 
260
    :param delta_type: Either 'full', 'partial' or None.
 
261
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
262
      'partial' means filter the delta using specific_fileids;
 
263
      None means do not generate any delta.
 
264
 
 
265
    :param diff_type: Either 'full', 'partial' or None.
 
266
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
267
      'partial' means filter the diff using specific_fileids;
 
268
      None means do not generate any diff.
 
269
 
 
270
    :param _match_using_deltas: a private parameter controlling the
 
271
      algorithm used for matching specific_fileids. This parameter
 
272
      may be removed in the future so bzrlib client code should NOT
 
273
      use it.
 
274
    """
 
275
    return {
 
276
        'direction': direction,
 
277
        'specific_fileids': specific_fileids,
 
278
        'start_revision': start_revision,
 
279
        'end_revision': end_revision,
 
280
        'limit': limit,
 
281
        'message_search': message_search,
 
282
        'levels': levels,
 
283
        'generate_tags': generate_tags,
 
284
        'delta_type': delta_type,
 
285
        'diff_type': diff_type,
 
286
        # Add 'private' attributes for features that may be deprecated
 
287
        '_match_using_deltas': _match_using_deltas,
 
288
    }
 
289
 
 
290
 
 
291
def _apply_log_request_defaults(rqst):
 
292
    """Apply default values to a request dictionary."""
 
293
    result = _DEFAULT_REQUEST_PARAMS
 
294
    if rqst:
 
295
        result.update(rqst)
 
296
    return result
 
297
 
 
298
 
 
299
class LogGenerator(object):
 
300
    """A generator of log revisions."""
 
301
 
 
302
    def iter_log_revisions(self):
 
303
        """Iterate over LogRevision objects.
 
304
 
 
305
        :return: An iterator yielding LogRevision objects.
 
306
        """
 
307
        raise NotImplementedError(self.iter_log_revisions)
 
308
 
 
309
 
 
310
class Logger(object):
 
311
    """An object that generates, formats and displays a log."""
 
312
 
 
313
    def __init__(self, branch, rqst):
 
314
        """Create a Logger.
 
315
 
 
316
        :param branch: the branch to log
 
317
        :param rqst: A dictionary specifying the query parameters.
 
318
          See make_log_request_dict() for supported values.
 
319
        """
 
320
        self.branch = branch
 
321
        self.rqst = _apply_log_request_defaults(rqst)
 
322
 
 
323
    def show(self, lf):
 
324
        """Display the log.
 
325
 
 
326
        :param lf: The LogFormatter object to send the output to.
 
327
        """
 
328
        if not isinstance(lf, LogFormatter):
 
329
            warn("not a LogFormatter instance: %r" % lf)
 
330
 
 
331
        self.branch.lock_read()
 
332
        try:
 
333
            if getattr(lf, 'begin_log', None):
 
334
                lf.begin_log()
 
335
            self._show_body(lf)
 
336
            if getattr(lf, 'end_log', None):
 
337
                lf.end_log()
 
338
        finally:
 
339
            self.branch.unlock()
 
340
 
 
341
    def _show_body(self, lf):
 
342
        """Show the main log output.
 
343
 
 
344
        Subclasses may wish to override this.
 
345
        """
 
346
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
347
        # (There's no point generating stuff if the formatter can't display it.)
 
348
        rqst = self.rqst
 
349
        rqst['levels'] = lf.get_levels()
 
350
        if not getattr(lf, 'supports_tags', False):
 
351
            rqst['generate_tags'] = False
 
352
        if not getattr(lf, 'supports_delta', False):
 
353
            rqst['delta_type'] = None
 
354
        if not getattr(lf, 'supports_diff', False):
 
355
            rqst['diff_type'] = None
 
356
 
 
357
        # Find and print the interesting revisions
 
358
        generator = self._generator_factory(self.branch, rqst)
 
359
        for lr in generator.iter_log_revisions():
 
360
            lf.log_revision(lr)
 
361
        lf.show_advice()
 
362
 
 
363
    def _generator_factory(self, branch, rqst):
 
364
        """Make the LogGenerator object to use.
 
365
        
 
366
        Subclasses may wish to override this.
 
367
        """
 
368
        return _DefaultLogGenerator(branch, rqst)
 
369
 
 
370
 
 
371
class _StartNotLinearAncestor(Exception):
 
372
    """Raised when a start revision is not found walking left-hand history."""
 
373
 
 
374
 
 
375
class _DefaultLogGenerator(LogGenerator):
 
376
    """The default generator of log revisions."""
 
377
 
 
378
    def __init__(self, branch, rqst):
 
379
        self.branch = branch
 
380
        self.rqst = rqst
 
381
        if rqst.get('generate_tags') and branch.supports_tags():
 
382
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
383
        else:
 
384
            self.rev_tag_dict = {}
 
385
 
 
386
    def iter_log_revisions(self):
 
387
        """Iterate over LogRevision objects.
 
388
 
 
389
        :return: An iterator yielding LogRevision objects.
 
390
        """
 
391
        rqst = self.rqst
 
392
        levels = rqst.get('levels')
 
393
        limit = rqst.get('limit')
 
394
        diff_type = rqst.get('diff_type')
 
395
        log_count = 0
 
396
        revision_iterator = self._create_log_revision_iterator()
 
397
        for revs in revision_iterator:
 
398
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
399
                # 0 levels means show everything; merge_depth counts from 0
 
400
                if levels != 0 and merge_depth >= levels:
 
401
                    continue
 
402
                if diff_type is None:
 
403
                    diff = None
 
404
                else:
 
405
                    diff = self._format_diff(rev, rev_id, diff_type)
 
406
                yield LogRevision(rev, revno, merge_depth, delta,
 
407
                    self.rev_tag_dict.get(rev_id), diff)
 
408
                if limit:
 
409
                    log_count += 1
 
410
                    if log_count >= limit:
 
411
                        return
 
412
 
 
413
    def _format_diff(self, rev, rev_id, diff_type):
 
414
        repo = self.branch.repository
 
415
        if len(rev.parent_ids) == 0:
 
416
            ancestor_id = _mod_revision.NULL_REVISION
 
417
        else:
 
418
            ancestor_id = rev.parent_ids[0]
 
419
        tree_1 = repo.revision_tree(ancestor_id)
 
420
        tree_2 = repo.revision_tree(rev_id)
 
421
        file_ids = self.rqst.get('specific_fileids')
 
422
        if diff_type == 'partial' and file_ids is not None:
 
423
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
424
        else:
 
425
            specific_files = None
 
426
        s = StringIO()
 
427
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
428
            new_label='')
 
429
        return s.getvalue()
 
430
 
 
431
    def _create_log_revision_iterator(self):
 
432
        """Create a revision iterator for log.
 
433
 
 
434
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
435
            delta).
 
436
        """
 
437
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
438
            self.branch, self.rqst.get('start_revision'),
 
439
            self.rqst.get('end_revision'))
 
440
        if self.rqst.get('_match_using_deltas'):
 
441
            return self._log_revision_iterator_using_delta_matching()
 
442
        else:
 
443
            # We're using the per-file-graph algorithm. This scales really
 
444
            # well but only makes sense if there is a single file and it's
 
445
            # not a directory
 
446
            file_count = len(self.rqst.get('specific_fileids'))
 
447
            if file_count != 1:
 
448
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
449
                    "when logging %d files" % file_count)
 
450
            return self._log_revision_iterator_using_per_file_graph()
 
451
 
 
452
    def _log_revision_iterator_using_delta_matching(self):
 
453
        # Get the base revisions, filtering by the revision range
 
454
        rqst = self.rqst
 
455
        generate_merge_revisions = rqst.get('levels') != 1
 
456
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
457
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
458
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
459
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
 
460
            delayed_graph_generation=delayed_graph_generation)
 
461
 
 
462
        # Apply the other filters
 
463
        return make_log_rev_iterator(self.branch, view_revisions,
 
464
            rqst.get('delta_type'), rqst.get('message_search'),
 
465
            file_ids=rqst.get('specific_fileids'),
 
466
            direction=rqst.get('direction'))
 
467
 
 
468
    def _log_revision_iterator_using_per_file_graph(self):
 
469
        # Get the base revisions, filtering by the revision range.
 
470
        # Note that we always generate the merge revisions because
 
471
        # filter_revisions_touching_file_id() requires them ...
 
472
        rqst = self.rqst
 
473
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
474
            self.end_rev_id, rqst.get('direction'), True)
 
475
        if not isinstance(view_revisions, list):
 
476
            view_revisions = list(view_revisions)
 
477
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
478
            rqst.get('specific_fileids')[0], view_revisions,
 
479
            include_merges=rqst.get('levels') != 1)
 
480
        return make_log_rev_iterator(self.branch, view_revisions,
 
481
            rqst.get('delta_type'), rqst.get('message_search'))
 
482
 
 
483
 
 
484
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
485
    generate_merge_revisions, delayed_graph_generation=False):
 
486
    """Calculate the revisions to view.
 
487
 
 
488
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
489
             a list of the same tuples.
 
490
    """
 
491
    br_revno, br_rev_id = branch.last_revision_info()
 
492
    if br_revno == 0:
 
493
        return []
 
494
 
 
495
    # If a single revision is requested, check we can handle it
 
496
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
 
497
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
 
498
    if generate_single_revision:
 
499
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
 
500
 
 
501
    # If we only want to see linear revisions, we can iterate ...
 
502
    if not generate_merge_revisions:
 
503
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
504
            direction)
 
505
    else:
 
506
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
507
            direction, delayed_graph_generation)
 
508
 
 
509
 
 
510
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
511
    if rev_id == br_rev_id:
 
512
        # It's the tip
 
513
        return [(br_rev_id, br_revno, 0)]
 
514
    else:
 
515
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
516
        revno_str = '.'.join(str(n) for n in revno)
 
517
        return [(rev_id, revno_str, 0)]
 
518
 
 
519
 
 
520
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
521
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
522
    # If a start limit was given and it's not obviously an
 
523
    # ancestor of the end limit, check it before outputting anything
 
524
    if direction == 'forward' or (start_rev_id
 
525
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
526
        try:
 
527
            result = list(result)
 
528
        except _StartNotLinearAncestor:
 
529
            raise errors.BzrCommandError('Start revision not found in'
 
530
                ' left-hand history of end revision.')
 
531
    if direction == 'forward':
 
532
        result = reversed(result)
 
533
    return result
 
534
 
 
535
 
 
536
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
537
                            delayed_graph_generation):
 
538
    # On large trees, generating the merge graph can take 30-60 seconds
 
539
    # so we delay doing it until a merge is detected, incrementally
 
540
    # returning initial (non-merge) revisions while we can.
 
541
 
 
542
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
543
    # couple of seconds only should be needed to load the whole graph and the
 
544
    # other graph operations needed are even faster than that -- vila 100201
 
545
    initial_revisions = []
 
546
    if delayed_graph_generation:
 
547
        try:
 
548
            for rev_id, revno, depth in  _linear_view_revisions(
 
549
                branch, start_rev_id, end_rev_id):
 
550
                if _has_merges(branch, rev_id):
 
551
                    # The end_rev_id can be nested down somewhere. We need an
 
552
                    # explicit ancestry check. There is an ambiguity here as we
 
553
                    # may not raise _StartNotLinearAncestor for a revision that
 
554
                    # is an ancestor but not a *linear* one. But since we have
 
555
                    # loaded the graph to do the check (or calculate a dotted
 
556
                    # revno), we may as well accept to show the log... 
 
557
                    # -- vila 100201
 
558
                    graph = branch.repository.get_graph()
 
559
                    if not graph.is_ancestor(start_rev_id, end_rev_id):
 
560
                        raise _StartNotLinearAncestor()
 
561
                    end_rev_id = rev_id
 
562
                    break
 
563
                else:
 
564
                    initial_revisions.append((rev_id, revno, depth))
 
565
            else:
 
566
                # No merged revisions found
 
567
                if direction == 'reverse':
 
568
                    return initial_revisions
 
569
                elif direction == 'forward':
 
570
                    return reversed(initial_revisions)
 
571
                else:
 
572
                    raise ValueError('invalid direction %r' % direction)
 
573
        except _StartNotLinearAncestor:
 
574
            # A merge was never detected so the lower revision limit can't
 
575
            # be nested down somewhere
 
576
            raise errors.BzrCommandError('Start revision not found in'
 
577
                ' history of end revision.')
 
578
 
 
579
    # A log including nested merges is required. If the direction is reverse,
 
580
    # we rebase the initial merge depths so that the development line is
 
581
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
582
    # make forward the exact opposite display, but showing the merge revisions
 
583
    # indented at the end seems slightly nicer in that case.
 
584
    view_revisions = chain(iter(initial_revisions),
 
585
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
586
        rebase_initial_depths=direction == 'reverse'))
 
587
    if direction == 'reverse':
 
588
        return view_revisions
 
589
    elif direction == 'forward':
 
590
        # Forward means oldest first, adjusting for depth.
 
591
        view_revisions = reverse_by_depth(list(view_revisions))
 
592
        return _rebase_merge_depth(view_revisions)
 
593
    else:
 
594
        raise ValueError('invalid direction %r' % direction)
 
595
 
 
596
 
 
597
def _has_merges(branch, rev_id):
 
598
    """Does a revision have multiple parents or not?"""
 
599
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
600
    return len(parents) > 1
 
601
 
 
602
 
 
603
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
604
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
605
    if start_rev_id and end_rev_id:
 
606
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
607
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
608
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
609
            # both on mainline
 
610
            return start_dotted[0] <= end_dotted[0]
 
611
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
612
            start_dotted[0:1] == end_dotted[0:1]):
 
613
            # both on same development line
 
614
            return start_dotted[2] <= end_dotted[2]
 
615
        else:
 
616
            # not obvious
 
617
            return False
 
618
    # if either start or end is not specified then we use either the first or
 
619
    # the last revision and *they* are obvious ancestors.
 
620
    return True
 
621
 
 
622
 
 
623
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
624
    """Calculate a sequence of revisions to view, newest to oldest.
 
625
 
 
626
    :param start_rev_id: the lower revision-id
 
627
    :param end_rev_id: the upper revision-id
 
628
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
629
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
630
      is not found walking the left-hand history
 
631
    """
 
632
    br_revno, br_rev_id = branch.last_revision_info()
 
633
    repo = branch.repository
 
634
    if start_rev_id is None and end_rev_id is None:
 
635
        cur_revno = br_revno
 
636
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
637
            yield revision_id, str(cur_revno), 0
 
638
            cur_revno -= 1
 
639
    else:
 
640
        if end_rev_id is None:
 
641
            end_rev_id = br_rev_id
 
642
        found_start = start_rev_id is None
 
643
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
644
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
645
            revno_str = '.'.join(str(n) for n in revno)
 
646
            if not found_start and revision_id == start_rev_id:
 
647
                yield revision_id, revno_str, 0
 
648
                found_start = True
 
649
                break
 
650
            else:
 
651
                yield revision_id, revno_str, 0
 
652
        else:
 
653
            if not found_start:
 
654
                raise _StartNotLinearAncestor()
 
655
 
 
656
 
 
657
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
658
    rebase_initial_depths=True):
 
659
    """Calculate revisions to view including merges, newest to oldest.
 
660
 
 
661
    :param branch: the branch
 
662
    :param start_rev_id: the lower revision-id
 
663
    :param end_rev_id: the upper revision-id
 
664
    :param rebase_initial_depth: should depths be rebased until a mainline
 
665
      revision is found?
 
666
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
667
    """
 
668
    view_revisions = branch.iter_merge_sorted_revisions(
 
669
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
670
        stop_rule="with-merges")
 
671
    if not rebase_initial_depths:
 
672
        for (rev_id, merge_depth, revno, end_of_merge
 
673
             ) in view_revisions:
 
674
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
675
    else:
 
676
        # We're following a development line starting at a merged revision.
 
677
        # We need to adjust depths down by the initial depth until we find
 
678
        # a depth less than it. Then we use that depth as the adjustment.
 
679
        # If and when we reach the mainline, depth adjustment ends.
 
680
        depth_adjustment = None
 
681
        for (rev_id, merge_depth, revno, end_of_merge
 
682
             ) in view_revisions:
 
683
            if depth_adjustment is None:
 
684
                depth_adjustment = merge_depth
 
685
            if depth_adjustment:
 
686
                if merge_depth < depth_adjustment:
 
687
                    # From now on we reduce the depth adjustement, this can be
 
688
                    # surprising for users. The alternative requires two passes
 
689
                    # which breaks the fast display of the first revision
 
690
                    # though.
 
691
                    depth_adjustment = merge_depth
 
692
                merge_depth -= depth_adjustment
 
693
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
694
 
 
695
 
 
696
@deprecated_function(deprecated_in((2, 2, 0)))
 
697
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
698
        specific_fileid, generate_merge_revisions):
 
699
    """Calculate the revisions to view.
 
700
 
 
701
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
702
             a list of the same tuples.
 
703
    """
 
704
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
705
        end_revision)
 
706
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
707
        direction, generate_merge_revisions or specific_fileid))
 
708
    if specific_fileid:
 
709
        view_revisions = _filter_revisions_touching_file_id(branch,
 
710
            specific_fileid, view_revisions,
 
711
            include_merges=generate_merge_revisions)
 
712
    return _rebase_merge_depth(view_revisions)
 
713
 
 
714
 
 
715
def _rebase_merge_depth(view_revisions):
 
716
    """Adjust depths upwards so the top level is 0."""
 
717
    # If either the first or last revision have a merge_depth of 0, we're done
 
718
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
 
719
        min_depth = min([d for r,n,d in view_revisions])
 
720
        if min_depth != 0:
 
721
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
 
722
    return view_revisions
 
723
 
 
724
 
 
725
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
726
        file_ids=None, direction='reverse'):
 
727
    """Create a revision iterator for log.
 
728
 
 
729
    :param branch: The branch being logged.
 
730
    :param view_revisions: The revisions being viewed.
 
731
    :param generate_delta: Whether to generate a delta for each revision.
 
732
      Permitted values are None, 'full' and 'partial'.
 
733
    :param search: A user text search string.
 
734
    :param file_ids: If non empty, only revisions matching one or more of
 
735
      the file-ids are to be kept.
 
736
    :param direction: the direction in which view_revisions is sorted
 
737
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
738
        delta).
 
739
    """
 
740
    # Convert view_revisions into (view, None, None) groups to fit with
 
741
    # the standard interface here.
 
742
    if type(view_revisions) == list:
 
743
        # A single batch conversion is faster than many incremental ones.
 
744
        # As we have all the data, do a batch conversion.
 
745
        nones = [None] * len(view_revisions)
 
746
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
747
    else:
 
748
        def _convert():
 
749
            for view in view_revisions:
 
750
                yield (view, None, None)
 
751
        log_rev_iterator = iter([_convert()])
 
752
    for adapter in log_adapters:
 
753
        # It would be nicer if log adapters were first class objects
 
754
        # with custom parameters. This will do for now. IGC 20090127
 
755
        if adapter == _make_delta_filter:
 
756
            log_rev_iterator = adapter(branch, generate_delta,
 
757
                search, log_rev_iterator, file_ids, direction)
 
758
        else:
 
759
            log_rev_iterator = adapter(branch, generate_delta,
 
760
                search, log_rev_iterator)
 
761
    return log_rev_iterator
 
762
 
 
763
 
 
764
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
765
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
766
 
 
767
    :param branch: The branch being logged.
 
768
    :param generate_delta: Whether to generate a delta for each revision.
 
769
    :param search: A user text search string.
 
770
    :param log_rev_iterator: An input iterator containing all revisions that
 
771
        could be displayed, in lists.
 
772
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
773
        delta).
 
774
    """
 
775
    if search is None:
 
776
        return log_rev_iterator
 
777
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
778
            'log message filter')
 
779
    return _filter_message_re(searchRE, log_rev_iterator)
 
780
 
 
781
 
 
782
def _filter_message_re(searchRE, log_rev_iterator):
 
783
    for revs in log_rev_iterator:
 
784
        new_revs = []
 
785
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
786
            if searchRE.search(rev.message):
 
787
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
788
        yield new_revs
 
789
 
 
790
 
 
791
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
792
    fileids=None, direction='reverse'):
 
793
    """Add revision deltas to a log iterator if needed.
 
794
 
 
795
    :param branch: The branch being logged.
 
796
    :param generate_delta: Whether to generate a delta for each revision.
 
797
      Permitted values are None, 'full' and 'partial'.
 
798
    :param search: A user text search string.
 
799
    :param log_rev_iterator: An input iterator containing all revisions that
 
800
        could be displayed, in lists.
 
801
    :param fileids: If non empty, only revisions matching one or more of
 
802
      the file-ids are to be kept.
 
803
    :param direction: the direction in which view_revisions is sorted
 
804
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
805
        delta).
 
806
    """
 
807
    if not generate_delta and not fileids:
 
808
        return log_rev_iterator
 
809
    return _generate_deltas(branch.repository, log_rev_iterator,
 
810
        generate_delta, fileids, direction)
 
811
 
 
812
 
 
813
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
814
    direction):
 
815
    """Create deltas for each batch of revisions in log_rev_iterator.
 
816
 
 
817
    If we're only generating deltas for the sake of filtering against
 
818
    file-ids, we stop generating deltas once all file-ids reach the
 
819
    appropriate life-cycle point. If we're receiving data newest to
 
820
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
821
    """
 
822
    check_fileids = fileids is not None and len(fileids) > 0
 
823
    if check_fileids:
 
824
        fileid_set = set(fileids)
 
825
        if direction == 'reverse':
 
826
            stop_on = 'add'
 
827
        else:
 
828
            stop_on = 'remove'
 
829
    else:
 
830
        fileid_set = None
 
831
    for revs in log_rev_iterator:
 
832
        # If we were matching against fileids and we've run out,
 
833
        # there's nothing left to do
 
834
        if check_fileids and not fileid_set:
 
835
            return
 
836
        revisions = [rev[1] for rev in revs]
 
837
        new_revs = []
 
838
        if delta_type == 'full' and not check_fileids:
 
839
            deltas = repository.get_deltas_for_revisions(revisions)
 
840
            for rev, delta in izip(revs, deltas):
 
841
                new_revs.append((rev[0], rev[1], delta))
 
842
        else:
 
843
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
844
            for rev, delta in izip(revs, deltas):
 
845
                if check_fileids:
 
846
                    if delta is None or not delta.has_changed():
 
847
                        continue
 
848
                    else:
 
849
                        _update_fileids(delta, fileid_set, stop_on)
 
850
                        if delta_type is None:
 
851
                            delta = None
 
852
                        elif delta_type == 'full':
 
853
                            # If the file matches all the time, rebuilding
 
854
                            # a full delta like this in addition to a partial
 
855
                            # one could be slow. However, it's likely that
 
856
                            # most revisions won't get this far, making it
 
857
                            # faster to filter on the partial deltas and
 
858
                            # build the occasional full delta than always
 
859
                            # building full deltas and filtering those.
 
860
                            rev_id = rev[0][0]
 
861
                            delta = repository.get_revision_delta(rev_id)
 
862
                new_revs.append((rev[0], rev[1], delta))
 
863
        yield new_revs
 
864
 
 
865
 
 
866
def _update_fileids(delta, fileids, stop_on):
 
867
    """Update the set of file-ids to search based on file lifecycle events.
 
868
    
 
869
    :param fileids: a set of fileids to update
 
870
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
871
      fileids set once their add or remove entry is detected respectively
 
872
    """
 
873
    if stop_on == 'add':
 
874
        for item in delta.added:
 
875
            if item[1] in fileids:
 
876
                fileids.remove(item[1])
 
877
    elif stop_on == 'delete':
 
878
        for item in delta.removed:
 
879
            if item[1] in fileids:
 
880
                fileids.remove(item[1])
 
881
 
 
882
 
 
883
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
884
    """Extract revision objects from the repository
 
885
 
 
886
    :param branch: The branch being logged.
 
887
    :param generate_delta: Whether to generate a delta for each revision.
 
888
    :param search: A user text search string.
 
889
    :param log_rev_iterator: An input iterator containing all revisions that
 
890
        could be displayed, in lists.
 
891
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
892
        delta).
 
893
    """
 
894
    repository = branch.repository
 
895
    for revs in log_rev_iterator:
 
896
        # r = revision_id, n = revno, d = merge depth
 
897
        revision_ids = [view[0] for view, _, _ in revs]
 
898
        revisions = repository.get_revisions(revision_ids)
 
899
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
900
            izip(revs, revisions)]
 
901
        yield revs
 
902
 
 
903
 
 
904
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
905
    """Group up a single large batch into smaller ones.
 
906
 
 
907
    :param branch: The branch being logged.
 
908
    :param generate_delta: Whether to generate a delta for each revision.
 
909
    :param search: A user text search string.
 
910
    :param log_rev_iterator: An input iterator containing all revisions that
 
911
        could be displayed, in lists.
 
912
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
913
        delta).
 
914
    """
 
915
    repository = branch.repository
 
916
    num = 9
 
917
    for batch in log_rev_iterator:
 
918
        batch = iter(batch)
 
919
        while True:
 
920
            step = [detail for _, detail in zip(range(num), batch)]
 
921
            if len(step) == 0:
 
922
                break
 
923
            yield step
 
924
            num = min(int(num * 1.5), 200)
 
925
 
 
926
 
 
927
def _get_revision_limits(branch, start_revision, end_revision):
 
928
    """Get and check revision limits.
 
929
 
 
930
    :param  branch: The branch containing the revisions.
 
931
 
 
932
    :param  start_revision: The first revision to be logged.
 
933
            For backwards compatibility this may be a mainline integer revno,
 
934
            but for merge revision support a RevisionInfo is expected.
 
935
 
 
936
    :param  end_revision: The last revision to be logged.
 
937
            For backwards compatibility this may be a mainline integer revno,
 
938
            but for merge revision support a RevisionInfo is expected.
 
939
 
 
940
    :return: (start_rev_id, end_rev_id) tuple.
 
941
    """
 
942
    branch_revno, branch_rev_id = branch.last_revision_info()
 
943
    start_rev_id = None
 
944
    if start_revision is None:
 
945
        start_revno = 1
 
946
    else:
 
947
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
948
            start_rev_id = start_revision.rev_id
 
949
            start_revno = start_revision.revno or 1
 
950
        else:
 
951
            branch.check_real_revno(start_revision)
 
952
            start_revno = start_revision
 
953
            start_rev_id = branch.get_rev_id(start_revno)
 
954
 
 
955
    end_rev_id = None
 
956
    if end_revision is None:
 
957
        end_revno = branch_revno
 
958
    else:
 
959
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
960
            end_rev_id = end_revision.rev_id
 
961
            end_revno = end_revision.revno or branch_revno
 
962
        else:
 
963
            branch.check_real_revno(end_revision)
 
964
            end_revno = end_revision
 
965
            end_rev_id = branch.get_rev_id(end_revno)
 
966
 
 
967
    if branch_revno != 0:
 
968
        if (start_rev_id == _mod_revision.NULL_REVISION
 
969
            or end_rev_id == _mod_revision.NULL_REVISION):
 
970
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
971
        if start_revno > end_revno:
 
972
            raise errors.BzrCommandError("Start revision must be older than "
 
973
                                         "the end revision.")
 
974
    return (start_rev_id, end_rev_id)
 
975
 
 
976
 
 
977
def _get_mainline_revs(branch, start_revision, end_revision):
 
978
    """Get the mainline revisions from the branch.
 
979
 
 
980
    Generates the list of mainline revisions for the branch.
 
981
 
 
982
    :param  branch: The branch containing the revisions.
 
983
 
 
984
    :param  start_revision: The first revision to be logged.
 
985
            For backwards compatibility this may be a mainline integer revno,
 
986
            but for merge revision support a RevisionInfo is expected.
 
987
 
 
988
    :param  end_revision: The last revision to be logged.
 
989
            For backwards compatibility this may be a mainline integer revno,
 
990
            but for merge revision support a RevisionInfo is expected.
 
991
 
 
992
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
 
993
    """
 
994
    branch_revno, branch_last_revision = branch.last_revision_info()
 
995
    if branch_revno == 0:
 
996
        return None, None, None, None
 
997
 
 
998
    # For mainline generation, map start_revision and end_revision to
 
999
    # mainline revnos. If the revision is not on the mainline choose the
 
1000
    # appropriate extreme of the mainline instead - the extra will be
 
1001
    # filtered later.
 
1002
    # Also map the revisions to rev_ids, to be used in the later filtering
 
1003
    # stage.
 
1004
    start_rev_id = None
 
1005
    if start_revision is None:
 
1006
        start_revno = 1
 
1007
    else:
 
1008
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
1009
            start_rev_id = start_revision.rev_id
 
1010
            start_revno = start_revision.revno or 1
 
1011
        else:
 
1012
            branch.check_real_revno(start_revision)
 
1013
            start_revno = start_revision
 
1014
 
 
1015
    end_rev_id = None
 
1016
    if end_revision is None:
 
1017
        end_revno = branch_revno
 
1018
    else:
 
1019
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
1020
            end_rev_id = end_revision.rev_id
 
1021
            end_revno = end_revision.revno or branch_revno
 
1022
        else:
 
1023
            branch.check_real_revno(end_revision)
 
1024
            end_revno = end_revision
 
1025
 
 
1026
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1027
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1028
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
1029
    if start_revno > end_revno:
 
1030
        raise errors.BzrCommandError("Start revision must be older than "
 
1031
                                     "the end revision.")
 
1032
 
 
1033
    if end_revno < start_revno:
 
1034
        return None, None, None, None
 
1035
    cur_revno = branch_revno
 
1036
    rev_nos = {}
 
1037
    mainline_revs = []
 
1038
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1039
                        branch_last_revision):
 
1040
        if cur_revno < start_revno:
 
1041
            # We have gone far enough, but we always add 1 more revision
 
1042
            rev_nos[revision_id] = cur_revno
 
1043
            mainline_revs.append(revision_id)
 
1044
            break
 
1045
        if cur_revno <= end_revno:
 
1046
            rev_nos[revision_id] = cur_revno
 
1047
            mainline_revs.append(revision_id)
 
1048
        cur_revno -= 1
 
1049
    else:
 
1050
        # We walked off the edge of all revisions, so we add a 'None' marker
 
1051
        mainline_revs.append(None)
 
1052
 
 
1053
    mainline_revs.reverse()
 
1054
 
 
1055
    # override the mainline to look like the revision history.
 
1056
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
 
1057
 
 
1058
 
 
1059
@deprecated_function(deprecated_in((2, 2, 0)))
 
1060
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
 
1061
    """Filter view_revisions based on revision ranges.
 
1062
 
 
1063
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1064
            tuples to be filtered.
 
1065
 
 
1066
    :param start_rev_id: If not NONE specifies the first revision to be logged.
 
1067
            If NONE then all revisions up to the end_rev_id are logged.
 
1068
 
 
1069
    :param end_rev_id: If not NONE specifies the last revision to be logged.
 
1070
            If NONE then all revisions up to the end of the log are logged.
 
1071
 
 
1072
    :return: The filtered view_revisions.
 
1073
    """
 
1074
    if start_rev_id or end_rev_id:
 
1075
        revision_ids = [r for r, n, d in view_revisions]
 
1076
        if start_rev_id:
 
1077
            start_index = revision_ids.index(start_rev_id)
 
1078
        else:
 
1079
            start_index = 0
 
1080
        if start_rev_id == end_rev_id:
 
1081
            end_index = start_index
 
1082
        else:
 
1083
            if end_rev_id:
 
1084
                end_index = revision_ids.index(end_rev_id)
 
1085
            else:
 
1086
                end_index = len(view_revisions) - 1
 
1087
        # To include the revisions merged into the last revision,
 
1088
        # extend end_rev_id down to, but not including, the next rev
 
1089
        # with the same or lesser merge_depth
 
1090
        end_merge_depth = view_revisions[end_index][2]
 
1091
        try:
 
1092
            for index in xrange(end_index+1, len(view_revisions)+1):
 
1093
                if view_revisions[index][2] <= end_merge_depth:
 
1094
                    end_index = index - 1
 
1095
                    break
 
1096
        except IndexError:
 
1097
            # if the search falls off the end then log to the end as well
 
1098
            end_index = len(view_revisions) - 1
 
1099
        view_revisions = view_revisions[start_index:end_index+1]
 
1100
    return view_revisions
 
1101
 
 
1102
 
 
1103
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1104
    include_merges=True):
 
1105
    r"""Return the list of revision ids which touch a given file id.
 
1106
 
 
1107
    The function filters view_revisions and returns a subset.
 
1108
    This includes the revisions which directly change the file id,
 
1109
    and the revisions which merge these changes. So if the
 
1110
    revision graph is::
 
1111
        A-.
 
1112
        |\ \
 
1113
        B C E
 
1114
        |/ /
 
1115
        D |
 
1116
        |\|
 
1117
        | F
 
1118
        |/
 
1119
        G
 
1120
 
 
1121
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1122
    returned even though it brings the changes to C into the branch starting
 
1123
    with E. (Note that if we were using F as the tip instead of G, then we
 
1124
    would see C, D, F.)
 
1125
 
 
1126
    This will also be restricted based on a subset of the mainline.
 
1127
 
 
1128
    :param branch: The branch where we can get text revision information.
 
1129
 
 
1130
    :param file_id: Filter out revisions that do not touch file_id.
 
1131
 
 
1132
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1133
        tuples. This is the list of revisions which will be filtered. It is
 
1134
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1135
        revision first ).
 
1136
 
 
1137
    :param include_merges: include merge revisions in the result or not
 
1138
 
 
1139
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
 
1140
    """
 
1141
    # Lookup all possible text keys to determine which ones actually modified
 
1142
    # the file.
 
1143
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1144
    next_keys = None
 
1145
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1146
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1147
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1148
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1149
    #       indexing layer. We might consider passing in hints as to the known
 
1150
    #       access pattern (sparse/clustered, high success rate/low success
 
1151
    #       rate). This particular access is clustered with a low success rate.
 
1152
    get_parent_map = branch.repository.texts.get_parent_map
 
1153
    modified_text_revisions = set()
 
1154
    chunk_size = 1000
 
1155
    for start in xrange(0, len(text_keys), chunk_size):
 
1156
        next_keys = text_keys[start:start + chunk_size]
 
1157
        # Only keep the revision_id portion of the key
 
1158
        modified_text_revisions.update(
 
1159
            [k[1] for k in get_parent_map(next_keys)])
 
1160
    del text_keys, next_keys
 
1161
 
 
1162
    result = []
 
1163
    # Track what revisions will merge the current revision, replace entries
 
1164
    # with 'None' when they have been added to result
 
1165
    current_merge_stack = [None]
 
1166
    for info in view_revisions:
 
1167
        rev_id, revno, depth = info
 
1168
        if depth == len(current_merge_stack):
 
1169
            current_merge_stack.append(info)
 
1170
        else:
 
1171
            del current_merge_stack[depth + 1:]
 
1172
            current_merge_stack[-1] = info
 
1173
 
 
1174
        if rev_id in modified_text_revisions:
 
1175
            # This needs to be logged, along with the extra revisions
 
1176
            for idx in xrange(len(current_merge_stack)):
 
1177
                node = current_merge_stack[idx]
 
1178
                if node is not None:
 
1179
                    if include_merges or node[2] == 0:
 
1180
                        result.append(node)
 
1181
                        current_merge_stack[idx] = None
 
1182
    return result
 
1183
 
 
1184
 
 
1185
@deprecated_function(deprecated_in((2, 2, 0)))
 
1186
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
 
1187
                       include_merges=True):
 
1188
    """Produce an iterator of revisions to show
 
1189
    :return: an iterator of (revision_id, revno, merge_depth)
 
1190
    (if there is no revno for a revision, None is supplied)
 
1191
    """
 
1192
    if not include_merges:
 
1193
        revision_ids = mainline_revs[1:]
 
1194
        if direction == 'reverse':
 
1195
            revision_ids.reverse()
 
1196
        for revision_id in revision_ids:
 
1197
            yield revision_id, str(rev_nos[revision_id]), 0
 
1198
        return
 
1199
    graph = branch.repository.get_graph()
 
1200
    # This asks for all mainline revisions, which means we only have to spider
 
1201
    # sideways, rather than depth history. That said, its still size-of-history
 
1202
    # and should be addressed.
 
1203
    # mainline_revisions always includes an extra revision at the beginning, so
 
1204
    # don't request it.
 
1205
    parent_map = dict(((key, value) for key, value in
 
1206
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1207
    # filter out ghosts; merge_sort errors on ghosts.
 
1208
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1209
    merge_sorted_revisions = tsort.merge_sort(
 
1210
        rev_graph,
 
1211
        mainline_revs[-1],
 
1212
        mainline_revs,
 
1213
        generate_revno=True)
 
1214
 
 
1215
    if direction == 'forward':
 
1216
        # forward means oldest first.
 
1217
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
 
1218
    elif direction != 'reverse':
 
1219
        raise ValueError('invalid direction %r' % direction)
 
1220
 
 
1221
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1222
         ) in merge_sorted_revisions:
 
1223
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
1224
 
 
1225
 
 
1226
def reverse_by_depth(merge_sorted_revisions, _depth=0):
 
1227
    """Reverse revisions by depth.
 
1228
 
 
1229
    Revisions with a different depth are sorted as a group with the previous
 
1230
    revision of that depth.  There may be no topological justification for this,
 
1231
    but it looks much nicer.
 
1232
    """
 
1233
    # Add a fake revision at start so that we can always attach sub revisions
 
1234
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
 
1235
    zd_revisions = []
 
1236
    for val in merge_sorted_revisions:
 
1237
        if val[2] == _depth:
 
1238
            # Each revision at the current depth becomes a chunk grouping all
 
1239
            # higher depth revisions.
 
1240
            zd_revisions.append([val])
 
1241
        else:
 
1242
            zd_revisions[-1].append(val)
 
1243
    for revisions in zd_revisions:
 
1244
        if len(revisions) > 1:
 
1245
            # We have higher depth revisions, let reverse them locally
 
1246
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
 
1247
    zd_revisions.reverse()
 
1248
    result = []
 
1249
    for chunk in zd_revisions:
 
1250
        result.extend(chunk)
 
1251
    if _depth == 0:
 
1252
        # Top level call, get rid of the fake revisions that have been added
 
1253
        result = [r for r in result if r[0] is not None and r[1] is not None]
 
1254
    return result
 
1255
 
 
1256
 
 
1257
class LogRevision(object):
 
1258
    """A revision to be logged (by LogFormatter.log_revision).
 
1259
 
 
1260
    A simple wrapper for the attributes of a revision to be logged.
 
1261
    The attributes may or may not be populated, as determined by the
 
1262
    logging options and the log formatter capabilities.
 
1263
    """
 
1264
 
 
1265
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
 
1266
                 tags=None, diff=None):
 
1267
        self.rev = rev
 
1268
        self.revno = str(revno)
 
1269
        self.merge_depth = merge_depth
 
1270
        self.delta = delta
 
1271
        self.tags = tags
 
1272
        self.diff = diff
 
1273
 
 
1274
 
 
1275
class LogFormatter(object):
 
1276
    """Abstract class to display log messages.
 
1277
 
 
1278
    At a minimum, a derived class must implement the log_revision method.
 
1279
 
 
1280
    If the LogFormatter needs to be informed of the beginning or end of
 
1281
    a log it should implement the begin_log and/or end_log hook methods.
 
1282
 
 
1283
    A LogFormatter should define the following supports_XXX flags
 
1284
    to indicate which LogRevision attributes it supports:
 
1285
 
 
1286
    - supports_delta must be True if this log formatter supports delta.
 
1287
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1288
        attribute describes whether the 'short_status' format (1) or the long
 
1289
        one (2) should be used.
 
1290
 
 
1291
    - supports_merge_revisions must be True if this log formatter supports
 
1292
        merge revisions.  If not, then only mainline revisions will be passed
 
1293
        to the formatter.
 
1294
 
 
1295
    - preferred_levels is the number of levels this formatter defaults to.
 
1296
        The default value is zero meaning display all levels.
 
1297
        This value is only relevant if supports_merge_revisions is True.
 
1298
 
 
1299
    - supports_tags must be True if this log formatter supports tags.
 
1300
        Otherwise the tags attribute may not be populated.
 
1301
 
 
1302
    - supports_diff must be True if this log formatter supports diffs.
 
1303
        Otherwise the diff attribute may not be populated.
 
1304
 
 
1305
    Plugins can register functions to show custom revision properties using
 
1306
    the properties_handler_registry. The registered function
 
1307
    must respect the following interface description:
 
1308
        def my_show_properties(properties_dict):
 
1309
            # code that returns a dict {'name':'value'} of the properties
 
1310
            # to be shown
 
1311
    """
 
1312
    preferred_levels = 0
 
1313
 
 
1314
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1315
                 delta_format=None, levels=None, show_advice=False,
 
1316
                 to_exact_file=None):
 
1317
        """Create a LogFormatter.
 
1318
 
 
1319
        :param to_file: the file to output to
 
1320
        :param to_exact_file: if set, gives an output stream to which 
 
1321
             non-Unicode diffs are written.
 
1322
        :param show_ids: if True, revision-ids are to be displayed
 
1323
        :param show_timezone: the timezone to use
 
1324
        :param delta_format: the level of delta information to display
 
1325
          or None to leave it to the formatter to decide
 
1326
        :param levels: the number of levels to display; None or -1 to
 
1327
          let the log formatter decide.
 
1328
        :param show_advice: whether to show advice at the end of the
 
1329
          log or not
 
1330
        """
 
1331
        self.to_file = to_file
 
1332
        # 'exact' stream used to show diff, it should print content 'as is'
 
1333
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1334
        if to_exact_file is not None:
 
1335
            self.to_exact_file = to_exact_file
 
1336
        else:
 
1337
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1338
            # for code that expects to get diffs to pass in the exact file
 
1339
            # stream
 
1340
            self.to_exact_file = getattr(to_file, 'stream', to_file)
 
1341
        self.show_ids = show_ids
 
1342
        self.show_timezone = show_timezone
 
1343
        if delta_format is None:
 
1344
            # Ensures backward compatibility
 
1345
            delta_format = 2 # long format
 
1346
        self.delta_format = delta_format
 
1347
        self.levels = levels
 
1348
        self._show_advice = show_advice
 
1349
        self._merge_count = 0
 
1350
 
 
1351
    def get_levels(self):
 
1352
        """Get the number of levels to display or 0 for all."""
 
1353
        if getattr(self, 'supports_merge_revisions', False):
 
1354
            if self.levels is None or self.levels == -1:
 
1355
                self.levels = self.preferred_levels
 
1356
        else:
 
1357
            self.levels = 1
 
1358
        return self.levels
 
1359
 
 
1360
    def log_revision(self, revision):
 
1361
        """Log a revision.
 
1362
 
 
1363
        :param  revision:   The LogRevision to be logged.
 
1364
        """
 
1365
        raise NotImplementedError('not implemented in abstract base')
 
1366
 
 
1367
    def show_advice(self):
 
1368
        """Output user advice, if any, when the log is completed."""
 
1369
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1370
            advice_sep = self.get_advice_separator()
 
1371
            if advice_sep:
 
1372
                self.to_file.write(advice_sep)
 
1373
            self.to_file.write(
 
1374
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1375
 
 
1376
    def get_advice_separator(self):
 
1377
        """Get the text separating the log from the closing advice."""
 
1378
        return ''
 
1379
 
 
1380
    def short_committer(self, rev):
 
1381
        name, address = config.parse_username(rev.committer)
 
1382
        if name:
 
1383
            return name
 
1384
        return address
 
1385
 
 
1386
    def short_author(self, rev):
 
1387
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1388
        if name:
 
1389
            return name
 
1390
        return address
 
1391
 
 
1392
    def merge_marker(self, revision):
 
1393
        """Get the merge marker to include in the output or '' if none."""
 
1394
        if len(revision.rev.parent_ids) > 1:
 
1395
            self._merge_count += 1
 
1396
            return ' [merge]'
 
1397
        else:
 
1398
            return ''
 
1399
 
 
1400
    def show_properties(self, revision, indent):
 
1401
        """Displays the custom properties returned by each registered handler.
 
1402
 
 
1403
        If a registered handler raises an error it is propagated.
 
1404
        """
 
1405
        for line in self.custom_properties(revision):
 
1406
            self.to_file.write("%s%s\n" % (indent, line))
 
1407
 
 
1408
    def custom_properties(self, revision):
 
1409
        """Format the custom properties returned by each registered handler.
 
1410
 
 
1411
        If a registered handler raises an error it is propagated.
 
1412
 
 
1413
        :return: a list of formatted lines (excluding trailing newlines)
 
1414
        """
 
1415
        lines = self._foreign_info_properties(revision)
 
1416
        for key, handler in properties_handler_registry.iteritems():
 
1417
            lines.extend(self._format_properties(handler(revision)))
 
1418
        return lines
 
1419
 
 
1420
    def _foreign_info_properties(self, rev):
 
1421
        """Custom log displayer for foreign revision identifiers.
 
1422
 
 
1423
        :param rev: Revision object.
 
1424
        """
 
1425
        # Revision comes directly from a foreign repository
 
1426
        if isinstance(rev, foreign.ForeignRevision):
 
1427
            return self._format_properties(rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1428
 
 
1429
        # Imported foreign revision revision ids always contain :
 
1430
        if not ":" in rev.revision_id:
 
1431
            return []
 
1432
 
 
1433
        # Revision was once imported from a foreign repository
 
1434
        try:
 
1435
            foreign_revid, mapping = \
 
1436
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1437
        except errors.InvalidRevisionId:
 
1438
            return []
 
1439
 
 
1440
        return self._format_properties(
 
1441
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1442
 
 
1443
    def _format_properties(self, properties):
 
1444
        lines = []
 
1445
        for key, value in properties.items():
 
1446
            lines.append(key + ': ' + value)
 
1447
        return lines
 
1448
 
 
1449
    def show_diff(self, to_file, diff, indent):
 
1450
        for l in diff.rstrip().split('\n'):
 
1451
            to_file.write(indent + '%s\n' % (l,))
 
1452
 
 
1453
 
 
1454
# Separator between revisions in long format
 
1455
_LONG_SEP = '-' * 60
 
1456
 
 
1457
 
 
1458
class LongLogFormatter(LogFormatter):
 
1459
 
 
1460
    supports_merge_revisions = True
 
1461
    preferred_levels = 1
 
1462
    supports_delta = True
 
1463
    supports_tags = True
 
1464
    supports_diff = True
 
1465
 
 
1466
    def __init__(self, *args, **kwargs):
 
1467
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1468
        if self.show_timezone == 'original':
 
1469
            self.date_string = self._date_string_original_timezone
 
1470
        else:
 
1471
            self.date_string = self._date_string_with_timezone
 
1472
 
 
1473
    def _date_string_with_timezone(self, rev):
 
1474
        return format_date(rev.timestamp, rev.timezone or 0,
 
1475
                           self.show_timezone)
 
1476
 
 
1477
    def _date_string_original_timezone(self, rev):
 
1478
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1479
            rev.timezone or 0)
 
1480
 
 
1481
    def log_revision(self, revision):
 
1482
        """Log a revision, either merged or not."""
 
1483
        indent = '    ' * revision.merge_depth
 
1484
        lines = [_LONG_SEP]
 
1485
        if revision.revno is not None:
 
1486
            lines.append('revno: %s%s' % (revision.revno,
 
1487
                self.merge_marker(revision)))
 
1488
        if revision.tags:
 
1489
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1490
        if self.show_ids:
 
1491
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
1492
            for parent_id in revision.rev.parent_ids:
 
1493
                lines.append('parent: %s' % (parent_id,))
 
1494
        lines.extend(self.custom_properties(revision.rev))
 
1495
 
 
1496
        committer = revision.rev.committer
 
1497
        authors = revision.rev.get_apparent_authors()
 
1498
        if authors != [committer]:
 
1499
            lines.append('author: %s' % (", ".join(authors),))
 
1500
        lines.append('committer: %s' % (committer,))
 
1501
 
 
1502
        branch_nick = revision.rev.properties.get('branch-nick', None)
 
1503
        if branch_nick is not None:
 
1504
            lines.append('branch nick: %s' % (branch_nick,))
 
1505
 
 
1506
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1507
 
 
1508
        lines.append('message:')
 
1509
        if not revision.rev.message:
 
1510
            lines.append('  (no message)')
 
1511
        else:
 
1512
            message = revision.rev.message.rstrip('\r\n')
 
1513
            for l in message.split('\n'):
 
1514
                lines.append('  %s' % (l,))
 
1515
 
 
1516
        # Dump the output, appending the delta and diff if requested
 
1517
        to_file = self.to_file
 
1518
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1519
        if revision.delta is not None:
 
1520
            # Use the standard status output to display changes
 
1521
            from bzrlib.delta import report_delta
 
1522
            report_delta(to_file, revision.delta, short_status=False, 
 
1523
                         show_ids=self.show_ids, indent=indent)
 
1524
        if revision.diff is not None:
 
1525
            to_file.write(indent + 'diff:\n')
 
1526
            to_file.flush()
 
1527
            # Note: we explicitly don't indent the diff (relative to the
 
1528
            # revision information) so that the output can be fed to patch -p0
 
1529
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1530
            self.to_exact_file.flush()
 
1531
 
 
1532
    def get_advice_separator(self):
 
1533
        """Get the text separating the log from the closing advice."""
 
1534
        return '-' * 60 + '\n'
 
1535
 
 
1536
 
 
1537
class ShortLogFormatter(LogFormatter):
 
1538
 
 
1539
    supports_merge_revisions = True
 
1540
    preferred_levels = 1
 
1541
    supports_delta = True
 
1542
    supports_tags = True
 
1543
    supports_diff = True
 
1544
 
 
1545
    def __init__(self, *args, **kwargs):
 
1546
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1547
        self.revno_width_by_depth = {}
 
1548
 
 
1549
    def log_revision(self, revision):
 
1550
        # We need two indents: one per depth and one for the information
 
1551
        # relative to that indent. Most mainline revnos are 5 chars or
 
1552
        # less while dotted revnos are typically 11 chars or less. Once
 
1553
        # calculated, we need to remember the offset for a given depth
 
1554
        # as we might be starting from a dotted revno in the first column
 
1555
        # and we want subsequent mainline revisions to line up.
 
1556
        depth = revision.merge_depth
 
1557
        indent = '    ' * depth
 
1558
        revno_width = self.revno_width_by_depth.get(depth)
 
1559
        if revno_width is None:
 
1560
            if revision.revno.find('.') == -1:
 
1561
                # mainline revno, e.g. 12345
 
1562
                revno_width = 5
 
1563
            else:
 
1564
                # dotted revno, e.g. 12345.10.55
 
1565
                revno_width = 11
 
1566
            self.revno_width_by_depth[depth] = revno_width
 
1567
        offset = ' ' * (revno_width + 1)
 
1568
 
 
1569
        to_file = self.to_file
 
1570
        tags = ''
 
1571
        if revision.tags:
 
1572
            tags = ' {%s}' % (', '.join(revision.tags))
 
1573
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1574
                revision.revno, self.short_author(revision.rev),
 
1575
                format_date(revision.rev.timestamp,
 
1576
                            revision.rev.timezone or 0,
 
1577
                            self.show_timezone, date_fmt="%Y-%m-%d",
 
1578
                            show_offset=False),
 
1579
                tags, self.merge_marker(revision)))
 
1580
        self.show_properties(revision.rev, indent+offset)
 
1581
        if self.show_ids:
 
1582
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1583
                          % (revision.rev.revision_id,))
 
1584
        if not revision.rev.message:
 
1585
            to_file.write(indent + offset + '(no message)\n')
 
1586
        else:
 
1587
            message = revision.rev.message.rstrip('\r\n')
 
1588
            for l in message.split('\n'):
 
1589
                to_file.write(indent + offset + '%s\n' % (l,))
 
1590
 
 
1591
        if revision.delta is not None:
 
1592
            # Use the standard status output to display changes
 
1593
            from bzrlib.delta import report_delta
 
1594
            report_delta(to_file, revision.delta, 
 
1595
                         short_status=self.delta_format==1, 
 
1596
                         show_ids=self.show_ids, indent=indent + offset)
 
1597
        if revision.diff is not None:
 
1598
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
1599
        to_file.write('\n')
 
1600
 
 
1601
 
 
1602
class LineLogFormatter(LogFormatter):
 
1603
 
 
1604
    supports_merge_revisions = True
 
1605
    preferred_levels = 1
 
1606
    supports_tags = True
 
1607
 
 
1608
    def __init__(self, *args, **kwargs):
 
1609
        super(LineLogFormatter, self).__init__(*args, **kwargs)
 
1610
        width = terminal_width()
 
1611
        if width is not None:
 
1612
            # we need one extra space for terminals that wrap on last char
 
1613
            width = width - 1
 
1614
        self._max_chars = width
 
1615
 
 
1616
    def truncate(self, str, max_len):
 
1617
        if max_len is None or len(str) <= max_len:
 
1618
            return str
 
1619
        return str[:max_len-3] + '...'
 
1620
 
 
1621
    def date_string(self, rev):
 
1622
        return format_date(rev.timestamp, rev.timezone or 0,
 
1623
                           self.show_timezone, date_fmt="%Y-%m-%d",
 
1624
                           show_offset=False)
 
1625
 
 
1626
    def message(self, rev):
 
1627
        if not rev.message:
 
1628
            return '(no message)'
 
1629
        else:
 
1630
            return rev.message
 
1631
 
 
1632
    def log_revision(self, revision):
 
1633
        indent = '  ' * revision.merge_depth
 
1634
        self.to_file.write(self.log_string(revision.revno, revision.rev,
 
1635
            self._max_chars, revision.tags, indent))
 
1636
        self.to_file.write('\n')
 
1637
 
 
1638
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
1639
        """Format log info into one string. Truncate tail of string
 
1640
        :param  revno:      revision number or None.
 
1641
                            Revision numbers counts from 1.
 
1642
        :param  rev:        revision object
 
1643
        :param  max_chars:  maximum length of resulting string
 
1644
        :param  tags:       list of tags or None
 
1645
        :param  prefix:     string to prefix each line
 
1646
        :return:            formatted truncated string
 
1647
        """
 
1648
        out = []
 
1649
        if revno:
 
1650
            # show revno only when is not None
 
1651
            out.append("%s:" % revno)
 
1652
        out.append(self.truncate(self.short_author(rev), 20))
 
1653
        out.append(self.date_string(rev))
 
1654
        if len(rev.parent_ids) > 1:
 
1655
            out.append('[merge]')
 
1656
        if tags:
 
1657
            tag_str = '{%s}' % (', '.join(tags))
 
1658
            out.append(tag_str)
 
1659
        out.append(rev.get_summary())
 
1660
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1661
 
 
1662
 
 
1663
class GnuChangelogLogFormatter(LogFormatter):
 
1664
 
 
1665
    supports_merge_revisions = True
 
1666
    supports_delta = True
 
1667
 
 
1668
    def log_revision(self, revision):
 
1669
        """Log a revision, either merged or not."""
 
1670
        to_file = self.to_file
 
1671
 
 
1672
        date_str = format_date(revision.rev.timestamp,
 
1673
                               revision.rev.timezone or 0,
 
1674
                               self.show_timezone,
 
1675
                               date_fmt='%Y-%m-%d',
 
1676
                               show_offset=False)
 
1677
        committer_str = revision.rev.committer.replace (' <', '  <')
 
1678
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1679
 
 
1680
        if revision.delta is not None and revision.delta.has_changed():
 
1681
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1682
                path, = c[:1]
 
1683
                to_file.write('\t* %s:\n' % (path,))
 
1684
            for c in revision.delta.renamed:
 
1685
                oldpath,newpath = c[:2]
 
1686
                # For renamed files, show both the old and the new path
 
1687
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1688
            to_file.write('\n')
 
1689
 
 
1690
        if not revision.rev.message:
 
1691
            to_file.write('\tNo commit message\n')
 
1692
        else:
 
1693
            message = revision.rev.message.rstrip('\r\n')
 
1694
            for l in message.split('\n'):
 
1695
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1696
            to_file.write('\n')
 
1697
 
 
1698
 
 
1699
def line_log(rev, max_chars):
 
1700
    lf = LineLogFormatter(None)
 
1701
    return lf.log_string(None, rev, max_chars)
 
1702
 
 
1703
 
 
1704
class LogFormatterRegistry(registry.Registry):
 
1705
    """Registry for log formatters"""
 
1706
 
 
1707
    def make_formatter(self, name, *args, **kwargs):
 
1708
        """Construct a formatter from arguments.
 
1709
 
 
1710
        :param name: Name of the formatter to construct.  'short', 'long' and
 
1711
            'line' are built-in.
 
1712
        """
 
1713
        return self.get(name)(*args, **kwargs)
 
1714
 
 
1715
    def get_default(self, branch):
 
1716
        return self.get(branch.get_config().log_format())
 
1717
 
 
1718
 
 
1719
log_formatter_registry = LogFormatterRegistry()
 
1720
 
 
1721
 
 
1722
log_formatter_registry.register('short', ShortLogFormatter,
 
1723
                                'Moderately short log format')
 
1724
log_formatter_registry.register('long', LongLogFormatter,
 
1725
                                'Detailed log format')
 
1726
log_formatter_registry.register('line', LineLogFormatter,
 
1727
                                'Log format with one line per revision')
 
1728
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1729
                                'Format used by GNU ChangeLog files')
 
1730
 
 
1731
 
 
1732
def register_formatter(name, formatter):
 
1733
    log_formatter_registry.register(name, formatter)
 
1734
 
 
1735
 
 
1736
def log_formatter(name, *args, **kwargs):
 
1737
    """Construct a formatter from arguments.
 
1738
 
 
1739
    name -- Name of the formatter to construct; currently 'long', 'short' and
 
1740
        'line' are supported.
 
1741
    """
 
1742
    try:
 
1743
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
1744
    except KeyError:
 
1745
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
 
1746
 
 
1747
 
 
1748
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
 
1749
    # deprecated; for compatibility
 
1750
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
 
1751
    lf.show(revno, rev, delta)
 
1752
 
 
1753
 
 
1754
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
 
1755
                           log_format='long'):
 
1756
    """Show the change in revision history comparing the old revision history to the new one.
 
1757
 
 
1758
    :param branch: The branch where the revisions exist
 
1759
    :param old_rh: The old revision history
 
1760
    :param new_rh: The new revision history
 
1761
    :param to_file: A file to write the results to. If None, stdout will be used
 
1762
    """
 
1763
    if to_file is None:
 
1764
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
 
1765
            errors='replace')
 
1766
    lf = log_formatter(log_format,
 
1767
                       show_ids=False,
 
1768
                       to_file=to_file,
 
1769
                       show_timezone='original')
 
1770
 
 
1771
    # This is the first index which is different between
 
1772
    # old and new
 
1773
    base_idx = None
 
1774
    for i in xrange(max(len(new_rh),
 
1775
                        len(old_rh))):
 
1776
        if (len(new_rh) <= i
 
1777
            or len(old_rh) <= i
 
1778
            or new_rh[i] != old_rh[i]):
 
1779
            base_idx = i
 
1780
            break
 
1781
 
 
1782
    if base_idx is None:
 
1783
        to_file.write('Nothing seems to have changed\n')
 
1784
        return
 
1785
    ## TODO: It might be nice to do something like show_log
 
1786
    ##       and show the merged entries. But since this is the
 
1787
    ##       removed revisions, it shouldn't be as important
 
1788
    if base_idx < len(old_rh):
 
1789
        to_file.write('*'*60)
 
1790
        to_file.write('\nRemoved Revisions:\n')
 
1791
        for i in range(base_idx, len(old_rh)):
 
1792
            rev = branch.repository.get_revision(old_rh[i])
 
1793
            lr = LogRevision(rev, i+1, 0, None)
 
1794
            lf.log_revision(lr)
 
1795
        to_file.write('*'*60)
 
1796
        to_file.write('\n\n')
 
1797
    if base_idx < len(new_rh):
 
1798
        to_file.write('Added Revisions:\n')
 
1799
        show_log(branch,
 
1800
                 lf,
 
1801
                 None,
 
1802
                 verbose=False,
 
1803
                 direction='forward',
 
1804
                 start_revision=base_idx+1,
 
1805
                 end_revision=len(new_rh),
 
1806
                 search=None)
 
1807
 
 
1808
 
 
1809
def get_history_change(old_revision_id, new_revision_id, repository):
 
1810
    """Calculate the uncommon lefthand history between two revisions.
 
1811
 
 
1812
    :param old_revision_id: The original revision id.
 
1813
    :param new_revision_id: The new revision id.
 
1814
    :param repository: The repository to use for the calculation.
 
1815
 
 
1816
    return old_history, new_history
 
1817
    """
 
1818
    old_history = []
 
1819
    old_revisions = set()
 
1820
    new_history = []
 
1821
    new_revisions = set()
 
1822
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1823
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1824
    stop_revision = None
 
1825
    do_old = True
 
1826
    do_new = True
 
1827
    while do_new or do_old:
 
1828
        if do_new:
 
1829
            try:
 
1830
                new_revision = new_iter.next()
 
1831
            except StopIteration:
 
1832
                do_new = False
 
1833
            else:
 
1834
                new_history.append(new_revision)
 
1835
                new_revisions.add(new_revision)
 
1836
                if new_revision in old_revisions:
 
1837
                    stop_revision = new_revision
 
1838
                    break
 
1839
        if do_old:
 
1840
            try:
 
1841
                old_revision = old_iter.next()
 
1842
            except StopIteration:
 
1843
                do_old = False
 
1844
            else:
 
1845
                old_history.append(old_revision)
 
1846
                old_revisions.add(old_revision)
 
1847
                if old_revision in new_revisions:
 
1848
                    stop_revision = old_revision
 
1849
                    break
 
1850
    new_history.reverse()
 
1851
    old_history.reverse()
 
1852
    if stop_revision is not None:
 
1853
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1854
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1855
    return old_history, new_history
 
1856
 
 
1857
 
 
1858
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1859
    """Show the changes made to a branch.
 
1860
 
 
1861
    :param branch: The branch to show changes about.
 
1862
    :param output: A file-like object to write changes to.
 
1863
    :param old_revno: The revno of the old tip.
 
1864
    :param old_revision_id: The revision_id of the old tip.
 
1865
    """
 
1866
    new_revno, new_revision_id = branch.last_revision_info()
 
1867
    old_history, new_history = get_history_change(old_revision_id,
 
1868
                                                  new_revision_id,
 
1869
                                                  branch.repository)
 
1870
    if old_history == [] and new_history == []:
 
1871
        output.write('Nothing seems to have changed\n')
 
1872
        return
 
1873
 
 
1874
    log_format = log_formatter_registry.get_default(branch)
 
1875
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1876
    if old_history != []:
 
1877
        output.write('*'*60)
 
1878
        output.write('\nRemoved Revisions:\n')
 
1879
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
1880
        output.write('*'*60)
 
1881
        output.write('\n\n')
 
1882
    if new_history != []:
 
1883
        output.write('Added Revisions:\n')
 
1884
        start_revno = new_revno - len(new_history) + 1
 
1885
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1886
                 start_revision=start_revno,)
 
1887
 
 
1888
 
 
1889
def show_flat_log(repository, history, last_revno, lf):
 
1890
    """Show a simple log of the specified history.
 
1891
 
 
1892
    :param repository: The repository to retrieve revisions from.
 
1893
    :param history: A list of revision_ids indicating the lefthand history.
 
1894
    :param last_revno: The revno of the last revision_id in the history.
 
1895
    :param lf: The log formatter to use.
 
1896
    """
 
1897
    start_revno = last_revno - len(history) + 1
 
1898
    revisions = repository.get_revisions(history)
 
1899
    for i, rev in enumerate(revisions):
 
1900
        lr = LogRevision(rev, i + last_revno, 0, None)
 
1901
        lf.log_revision(lr)
 
1902
 
 
1903
 
 
1904
def _get_info_for_log_files(revisionspec_list, file_list):
 
1905
    """Find file-ids and kinds given a list of files and a revision range.
 
1906
 
 
1907
    We search for files at the end of the range. If not found there,
 
1908
    we try the start of the range.
 
1909
 
 
1910
    :param revisionspec_list: revision range as parsed on the command line
 
1911
    :param file_list: the list of paths given on the command line;
 
1912
      the first of these can be a branch location or a file path,
 
1913
      the remainder must be file paths
 
1914
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1915
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1916
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1917
      branch will be read-locked.
 
1918
    """
 
1919
    from builtins import _get_revision_range, safe_relpath_files
 
1920
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1921
    b.lock_read()
 
1922
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1923
    # those paths might be deleted ones, they might be on a case-insensitive
 
1924
    # filesystem and/or they might be in silly locations (like another branch).
 
1925
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1926
    # file2 implicitly in the same dir as file1 or should its directory be
 
1927
    # taken from the current tree somehow?) For now, this solves the common
 
1928
    # case of running log in a nested directory, assuming paths beyond the
 
1929
    # first one haven't been deleted ...
 
1930
    if tree:
 
1931
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1932
    else:
 
1933
        relpaths = [path] + file_list[1:]
 
1934
    info_list = []
 
1935
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1936
        "log")
 
1937
    if relpaths in ([], [u'']):
 
1938
        return b, [], start_rev_info, end_rev_info
 
1939
    if start_rev_info is None and end_rev_info is None:
 
1940
        if tree is None:
 
1941
            tree = b.basis_tree()
 
1942
        tree1 = None
 
1943
        for fp in relpaths:
 
1944
            file_id = tree.path2id(fp)
 
1945
            kind = _get_kind_for_file_id(tree, file_id)
 
1946
            if file_id is None:
 
1947
                # go back to when time began
 
1948
                if tree1 is None:
 
1949
                    try:
 
1950
                        rev1 = b.get_rev_id(1)
 
1951
                    except errors.NoSuchRevision:
 
1952
                        # No history at all
 
1953
                        file_id = None
 
1954
                        kind = None
 
1955
                    else:
 
1956
                        tree1 = b.repository.revision_tree(rev1)
 
1957
                if tree1:
 
1958
                    file_id = tree1.path2id(fp)
 
1959
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1960
            info_list.append((fp, file_id, kind))
 
1961
 
 
1962
    elif start_rev_info == end_rev_info:
 
1963
        # One revision given - file must exist in it
 
1964
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1965
        for fp in relpaths:
 
1966
            file_id = tree.path2id(fp)
 
1967
            kind = _get_kind_for_file_id(tree, file_id)
 
1968
            info_list.append((fp, file_id, kind))
 
1969
 
 
1970
    else:
 
1971
        # Revision range given. Get the file-id from the end tree.
 
1972
        # If that fails, try the start tree.
 
1973
        rev_id = end_rev_info.rev_id
 
1974
        if rev_id is None:
 
1975
            tree = b.basis_tree()
 
1976
        else:
 
1977
            tree = b.repository.revision_tree(rev_id)
 
1978
        tree1 = None
 
1979
        for fp in relpaths:
 
1980
            file_id = tree.path2id(fp)
 
1981
            kind = _get_kind_for_file_id(tree, file_id)
 
1982
            if file_id is None:
 
1983
                if tree1 is None:
 
1984
                    rev_id = start_rev_info.rev_id
 
1985
                    if rev_id is None:
 
1986
                        rev1 = b.get_rev_id(1)
 
1987
                        tree1 = b.repository.revision_tree(rev1)
 
1988
                    else:
 
1989
                        tree1 = b.repository.revision_tree(rev_id)
 
1990
                file_id = tree1.path2id(fp)
 
1991
                kind = _get_kind_for_file_id(tree1, file_id)
 
1992
            info_list.append((fp, file_id, kind))
 
1993
    return b, info_list, start_rev_info, end_rev_info
 
1994
 
 
1995
 
 
1996
def _get_kind_for_file_id(tree, file_id):
 
1997
    """Return the kind of a file-id or None if it doesn't exist."""
 
1998
    if file_id is not None:
 
1999
        return tree.kind(file_id)
 
2000
    else:
 
2001
        return None
 
2002
 
 
2003
 
 
2004
properties_handler_registry = registry.Registry()
 
2005
 
 
2006
# Use the properties handlers to print out bug information if available
 
2007
def _bugs_properties_handler(revision):
 
2008
    if revision.properties.has_key('bugs'):
 
2009
        bug_lines = revision.properties['bugs'].split('\n')
 
2010
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2011
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2012
                          len(row) > 1 and row[1] == 'fixed']
 
2013
        
 
2014
        if fixed_bug_urls:
 
2015
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2016
    return {}
 
2017
 
 
2018
properties_handler_registry.register('bugs_properties_handler',
 
2019
                                     _bugs_properties_handler)
 
2020
 
 
2021
 
 
2022
# adapters which revision ids to log are filtered. When log is called, the
 
2023
# log_rev_iterator is adapted through each of these factory methods.
 
2024
# Plugins are welcome to mutate this list in any way they like - as long
 
2025
# as the overall behaviour is preserved. At this point there is no extensible
 
2026
# mechanism for getting parameters to each factory method, and until there is
 
2027
# this won't be considered a stable api.
 
2028
log_adapters = [
 
2029
    # core log logic
 
2030
    _make_batch_filter,
 
2031
    # read revision objects
 
2032
    _make_revision_objects,
 
2033
    # filter on log messages
 
2034
    _make_search_filter,
 
2035
    # generate deltas for things we will show
 
2036
    _make_delta_filter
 
2037
    ]