/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Andrew Bennetts
  • Date: 2009-12-04 06:13:25 UTC
  • mto: This revision was merged to the branch mainline in revision 4869.
  • Revision ID: andrew.bennetts@canonical.com-20091204061325-8s0wghkp5if1ywiu
Tweaks suggested by John.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
 
 
18
 
 
19
"""Code to show logs of changes.
 
20
 
 
21
Various flavors of log can be produced:
 
22
 
 
23
* for one file, or the whole tree, and (not done yet) for
 
24
  files in a given directory
 
25
 
 
26
* in "verbose" mode with a description of what changed from one
 
27
  version to the next
 
28
 
 
29
* with file-ids and revision-ids shown
 
30
 
 
31
Logs are actually written out through an abstract LogFormatter
 
32
interface, which allows for different preferred formats.  Plugins can
 
33
register formats too.
 
34
 
 
35
Logs can be produced in either forward (oldest->newest) or reverse
 
36
(newest->oldest) order.
 
37
 
 
38
Logs can be filtered to show only revisions matching a particular
 
39
search string, or within a particular range of revisions.  The range
 
40
can be given as date/times, which are reduced to revisions before
 
41
calling in here.
 
42
 
 
43
In verbose mode we show a summary of what changed in each particular
 
44
revision.  Note that this is the delta for changes in that revision
 
45
relative to its left-most parent, not the delta relative to the last
 
46
logged revision.  So for example if you ask for a verbose log of
 
47
changes touching hello.c you will get a list of those revisions also
 
48
listing other things that were changed in the same revision, but not
 
49
all the changes since the previous revision that touched hello.c.
 
50
"""
 
51
 
 
52
import codecs
 
53
from cStringIO import StringIO
 
54
from itertools import (
 
55
    chain,
 
56
    izip,
 
57
    )
 
58
import re
 
59
import sys
 
60
from warnings import (
 
61
    warn,
 
62
    )
 
63
 
 
64
from bzrlib.lazy_import import lazy_import
 
65
lazy_import(globals(), """
 
66
 
 
67
from bzrlib import (
 
68
    bzrdir,
 
69
    config,
 
70
    diff,
 
71
    errors,
 
72
    foreign,
 
73
    repository as _mod_repository,
 
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    trace,
 
77
    tsort,
 
78
    )
 
79
""")
 
80
 
 
81
from bzrlib import (
 
82
    registry,
 
83
    )
 
84
from bzrlib.osutils import (
 
85
    format_date,
 
86
    format_date_with_offset_in_original_timezone,
 
87
    get_terminal_encoding,
 
88
    re_compile_checked,
 
89
    terminal_width,
 
90
    )
 
91
 
 
92
 
 
93
def find_touching_revisions(branch, file_id):
 
94
    """Yield a description of revisions which affect the file_id.
 
95
 
 
96
    Each returned element is (revno, revision_id, description)
 
97
 
 
98
    This is the list of revisions where the file is either added,
 
99
    modified, renamed or deleted.
 
100
 
 
101
    TODO: Perhaps some way to limit this to only particular revisions,
 
102
    or to traverse a non-mainline set of revisions?
 
103
    """
 
104
    last_ie = None
 
105
    last_path = None
 
106
    revno = 1
 
107
    for revision_id in branch.revision_history():
 
108
        this_inv = branch.repository.get_revision_inventory(revision_id)
 
109
        if file_id in this_inv:
 
110
            this_ie = this_inv[file_id]
 
111
            this_path = this_inv.id2path(file_id)
 
112
        else:
 
113
            this_ie = this_path = None
 
114
 
 
115
        # now we know how it was last time, and how it is in this revision.
 
116
        # are those two states effectively the same or not?
 
117
 
 
118
        if not this_ie and not last_ie:
 
119
            # not present in either
 
120
            pass
 
121
        elif this_ie and not last_ie:
 
122
            yield revno, revision_id, "added " + this_path
 
123
        elif not this_ie and last_ie:
 
124
            # deleted here
 
125
            yield revno, revision_id, "deleted " + last_path
 
126
        elif this_path != last_path:
 
127
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
 
128
        elif (this_ie.text_size != last_ie.text_size
 
129
              or this_ie.text_sha1 != last_ie.text_sha1):
 
130
            yield revno, revision_id, "modified " + this_path
 
131
 
 
132
        last_ie = this_ie
 
133
        last_path = this_path
 
134
        revno += 1
 
135
 
 
136
 
 
137
def _enumerate_history(branch):
 
138
    rh = []
 
139
    revno = 1
 
140
    for rev_id in branch.revision_history():
 
141
        rh.append((revno, rev_id))
 
142
        revno += 1
 
143
    return rh
 
144
 
 
145
 
 
146
def show_log(branch,
 
147
             lf,
 
148
             specific_fileid=None,
 
149
             verbose=False,
 
150
             direction='reverse',
 
151
             start_revision=None,
 
152
             end_revision=None,
 
153
             search=None,
 
154
             limit=None,
 
155
             show_diff=False):
 
156
    """Write out human-readable log of commits to this branch.
 
157
 
 
158
    This function is being retained for backwards compatibility but
 
159
    should not be extended with new parameters. Use the new Logger class
 
160
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
161
    make_log_request_dict function.
 
162
 
 
163
    :param lf: The LogFormatter object showing the output.
 
164
 
 
165
    :param specific_fileid: If not None, list only the commits affecting the
 
166
        specified file, rather than all commits.
 
167
 
 
168
    :param verbose: If True show added/changed/deleted/renamed files.
 
169
 
 
170
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
171
        earliest to latest.
 
172
 
 
173
    :param start_revision: If not None, only show revisions >= start_revision
 
174
 
 
175
    :param end_revision: If not None, only show revisions <= end_revision
 
176
 
 
177
    :param search: If not None, only show revisions with matching commit
 
178
        messages
 
179
 
 
180
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
181
        if None or 0.
 
182
 
 
183
    :param show_diff: If True, output a diff after each revision.
 
184
    """
 
185
    # Convert old-style parameters to new-style parameters
 
186
    if specific_fileid is not None:
 
187
        file_ids = [specific_fileid]
 
188
    else:
 
189
        file_ids = None
 
190
    if verbose:
 
191
        if file_ids:
 
192
            delta_type = 'partial'
 
193
        else:
 
194
            delta_type = 'full'
 
195
    else:
 
196
        delta_type = None
 
197
    if show_diff:
 
198
        if file_ids:
 
199
            diff_type = 'partial'
 
200
        else:
 
201
            diff_type = 'full'
 
202
    else:
 
203
        diff_type = None
 
204
 
 
205
    # Build the request and execute it
 
206
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
207
        start_revision=start_revision, end_revision=end_revision,
 
208
        limit=limit, message_search=search,
 
209
        delta_type=delta_type, diff_type=diff_type)
 
210
    Logger(branch, rqst).show(lf)
 
211
 
 
212
 
 
213
# Note: This needs to be kept this in sync with the defaults in
 
214
# make_log_request_dict() below
 
215
_DEFAULT_REQUEST_PARAMS = {
 
216
    'direction': 'reverse',
 
217
    'levels': 1,
 
218
    'generate_tags': True,
 
219
    '_match_using_deltas': True,
 
220
    }
 
221
 
 
222
 
 
223
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
224
    start_revision=None, end_revision=None, limit=None,
 
225
    message_search=None, levels=1, generate_tags=True, delta_type=None,
 
226
    diff_type=None, _match_using_deltas=True):
 
227
    """Convenience function for making a logging request dictionary.
 
228
 
 
229
    Using this function may make code slightly safer by ensuring
 
230
    parameters have the correct names. It also provides a reference
 
231
    point for documenting the supported parameters.
 
232
 
 
233
    :param direction: 'reverse' (default) is latest to earliest;
 
234
      'forward' is earliest to latest.
 
235
 
 
236
    :param specific_fileids: If not None, only include revisions
 
237
      affecting the specified files, rather than all revisions.
 
238
 
 
239
    :param start_revision: If not None, only generate
 
240
      revisions >= start_revision
 
241
 
 
242
    :param end_revision: If not None, only generate
 
243
      revisions <= end_revision
 
244
 
 
245
    :param limit: If set, generate only 'limit' revisions, all revisions
 
246
      are shown if None or 0.
 
247
 
 
248
    :param message_search: If not None, only include revisions with
 
249
      matching commit messages
 
250
 
 
251
    :param levels: the number of levels of revisions to
 
252
      generate; 1 for just the mainline; 0 for all levels.
 
253
 
 
254
    :param generate_tags: If True, include tags for matched revisions.
 
255
 
 
256
    :param delta_type: Either 'full', 'partial' or None.
 
257
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
258
      'partial' means filter the delta using specific_fileids;
 
259
      None means do not generate any delta.
 
260
 
 
261
    :param diff_type: Either 'full', 'partial' or None.
 
262
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
263
      'partial' means filter the diff using specific_fileids;
 
264
      None means do not generate any diff.
 
265
 
 
266
    :param _match_using_deltas: a private parameter controlling the
 
267
      algorithm used for matching specific_fileids. This parameter
 
268
      may be removed in the future so bzrlib client code should NOT
 
269
      use it.
 
270
    """
 
271
    return {
 
272
        'direction': direction,
 
273
        'specific_fileids': specific_fileids,
 
274
        'start_revision': start_revision,
 
275
        'end_revision': end_revision,
 
276
        'limit': limit,
 
277
        'message_search': message_search,
 
278
        'levels': levels,
 
279
        'generate_tags': generate_tags,
 
280
        'delta_type': delta_type,
 
281
        'diff_type': diff_type,
 
282
        # Add 'private' attributes for features that may be deprecated
 
283
        '_match_using_deltas': _match_using_deltas,
 
284
    }
 
285
 
 
286
 
 
287
def _apply_log_request_defaults(rqst):
 
288
    """Apply default values to a request dictionary."""
 
289
    result = _DEFAULT_REQUEST_PARAMS
 
290
    if rqst:
 
291
        result.update(rqst)
 
292
    return result
 
293
 
 
294
 
 
295
class LogGenerator(object):
 
296
    """A generator of log revisions."""
 
297
 
 
298
    def iter_log_revisions(self):
 
299
        """Iterate over LogRevision objects.
 
300
 
 
301
        :return: An iterator yielding LogRevision objects.
 
302
        """
 
303
        raise NotImplementedError(self.iter_log_revisions)
 
304
 
 
305
 
 
306
class Logger(object):
 
307
    """An object the generates, formats and displays a log."""
 
308
 
 
309
    def __init__(self, branch, rqst):
 
310
        """Create a Logger.
 
311
 
 
312
        :param branch: the branch to log
 
313
        :param rqst: A dictionary specifying the query parameters.
 
314
          See make_log_request_dict() for supported values.
 
315
        """
 
316
        self.branch = branch
 
317
        self.rqst = _apply_log_request_defaults(rqst)
 
318
 
 
319
    def show(self, lf):
 
320
        """Display the log.
 
321
 
 
322
        :param lf: The LogFormatter object to send the output to.
 
323
        """
 
324
        if not isinstance(lf, LogFormatter):
 
325
            warn("not a LogFormatter instance: %r" % lf)
 
326
 
 
327
        self.branch.lock_read()
 
328
        try:
 
329
            if getattr(lf, 'begin_log', None):
 
330
                lf.begin_log()
 
331
            self._show_body(lf)
 
332
            if getattr(lf, 'end_log', None):
 
333
                lf.end_log()
 
334
        finally:
 
335
            self.branch.unlock()
 
336
 
 
337
    def _show_body(self, lf):
 
338
        """Show the main log output.
 
339
 
 
340
        Subclasses may wish to override this.
 
341
        """
 
342
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
343
        # (There's no point generating stuff if the formatter can't display it.)
 
344
        rqst = self.rqst
 
345
        rqst['levels'] = lf.get_levels()
 
346
        if not getattr(lf, 'supports_tags', False):
 
347
            rqst['generate_tags'] = False
 
348
        if not getattr(lf, 'supports_delta', False):
 
349
            rqst['delta_type'] = None
 
350
        if not getattr(lf, 'supports_diff', False):
 
351
            rqst['diff_type'] = None
 
352
 
 
353
        # Find and print the interesting revisions
 
354
        generator = self._generator_factory(self.branch, rqst)
 
355
        for lr in generator.iter_log_revisions():
 
356
            lf.log_revision(lr)
 
357
        lf.show_advice()
 
358
 
 
359
    def _generator_factory(self, branch, rqst):
 
360
        """Make the LogGenerator object to use.
 
361
        
 
362
        Subclasses may wish to override this.
 
363
        """
 
364
        return _DefaultLogGenerator(branch, rqst)
 
365
 
 
366
 
 
367
class _StartNotLinearAncestor(Exception):
 
368
    """Raised when a start revision is not found walking left-hand history."""
 
369
 
 
370
 
 
371
class _DefaultLogGenerator(LogGenerator):
 
372
    """The default generator of log revisions."""
 
373
 
 
374
    def __init__(self, branch, rqst):
 
375
        self.branch = branch
 
376
        self.rqst = rqst
 
377
        if rqst.get('generate_tags') and branch.supports_tags():
 
378
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
379
        else:
 
380
            self.rev_tag_dict = {}
 
381
 
 
382
    def iter_log_revisions(self):
 
383
        """Iterate over LogRevision objects.
 
384
 
 
385
        :return: An iterator yielding LogRevision objects.
 
386
        """
 
387
        rqst = self.rqst
 
388
        levels = rqst.get('levels')
 
389
        limit = rqst.get('limit')
 
390
        diff_type = rqst.get('diff_type')
 
391
        log_count = 0
 
392
        revision_iterator = self._create_log_revision_iterator()
 
393
        for revs in revision_iterator:
 
394
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
395
                # 0 levels means show everything; merge_depth counts from 0
 
396
                if levels != 0 and merge_depth >= levels:
 
397
                    continue
 
398
                if diff_type is None:
 
399
                    diff = None
 
400
                else:
 
401
                    diff = self._format_diff(rev, rev_id, diff_type)
 
402
                yield LogRevision(rev, revno, merge_depth, delta,
 
403
                    self.rev_tag_dict.get(rev_id), diff)
 
404
                if limit:
 
405
                    log_count += 1
 
406
                    if log_count >= limit:
 
407
                        return
 
408
 
 
409
    def _format_diff(self, rev, rev_id, diff_type):
 
410
        repo = self.branch.repository
 
411
        if len(rev.parent_ids) == 0:
 
412
            ancestor_id = _mod_revision.NULL_REVISION
 
413
        else:
 
414
            ancestor_id = rev.parent_ids[0]
 
415
        tree_1 = repo.revision_tree(ancestor_id)
 
416
        tree_2 = repo.revision_tree(rev_id)
 
417
        file_ids = self.rqst.get('specific_fileids')
 
418
        if diff_type == 'partial' and file_ids is not None:
 
419
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
420
        else:
 
421
            specific_files = None
 
422
        s = StringIO()
 
423
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
424
            new_label='')
 
425
        return s.getvalue()
 
426
 
 
427
    def _create_log_revision_iterator(self):
 
428
        """Create a revision iterator for log.
 
429
 
 
430
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
431
            delta).
 
432
        """
 
433
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
434
            self.branch, self.rqst.get('start_revision'),
 
435
            self.rqst.get('end_revision'))
 
436
        if self.rqst.get('_match_using_deltas'):
 
437
            return self._log_revision_iterator_using_delta_matching()
 
438
        else:
 
439
            # We're using the per-file-graph algorithm. This scales really
 
440
            # well but only makes sense if there is a single file and it's
 
441
            # not a directory
 
442
            file_count = len(self.rqst.get('specific_fileids'))
 
443
            if file_count != 1:
 
444
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
445
                    "when logging %d files" % file_count)
 
446
            return self._log_revision_iterator_using_per_file_graph()
 
447
 
 
448
    def _log_revision_iterator_using_delta_matching(self):
 
449
        # Get the base revisions, filtering by the revision range
 
450
        rqst = self.rqst
 
451
        generate_merge_revisions = rqst.get('levels') != 1
 
452
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
453
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
454
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
455
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
 
456
            delayed_graph_generation=delayed_graph_generation)
 
457
 
 
458
        # Apply the other filters
 
459
        return make_log_rev_iterator(self.branch, view_revisions,
 
460
            rqst.get('delta_type'), rqst.get('message_search'),
 
461
            file_ids=rqst.get('specific_fileids'),
 
462
            direction=rqst.get('direction'))
 
463
 
 
464
    def _log_revision_iterator_using_per_file_graph(self):
 
465
        # Get the base revisions, filtering by the revision range.
 
466
        # Note that we always generate the merge revisions because
 
467
        # filter_revisions_touching_file_id() requires them ...
 
468
        rqst = self.rqst
 
469
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
470
            self.end_rev_id, rqst.get('direction'), True)
 
471
        if not isinstance(view_revisions, list):
 
472
            view_revisions = list(view_revisions)
 
473
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
474
            rqst.get('specific_fileids')[0], view_revisions,
 
475
            include_merges=rqst.get('levels') != 1)
 
476
        return make_log_rev_iterator(self.branch, view_revisions,
 
477
            rqst.get('delta_type'), rqst.get('message_search'))
 
478
 
 
479
 
 
480
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
481
    generate_merge_revisions, delayed_graph_generation=False):
 
482
    """Calculate the revisions to view.
 
483
 
 
484
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
485
             a list of the same tuples.
 
486
    """
 
487
    br_revno, br_rev_id = branch.last_revision_info()
 
488
    if br_revno == 0:
 
489
        return []
 
490
 
 
491
    # If a single revision is requested, check we can handle it
 
492
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
 
493
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
 
494
    if generate_single_revision:
 
495
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
 
496
 
 
497
    # If we only want to see linear revisions, we can iterate ...
 
498
    if not generate_merge_revisions:
 
499
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
500
            direction)
 
501
    else:
 
502
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
503
            direction, delayed_graph_generation)
 
504
 
 
505
 
 
506
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
507
    if rev_id == br_rev_id:
 
508
        # It's the tip
 
509
        return [(br_rev_id, br_revno, 0)]
 
510
    else:
 
511
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
512
        revno_str = '.'.join(str(n) for n in revno)
 
513
        return [(rev_id, revno_str, 0)]
 
514
 
 
515
 
 
516
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
517
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
518
    # If a start limit was given and it's not obviously an
 
519
    # ancestor of the end limit, check it before outputting anything
 
520
    if direction == 'forward' or (start_rev_id
 
521
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
522
        try:
 
523
            result = list(result)
 
524
        except _StartNotLinearAncestor:
 
525
            raise errors.BzrCommandError('Start revision not found in'
 
526
                ' left-hand history of end revision.')
 
527
    if direction == 'forward':
 
528
        result = reversed(result)
 
529
    return result
 
530
 
 
531
 
 
532
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
533
    delayed_graph_generation):
 
534
    # On large trees, generating the merge graph can take 30-60 seconds
 
535
    # so we delay doing it until a merge is detected, incrementally
 
536
    # returning initial (non-merge) revisions while we can.
 
537
    initial_revisions = []
 
538
    if delayed_graph_generation:
 
539
        try:
 
540
            for rev_id, revno, depth in \
 
541
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
542
                if _has_merges(branch, rev_id):
 
543
                    end_rev_id = rev_id
 
544
                    break
 
545
                else:
 
546
                    initial_revisions.append((rev_id, revno, depth))
 
547
            else:
 
548
                # No merged revisions found
 
549
                if direction == 'reverse':
 
550
                    return initial_revisions
 
551
                elif direction == 'forward':
 
552
                    return reversed(initial_revisions)
 
553
                else:
 
554
                    raise ValueError('invalid direction %r' % direction)
 
555
        except _StartNotLinearAncestor:
 
556
            # A merge was never detected so the lower revision limit can't
 
557
            # be nested down somewhere
 
558
            raise errors.BzrCommandError('Start revision not found in'
 
559
                ' history of end revision.')
 
560
 
 
561
    # A log including nested merges is required. If the direction is reverse,
 
562
    # we rebase the initial merge depths so that the development line is
 
563
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
564
    # make forward the exact opposite display, but showing the merge revisions
 
565
    # indented at the end seems slightly nicer in that case.
 
566
    view_revisions = chain(iter(initial_revisions),
 
567
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
568
        rebase_initial_depths=direction == 'reverse'))
 
569
    if direction == 'reverse':
 
570
        return view_revisions
 
571
    elif direction == 'forward':
 
572
        # Forward means oldest first, adjusting for depth.
 
573
        view_revisions = reverse_by_depth(list(view_revisions))
 
574
        return _rebase_merge_depth(view_revisions)
 
575
    else:
 
576
        raise ValueError('invalid direction %r' % direction)
 
577
 
 
578
 
 
579
def _has_merges(branch, rev_id):
 
580
    """Does a revision have multiple parents or not?"""
 
581
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
582
    return len(parents) > 1
 
583
 
 
584
 
 
585
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
586
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
587
    if start_rev_id and end_rev_id:
 
588
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
589
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
590
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
591
            # both on mainline
 
592
            return start_dotted[0] <= end_dotted[0]
 
593
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
594
            start_dotted[0:1] == end_dotted[0:1]):
 
595
            # both on same development line
 
596
            return start_dotted[2] <= end_dotted[2]
 
597
        else:
 
598
            # not obvious
 
599
            return False
 
600
    return True
 
601
 
 
602
 
 
603
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
604
    """Calculate a sequence of revisions to view, newest to oldest.
 
605
 
 
606
    :param start_rev_id: the lower revision-id
 
607
    :param end_rev_id: the upper revision-id
 
608
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
609
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
610
      is not found walking the left-hand history
 
611
    """
 
612
    br_revno, br_rev_id = branch.last_revision_info()
 
613
    repo = branch.repository
 
614
    if start_rev_id is None and end_rev_id is None:
 
615
        cur_revno = br_revno
 
616
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
617
            yield revision_id, str(cur_revno), 0
 
618
            cur_revno -= 1
 
619
    else:
 
620
        if end_rev_id is None:
 
621
            end_rev_id = br_rev_id
 
622
        found_start = start_rev_id is None
 
623
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
624
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
625
            revno_str = '.'.join(str(n) for n in revno)
 
626
            if not found_start and revision_id == start_rev_id:
 
627
                yield revision_id, revno_str, 0
 
628
                found_start = True
 
629
                break
 
630
            else:
 
631
                yield revision_id, revno_str, 0
 
632
        else:
 
633
            if not found_start:
 
634
                raise _StartNotLinearAncestor()
 
635
 
 
636
 
 
637
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
638
    rebase_initial_depths=True):
 
639
    """Calculate revisions to view including merges, newest to oldest.
 
640
 
 
641
    :param branch: the branch
 
642
    :param start_rev_id: the lower revision-id
 
643
    :param end_rev_id: the upper revision-id
 
644
    :param rebase_initial_depth: should depths be rebased until a mainline
 
645
      revision is found?
 
646
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
647
    """
 
648
    view_revisions = branch.iter_merge_sorted_revisions(
 
649
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
650
        stop_rule="with-merges")
 
651
    if not rebase_initial_depths:
 
652
        for (rev_id, merge_depth, revno, end_of_merge
 
653
             ) in view_revisions:
 
654
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
655
    else:
 
656
        # We're following a development line starting at a merged revision.
 
657
        # We need to adjust depths down by the initial depth until we find
 
658
        # a depth less than it. Then we use that depth as the adjustment.
 
659
        # If and when we reach the mainline, depth adjustment ends.
 
660
        depth_adjustment = None
 
661
        for (rev_id, merge_depth, revno, end_of_merge
 
662
             ) in view_revisions:
 
663
            if depth_adjustment is None:
 
664
                depth_adjustment = merge_depth
 
665
            if depth_adjustment:
 
666
                if merge_depth < depth_adjustment:
 
667
                    depth_adjustment = merge_depth
 
668
                merge_depth -= depth_adjustment
 
669
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
670
 
 
671
 
 
672
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
673
        specific_fileid, generate_merge_revisions):
 
674
    """Calculate the revisions to view.
 
675
 
 
676
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
677
             a list of the same tuples.
 
678
    """
 
679
    # This method is no longer called by the main code path.
 
680
    # It is retained for API compatibility and may be deprecated
 
681
    # soon. IGC 20090116
 
682
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
683
        end_revision)
 
684
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
685
        direction, generate_merge_revisions or specific_fileid))
 
686
    if specific_fileid:
 
687
        view_revisions = _filter_revisions_touching_file_id(branch,
 
688
            specific_fileid, view_revisions,
 
689
            include_merges=generate_merge_revisions)
 
690
    return _rebase_merge_depth(view_revisions)
 
691
 
 
692
 
 
693
def _rebase_merge_depth(view_revisions):
 
694
    """Adjust depths upwards so the top level is 0."""
 
695
    # If either the first or last revision have a merge_depth of 0, we're done
 
696
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
 
697
        min_depth = min([d for r,n,d in view_revisions])
 
698
        if min_depth != 0:
 
699
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
 
700
    return view_revisions
 
701
 
 
702
 
 
703
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
704
        file_ids=None, direction='reverse'):
 
705
    """Create a revision iterator for log.
 
706
 
 
707
    :param branch: The branch being logged.
 
708
    :param view_revisions: The revisions being viewed.
 
709
    :param generate_delta: Whether to generate a delta for each revision.
 
710
      Permitted values are None, 'full' and 'partial'.
 
711
    :param search: A user text search string.
 
712
    :param file_ids: If non empty, only revisions matching one or more of
 
713
      the file-ids are to be kept.
 
714
    :param direction: the direction in which view_revisions is sorted
 
715
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
716
        delta).
 
717
    """
 
718
    # Convert view_revisions into (view, None, None) groups to fit with
 
719
    # the standard interface here.
 
720
    if type(view_revisions) == list:
 
721
        # A single batch conversion is faster than many incremental ones.
 
722
        # As we have all the data, do a batch conversion.
 
723
        nones = [None] * len(view_revisions)
 
724
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
725
    else:
 
726
        def _convert():
 
727
            for view in view_revisions:
 
728
                yield (view, None, None)
 
729
        log_rev_iterator = iter([_convert()])
 
730
    for adapter in log_adapters:
 
731
        # It would be nicer if log adapters were first class objects
 
732
        # with custom parameters. This will do for now. IGC 20090127
 
733
        if adapter == _make_delta_filter:
 
734
            log_rev_iterator = adapter(branch, generate_delta,
 
735
                search, log_rev_iterator, file_ids, direction)
 
736
        else:
 
737
            log_rev_iterator = adapter(branch, generate_delta,
 
738
                search, log_rev_iterator)
 
739
    return log_rev_iterator
 
740
 
 
741
 
 
742
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
743
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
744
 
 
745
    :param branch: The branch being logged.
 
746
    :param generate_delta: Whether to generate a delta for each revision.
 
747
    :param search: A user text search string.
 
748
    :param log_rev_iterator: An input iterator containing all revisions that
 
749
        could be displayed, in lists.
 
750
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
751
        delta).
 
752
    """
 
753
    if search is None:
 
754
        return log_rev_iterator
 
755
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
756
            'log message filter')
 
757
    return _filter_message_re(searchRE, log_rev_iterator)
 
758
 
 
759
 
 
760
def _filter_message_re(searchRE, log_rev_iterator):
 
761
    for revs in log_rev_iterator:
 
762
        new_revs = []
 
763
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
764
            if searchRE.search(rev.message):
 
765
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
766
        yield new_revs
 
767
 
 
768
 
 
769
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
770
    fileids=None, direction='reverse'):
 
771
    """Add revision deltas to a log iterator if needed.
 
772
 
 
773
    :param branch: The branch being logged.
 
774
    :param generate_delta: Whether to generate a delta for each revision.
 
775
      Permitted values are None, 'full' and 'partial'.
 
776
    :param search: A user text search string.
 
777
    :param log_rev_iterator: An input iterator containing all revisions that
 
778
        could be displayed, in lists.
 
779
    :param fileids: If non empty, only revisions matching one or more of
 
780
      the file-ids are to be kept.
 
781
    :param direction: the direction in which view_revisions is sorted
 
782
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
783
        delta).
 
784
    """
 
785
    if not generate_delta and not fileids:
 
786
        return log_rev_iterator
 
787
    return _generate_deltas(branch.repository, log_rev_iterator,
 
788
        generate_delta, fileids, direction)
 
789
 
 
790
 
 
791
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
792
    direction):
 
793
    """Create deltas for each batch of revisions in log_rev_iterator.
 
794
 
 
795
    If we're only generating deltas for the sake of filtering against
 
796
    file-ids, we stop generating deltas once all file-ids reach the
 
797
    appropriate life-cycle point. If we're receiving data newest to
 
798
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
799
    """
 
800
    check_fileids = fileids is not None and len(fileids) > 0
 
801
    if check_fileids:
 
802
        fileid_set = set(fileids)
 
803
        if direction == 'reverse':
 
804
            stop_on = 'add'
 
805
        else:
 
806
            stop_on = 'remove'
 
807
    else:
 
808
        fileid_set = None
 
809
    for revs in log_rev_iterator:
 
810
        # If we were matching against fileids and we've run out,
 
811
        # there's nothing left to do
 
812
        if check_fileids and not fileid_set:
 
813
            return
 
814
        revisions = [rev[1] for rev in revs]
 
815
        new_revs = []
 
816
        if delta_type == 'full' and not check_fileids:
 
817
            deltas = repository.get_deltas_for_revisions(revisions)
 
818
            for rev, delta in izip(revs, deltas):
 
819
                new_revs.append((rev[0], rev[1], delta))
 
820
        else:
 
821
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
822
            for rev, delta in izip(revs, deltas):
 
823
                if check_fileids:
 
824
                    if delta is None or not delta.has_changed():
 
825
                        continue
 
826
                    else:
 
827
                        _update_fileids(delta, fileid_set, stop_on)
 
828
                        if delta_type is None:
 
829
                            delta = None
 
830
                        elif delta_type == 'full':
 
831
                            # If the file matches all the time, rebuilding
 
832
                            # a full delta like this in addition to a partial
 
833
                            # one could be slow. However, it's likely that
 
834
                            # most revisions won't get this far, making it
 
835
                            # faster to filter on the partial deltas and
 
836
                            # build the occasional full delta than always
 
837
                            # building full deltas and filtering those.
 
838
                            rev_id = rev[0][0]
 
839
                            delta = repository.get_revision_delta(rev_id)
 
840
                new_revs.append((rev[0], rev[1], delta))
 
841
        yield new_revs
 
842
 
 
843
 
 
844
def _update_fileids(delta, fileids, stop_on):
 
845
    """Update the set of file-ids to search based on file lifecycle events.
 
846
    
 
847
    :param fileids: a set of fileids to update
 
848
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
849
      fileids set once their add or remove entry is detected respectively
 
850
    """
 
851
    if stop_on == 'add':
 
852
        for item in delta.added:
 
853
            if item[1] in fileids:
 
854
                fileids.remove(item[1])
 
855
    elif stop_on == 'delete':
 
856
        for item in delta.removed:
 
857
            if item[1] in fileids:
 
858
                fileids.remove(item[1])
 
859
 
 
860
 
 
861
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
862
    """Extract revision objects from the repository
 
863
 
 
864
    :param branch: The branch being logged.
 
865
    :param generate_delta: Whether to generate a delta for each revision.
 
866
    :param search: A user text search string.
 
867
    :param log_rev_iterator: An input iterator containing all revisions that
 
868
        could be displayed, in lists.
 
869
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
870
        delta).
 
871
    """
 
872
    repository = branch.repository
 
873
    for revs in log_rev_iterator:
 
874
        # r = revision_id, n = revno, d = merge depth
 
875
        revision_ids = [view[0] for view, _, _ in revs]
 
876
        revisions = repository.get_revisions(revision_ids)
 
877
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
878
            izip(revs, revisions)]
 
879
        yield revs
 
880
 
 
881
 
 
882
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
883
    """Group up a single large batch into smaller ones.
 
884
 
 
885
    :param branch: The branch being logged.
 
886
    :param generate_delta: Whether to generate a delta for each revision.
 
887
    :param search: A user text search string.
 
888
    :param log_rev_iterator: An input iterator containing all revisions that
 
889
        could be displayed, in lists.
 
890
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
891
        delta).
 
892
    """
 
893
    repository = branch.repository
 
894
    num = 9
 
895
    for batch in log_rev_iterator:
 
896
        batch = iter(batch)
 
897
        while True:
 
898
            step = [detail for _, detail in zip(range(num), batch)]
 
899
            if len(step) == 0:
 
900
                break
 
901
            yield step
 
902
            num = min(int(num * 1.5), 200)
 
903
 
 
904
 
 
905
def _get_revision_limits(branch, start_revision, end_revision):
 
906
    """Get and check revision limits.
 
907
 
 
908
    :param  branch: The branch containing the revisions.
 
909
 
 
910
    :param  start_revision: The first revision to be logged.
 
911
            For backwards compatibility this may be a mainline integer revno,
 
912
            but for merge revision support a RevisionInfo is expected.
 
913
 
 
914
    :param  end_revision: The last revision to be logged.
 
915
            For backwards compatibility this may be a mainline integer revno,
 
916
            but for merge revision support a RevisionInfo is expected.
 
917
 
 
918
    :return: (start_rev_id, end_rev_id) tuple.
 
919
    """
 
920
    branch_revno, branch_rev_id = branch.last_revision_info()
 
921
    start_rev_id = None
 
922
    if start_revision is None:
 
923
        start_revno = 1
 
924
    else:
 
925
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
926
            start_rev_id = start_revision.rev_id
 
927
            start_revno = start_revision.revno or 1
 
928
        else:
 
929
            branch.check_real_revno(start_revision)
 
930
            start_revno = start_revision
 
931
            start_rev_id = branch.get_rev_id(start_revno)
 
932
 
 
933
    end_rev_id = None
 
934
    if end_revision is None:
 
935
        end_revno = branch_revno
 
936
    else:
 
937
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
938
            end_rev_id = end_revision.rev_id
 
939
            end_revno = end_revision.revno or branch_revno
 
940
        else:
 
941
            branch.check_real_revno(end_revision)
 
942
            end_revno = end_revision
 
943
            end_rev_id = branch.get_rev_id(end_revno)
 
944
 
 
945
    if branch_revno != 0:
 
946
        if (start_rev_id == _mod_revision.NULL_REVISION
 
947
            or end_rev_id == _mod_revision.NULL_REVISION):
 
948
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
949
        if start_revno > end_revno:
 
950
            raise errors.BzrCommandError("Start revision must be older than "
 
951
                                         "the end revision.")
 
952
    return (start_rev_id, end_rev_id)
 
953
 
 
954
 
 
955
def _get_mainline_revs(branch, start_revision, end_revision):
 
956
    """Get the mainline revisions from the branch.
 
957
 
 
958
    Generates the list of mainline revisions for the branch.
 
959
 
 
960
    :param  branch: The branch containing the revisions.
 
961
 
 
962
    :param  start_revision: The first revision to be logged.
 
963
            For backwards compatibility this may be a mainline integer revno,
 
964
            but for merge revision support a RevisionInfo is expected.
 
965
 
 
966
    :param  end_revision: The last revision to be logged.
 
967
            For backwards compatibility this may be a mainline integer revno,
 
968
            but for merge revision support a RevisionInfo is expected.
 
969
 
 
970
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
 
971
    """
 
972
    branch_revno, branch_last_revision = branch.last_revision_info()
 
973
    if branch_revno == 0:
 
974
        return None, None, None, None
 
975
 
 
976
    # For mainline generation, map start_revision and end_revision to
 
977
    # mainline revnos. If the revision is not on the mainline choose the
 
978
    # appropriate extreme of the mainline instead - the extra will be
 
979
    # filtered later.
 
980
    # Also map the revisions to rev_ids, to be used in the later filtering
 
981
    # stage.
 
982
    start_rev_id = None
 
983
    if start_revision is None:
 
984
        start_revno = 1
 
985
    else:
 
986
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
987
            start_rev_id = start_revision.rev_id
 
988
            start_revno = start_revision.revno or 1
 
989
        else:
 
990
            branch.check_real_revno(start_revision)
 
991
            start_revno = start_revision
 
992
 
 
993
    end_rev_id = None
 
994
    if end_revision is None:
 
995
        end_revno = branch_revno
 
996
    else:
 
997
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
998
            end_rev_id = end_revision.rev_id
 
999
            end_revno = end_revision.revno or branch_revno
 
1000
        else:
 
1001
            branch.check_real_revno(end_revision)
 
1002
            end_revno = end_revision
 
1003
 
 
1004
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1005
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1006
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
1007
    if start_revno > end_revno:
 
1008
        raise errors.BzrCommandError("Start revision must be older than "
 
1009
                                     "the end revision.")
 
1010
 
 
1011
    if end_revno < start_revno:
 
1012
        return None, None, None, None
 
1013
    cur_revno = branch_revno
 
1014
    rev_nos = {}
 
1015
    mainline_revs = []
 
1016
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1017
                        branch_last_revision):
 
1018
        if cur_revno < start_revno:
 
1019
            # We have gone far enough, but we always add 1 more revision
 
1020
            rev_nos[revision_id] = cur_revno
 
1021
            mainline_revs.append(revision_id)
 
1022
            break
 
1023
        if cur_revno <= end_revno:
 
1024
            rev_nos[revision_id] = cur_revno
 
1025
            mainline_revs.append(revision_id)
 
1026
        cur_revno -= 1
 
1027
    else:
 
1028
        # We walked off the edge of all revisions, so we add a 'None' marker
 
1029
        mainline_revs.append(None)
 
1030
 
 
1031
    mainline_revs.reverse()
 
1032
 
 
1033
    # override the mainline to look like the revision history.
 
1034
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
 
1035
 
 
1036
 
 
1037
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
 
1038
    """Filter view_revisions based on revision ranges.
 
1039
 
 
1040
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1041
            tuples to be filtered.
 
1042
 
 
1043
    :param start_rev_id: If not NONE specifies the first revision to be logged.
 
1044
            If NONE then all revisions up to the end_rev_id are logged.
 
1045
 
 
1046
    :param end_rev_id: If not NONE specifies the last revision to be logged.
 
1047
            If NONE then all revisions up to the end of the log are logged.
 
1048
 
 
1049
    :return: The filtered view_revisions.
 
1050
    """
 
1051
    # This method is no longer called by the main code path.
 
1052
    # It may be removed soon. IGC 20090127
 
1053
    if start_rev_id or end_rev_id:
 
1054
        revision_ids = [r for r, n, d in view_revisions]
 
1055
        if start_rev_id:
 
1056
            start_index = revision_ids.index(start_rev_id)
 
1057
        else:
 
1058
            start_index = 0
 
1059
        if start_rev_id == end_rev_id:
 
1060
            end_index = start_index
 
1061
        else:
 
1062
            if end_rev_id:
 
1063
                end_index = revision_ids.index(end_rev_id)
 
1064
            else:
 
1065
                end_index = len(view_revisions) - 1
 
1066
        # To include the revisions merged into the last revision,
 
1067
        # extend end_rev_id down to, but not including, the next rev
 
1068
        # with the same or lesser merge_depth
 
1069
        end_merge_depth = view_revisions[end_index][2]
 
1070
        try:
 
1071
            for index in xrange(end_index+1, len(view_revisions)+1):
 
1072
                if view_revisions[index][2] <= end_merge_depth:
 
1073
                    end_index = index - 1
 
1074
                    break
 
1075
        except IndexError:
 
1076
            # if the search falls off the end then log to the end as well
 
1077
            end_index = len(view_revisions) - 1
 
1078
        view_revisions = view_revisions[start_index:end_index+1]
 
1079
    return view_revisions
 
1080
 
 
1081
 
 
1082
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1083
    include_merges=True):
 
1084
    r"""Return the list of revision ids which touch a given file id.
 
1085
 
 
1086
    The function filters view_revisions and returns a subset.
 
1087
    This includes the revisions which directly change the file id,
 
1088
    and the revisions which merge these changes. So if the
 
1089
    revision graph is::
 
1090
        A-.
 
1091
        |\ \
 
1092
        B C E
 
1093
        |/ /
 
1094
        D |
 
1095
        |\|
 
1096
        | F
 
1097
        |/
 
1098
        G
 
1099
 
 
1100
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1101
    returned even though it brings the changes to C into the branch starting
 
1102
    with E. (Note that if we were using F as the tip instead of G, then we
 
1103
    would see C, D, F.)
 
1104
 
 
1105
    This will also be restricted based on a subset of the mainline.
 
1106
 
 
1107
    :param branch: The branch where we can get text revision information.
 
1108
 
 
1109
    :param file_id: Filter out revisions that do not touch file_id.
 
1110
 
 
1111
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1112
        tuples. This is the list of revisions which will be filtered. It is
 
1113
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1114
        revision first ).
 
1115
 
 
1116
    :param include_merges: include merge revisions in the result or not
 
1117
 
 
1118
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
 
1119
    """
 
1120
    # Lookup all possible text keys to determine which ones actually modified
 
1121
    # the file.
 
1122
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1123
    next_keys = None
 
1124
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1125
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1126
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1127
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1128
    #       indexing layer. We might consider passing in hints as to the known
 
1129
    #       access pattern (sparse/clustered, high success rate/low success
 
1130
    #       rate). This particular access is clustered with a low success rate.
 
1131
    get_parent_map = branch.repository.texts.get_parent_map
 
1132
    modified_text_revisions = set()
 
1133
    chunk_size = 1000
 
1134
    for start in xrange(0, len(text_keys), chunk_size):
 
1135
        next_keys = text_keys[start:start + chunk_size]
 
1136
        # Only keep the revision_id portion of the key
 
1137
        modified_text_revisions.update(
 
1138
            [k[1] for k in get_parent_map(next_keys)])
 
1139
    del text_keys, next_keys
 
1140
 
 
1141
    result = []
 
1142
    # Track what revisions will merge the current revision, replace entries
 
1143
    # with 'None' when they have been added to result
 
1144
    current_merge_stack = [None]
 
1145
    for info in view_revisions:
 
1146
        rev_id, revno, depth = info
 
1147
        if depth == len(current_merge_stack):
 
1148
            current_merge_stack.append(info)
 
1149
        else:
 
1150
            del current_merge_stack[depth + 1:]
 
1151
            current_merge_stack[-1] = info
 
1152
 
 
1153
        if rev_id in modified_text_revisions:
 
1154
            # This needs to be logged, along with the extra revisions
 
1155
            for idx in xrange(len(current_merge_stack)):
 
1156
                node = current_merge_stack[idx]
 
1157
                if node is not None:
 
1158
                    if include_merges or node[2] == 0:
 
1159
                        result.append(node)
 
1160
                        current_merge_stack[idx] = None
 
1161
    return result
 
1162
 
 
1163
 
 
1164
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
 
1165
                       include_merges=True):
 
1166
    """Produce an iterator of revisions to show
 
1167
    :return: an iterator of (revision_id, revno, merge_depth)
 
1168
    (if there is no revno for a revision, None is supplied)
 
1169
    """
 
1170
    # This method is no longer called by the main code path.
 
1171
    # It is retained for API compatibility and may be deprecated
 
1172
    # soon. IGC 20090127
 
1173
    if not include_merges:
 
1174
        revision_ids = mainline_revs[1:]
 
1175
        if direction == 'reverse':
 
1176
            revision_ids.reverse()
 
1177
        for revision_id in revision_ids:
 
1178
            yield revision_id, str(rev_nos[revision_id]), 0
 
1179
        return
 
1180
    graph = branch.repository.get_graph()
 
1181
    # This asks for all mainline revisions, which means we only have to spider
 
1182
    # sideways, rather than depth history. That said, its still size-of-history
 
1183
    # and should be addressed.
 
1184
    # mainline_revisions always includes an extra revision at the beginning, so
 
1185
    # don't request it.
 
1186
    parent_map = dict(((key, value) for key, value in
 
1187
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1188
    # filter out ghosts; merge_sort errors on ghosts.
 
1189
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1190
    merge_sorted_revisions = tsort.merge_sort(
 
1191
        rev_graph,
 
1192
        mainline_revs[-1],
 
1193
        mainline_revs,
 
1194
        generate_revno=True)
 
1195
 
 
1196
    if direction == 'forward':
 
1197
        # forward means oldest first.
 
1198
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
 
1199
    elif direction != 'reverse':
 
1200
        raise ValueError('invalid direction %r' % direction)
 
1201
 
 
1202
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1203
         ) in merge_sorted_revisions:
 
1204
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
1205
 
 
1206
 
 
1207
def reverse_by_depth(merge_sorted_revisions, _depth=0):
 
1208
    """Reverse revisions by depth.
 
1209
 
 
1210
    Revisions with a different depth are sorted as a group with the previous
 
1211
    revision of that depth.  There may be no topological justification for this,
 
1212
    but it looks much nicer.
 
1213
    """
 
1214
    # Add a fake revision at start so that we can always attach sub revisions
 
1215
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
 
1216
    zd_revisions = []
 
1217
    for val in merge_sorted_revisions:
 
1218
        if val[2] == _depth:
 
1219
            # Each revision at the current depth becomes a chunk grouping all
 
1220
            # higher depth revisions.
 
1221
            zd_revisions.append([val])
 
1222
        else:
 
1223
            zd_revisions[-1].append(val)
 
1224
    for revisions in zd_revisions:
 
1225
        if len(revisions) > 1:
 
1226
            # We have higher depth revisions, let reverse them locally
 
1227
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
 
1228
    zd_revisions.reverse()
 
1229
    result = []
 
1230
    for chunk in zd_revisions:
 
1231
        result.extend(chunk)
 
1232
    if _depth == 0:
 
1233
        # Top level call, get rid of the fake revisions that have been added
 
1234
        result = [r for r in result if r[0] is not None and r[1] is not None]
 
1235
    return result
 
1236
 
 
1237
 
 
1238
class LogRevision(object):
 
1239
    """A revision to be logged (by LogFormatter.log_revision).
 
1240
 
 
1241
    A simple wrapper for the attributes of a revision to be logged.
 
1242
    The attributes may or may not be populated, as determined by the
 
1243
    logging options and the log formatter capabilities.
 
1244
    """
 
1245
 
 
1246
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
 
1247
                 tags=None, diff=None):
 
1248
        self.rev = rev
 
1249
        self.revno = str(revno)
 
1250
        self.merge_depth = merge_depth
 
1251
        self.delta = delta
 
1252
        self.tags = tags
 
1253
        self.diff = diff
 
1254
 
 
1255
 
 
1256
class LogFormatter(object):
 
1257
    """Abstract class to display log messages.
 
1258
 
 
1259
    At a minimum, a derived class must implement the log_revision method.
 
1260
 
 
1261
    If the LogFormatter needs to be informed of the beginning or end of
 
1262
    a log it should implement the begin_log and/or end_log hook methods.
 
1263
 
 
1264
    A LogFormatter should define the following supports_XXX flags
 
1265
    to indicate which LogRevision attributes it supports:
 
1266
 
 
1267
    - supports_delta must be True if this log formatter supports delta.
 
1268
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1269
        attribute describes whether the 'short_status' format (1) or the long
 
1270
        one (2) should be used.
 
1271
 
 
1272
    - supports_merge_revisions must be True if this log formatter supports
 
1273
        merge revisions.  If not, then only mainline revisions will be passed
 
1274
        to the formatter.
 
1275
 
 
1276
    - preferred_levels is the number of levels this formatter defaults to.
 
1277
        The default value is zero meaning display all levels.
 
1278
        This value is only relevant if supports_merge_revisions is True.
 
1279
 
 
1280
    - supports_tags must be True if this log formatter supports tags.
 
1281
        Otherwise the tags attribute may not be populated.
 
1282
 
 
1283
    - supports_diff must be True if this log formatter supports diffs.
 
1284
        Otherwise the diff attribute may not be populated.
 
1285
 
 
1286
    Plugins can register functions to show custom revision properties using
 
1287
    the properties_handler_registry. The registered function
 
1288
    must respect the following interface description:
 
1289
        def my_show_properties(properties_dict):
 
1290
            # code that returns a dict {'name':'value'} of the properties
 
1291
            # to be shown
 
1292
    """
 
1293
    preferred_levels = 0
 
1294
 
 
1295
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1296
            delta_format=None, levels=None, show_advice=False):
 
1297
        """Create a LogFormatter.
 
1298
 
 
1299
        :param to_file: the file to output to
 
1300
        :param show_ids: if True, revision-ids are to be displayed
 
1301
        :param show_timezone: the timezone to use
 
1302
        :param delta_format: the level of delta information to display
 
1303
          or None to leave it to the formatter to decide
 
1304
        :param levels: the number of levels to display; None or -1 to
 
1305
          let the log formatter decide.
 
1306
        :param show_advice: whether to show advice at the end of the
 
1307
          log or not
 
1308
        """
 
1309
        self.to_file = to_file
 
1310
        # 'exact' stream used to show diff, it should print content 'as is'
 
1311
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1312
        self.to_exact_file = getattr(to_file, 'stream', to_file)
 
1313
        self.show_ids = show_ids
 
1314
        self.show_timezone = show_timezone
 
1315
        if delta_format is None:
 
1316
            # Ensures backward compatibility
 
1317
            delta_format = 2 # long format
 
1318
        self.delta_format = delta_format
 
1319
        self.levels = levels
 
1320
        self._show_advice = show_advice
 
1321
        self._merge_count = 0
 
1322
 
 
1323
    def get_levels(self):
 
1324
        """Get the number of levels to display or 0 for all."""
 
1325
        if getattr(self, 'supports_merge_revisions', False):
 
1326
            if self.levels is None or self.levels == -1:
 
1327
                self.levels = self.preferred_levels
 
1328
        else:
 
1329
            self.levels = 1
 
1330
        return self.levels
 
1331
 
 
1332
    def log_revision(self, revision):
 
1333
        """Log a revision.
 
1334
 
 
1335
        :param  revision:   The LogRevision to be logged.
 
1336
        """
 
1337
        raise NotImplementedError('not implemented in abstract base')
 
1338
 
 
1339
    def show_advice(self):
 
1340
        """Output user advice, if any, when the log is completed."""
 
1341
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1342
            advice_sep = self.get_advice_separator()
 
1343
            if advice_sep:
 
1344
                self.to_file.write(advice_sep)
 
1345
            self.to_file.write(
 
1346
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1347
 
 
1348
    def get_advice_separator(self):
 
1349
        """Get the text separating the log from the closing advice."""
 
1350
        return ''
 
1351
 
 
1352
    def short_committer(self, rev):
 
1353
        name, address = config.parse_username(rev.committer)
 
1354
        if name:
 
1355
            return name
 
1356
        return address
 
1357
 
 
1358
    def short_author(self, rev):
 
1359
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1360
        if name:
 
1361
            return name
 
1362
        return address
 
1363
 
 
1364
    def merge_marker(self, revision):
 
1365
        """Get the merge marker to include in the output or '' if none."""
 
1366
        if len(revision.rev.parent_ids) > 1:
 
1367
            self._merge_count += 1
 
1368
            return ' [merge]'
 
1369
        else:
 
1370
            return ''
 
1371
 
 
1372
    def show_properties(self, revision, indent):
 
1373
        """Displays the custom properties returned by each registered handler.
 
1374
 
 
1375
        If a registered handler raises an error it is propagated.
 
1376
        """
 
1377
        for line in self.custom_properties(revision):
 
1378
            self.to_file.write("%s%s\n" % (indent, line))
 
1379
 
 
1380
    def custom_properties(self, revision):
 
1381
        """Format the custom properties returned by each registered handler.
 
1382
 
 
1383
        If a registered handler raises an error it is propagated.
 
1384
 
 
1385
        :return: a list of formatted lines (excluding trailing newlines)
 
1386
        """
 
1387
        lines = self._foreign_info_properties(revision)
 
1388
        for key, handler in properties_handler_registry.iteritems():
 
1389
            lines.extend(self._format_properties(handler(revision)))
 
1390
        return lines
 
1391
 
 
1392
    def _foreign_info_properties(self, rev):
 
1393
        """Custom log displayer for foreign revision identifiers.
 
1394
 
 
1395
        :param rev: Revision object.
 
1396
        """
 
1397
        # Revision comes directly from a foreign repository
 
1398
        if isinstance(rev, foreign.ForeignRevision):
 
1399
            return rev.mapping.vcs.show_foreign_revid(rev.foreign_revid)
 
1400
 
 
1401
        # Imported foreign revision revision ids always contain :
 
1402
        if not ":" in rev.revision_id:
 
1403
            return []
 
1404
 
 
1405
        # Revision was once imported from a foreign repository
 
1406
        try:
 
1407
            foreign_revid, mapping = \
 
1408
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1409
        except errors.InvalidRevisionId:
 
1410
            return []
 
1411
 
 
1412
        return self._format_properties(
 
1413
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1414
 
 
1415
    def _format_properties(self, properties):
 
1416
        lines = []
 
1417
        for key, value in properties.items():
 
1418
            lines.append(key + ': ' + value)
 
1419
        return lines
 
1420
 
 
1421
    def show_diff(self, to_file, diff, indent):
 
1422
        for l in diff.rstrip().split('\n'):
 
1423
            to_file.write(indent + '%s\n' % (l,))
 
1424
 
 
1425
 
 
1426
# Separator between revisions in long format
 
1427
_LONG_SEP = '-' * 60
 
1428
 
 
1429
 
 
1430
class LongLogFormatter(LogFormatter):
 
1431
 
 
1432
    supports_merge_revisions = True
 
1433
    preferred_levels = 1
 
1434
    supports_delta = True
 
1435
    supports_tags = True
 
1436
    supports_diff = True
 
1437
 
 
1438
    def __init__(self, *args, **kwargs):
 
1439
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1440
        if self.show_timezone == 'original':
 
1441
            self.date_string = self._date_string_original_timezone
 
1442
        else:
 
1443
            self.date_string = self._date_string_with_timezone
 
1444
 
 
1445
    def _date_string_with_timezone(self, rev):
 
1446
        return format_date(rev.timestamp, rev.timezone or 0,
 
1447
                           self.show_timezone)
 
1448
 
 
1449
    def _date_string_original_timezone(self, rev):
 
1450
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1451
            rev.timezone or 0)
 
1452
 
 
1453
    def log_revision(self, revision):
 
1454
        """Log a revision, either merged or not."""
 
1455
        indent = '    ' * revision.merge_depth
 
1456
        lines = [_LONG_SEP]
 
1457
        if revision.revno is not None:
 
1458
            lines.append('revno: %s%s' % (revision.revno,
 
1459
                self.merge_marker(revision)))
 
1460
        if revision.tags:
 
1461
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1462
        if self.show_ids:
 
1463
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
1464
            for parent_id in revision.rev.parent_ids:
 
1465
                lines.append('parent: %s' % (parent_id,))
 
1466
        lines.extend(self.custom_properties(revision.rev))
 
1467
 
 
1468
        committer = revision.rev.committer
 
1469
        authors = revision.rev.get_apparent_authors()
 
1470
        if authors != [committer]:
 
1471
            lines.append('author: %s' % (", ".join(authors),))
 
1472
        lines.append('committer: %s' % (committer,))
 
1473
 
 
1474
        branch_nick = revision.rev.properties.get('branch-nick', None)
 
1475
        if branch_nick is not None:
 
1476
            lines.append('branch nick: %s' % (branch_nick,))
 
1477
 
 
1478
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1479
 
 
1480
        lines.append('message:')
 
1481
        if not revision.rev.message:
 
1482
            lines.append('  (no message)')
 
1483
        else:
 
1484
            message = revision.rev.message.rstrip('\r\n')
 
1485
            for l in message.split('\n'):
 
1486
                lines.append('  %s' % (l,))
 
1487
 
 
1488
        # Dump the output, appending the delta and diff if requested
 
1489
        to_file = self.to_file
 
1490
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1491
        if revision.delta is not None:
 
1492
            # We don't respect delta_format for compatibility
 
1493
            revision.delta.show(to_file, self.show_ids, indent=indent,
 
1494
                                short_status=False)
 
1495
        if revision.diff is not None:
 
1496
            to_file.write(indent + 'diff:\n')
 
1497
            # Note: we explicitly don't indent the diff (relative to the
 
1498
            # revision information) so that the output can be fed to patch -p0
 
1499
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1500
 
 
1501
    def get_advice_separator(self):
 
1502
        """Get the text separating the log from the closing advice."""
 
1503
        return '-' * 60 + '\n'
 
1504
 
 
1505
 
 
1506
class ShortLogFormatter(LogFormatter):
 
1507
 
 
1508
    supports_merge_revisions = True
 
1509
    preferred_levels = 1
 
1510
    supports_delta = True
 
1511
    supports_tags = True
 
1512
    supports_diff = True
 
1513
 
 
1514
    def __init__(self, *args, **kwargs):
 
1515
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1516
        self.revno_width_by_depth = {}
 
1517
 
 
1518
    def log_revision(self, revision):
 
1519
        # We need two indents: one per depth and one for the information
 
1520
        # relative to that indent. Most mainline revnos are 5 chars or
 
1521
        # less while dotted revnos are typically 11 chars or less. Once
 
1522
        # calculated, we need to remember the offset for a given depth
 
1523
        # as we might be starting from a dotted revno in the first column
 
1524
        # and we want subsequent mainline revisions to line up.
 
1525
        depth = revision.merge_depth
 
1526
        indent = '    ' * depth
 
1527
        revno_width = self.revno_width_by_depth.get(depth)
 
1528
        if revno_width is None:
 
1529
            if revision.revno.find('.') == -1:
 
1530
                # mainline revno, e.g. 12345
 
1531
                revno_width = 5
 
1532
            else:
 
1533
                # dotted revno, e.g. 12345.10.55
 
1534
                revno_width = 11
 
1535
            self.revno_width_by_depth[depth] = revno_width
 
1536
        offset = ' ' * (revno_width + 1)
 
1537
 
 
1538
        to_file = self.to_file
 
1539
        tags = ''
 
1540
        if revision.tags:
 
1541
            tags = ' {%s}' % (', '.join(revision.tags))
 
1542
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1543
                revision.revno, self.short_author(revision.rev),
 
1544
                format_date(revision.rev.timestamp,
 
1545
                            revision.rev.timezone or 0,
 
1546
                            self.show_timezone, date_fmt="%Y-%m-%d",
 
1547
                            show_offset=False),
 
1548
                tags, self.merge_marker(revision)))
 
1549
        self.show_properties(revision.rev, indent+offset)
 
1550
        if self.show_ids:
 
1551
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1552
                          % (revision.rev.revision_id,))
 
1553
        if not revision.rev.message:
 
1554
            to_file.write(indent + offset + '(no message)\n')
 
1555
        else:
 
1556
            message = revision.rev.message.rstrip('\r\n')
 
1557
            for l in message.split('\n'):
 
1558
                to_file.write(indent + offset + '%s\n' % (l,))
 
1559
 
 
1560
        if revision.delta is not None:
 
1561
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
 
1562
                                short_status=self.delta_format==1)
 
1563
        if revision.diff is not None:
 
1564
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
1565
        to_file.write('\n')
 
1566
 
 
1567
 
 
1568
class LineLogFormatter(LogFormatter):
 
1569
 
 
1570
    supports_merge_revisions = True
 
1571
    preferred_levels = 1
 
1572
    supports_tags = True
 
1573
 
 
1574
    def __init__(self, *args, **kwargs):
 
1575
        super(LineLogFormatter, self).__init__(*args, **kwargs)
 
1576
        self._max_chars = terminal_width() - 1
 
1577
 
 
1578
    def truncate(self, str, max_len):
 
1579
        if len(str) <= max_len:
 
1580
            return str
 
1581
        return str[:max_len-3]+'...'
 
1582
 
 
1583
    def date_string(self, rev):
 
1584
        return format_date(rev.timestamp, rev.timezone or 0,
 
1585
                           self.show_timezone, date_fmt="%Y-%m-%d",
 
1586
                           show_offset=False)
 
1587
 
 
1588
    def message(self, rev):
 
1589
        if not rev.message:
 
1590
            return '(no message)'
 
1591
        else:
 
1592
            return rev.message
 
1593
 
 
1594
    def log_revision(self, revision):
 
1595
        indent = '  ' * revision.merge_depth
 
1596
        self.to_file.write(self.log_string(revision.revno, revision.rev,
 
1597
            self._max_chars, revision.tags, indent))
 
1598
        self.to_file.write('\n')
 
1599
 
 
1600
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
1601
        """Format log info into one string. Truncate tail of string
 
1602
        :param  revno:      revision number or None.
 
1603
                            Revision numbers counts from 1.
 
1604
        :param  rev:        revision object
 
1605
        :param  max_chars:  maximum length of resulting string
 
1606
        :param  tags:       list of tags or None
 
1607
        :param  prefix:     string to prefix each line
 
1608
        :return:            formatted truncated string
 
1609
        """
 
1610
        out = []
 
1611
        if revno:
 
1612
            # show revno only when is not None
 
1613
            out.append("%s:" % revno)
 
1614
        out.append(self.truncate(self.short_author(rev), 20))
 
1615
        out.append(self.date_string(rev))
 
1616
        if len(rev.parent_ids) > 1:
 
1617
            out.append('[merge]')
 
1618
        if tags:
 
1619
            tag_str = '{%s}' % (', '.join(tags))
 
1620
            out.append(tag_str)
 
1621
        out.append(rev.get_summary())
 
1622
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1623
 
 
1624
 
 
1625
class GnuChangelogLogFormatter(LogFormatter):
 
1626
 
 
1627
    supports_merge_revisions = True
 
1628
    supports_delta = True
 
1629
 
 
1630
    def log_revision(self, revision):
 
1631
        """Log a revision, either merged or not."""
 
1632
        to_file = self.to_file
 
1633
 
 
1634
        date_str = format_date(revision.rev.timestamp,
 
1635
                               revision.rev.timezone or 0,
 
1636
                               self.show_timezone,
 
1637
                               date_fmt='%Y-%m-%d',
 
1638
                               show_offset=False)
 
1639
        committer_str = revision.rev.committer.replace (' <', '  <')
 
1640
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1641
 
 
1642
        if revision.delta is not None and revision.delta.has_changed():
 
1643
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1644
                path, = c[:1]
 
1645
                to_file.write('\t* %s:\n' % (path,))
 
1646
            for c in revision.delta.renamed:
 
1647
                oldpath,newpath = c[:2]
 
1648
                # For renamed files, show both the old and the new path
 
1649
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1650
            to_file.write('\n')
 
1651
 
 
1652
        if not revision.rev.message:
 
1653
            to_file.write('\tNo commit message\n')
 
1654
        else:
 
1655
            message = revision.rev.message.rstrip('\r\n')
 
1656
            for l in message.split('\n'):
 
1657
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1658
            to_file.write('\n')
 
1659
 
 
1660
 
 
1661
def line_log(rev, max_chars):
 
1662
    lf = LineLogFormatter(None)
 
1663
    return lf.log_string(None, rev, max_chars)
 
1664
 
 
1665
 
 
1666
class LogFormatterRegistry(registry.Registry):
 
1667
    """Registry for log formatters"""
 
1668
 
 
1669
    def make_formatter(self, name, *args, **kwargs):
 
1670
        """Construct a formatter from arguments.
 
1671
 
 
1672
        :param name: Name of the formatter to construct.  'short', 'long' and
 
1673
            'line' are built-in.
 
1674
        """
 
1675
        return self.get(name)(*args, **kwargs)
 
1676
 
 
1677
    def get_default(self, branch):
 
1678
        return self.get(branch.get_config().log_format())
 
1679
 
 
1680
 
 
1681
log_formatter_registry = LogFormatterRegistry()
 
1682
 
 
1683
 
 
1684
log_formatter_registry.register('short', ShortLogFormatter,
 
1685
                                'Moderately short log format')
 
1686
log_formatter_registry.register('long', LongLogFormatter,
 
1687
                                'Detailed log format')
 
1688
log_formatter_registry.register('line', LineLogFormatter,
 
1689
                                'Log format with one line per revision')
 
1690
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1691
                                'Format used by GNU ChangeLog files')
 
1692
 
 
1693
 
 
1694
def register_formatter(name, formatter):
 
1695
    log_formatter_registry.register(name, formatter)
 
1696
 
 
1697
 
 
1698
def log_formatter(name, *args, **kwargs):
 
1699
    """Construct a formatter from arguments.
 
1700
 
 
1701
    name -- Name of the formatter to construct; currently 'long', 'short' and
 
1702
        'line' are supported.
 
1703
    """
 
1704
    try:
 
1705
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
1706
    except KeyError:
 
1707
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
 
1708
 
 
1709
 
 
1710
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
 
1711
    # deprecated; for compatibility
 
1712
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
 
1713
    lf.show(revno, rev, delta)
 
1714
 
 
1715
 
 
1716
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
 
1717
                           log_format='long'):
 
1718
    """Show the change in revision history comparing the old revision history to the new one.
 
1719
 
 
1720
    :param branch: The branch where the revisions exist
 
1721
    :param old_rh: The old revision history
 
1722
    :param new_rh: The new revision history
 
1723
    :param to_file: A file to write the results to. If None, stdout will be used
 
1724
    """
 
1725
    if to_file is None:
 
1726
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
 
1727
            errors='replace')
 
1728
    lf = log_formatter(log_format,
 
1729
                       show_ids=False,
 
1730
                       to_file=to_file,
 
1731
                       show_timezone='original')
 
1732
 
 
1733
    # This is the first index which is different between
 
1734
    # old and new
 
1735
    base_idx = None
 
1736
    for i in xrange(max(len(new_rh),
 
1737
                        len(old_rh))):
 
1738
        if (len(new_rh) <= i
 
1739
            or len(old_rh) <= i
 
1740
            or new_rh[i] != old_rh[i]):
 
1741
            base_idx = i
 
1742
            break
 
1743
 
 
1744
    if base_idx is None:
 
1745
        to_file.write('Nothing seems to have changed\n')
 
1746
        return
 
1747
    ## TODO: It might be nice to do something like show_log
 
1748
    ##       and show the merged entries. But since this is the
 
1749
    ##       removed revisions, it shouldn't be as important
 
1750
    if base_idx < len(old_rh):
 
1751
        to_file.write('*'*60)
 
1752
        to_file.write('\nRemoved Revisions:\n')
 
1753
        for i in range(base_idx, len(old_rh)):
 
1754
            rev = branch.repository.get_revision(old_rh[i])
 
1755
            lr = LogRevision(rev, i+1, 0, None)
 
1756
            lf.log_revision(lr)
 
1757
        to_file.write('*'*60)
 
1758
        to_file.write('\n\n')
 
1759
    if base_idx < len(new_rh):
 
1760
        to_file.write('Added Revisions:\n')
 
1761
        show_log(branch,
 
1762
                 lf,
 
1763
                 None,
 
1764
                 verbose=False,
 
1765
                 direction='forward',
 
1766
                 start_revision=base_idx+1,
 
1767
                 end_revision=len(new_rh),
 
1768
                 search=None)
 
1769
 
 
1770
 
 
1771
def get_history_change(old_revision_id, new_revision_id, repository):
 
1772
    """Calculate the uncommon lefthand history between two revisions.
 
1773
 
 
1774
    :param old_revision_id: The original revision id.
 
1775
    :param new_revision_id: The new revision id.
 
1776
    :param repository: The repository to use for the calculation.
 
1777
 
 
1778
    return old_history, new_history
 
1779
    """
 
1780
    old_history = []
 
1781
    old_revisions = set()
 
1782
    new_history = []
 
1783
    new_revisions = set()
 
1784
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1785
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1786
    stop_revision = None
 
1787
    do_old = True
 
1788
    do_new = True
 
1789
    while do_new or do_old:
 
1790
        if do_new:
 
1791
            try:
 
1792
                new_revision = new_iter.next()
 
1793
            except StopIteration:
 
1794
                do_new = False
 
1795
            else:
 
1796
                new_history.append(new_revision)
 
1797
                new_revisions.add(new_revision)
 
1798
                if new_revision in old_revisions:
 
1799
                    stop_revision = new_revision
 
1800
                    break
 
1801
        if do_old:
 
1802
            try:
 
1803
                old_revision = old_iter.next()
 
1804
            except StopIteration:
 
1805
                do_old = False
 
1806
            else:
 
1807
                old_history.append(old_revision)
 
1808
                old_revisions.add(old_revision)
 
1809
                if old_revision in new_revisions:
 
1810
                    stop_revision = old_revision
 
1811
                    break
 
1812
    new_history.reverse()
 
1813
    old_history.reverse()
 
1814
    if stop_revision is not None:
 
1815
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1816
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1817
    return old_history, new_history
 
1818
 
 
1819
 
 
1820
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1821
    """Show the changes made to a branch.
 
1822
 
 
1823
    :param branch: The branch to show changes about.
 
1824
    :param output: A file-like object to write changes to.
 
1825
    :param old_revno: The revno of the old tip.
 
1826
    :param old_revision_id: The revision_id of the old tip.
 
1827
    """
 
1828
    new_revno, new_revision_id = branch.last_revision_info()
 
1829
    old_history, new_history = get_history_change(old_revision_id,
 
1830
                                                  new_revision_id,
 
1831
                                                  branch.repository)
 
1832
    if old_history == [] and new_history == []:
 
1833
        output.write('Nothing seems to have changed\n')
 
1834
        return
 
1835
 
 
1836
    log_format = log_formatter_registry.get_default(branch)
 
1837
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1838
    if old_history != []:
 
1839
        output.write('*'*60)
 
1840
        output.write('\nRemoved Revisions:\n')
 
1841
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
1842
        output.write('*'*60)
 
1843
        output.write('\n\n')
 
1844
    if new_history != []:
 
1845
        output.write('Added Revisions:\n')
 
1846
        start_revno = new_revno - len(new_history) + 1
 
1847
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1848
                 start_revision=start_revno,)
 
1849
 
 
1850
 
 
1851
def show_flat_log(repository, history, last_revno, lf):
 
1852
    """Show a simple log of the specified history.
 
1853
 
 
1854
    :param repository: The repository to retrieve revisions from.
 
1855
    :param history: A list of revision_ids indicating the lefthand history.
 
1856
    :param last_revno: The revno of the last revision_id in the history.
 
1857
    :param lf: The log formatter to use.
 
1858
    """
 
1859
    start_revno = last_revno - len(history) + 1
 
1860
    revisions = repository.get_revisions(history)
 
1861
    for i, rev in enumerate(revisions):
 
1862
        lr = LogRevision(rev, i + last_revno, 0, None)
 
1863
        lf.log_revision(lr)
 
1864
 
 
1865
 
 
1866
def _get_info_for_log_files(revisionspec_list, file_list):
 
1867
    """Find file-ids and kinds given a list of files and a revision range.
 
1868
 
 
1869
    We search for files at the end of the range. If not found there,
 
1870
    we try the start of the range.
 
1871
 
 
1872
    :param revisionspec_list: revision range as parsed on the command line
 
1873
    :param file_list: the list of paths given on the command line;
 
1874
      the first of these can be a branch location or a file path,
 
1875
      the remainder must be file paths
 
1876
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1877
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1878
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1879
      branch will be read-locked.
 
1880
    """
 
1881
    from builtins import _get_revision_range, safe_relpath_files
 
1882
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1883
    b.lock_read()
 
1884
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1885
    # those paths might be deleted ones, they might be on a case-insensitive
 
1886
    # filesystem and/or they might be in silly locations (like another branch).
 
1887
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1888
    # file2 implicitly in the same dir as file1 or should its directory be
 
1889
    # taken from the current tree somehow?) For now, this solves the common
 
1890
    # case of running log in a nested directory, assuming paths beyond the
 
1891
    # first one haven't been deleted ...
 
1892
    if tree:
 
1893
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1894
    else:
 
1895
        relpaths = [path] + file_list[1:]
 
1896
    info_list = []
 
1897
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1898
        "log")
 
1899
    if relpaths in ([], [u'']):
 
1900
        return b, [], start_rev_info, end_rev_info
 
1901
    if start_rev_info is None and end_rev_info is None:
 
1902
        if tree is None:
 
1903
            tree = b.basis_tree()
 
1904
        tree1 = None
 
1905
        for fp in relpaths:
 
1906
            file_id = tree.path2id(fp)
 
1907
            kind = _get_kind_for_file_id(tree, file_id)
 
1908
            if file_id is None:
 
1909
                # go back to when time began
 
1910
                if tree1 is None:
 
1911
                    try:
 
1912
                        rev1 = b.get_rev_id(1)
 
1913
                    except errors.NoSuchRevision:
 
1914
                        # No history at all
 
1915
                        file_id = None
 
1916
                        kind = None
 
1917
                    else:
 
1918
                        tree1 = b.repository.revision_tree(rev1)
 
1919
                if tree1:
 
1920
                    file_id = tree1.path2id(fp)
 
1921
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1922
            info_list.append((fp, file_id, kind))
 
1923
 
 
1924
    elif start_rev_info == end_rev_info:
 
1925
        # One revision given - file must exist in it
 
1926
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1927
        for fp in relpaths:
 
1928
            file_id = tree.path2id(fp)
 
1929
            kind = _get_kind_for_file_id(tree, file_id)
 
1930
            info_list.append((fp, file_id, kind))
 
1931
 
 
1932
    else:
 
1933
        # Revision range given. Get the file-id from the end tree.
 
1934
        # If that fails, try the start tree.
 
1935
        rev_id = end_rev_info.rev_id
 
1936
        if rev_id is None:
 
1937
            tree = b.basis_tree()
 
1938
        else:
 
1939
            tree = b.repository.revision_tree(rev_id)
 
1940
        tree1 = None
 
1941
        for fp in relpaths:
 
1942
            file_id = tree.path2id(fp)
 
1943
            kind = _get_kind_for_file_id(tree, file_id)
 
1944
            if file_id is None:
 
1945
                if tree1 is None:
 
1946
                    rev_id = start_rev_info.rev_id
 
1947
                    if rev_id is None:
 
1948
                        rev1 = b.get_rev_id(1)
 
1949
                        tree1 = b.repository.revision_tree(rev1)
 
1950
                    else:
 
1951
                        tree1 = b.repository.revision_tree(rev_id)
 
1952
                file_id = tree1.path2id(fp)
 
1953
                kind = _get_kind_for_file_id(tree1, file_id)
 
1954
            info_list.append((fp, file_id, kind))
 
1955
    return b, info_list, start_rev_info, end_rev_info
 
1956
 
 
1957
 
 
1958
def _get_kind_for_file_id(tree, file_id):
 
1959
    """Return the kind of a file-id or None if it doesn't exist."""
 
1960
    if file_id is not None:
 
1961
        return tree.kind(file_id)
 
1962
    else:
 
1963
        return None
 
1964
 
 
1965
 
 
1966
properties_handler_registry = registry.Registry()
 
1967
 
 
1968
 
 
1969
# adapters which revision ids to log are filtered. When log is called, the
 
1970
# log_rev_iterator is adapted through each of these factory methods.
 
1971
# Plugins are welcome to mutate this list in any way they like - as long
 
1972
# as the overall behaviour is preserved. At this point there is no extensible
 
1973
# mechanism for getting parameters to each factory method, and until there is
 
1974
# this won't be considered a stable api.
 
1975
log_adapters = [
 
1976
    # core log logic
 
1977
    _make_batch_filter,
 
1978
    # read revision objects
 
1979
    _make_revision_objects,
 
1980
    # filter on log messages
 
1981
    _make_search_filter,
 
1982
    # generate deltas for things we will show
 
1983
    _make_delta_filter
 
1984
    ]