/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Robert Collins
  • Date: 2010-05-06 11:08:10 UTC
  • mto: This revision was merged to the branch mainline in revision 5223.
  • Revision ID: robertc@robertcollins.net-20100506110810-h3j07fh5gmw54s25
Cleaner matcher matching revised unlocking protocol.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
 
18
18
 
65
65
lazy_import(globals(), """
66
66
 
67
67
from bzrlib import (
 
68
    bzrdir,
68
69
    config,
69
70
    diff,
70
71
    errors,
 
72
    foreign,
71
73
    repository as _mod_repository,
72
74
    revision as _mod_revision,
73
75
    revisionspec,
81
83
    )
82
84
from bzrlib.osutils import (
83
85
    format_date,
 
86
    format_date_with_offset_in_original_timezone,
84
87
    get_terminal_encoding,
 
88
    re_compile_checked,
85
89
    terminal_width,
86
90
    )
 
91
from bzrlib.symbol_versioning import (
 
92
    deprecated_function,
 
93
    deprecated_in,
 
94
    )
87
95
 
88
96
 
89
97
def find_touching_revisions(branch, file_id):
101
109
    last_path = None
102
110
    revno = 1
103
111
    for revision_id in branch.revision_history():
104
 
        this_inv = branch.repository.get_revision_inventory(revision_id)
 
112
        this_inv = branch.repository.get_inventory(revision_id)
105
113
        if file_id in this_inv:
106
114
            this_ie = this_inv[file_id]
107
115
            this_path = this_inv.id2path(file_id)
151
159
             show_diff=False):
152
160
    """Write out human-readable log of commits to this branch.
153
161
 
 
162
    This function is being retained for backwards compatibility but
 
163
    should not be extended with new parameters. Use the new Logger class
 
164
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
165
    make_log_request_dict function.
 
166
 
154
167
    :param lf: The LogFormatter object showing the output.
155
168
 
156
169
    :param specific_fileid: If not None, list only the commits affecting the
173
186
 
174
187
    :param show_diff: If True, output a diff after each revision.
175
188
    """
176
 
    branch.lock_read()
177
 
    try:
178
 
        if getattr(lf, 'begin_log', None):
179
 
            lf.begin_log()
180
 
 
181
 
        _show_log(branch, lf, specific_fileid, verbose, direction,
182
 
                  start_revision, end_revision, search, limit, show_diff)
183
 
 
184
 
        if getattr(lf, 'end_log', None):
185
 
            lf.end_log()
186
 
    finally:
187
 
        branch.unlock()
188
 
 
189
 
 
190
 
def _show_log(branch,
191
 
             lf,
192
 
             specific_fileid=None,
193
 
             verbose=False,
194
 
             direction='reverse',
195
 
             start_revision=None,
196
 
             end_revision=None,
197
 
             search=None,
198
 
             limit=None,
199
 
             show_diff=False):
200
 
    """Worker function for show_log - see show_log."""
201
 
    if not isinstance(lf, LogFormatter):
202
 
        warn("not a LogFormatter instance: %r" % lf)
203
 
    if specific_fileid:
204
 
        trace.mutter('get log for file_id %r', specific_fileid)
205
 
 
206
 
    # Consult the LogFormatter about what it needs and can handle
207
 
    levels_to_display = lf.get_levels()
208
 
    generate_merge_revisions = levels_to_display != 1
209
 
    allow_single_merge_revision = True
210
 
    if not getattr(lf, 'supports_merge_revisions', False):
211
 
        allow_single_merge_revision = getattr(lf,
212
 
            'supports_single_merge_revision', False)
213
 
    generate_tags = getattr(lf, 'supports_tags', False)
214
 
    if generate_tags and branch.supports_tags():
215
 
        rev_tag_dict = branch.tags.get_reverse_tag_dict()
216
 
    else:
217
 
        rev_tag_dict = {}
218
 
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
219
 
    generate_diff = show_diff and getattr(lf, 'supports_diff', False)
220
 
 
221
 
    # Find and print the interesting revisions
222
 
    repo = branch.repository
223
 
    log_count = 0
224
 
    revision_iterator = _create_log_revision_iterator(branch,
225
 
        start_revision, end_revision, direction, specific_fileid, search,
226
 
        generate_merge_revisions, allow_single_merge_revision,
227
 
        generate_delta, limited_output=limit > 0)
228
 
    for revs in revision_iterator:
229
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
230
 
            # Note: 0 levels means show everything; merge_depth counts from 0
231
 
            if levels_to_display != 0 and merge_depth >= levels_to_display:
232
 
                continue
233
 
            if generate_diff:
234
 
                diff = _format_diff(repo, rev, rev_id, specific_fileid)
235
 
            else:
236
 
                diff = None
237
 
            lr = LogRevision(rev, revno, merge_depth, delta,
238
 
                             rev_tag_dict.get(rev_id), diff)
 
189
    # Convert old-style parameters to new-style parameters
 
190
    if specific_fileid is not None:
 
191
        file_ids = [specific_fileid]
 
192
    else:
 
193
        file_ids = None
 
194
    if verbose:
 
195
        if file_ids:
 
196
            delta_type = 'partial'
 
197
        else:
 
198
            delta_type = 'full'
 
199
    else:
 
200
        delta_type = None
 
201
    if show_diff:
 
202
        if file_ids:
 
203
            diff_type = 'partial'
 
204
        else:
 
205
            diff_type = 'full'
 
206
    else:
 
207
        diff_type = None
 
208
 
 
209
    # Build the request and execute it
 
210
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
211
        start_revision=start_revision, end_revision=end_revision,
 
212
        limit=limit, message_search=search,
 
213
        delta_type=delta_type, diff_type=diff_type)
 
214
    Logger(branch, rqst).show(lf)
 
215
 
 
216
 
 
217
# Note: This needs to be kept this in sync with the defaults in
 
218
# make_log_request_dict() below
 
219
_DEFAULT_REQUEST_PARAMS = {
 
220
    'direction': 'reverse',
 
221
    'levels': 1,
 
222
    'generate_tags': True,
 
223
    'exclude_common_ancestry': False,
 
224
    '_match_using_deltas': True,
 
225
    }
 
226
 
 
227
 
 
228
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
229
                          start_revision=None, end_revision=None, limit=None,
 
230
                          message_search=None, levels=1, generate_tags=True,
 
231
                          delta_type=None,
 
232
                          diff_type=None, _match_using_deltas=True,
 
233
                          exclude_common_ancestry=False,
 
234
                          ):
 
235
    """Convenience function for making a logging request dictionary.
 
236
 
 
237
    Using this function may make code slightly safer by ensuring
 
238
    parameters have the correct names. It also provides a reference
 
239
    point for documenting the supported parameters.
 
240
 
 
241
    :param direction: 'reverse' (default) is latest to earliest;
 
242
      'forward' is earliest to latest.
 
243
 
 
244
    :param specific_fileids: If not None, only include revisions
 
245
      affecting the specified files, rather than all revisions.
 
246
 
 
247
    :param start_revision: If not None, only generate
 
248
      revisions >= start_revision
 
249
 
 
250
    :param end_revision: If not None, only generate
 
251
      revisions <= end_revision
 
252
 
 
253
    :param limit: If set, generate only 'limit' revisions, all revisions
 
254
      are shown if None or 0.
 
255
 
 
256
    :param message_search: If not None, only include revisions with
 
257
      matching commit messages
 
258
 
 
259
    :param levels: the number of levels of revisions to
 
260
      generate; 1 for just the mainline; 0 for all levels.
 
261
 
 
262
    :param generate_tags: If True, include tags for matched revisions.
 
263
 
 
264
    :param delta_type: Either 'full', 'partial' or None.
 
265
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
266
      'partial' means filter the delta using specific_fileids;
 
267
      None means do not generate any delta.
 
268
 
 
269
    :param diff_type: Either 'full', 'partial' or None.
 
270
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
271
      'partial' means filter the diff using specific_fileids;
 
272
      None means do not generate any diff.
 
273
 
 
274
    :param _match_using_deltas: a private parameter controlling the
 
275
      algorithm used for matching specific_fileids. This parameter
 
276
      may be removed in the future so bzrlib client code should NOT
 
277
      use it.
 
278
 
 
279
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
 
280
      range operator or as a graph difference.
 
281
    """
 
282
    return {
 
283
        'direction': direction,
 
284
        'specific_fileids': specific_fileids,
 
285
        'start_revision': start_revision,
 
286
        'end_revision': end_revision,
 
287
        'limit': limit,
 
288
        'message_search': message_search,
 
289
        'levels': levels,
 
290
        'generate_tags': generate_tags,
 
291
        'delta_type': delta_type,
 
292
        'diff_type': diff_type,
 
293
        'exclude_common_ancestry': exclude_common_ancestry,
 
294
        # Add 'private' attributes for features that may be deprecated
 
295
        '_match_using_deltas': _match_using_deltas,
 
296
    }
 
297
 
 
298
 
 
299
def _apply_log_request_defaults(rqst):
 
300
    """Apply default values to a request dictionary."""
 
301
    result = _DEFAULT_REQUEST_PARAMS
 
302
    if rqst:
 
303
        result.update(rqst)
 
304
    return result
 
305
 
 
306
 
 
307
class LogGenerator(object):
 
308
    """A generator of log revisions."""
 
309
 
 
310
    def iter_log_revisions(self):
 
311
        """Iterate over LogRevision objects.
 
312
 
 
313
        :return: An iterator yielding LogRevision objects.
 
314
        """
 
315
        raise NotImplementedError(self.iter_log_revisions)
 
316
 
 
317
 
 
318
class Logger(object):
 
319
    """An object that generates, formats and displays a log."""
 
320
 
 
321
    def __init__(self, branch, rqst):
 
322
        """Create a Logger.
 
323
 
 
324
        :param branch: the branch to log
 
325
        :param rqst: A dictionary specifying the query parameters.
 
326
          See make_log_request_dict() for supported values.
 
327
        """
 
328
        self.branch = branch
 
329
        self.rqst = _apply_log_request_defaults(rqst)
 
330
 
 
331
    def show(self, lf):
 
332
        """Display the log.
 
333
 
 
334
        :param lf: The LogFormatter object to send the output to.
 
335
        """
 
336
        if not isinstance(lf, LogFormatter):
 
337
            warn("not a LogFormatter instance: %r" % lf)
 
338
 
 
339
        self.branch.lock_read()
 
340
        try:
 
341
            if getattr(lf, 'begin_log', None):
 
342
                lf.begin_log()
 
343
            self._show_body(lf)
 
344
            if getattr(lf, 'end_log', None):
 
345
                lf.end_log()
 
346
        finally:
 
347
            self.branch.unlock()
 
348
 
 
349
    def _show_body(self, lf):
 
350
        """Show the main log output.
 
351
 
 
352
        Subclasses may wish to override this.
 
353
        """
 
354
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
355
        # (There's no point generating stuff if the formatter can't display it.)
 
356
        rqst = self.rqst
 
357
        rqst['levels'] = lf.get_levels()
 
358
        if not getattr(lf, 'supports_tags', False):
 
359
            rqst['generate_tags'] = False
 
360
        if not getattr(lf, 'supports_delta', False):
 
361
            rqst['delta_type'] = None
 
362
        if not getattr(lf, 'supports_diff', False):
 
363
            rqst['diff_type'] = None
 
364
 
 
365
        # Find and print the interesting revisions
 
366
        generator = self._generator_factory(self.branch, rqst)
 
367
        for lr in generator.iter_log_revisions():
239
368
            lf.log_revision(lr)
240
 
            if limit:
241
 
                log_count += 1
242
 
                if log_count >= limit:
243
 
                    return
244
 
 
245
 
 
246
 
def _format_diff(repo, rev, rev_id, specific_fileid):
247
 
    if len(rev.parent_ids) == 0:
248
 
        ancestor_id = _mod_revision.NULL_REVISION
249
 
    else:
250
 
        ancestor_id = rev.parent_ids[0]
251
 
    tree_1 = repo.revision_tree(ancestor_id)
252
 
    tree_2 = repo.revision_tree(rev_id)
253
 
    if specific_fileid:
254
 
        specific_files = [tree_2.id2path(specific_fileid)]
255
 
    else:
256
 
        specific_files = None
257
 
    s = StringIO()
258
 
    diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
259
 
        new_label='')
260
 
    return s.getvalue()
 
369
        lf.show_advice()
 
370
 
 
371
    def _generator_factory(self, branch, rqst):
 
372
        """Make the LogGenerator object to use.
 
373
        
 
374
        Subclasses may wish to override this.
 
375
        """
 
376
        return _DefaultLogGenerator(branch, rqst)
261
377
 
262
378
 
263
379
class _StartNotLinearAncestor(Exception):
264
380
    """Raised when a start revision is not found walking left-hand history."""
265
381
 
266
382
 
267
 
def _create_log_revision_iterator(branch, start_revision, end_revision,
268
 
    direction, specific_fileid, search, generate_merge_revisions,
269
 
    allow_single_merge_revision, generate_delta, limited_output=False):
270
 
    """Create a revision iterator for log.
271
 
 
272
 
    :param branch: The branch being logged.
273
 
    :param start_revision: If not None, only show revisions >= start_revision
274
 
    :param end_revision: If not None, only show revisions <= end_revision
275
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
276
 
        earliest to latest.
277
 
    :param specific_fileid: If not None, list only the commits affecting the
278
 
        specified file.
279
 
    :param search: If not None, only show revisions with matching commit
280
 
        messages.
281
 
    :param generate_merge_revisions: If False, show only mainline revisions.
282
 
    :param allow_single_merge_revision: If True, logging of a single
283
 
        revision off the mainline is to be allowed
284
 
    :param generate_delta: Whether to generate a delta for each revision.
285
 
    :param limited_output: if True, the user only wants a limited result
286
 
 
287
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
288
 
        delta).
289
 
    """
290
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
291
 
        end_revision)
292
 
 
293
 
    # Decide how file-ids are matched: delta-filtering vs per-file graph.
294
 
    # Delta filtering allows revisions to be displayed incrementally
295
 
    # though the total time is much slower for huge repositories: log -v
296
 
    # is the *lower* performance bound. At least until the split
297
 
    # inventory format arrives, per-file-graph needs to remain the
298
 
    # default except in verbose mode. Delta filtering should give more
299
 
    # accurate results (e.g. inclusion of FILE deletions) so arguably
300
 
    # it should always be used in the future.
301
 
    use_deltas_for_matching = specific_fileid and generate_delta
302
 
    delayed_graph_generation = not specific_fileid and (
303
 
            start_rev_id or end_rev_id or limited_output)
304
 
    generate_merges = generate_merge_revisions or (specific_fileid and
305
 
        not use_deltas_for_matching)
306
 
    view_revisions = _calc_view_revisions(branch, start_rev_id, end_rev_id,
307
 
        direction, generate_merges, allow_single_merge_revision,
308
 
        delayed_graph_generation=delayed_graph_generation)
309
 
    search_deltas_for_fileids = None
310
 
    if use_deltas_for_matching:
311
 
        search_deltas_for_fileids = set([specific_fileid])
312
 
    elif specific_fileid:
 
383
class _DefaultLogGenerator(LogGenerator):
 
384
    """The default generator of log revisions."""
 
385
 
 
386
    def __init__(self, branch, rqst):
 
387
        self.branch = branch
 
388
        self.rqst = rqst
 
389
        if rqst.get('generate_tags') and branch.supports_tags():
 
390
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
391
        else:
 
392
            self.rev_tag_dict = {}
 
393
 
 
394
    def iter_log_revisions(self):
 
395
        """Iterate over LogRevision objects.
 
396
 
 
397
        :return: An iterator yielding LogRevision objects.
 
398
        """
 
399
        rqst = self.rqst
 
400
        levels = rqst.get('levels')
 
401
        limit = rqst.get('limit')
 
402
        diff_type = rqst.get('diff_type')
 
403
        log_count = 0
 
404
        revision_iterator = self._create_log_revision_iterator()
 
405
        for revs in revision_iterator:
 
406
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
407
                # 0 levels means show everything; merge_depth counts from 0
 
408
                if levels != 0 and merge_depth >= levels:
 
409
                    continue
 
410
                if diff_type is None:
 
411
                    diff = None
 
412
                else:
 
413
                    diff = self._format_diff(rev, rev_id, diff_type)
 
414
                yield LogRevision(rev, revno, merge_depth, delta,
 
415
                    self.rev_tag_dict.get(rev_id), diff)
 
416
                if limit:
 
417
                    log_count += 1
 
418
                    if log_count >= limit:
 
419
                        return
 
420
 
 
421
    def _format_diff(self, rev, rev_id, diff_type):
 
422
        repo = self.branch.repository
 
423
        if len(rev.parent_ids) == 0:
 
424
            ancestor_id = _mod_revision.NULL_REVISION
 
425
        else:
 
426
            ancestor_id = rev.parent_ids[0]
 
427
        tree_1 = repo.revision_tree(ancestor_id)
 
428
        tree_2 = repo.revision_tree(rev_id)
 
429
        file_ids = self.rqst.get('specific_fileids')
 
430
        if diff_type == 'partial' and file_ids is not None:
 
431
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
432
        else:
 
433
            specific_files = None
 
434
        s = StringIO()
 
435
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
436
            new_label='')
 
437
        return s.getvalue()
 
438
 
 
439
    def _create_log_revision_iterator(self):
 
440
        """Create a revision iterator for log.
 
441
 
 
442
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
443
            delta).
 
444
        """
 
445
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
446
            self.branch, self.rqst.get('start_revision'),
 
447
            self.rqst.get('end_revision'))
 
448
        if self.rqst.get('_match_using_deltas'):
 
449
            return self._log_revision_iterator_using_delta_matching()
 
450
        else:
 
451
            # We're using the per-file-graph algorithm. This scales really
 
452
            # well but only makes sense if there is a single file and it's
 
453
            # not a directory
 
454
            file_count = len(self.rqst.get('specific_fileids'))
 
455
            if file_count != 1:
 
456
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
457
                    "when logging %d files" % file_count)
 
458
            return self._log_revision_iterator_using_per_file_graph()
 
459
 
 
460
    def _log_revision_iterator_using_delta_matching(self):
 
461
        # Get the base revisions, filtering by the revision range
 
462
        rqst = self.rqst
 
463
        generate_merge_revisions = rqst.get('levels') != 1
 
464
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
465
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
466
        view_revisions = _calc_view_revisions(
 
467
            self.branch, self.start_rev_id, self.end_rev_id,
 
468
            rqst.get('direction'),
 
469
            generate_merge_revisions=generate_merge_revisions,
 
470
            delayed_graph_generation=delayed_graph_generation,
 
471
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
472
 
 
473
        # Apply the other filters
 
474
        return make_log_rev_iterator(self.branch, view_revisions,
 
475
            rqst.get('delta_type'), rqst.get('message_search'),
 
476
            file_ids=rqst.get('specific_fileids'),
 
477
            direction=rqst.get('direction'))
 
478
 
 
479
    def _log_revision_iterator_using_per_file_graph(self):
 
480
        # Get the base revisions, filtering by the revision range.
 
481
        # Note that we always generate the merge revisions because
 
482
        # filter_revisions_touching_file_id() requires them ...
 
483
        rqst = self.rqst
 
484
        view_revisions = _calc_view_revisions(
 
485
            self.branch, self.start_rev_id, self.end_rev_id,
 
486
            rqst.get('direction'), generate_merge_revisions=True,
 
487
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
313
488
        if not isinstance(view_revisions, list):
314
489
            view_revisions = list(view_revisions)
315
 
        view_revisions = _filter_revisions_touching_file_id(branch,
316
 
            specific_fileid, view_revisions,
317
 
            include_merges=generate_merge_revisions)
318
 
    return make_log_rev_iterator(branch, view_revisions, generate_delta,
319
 
        search, file_ids=search_deltas_for_fileids, direction=direction)
 
490
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
491
            rqst.get('specific_fileids')[0], view_revisions,
 
492
            include_merges=rqst.get('levels') != 1)
 
493
        return make_log_rev_iterator(self.branch, view_revisions,
 
494
            rqst.get('delta_type'), rqst.get('message_search'))
320
495
 
321
496
 
322
497
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
323
 
    generate_merge_revisions, allow_single_merge_revision,
324
 
    delayed_graph_generation=False):
 
498
                         generate_merge_revisions,
 
499
                         delayed_graph_generation=False,
 
500
                         exclude_common_ancestry=False,
 
501
                         ):
325
502
    """Calculate the revisions to view.
326
503
 
327
504
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
328
505
             a list of the same tuples.
329
506
    """
 
507
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
 
508
        raise errors.BzrCommandError(
 
509
            '--exclude-common-ancestry requires two different revisions')
 
510
    if direction not in ('reverse', 'forward'):
 
511
        raise ValueError('invalid direction %r' % direction)
330
512
    br_revno, br_rev_id = branch.last_revision_info()
331
513
    if br_revno == 0:
332
514
        return []
333
515
 
334
 
    # If a single revision is requested, check we can handle it
335
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
336
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
337
 
    if generate_single_revision:
338
 
        if end_rev_id == br_rev_id:
339
 
            # It's the tip
340
 
            return [(br_rev_id, br_revno, 0)]
341
 
        else:
342
 
            revno = branch.revision_id_to_dotted_revno(end_rev_id)
343
 
            if len(revno) > 1 and not allow_single_merge_revision:
344
 
                # It's a merge revision and the log formatter is
345
 
                # completely brain dead. This "feature" of allowing
346
 
                # log formatters incapable of displaying dotted revnos
347
 
                # ought to be deprecated IMNSHO. IGC 20091022
348
 
                raise errors.BzrCommandError('Selected log formatter only'
349
 
                    ' supports mainline revisions.')
350
 
            revno_str = '.'.join(str(n) for n in revno)
351
 
            return [(end_rev_id, revno_str, 0)]
352
 
 
353
 
    # If we only want to see linear revisions, we can iterate ...
354
 
    if not generate_merge_revisions:
355
 
        result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
356
 
        # If a start limit was given and it's not obviously an
357
 
        # ancestor of the end limit, check it before outputting anything
358
 
        if direction == 'forward' or (start_rev_id
359
 
            and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
360
 
            try:
361
 
                result = list(result)
362
 
            except _StartNotLinearAncestor:
363
 
                raise errors.BzrCommandError('Start revision not found in'
364
 
                    ' left-hand history of end revision.')
365
 
        if direction == 'forward':
366
 
            result = reversed(list(result))
367
 
        return result
368
 
 
 
516
    if (end_rev_id and start_rev_id == end_rev_id
 
517
        and (not generate_merge_revisions
 
518
             or not _has_merges(branch, end_rev_id))):
 
519
        # If a single revision is requested, check we can handle it
 
520
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
 
521
                                           br_revno)
 
522
    elif not generate_merge_revisions:
 
523
        # If we only want to see linear revisions, we can iterate ...
 
524
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
525
                                             direction)
 
526
        if direction == 'forward':
 
527
            iter_revs = reversed(iter_revs)
 
528
    else:
 
529
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
530
                                            direction, delayed_graph_generation,
 
531
                                            exclude_common_ancestry)
 
532
        if direction == 'forward':
 
533
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
534
    return iter_revs
 
535
 
 
536
 
 
537
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
538
    if rev_id == br_rev_id:
 
539
        # It's the tip
 
540
        return [(br_rev_id, br_revno, 0)]
 
541
    else:
 
542
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
543
        revno_str = '.'.join(str(n) for n in revno)
 
544
        return [(rev_id, revno_str, 0)]
 
545
 
 
546
 
 
547
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
548
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
549
    # If a start limit was given and it's not obviously an
 
550
    # ancestor of the end limit, check it before outputting anything
 
551
    if direction == 'forward' or (start_rev_id
 
552
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
553
        try:
 
554
            result = list(result)
 
555
        except _StartNotLinearAncestor:
 
556
            raise errors.BzrCommandError('Start revision not found in'
 
557
                ' left-hand history of end revision.')
 
558
    return result
 
559
 
 
560
 
 
561
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
562
                            delayed_graph_generation,
 
563
                            exclude_common_ancestry=False):
369
564
    # On large trees, generating the merge graph can take 30-60 seconds
370
565
    # so we delay doing it until a merge is detected, incrementally
371
566
    # returning initial (non-merge) revisions while we can.
 
567
 
 
568
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
569
    # couple of seconds only should be needed to load the whole graph and the
 
570
    # other graph operations needed are even faster than that -- vila 100201
372
571
    initial_revisions = []
373
572
    if delayed_graph_generation:
374
573
        try:
375
 
            for rev_id, revno, depth in \
376
 
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
574
            for rev_id, revno, depth in  _linear_view_revisions(
 
575
                branch, start_rev_id, end_rev_id):
377
576
                if _has_merges(branch, rev_id):
 
577
                    # The end_rev_id can be nested down somewhere. We need an
 
578
                    # explicit ancestry check. There is an ambiguity here as we
 
579
                    # may not raise _StartNotLinearAncestor for a revision that
 
580
                    # is an ancestor but not a *linear* one. But since we have
 
581
                    # loaded the graph to do the check (or calculate a dotted
 
582
                    # revno), we may as well accept to show the log...  We need
 
583
                    # the check only if start_rev_id is not None as all
 
584
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
 
585
                    # -- vila 20100319
 
586
                    graph = branch.repository.get_graph()
 
587
                    if (start_rev_id is not None
 
588
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
589
                        raise _StartNotLinearAncestor()
 
590
                    # Since we collected the revisions so far, we need to
 
591
                    # adjust end_rev_id.
378
592
                    end_rev_id = rev_id
379
593
                    break
380
594
                else:
381
595
                    initial_revisions.append((rev_id, revno, depth))
382
596
            else:
383
597
                # No merged revisions found
384
 
                if direction == 'reverse':
385
 
                    return initial_revisions
386
 
                elif direction == 'forward':
387
 
                    return reversed(initial_revisions)
388
 
                else:
389
 
                    raise ValueError('invalid direction %r' % direction)
 
598
                return initial_revisions
390
599
        except _StartNotLinearAncestor:
391
600
            # A merge was never detected so the lower revision limit can't
392
601
            # be nested down somewhere
393
602
            raise errors.BzrCommandError('Start revision not found in'
394
603
                ' history of end revision.')
395
604
 
 
605
    # We exit the loop above because we encounter a revision with merges, from
 
606
    # this revision, we need to switch to _graph_view_revisions.
 
607
 
396
608
    # A log including nested merges is required. If the direction is reverse,
397
609
    # we rebase the initial merge depths so that the development line is
398
610
    # shown naturally, i.e. just like it is for linear logging. We can easily
400
612
    # indented at the end seems slightly nicer in that case.
401
613
    view_revisions = chain(iter(initial_revisions),
402
614
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
403
 
        rebase_initial_depths=direction == 'reverse'))
404
 
    if direction == 'reverse':
405
 
        return view_revisions
406
 
    elif direction == 'forward':
407
 
        # Forward means oldest first, adjusting for depth.
408
 
        view_revisions = reverse_by_depth(list(view_revisions))
409
 
        return _rebase_merge_depth(view_revisions)
410
 
    else:
411
 
        raise ValueError('invalid direction %r' % direction)
 
615
                              rebase_initial_depths=(direction == 'reverse'),
 
616
                              exclude_common_ancestry=exclude_common_ancestry))
 
617
    return view_revisions
412
618
 
413
619
 
414
620
def _has_merges(branch, rev_id):
432
638
        else:
433
639
            # not obvious
434
640
            return False
 
641
    # if either start or end is not specified then we use either the first or
 
642
    # the last revision and *they* are obvious ancestors.
435
643
    return True
436
644
 
437
645
 
470
678
 
471
679
 
472
680
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
473
 
    rebase_initial_depths=True):
 
681
                          rebase_initial_depths=True,
 
682
                          exclude_common_ancestry=False):
474
683
    """Calculate revisions to view including merges, newest to oldest.
475
684
 
476
685
    :param branch: the branch
480
689
      revision is found?
481
690
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
482
691
    """
 
692
    if exclude_common_ancestry:
 
693
        stop_rule = 'with-merges-without-common-ancestry'
 
694
    else:
 
695
        stop_rule = 'with-merges'
483
696
    view_revisions = branch.iter_merge_sorted_revisions(
484
697
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
485
 
        stop_rule="with-merges")
 
698
        stop_rule=stop_rule)
486
699
    if not rebase_initial_depths:
487
700
        for (rev_id, merge_depth, revno, end_of_merge
488
701
             ) in view_revisions:
499
712
                depth_adjustment = merge_depth
500
713
            if depth_adjustment:
501
714
                if merge_depth < depth_adjustment:
 
715
                    # From now on we reduce the depth adjustement, this can be
 
716
                    # surprising for users. The alternative requires two passes
 
717
                    # which breaks the fast display of the first revision
 
718
                    # though.
502
719
                    depth_adjustment = merge_depth
503
720
                merge_depth -= depth_adjustment
504
721
            yield rev_id, '.'.join(map(str, revno)), merge_depth
505
722
 
506
723
 
 
724
@deprecated_function(deprecated_in((2, 2, 0)))
507
725
def calculate_view_revisions(branch, start_revision, end_revision, direction,
508
 
        specific_fileid, generate_merge_revisions, allow_single_merge_revision):
 
726
        specific_fileid, generate_merge_revisions):
509
727
    """Calculate the revisions to view.
510
728
 
511
729
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
512
730
             a list of the same tuples.
513
731
    """
514
 
    # This method is no longer called by the main code path.
515
 
    # It is retained for API compatibility and may be deprecated
516
 
    # soon. IGC 20090116
517
732
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
518
733
        end_revision)
519
734
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
520
 
        direction, generate_merge_revisions or specific_fileid,
521
 
        allow_single_merge_revision))
 
735
        direction, generate_merge_revisions or specific_fileid))
522
736
    if specific_fileid:
523
737
        view_revisions = _filter_revisions_touching_file_id(branch,
524
738
            specific_fileid, view_revisions,
543
757
    :param branch: The branch being logged.
544
758
    :param view_revisions: The revisions being viewed.
545
759
    :param generate_delta: Whether to generate a delta for each revision.
 
760
      Permitted values are None, 'full' and 'partial'.
546
761
    :param search: A user text search string.
547
762
    :param file_ids: If non empty, only revisions matching one or more of
548
763
      the file-ids are to be kept.
587
802
    """
588
803
    if search is None:
589
804
        return log_rev_iterator
590
 
    # Compile the search now to get early errors.
591
 
    searchRE = re.compile(search, re.IGNORECASE)
 
805
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
806
            'log message filter')
592
807
    return _filter_message_re(searchRE, log_rev_iterator)
593
808
 
594
809
 
607
822
 
608
823
    :param branch: The branch being logged.
609
824
    :param generate_delta: Whether to generate a delta for each revision.
 
825
      Permitted values are None, 'full' and 'partial'.
610
826
    :param search: A user text search string.
611
827
    :param log_rev_iterator: An input iterator containing all revisions that
612
828
        could be displayed, in lists.
622
838
        generate_delta, fileids, direction)
623
839
 
624
840
 
625
 
def _generate_deltas(repository, log_rev_iterator, always_delta, fileids,
 
841
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
626
842
    direction):
627
843
    """Create deltas for each batch of revisions in log_rev_iterator.
628
844
 
646
862
        if check_fileids and not fileid_set:
647
863
            return
648
864
        revisions = [rev[1] for rev in revs]
649
 
        deltas = repository.get_deltas_for_revisions(revisions)
650
865
        new_revs = []
651
 
        for rev, delta in izip(revs, deltas):
652
 
            if check_fileids:
653
 
                if not _delta_matches_fileids(delta, fileid_set, stop_on):
654
 
                    continue
655
 
                elif not always_delta:
656
 
                    # Delta was created just for matching - ditch it
657
 
                    # Note: It would probably be a better UI to return
658
 
                    # a delta filtered by the file-ids, rather than
659
 
                    # None at all. That functional enhancement can
660
 
                    # come later ...
661
 
                    delta = None
662
 
            new_revs.append((rev[0], rev[1], delta))
 
866
        if delta_type == 'full' and not check_fileids:
 
867
            deltas = repository.get_deltas_for_revisions(revisions)
 
868
            for rev, delta in izip(revs, deltas):
 
869
                new_revs.append((rev[0], rev[1], delta))
 
870
        else:
 
871
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
872
            for rev, delta in izip(revs, deltas):
 
873
                if check_fileids:
 
874
                    if delta is None or not delta.has_changed():
 
875
                        continue
 
876
                    else:
 
877
                        _update_fileids(delta, fileid_set, stop_on)
 
878
                        if delta_type is None:
 
879
                            delta = None
 
880
                        elif delta_type == 'full':
 
881
                            # If the file matches all the time, rebuilding
 
882
                            # a full delta like this in addition to a partial
 
883
                            # one could be slow. However, it's likely that
 
884
                            # most revisions won't get this far, making it
 
885
                            # faster to filter on the partial deltas and
 
886
                            # build the occasional full delta than always
 
887
                            # building full deltas and filtering those.
 
888
                            rev_id = rev[0][0]
 
889
                            delta = repository.get_revision_delta(rev_id)
 
890
                new_revs.append((rev[0], rev[1], delta))
663
891
        yield new_revs
664
892
 
665
893
 
666
 
def _delta_matches_fileids(delta, fileids, stop_on='add'):
667
 
    """Check is a delta matches one of more file-ids.
668
 
 
669
 
    :param fileids: a set of fileids to match against.
 
894
def _update_fileids(delta, fileids, stop_on):
 
895
    """Update the set of file-ids to search based on file lifecycle events.
 
896
    
 
897
    :param fileids: a set of fileids to update
670
898
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
671
899
      fileids set once their add or remove entry is detected respectively
672
900
    """
673
 
    if not fileids:
674
 
        return False
675
 
    result = False
676
 
    for item in delta.added:
677
 
        if item[1] in fileids:
678
 
            if stop_on == 'add':
679
 
                fileids.remove(item[1])
680
 
            result = True
681
 
    for item in delta.removed:
682
 
        if item[1] in fileids:
683
 
            if stop_on == 'delete':
684
 
                fileids.remove(item[1])
685
 
            result = True
686
 
    if result:
687
 
        return True
688
 
    for l in (delta.modified, delta.renamed, delta.kind_changed):
689
 
        for item in l:
690
 
            if item[1] in fileids:
691
 
                return True
692
 
    return False
 
901
    if stop_on == 'add':
 
902
        for item in delta.added:
 
903
            if item[1] in fileids:
 
904
                fileids.remove(item[1])
 
905
    elif stop_on == 'delete':
 
906
        for item in delta.removed:
 
907
            if item[1] in fileids:
 
908
                fileids.remove(item[1])
693
909
 
694
910
 
695
911
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
868
1084
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
869
1085
 
870
1086
 
 
1087
@deprecated_function(deprecated_in((2, 2, 0)))
871
1088
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
872
1089
    """Filter view_revisions based on revision ranges.
873
1090
 
882
1099
 
883
1100
    :return: The filtered view_revisions.
884
1101
    """
885
 
    # This method is no longer called by the main code path.
886
 
    # It may be removed soon. IGC 20090127
887
1102
    if start_rev_id or end_rev_id:
888
1103
        revision_ids = [r for r, n, d in view_revisions]
889
1104
        if start_rev_id:
954
1169
    # Lookup all possible text keys to determine which ones actually modified
955
1170
    # the file.
956
1171
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1172
    next_keys = None
957
1173
    # Looking up keys in batches of 1000 can cut the time in half, as well as
958
1174
    # memory consumption. GraphIndex *does* like to look for a few keys in
959
1175
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
994
1210
    return result
995
1211
 
996
1212
 
 
1213
@deprecated_function(deprecated_in((2, 2, 0)))
997
1214
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
998
1215
                       include_merges=True):
999
1216
    """Produce an iterator of revisions to show
1000
1217
    :return: an iterator of (revision_id, revno, merge_depth)
1001
1218
    (if there is no revno for a revision, None is supplied)
1002
1219
    """
1003
 
    # This method is no longer called by the main code path.
1004
 
    # It is retained for API compatibility and may be deprecated
1005
 
    # soon. IGC 20090127
1006
1220
    if not include_merges:
1007
1221
        revision_ids = mainline_revs[1:]
1008
1222
        if direction == 'reverse':
1103
1317
        one (2) should be used.
1104
1318
 
1105
1319
    - supports_merge_revisions must be True if this log formatter supports
1106
 
        merge revisions.  If not, and if supports_single_merge_revision is
1107
 
        also not True, then only mainline revisions will be passed to the
1108
 
        formatter.
 
1320
        merge revisions.  If not, then only mainline revisions will be passed
 
1321
        to the formatter.
1109
1322
 
1110
1323
    - preferred_levels is the number of levels this formatter defaults to.
1111
1324
        The default value is zero meaning display all levels.
1112
1325
        This value is only relevant if supports_merge_revisions is True.
1113
1326
 
1114
 
    - supports_single_merge_revision must be True if this log formatter
1115
 
        supports logging only a single merge revision.  This flag is
1116
 
        only relevant if supports_merge_revisions is not True.
1117
 
 
1118
1327
    - supports_tags must be True if this log formatter supports tags.
1119
1328
        Otherwise the tags attribute may not be populated.
1120
1329
 
1131
1340
    preferred_levels = 0
1132
1341
 
1133
1342
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1134
 
                 delta_format=None, levels=None):
 
1343
                 delta_format=None, levels=None, show_advice=False,
 
1344
                 to_exact_file=None):
1135
1345
        """Create a LogFormatter.
1136
1346
 
1137
1347
        :param to_file: the file to output to
 
1348
        :param to_exact_file: if set, gives an output stream to which 
 
1349
             non-Unicode diffs are written.
1138
1350
        :param show_ids: if True, revision-ids are to be displayed
1139
1351
        :param show_timezone: the timezone to use
1140
1352
        :param delta_format: the level of delta information to display
1141
 
          or None to leave it u to the formatter to decide
 
1353
          or None to leave it to the formatter to decide
1142
1354
        :param levels: the number of levels to display; None or -1 to
1143
1355
          let the log formatter decide.
 
1356
        :param show_advice: whether to show advice at the end of the
 
1357
          log or not
1144
1358
        """
1145
1359
        self.to_file = to_file
1146
1360
        # 'exact' stream used to show diff, it should print content 'as is'
1147
1361
        # and should not try to decode/encode it to unicode to avoid bug #328007
1148
 
        self.to_exact_file = getattr(to_file, 'stream', to_file)
 
1362
        if to_exact_file is not None:
 
1363
            self.to_exact_file = to_exact_file
 
1364
        else:
 
1365
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1366
            # for code that expects to get diffs to pass in the exact file
 
1367
            # stream
 
1368
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1149
1369
        self.show_ids = show_ids
1150
1370
        self.show_timezone = show_timezone
1151
1371
        if delta_format is None:
1153
1373
            delta_format = 2 # long format
1154
1374
        self.delta_format = delta_format
1155
1375
        self.levels = levels
 
1376
        self._show_advice = show_advice
 
1377
        self._merge_count = 0
1156
1378
 
1157
1379
    def get_levels(self):
1158
1380
        """Get the number of levels to display or 0 for all."""
1159
1381
        if getattr(self, 'supports_merge_revisions', False):
1160
1382
            if self.levels is None or self.levels == -1:
1161
 
                return self.preferred_levels
1162
 
            else:
1163
 
                return self.levels
1164
 
        return 1
 
1383
                self.levels = self.preferred_levels
 
1384
        else:
 
1385
            self.levels = 1
 
1386
        return self.levels
1165
1387
 
1166
1388
    def log_revision(self, revision):
1167
1389
        """Log a revision.
1170
1392
        """
1171
1393
        raise NotImplementedError('not implemented in abstract base')
1172
1394
 
 
1395
    def show_advice(self):
 
1396
        """Output user advice, if any, when the log is completed."""
 
1397
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1398
            advice_sep = self.get_advice_separator()
 
1399
            if advice_sep:
 
1400
                self.to_file.write(advice_sep)
 
1401
            self.to_file.write(
 
1402
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1403
 
 
1404
    def get_advice_separator(self):
 
1405
        """Get the text separating the log from the closing advice."""
 
1406
        return ''
 
1407
 
1173
1408
    def short_committer(self, rev):
1174
1409
        name, address = config.parse_username(rev.committer)
1175
1410
        if name:
1182
1417
            return name
1183
1418
        return address
1184
1419
 
 
1420
    def merge_marker(self, revision):
 
1421
        """Get the merge marker to include in the output or '' if none."""
 
1422
        if len(revision.rev.parent_ids) > 1:
 
1423
            self._merge_count += 1
 
1424
            return ' [merge]'
 
1425
        else:
 
1426
            return ''
 
1427
 
1185
1428
    def show_properties(self, revision, indent):
1186
1429
        """Displays the custom properties returned by each registered handler.
1187
1430
 
1188
1431
        If a registered handler raises an error it is propagated.
1189
1432
        """
 
1433
        for line in self.custom_properties(revision):
 
1434
            self.to_file.write("%s%s\n" % (indent, line))
 
1435
 
 
1436
    def custom_properties(self, revision):
 
1437
        """Format the custom properties returned by each registered handler.
 
1438
 
 
1439
        If a registered handler raises an error it is propagated.
 
1440
 
 
1441
        :return: a list of formatted lines (excluding trailing newlines)
 
1442
        """
 
1443
        lines = self._foreign_info_properties(revision)
1190
1444
        for key, handler in properties_handler_registry.iteritems():
1191
 
            for key, value in handler(revision).items():
1192
 
                self.to_file.write(indent + key + ': ' + value + '\n')
 
1445
            lines.extend(self._format_properties(handler(revision)))
 
1446
        return lines
 
1447
 
 
1448
    def _foreign_info_properties(self, rev):
 
1449
        """Custom log displayer for foreign revision identifiers.
 
1450
 
 
1451
        :param rev: Revision object.
 
1452
        """
 
1453
        # Revision comes directly from a foreign repository
 
1454
        if isinstance(rev, foreign.ForeignRevision):
 
1455
            return self._format_properties(
 
1456
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1457
 
 
1458
        # Imported foreign revision revision ids always contain :
 
1459
        if not ":" in rev.revision_id:
 
1460
            return []
 
1461
 
 
1462
        # Revision was once imported from a foreign repository
 
1463
        try:
 
1464
            foreign_revid, mapping = \
 
1465
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1466
        except errors.InvalidRevisionId:
 
1467
            return []
 
1468
 
 
1469
        return self._format_properties(
 
1470
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1471
 
 
1472
    def _format_properties(self, properties):
 
1473
        lines = []
 
1474
        for key, value in properties.items():
 
1475
            lines.append(key + ': ' + value)
 
1476
        return lines
1193
1477
 
1194
1478
    def show_diff(self, to_file, diff, indent):
1195
1479
        for l in diff.rstrip().split('\n'):
1196
1480
            to_file.write(indent + '%s\n' % (l,))
1197
1481
 
1198
1482
 
 
1483
# Separator between revisions in long format
 
1484
_LONG_SEP = '-' * 60
 
1485
 
 
1486
 
1199
1487
class LongLogFormatter(LogFormatter):
1200
1488
 
1201
1489
    supports_merge_revisions = True
 
1490
    preferred_levels = 1
1202
1491
    supports_delta = True
1203
1492
    supports_tags = True
1204
1493
    supports_diff = True
1205
1494
 
 
1495
    def __init__(self, *args, **kwargs):
 
1496
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1497
        if self.show_timezone == 'original':
 
1498
            self.date_string = self._date_string_original_timezone
 
1499
        else:
 
1500
            self.date_string = self._date_string_with_timezone
 
1501
 
 
1502
    def _date_string_with_timezone(self, rev):
 
1503
        return format_date(rev.timestamp, rev.timezone or 0,
 
1504
                           self.show_timezone)
 
1505
 
 
1506
    def _date_string_original_timezone(self, rev):
 
1507
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1508
            rev.timezone or 0)
 
1509
 
1206
1510
    def log_revision(self, revision):
1207
1511
        """Log a revision, either merged or not."""
1208
1512
        indent = '    ' * revision.merge_depth
1209
 
        to_file = self.to_file
1210
 
        to_file.write(indent + '-' * 60 + '\n')
 
1513
        lines = [_LONG_SEP]
1211
1514
        if revision.revno is not None:
1212
 
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
 
1515
            lines.append('revno: %s%s' % (revision.revno,
 
1516
                self.merge_marker(revision)))
1213
1517
        if revision.tags:
1214
 
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
 
1518
            lines.append('tags: %s' % (', '.join(revision.tags)))
1215
1519
        if self.show_ids:
1216
 
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
1217
 
            to_file.write('\n')
 
1520
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1218
1521
            for parent_id in revision.rev.parent_ids:
1219
 
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
1220
 
        self.show_properties(revision.rev, indent)
 
1522
                lines.append('parent: %s' % (parent_id,))
 
1523
        lines.extend(self.custom_properties(revision.rev))
1221
1524
 
1222
1525
        committer = revision.rev.committer
1223
1526
        authors = revision.rev.get_apparent_authors()
1224
1527
        if authors != [committer]:
1225
 
            to_file.write(indent + 'author: %s\n' % (", ".join(authors),))
1226
 
        to_file.write(indent + 'committer: %s\n' % (committer,))
 
1528
            lines.append('author: %s' % (", ".join(authors),))
 
1529
        lines.append('committer: %s' % (committer,))
1227
1530
 
1228
1531
        branch_nick = revision.rev.properties.get('branch-nick', None)
1229
1532
        if branch_nick is not None:
1230
 
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
1231
 
 
1232
 
        date_str = format_date(revision.rev.timestamp,
1233
 
                               revision.rev.timezone or 0,
1234
 
                               self.show_timezone)
1235
 
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
1236
 
 
1237
 
        to_file.write(indent + 'message:\n')
 
1533
            lines.append('branch nick: %s' % (branch_nick,))
 
1534
 
 
1535
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1536
 
 
1537
        lines.append('message:')
1238
1538
        if not revision.rev.message:
1239
 
            to_file.write(indent + '  (no message)\n')
 
1539
            lines.append('  (no message)')
1240
1540
        else:
1241
1541
            message = revision.rev.message.rstrip('\r\n')
1242
1542
            for l in message.split('\n'):
1243
 
                to_file.write(indent + '  %s\n' % (l,))
 
1543
                lines.append('  %s' % (l,))
 
1544
 
 
1545
        # Dump the output, appending the delta and diff if requested
 
1546
        to_file = self.to_file
 
1547
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1244
1548
        if revision.delta is not None:
1245
 
            # We don't respect delta_format for compatibility
1246
 
            revision.delta.show(to_file, self.show_ids, indent=indent,
1247
 
                                short_status=False)
 
1549
            # Use the standard status output to display changes
 
1550
            from bzrlib.delta import report_delta
 
1551
            report_delta(to_file, revision.delta, short_status=False, 
 
1552
                         show_ids=self.show_ids, indent=indent)
1248
1553
        if revision.diff is not None:
1249
1554
            to_file.write(indent + 'diff:\n')
 
1555
            to_file.flush()
1250
1556
            # Note: we explicitly don't indent the diff (relative to the
1251
1557
            # revision information) so that the output can be fed to patch -p0
1252
1558
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1559
            self.to_exact_file.flush()
 
1560
 
 
1561
    def get_advice_separator(self):
 
1562
        """Get the text separating the log from the closing advice."""
 
1563
        return '-' * 60 + '\n'
1253
1564
 
1254
1565
 
1255
1566
class ShortLogFormatter(LogFormatter):
1285
1596
        offset = ' ' * (revno_width + 1)
1286
1597
 
1287
1598
        to_file = self.to_file
1288
 
        is_merge = ''
1289
 
        if len(revision.rev.parent_ids) > 1:
1290
 
            is_merge = ' [merge]'
1291
1599
        tags = ''
1292
1600
        if revision.tags:
1293
1601
            tags = ' {%s}' % (', '.join(revision.tags))
1297
1605
                            revision.rev.timezone or 0,
1298
1606
                            self.show_timezone, date_fmt="%Y-%m-%d",
1299
1607
                            show_offset=False),
1300
 
                tags, is_merge))
 
1608
                tags, self.merge_marker(revision)))
1301
1609
        self.show_properties(revision.rev, indent+offset)
1302
1610
        if self.show_ids:
1303
1611
            to_file.write(indent + offset + 'revision-id:%s\n'
1310
1618
                to_file.write(indent + offset + '%s\n' % (l,))
1311
1619
 
1312
1620
        if revision.delta is not None:
1313
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1314
 
                                short_status=self.delta_format==1)
 
1621
            # Use the standard status output to display changes
 
1622
            from bzrlib.delta import report_delta
 
1623
            report_delta(to_file, revision.delta, 
 
1624
                         short_status=self.delta_format==1, 
 
1625
                         show_ids=self.show_ids, indent=indent + offset)
1315
1626
        if revision.diff is not None:
1316
1627
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1317
1628
        to_file.write('\n')
1325
1636
 
1326
1637
    def __init__(self, *args, **kwargs):
1327
1638
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1328
 
        self._max_chars = terminal_width() - 1
 
1639
        width = terminal_width()
 
1640
        if width is not None:
 
1641
            # we need one extra space for terminals that wrap on last char
 
1642
            width = width - 1
 
1643
        self._max_chars = width
1329
1644
 
1330
1645
    def truncate(self, str, max_len):
1331
 
        if len(str) <= max_len:
 
1646
        if max_len is None or len(str) <= max_len:
1332
1647
            return str
1333
 
        return str[:max_len-3]+'...'
 
1648
        return str[:max_len-3] + '...'
1334
1649
 
1335
1650
    def date_string(self, rev):
1336
1651
        return format_date(rev.timestamp, rev.timezone or 0,
1388
1703
                               self.show_timezone,
1389
1704
                               date_fmt='%Y-%m-%d',
1390
1705
                               show_offset=False)
1391
 
        committer_str = revision.rev.committer.replace (' <', '  <')
 
1706
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
1392
1707
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1393
1708
 
1394
1709
        if revision.delta is not None and revision.delta.has_changed():
1615
1930
        lf.log_revision(lr)
1616
1931
 
1617
1932
 
1618
 
def _get_fileid_to_log(revision, tree, b, fp):
1619
 
    """Find the file-id to log for a file path in a revision range.
1620
 
 
1621
 
    :param revision: the revision range as parsed on the command line
1622
 
    :param tree: the working tree, if any
1623
 
    :param b: the branch
1624
 
    :param fp: file path
 
1933
def _get_info_for_log_files(revisionspec_list, file_list):
 
1934
    """Find file-ids and kinds given a list of files and a revision range.
 
1935
 
 
1936
    We search for files at the end of the range. If not found there,
 
1937
    we try the start of the range.
 
1938
 
 
1939
    :param revisionspec_list: revision range as parsed on the command line
 
1940
    :param file_list: the list of paths given on the command line;
 
1941
      the first of these can be a branch location or a file path,
 
1942
      the remainder must be file paths
 
1943
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1944
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1945
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1946
      branch will be read-locked.
1625
1947
    """
1626
 
    if revision is None:
 
1948
    from builtins import _get_revision_range, safe_relpath_files
 
1949
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1950
    b.lock_read()
 
1951
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1952
    # those paths might be deleted ones, they might be on a case-insensitive
 
1953
    # filesystem and/or they might be in silly locations (like another branch).
 
1954
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1955
    # file2 implicitly in the same dir as file1 or should its directory be
 
1956
    # taken from the current tree somehow?) For now, this solves the common
 
1957
    # case of running log in a nested directory, assuming paths beyond the
 
1958
    # first one haven't been deleted ...
 
1959
    if tree:
 
1960
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1961
    else:
 
1962
        relpaths = [path] + file_list[1:]
 
1963
    info_list = []
 
1964
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1965
        "log")
 
1966
    if relpaths in ([], [u'']):
 
1967
        return b, [], start_rev_info, end_rev_info
 
1968
    if start_rev_info is None and end_rev_info is None:
1627
1969
        if tree is None:
1628
1970
            tree = b.basis_tree()
1629
 
        file_id = tree.path2id(fp)
1630
 
        if file_id is None:
1631
 
            # go back to when time began
1632
 
            try:
1633
 
                rev1 = b.get_rev_id(1)
1634
 
            except errors.NoSuchRevision:
1635
 
                # No history at all
1636
 
                file_id = None
1637
 
            else:
1638
 
                tree = b.repository.revision_tree(rev1)
1639
 
                file_id = tree.path2id(fp)
 
1971
        tree1 = None
 
1972
        for fp in relpaths:
 
1973
            file_id = tree.path2id(fp)
 
1974
            kind = _get_kind_for_file_id(tree, file_id)
 
1975
            if file_id is None:
 
1976
                # go back to when time began
 
1977
                if tree1 is None:
 
1978
                    try:
 
1979
                        rev1 = b.get_rev_id(1)
 
1980
                    except errors.NoSuchRevision:
 
1981
                        # No history at all
 
1982
                        file_id = None
 
1983
                        kind = None
 
1984
                    else:
 
1985
                        tree1 = b.repository.revision_tree(rev1)
 
1986
                if tree1:
 
1987
                    file_id = tree1.path2id(fp)
 
1988
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1989
            info_list.append((fp, file_id, kind))
1640
1990
 
1641
 
    elif len(revision) == 1:
 
1991
    elif start_rev_info == end_rev_info:
1642
1992
        # One revision given - file must exist in it
1643
 
        tree = revision[0].as_tree(b)
1644
 
        file_id = tree.path2id(fp)
 
1993
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1994
        for fp in relpaths:
 
1995
            file_id = tree.path2id(fp)
 
1996
            kind = _get_kind_for_file_id(tree, file_id)
 
1997
            info_list.append((fp, file_id, kind))
1645
1998
 
1646
 
    elif len(revision) == 2:
 
1999
    else:
1647
2000
        # Revision range given. Get the file-id from the end tree.
1648
2001
        # If that fails, try the start tree.
1649
 
        rev_id = revision[1].as_revision_id(b)
 
2002
        rev_id = end_rev_info.rev_id
1650
2003
        if rev_id is None:
1651
2004
            tree = b.basis_tree()
1652
2005
        else:
1653
 
            tree = revision[1].as_tree(b)
1654
 
        file_id = tree.path2id(fp)
1655
 
        if file_id is None:
1656
 
            rev_id = revision[0].as_revision_id(b)
1657
 
            if rev_id is None:
1658
 
                rev1 = b.get_rev_id(1)
1659
 
                tree = b.repository.revision_tree(rev1)
1660
 
            else:
1661
 
                tree = revision[0].as_tree(b)
 
2006
            tree = b.repository.revision_tree(rev_id)
 
2007
        tree1 = None
 
2008
        for fp in relpaths:
1662
2009
            file_id = tree.path2id(fp)
 
2010
            kind = _get_kind_for_file_id(tree, file_id)
 
2011
            if file_id is None:
 
2012
                if tree1 is None:
 
2013
                    rev_id = start_rev_info.rev_id
 
2014
                    if rev_id is None:
 
2015
                        rev1 = b.get_rev_id(1)
 
2016
                        tree1 = b.repository.revision_tree(rev1)
 
2017
                    else:
 
2018
                        tree1 = b.repository.revision_tree(rev_id)
 
2019
                file_id = tree1.path2id(fp)
 
2020
                kind = _get_kind_for_file_id(tree1, file_id)
 
2021
            info_list.append((fp, file_id, kind))
 
2022
    return b, info_list, start_rev_info, end_rev_info
 
2023
 
 
2024
 
 
2025
def _get_kind_for_file_id(tree, file_id):
 
2026
    """Return the kind of a file-id or None if it doesn't exist."""
 
2027
    if file_id is not None:
 
2028
        return tree.kind(file_id)
1663
2029
    else:
1664
 
        raise errors.BzrCommandError(
1665
 
            'bzr log --revision takes one or two values.')
1666
 
    return file_id
 
2030
        return None
1667
2031
 
1668
2032
 
1669
2033
properties_handler_registry = registry.Registry()
1670
 
properties_handler_registry.register_lazy("foreign",
1671
 
                                          "bzrlib.foreign",
1672
 
                                          "show_foreign_properties")
 
2034
 
 
2035
# Use the properties handlers to print out bug information if available
 
2036
def _bugs_properties_handler(revision):
 
2037
    if revision.properties.has_key('bugs'):
 
2038
        bug_lines = revision.properties['bugs'].split('\n')
 
2039
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2040
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2041
                          len(row) > 1 and row[1] == 'fixed']
 
2042
 
 
2043
        if fixed_bug_urls:
 
2044
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2045
    return {}
 
2046
 
 
2047
properties_handler_registry.register('bugs_properties_handler',
 
2048
                                     _bugs_properties_handler)
1673
2049
 
1674
2050
 
1675
2051
# adapters which revision ids to log are filtered. When log is called, the