/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/git/fetch.py

  • Committer: Martin
  • Date: 2018-11-18 19:48:57 UTC
  • mto: This revision was merged to the branch mainline in revision 7205.
  • Revision ID: gzlist@googlemail.com-20181118194857-mqty4xka790jf934
Fix remaining whitespace lint in codebase

Enables rules W191, W291, W293, and W391 for flake8.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2008 Canonical Ltd
 
1
# Copyright (C) 2008-2018 Jelmer Vernooij <jelmer@jelmer.uk>
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
 
 
17
 
from bzrlib import osutils, ui, urlutils
18
 
from bzrlib.errors import InvalidRevisionId, NoSuchRevision
19
 
from bzrlib.inventory import Inventory
20
 
from bzrlib.repository import InterRepository
21
 
from bzrlib.trace import info
22
 
from bzrlib.tsort import topo_sort
23
 
 
24
 
from bzrlib.plugins.git.repository import (
25
 
        LocalGitRepository, 
26
 
        GitRepository, 
27
 
        GitFormat,
28
 
        )
29
 
from bzrlib.plugins.git.converter import GitObjectConverter
30
 
from bzrlib.plugins.git.remote import RemoteGitRepository
31
 
 
32
 
import dulwich as git
33
 
from dulwich.client import SimpleFetchGraphWalker
34
 
from dulwich.objects import Commit
35
 
 
36
 
from cStringIO import StringIO
37
 
 
38
 
 
39
 
class BzrFetchGraphWalker(object):
40
 
    """GraphWalker implementation that uses a Bazaar repository."""
41
 
 
42
 
    def __init__(self, repository, mapping):
43
 
        self.repository = repository
44
 
        self.mapping = mapping
45
 
        self.done = set()
46
 
        self.heads = set(repository.all_revision_ids())
47
 
        self.parents = {}
48
 
 
49
 
    def __iter__(self):
50
 
        return iter(self.next, None)
51
 
 
52
 
    def ack(self, sha):
53
 
        revid = self.mapping.revision_id_foreign_to_bzr(sha)
54
 
        self.remove(revid)
55
 
 
56
 
    def remove(self, revid):
57
 
        self.done.add(revid)
58
 
        if revid in self.heads:
59
 
            self.heads.remove(revid)
60
 
        if revid in self.parents:
61
 
            for p in self.parents[revid]:
62
 
                self.remove(p)
63
 
 
64
 
    def next(self):
65
 
        while self.heads:
66
 
            ret = self.heads.pop()
67
 
            ps = self.repository.get_parent_map([ret])[ret]
68
 
            self.parents[ret] = ps
69
 
            self.heads.update([p for p in ps if not p in self.done])
70
 
            try:
71
 
                self.done.add(ret)
72
 
                return self.mapping.revision_id_bzr_to_foreign(ret)[0]
73
 
            except InvalidRevisionId:
74
 
                pass
75
 
        return None
76
 
 
77
 
 
78
 
def import_git_blob(repo, mapping, path, blob, inv, parent_invs, gitmap, executable):
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
"""Fetching from git into bzr."""
 
18
 
 
19
from __future__ import absolute_import
 
20
 
 
21
from dulwich.objects import (
 
22
    Commit,
 
23
    Tag,
 
24
    Tree,
 
25
    S_IFGITLINK,
 
26
    S_ISGITLINK,
 
27
    ZERO_SHA,
 
28
    )
 
29
from dulwich.object_store import (
 
30
    tree_lookup_path,
 
31
    )
 
32
import posixpath
 
33
import stat
 
34
 
 
35
from .. import (
 
36
    debug,
 
37
    errors,
 
38
    osutils,
 
39
    trace,
 
40
    )
 
41
from ..errors import (
 
42
    BzrError,
 
43
    )
 
44
from ..bzr.inventory import (
 
45
    InventoryDirectory,
 
46
    InventoryFile,
 
47
    InventoryLink,
 
48
    TreeReference,
 
49
    )
 
50
from ..revision import (
 
51
    NULL_REVISION,
 
52
    )
 
53
from ..bzr.inventorytree import InventoryRevisionTree
 
54
from ..sixish import text_type
 
55
from ..testament import (
 
56
    StrictTestament3,
 
57
    )
 
58
from ..tsort import (
 
59
    topo_sort,
 
60
    )
 
61
from ..bzr.versionedfile import (
 
62
    ChunkedContentFactory,
 
63
    )
 
64
 
 
65
from .mapping import (
 
66
    DEFAULT_FILE_MODE,
 
67
    mode_is_executable,
 
68
    mode_kind,
 
69
    warn_unusual_mode,
 
70
    )
 
71
from .object_store import (
 
72
    LRUTreeCache,
 
73
    _tree_to_objects,
 
74
    )
 
75
 
 
76
 
 
77
def import_git_blob(texts, mapping, path, name, hexshas,
 
78
                    base_bzr_tree, parent_id, revision_id,
 
79
                    parent_bzr_trees, lookup_object, modes, store_updater,
 
80
                    lookup_file_id):
79
81
    """Import a git blob object into a bzr repository.
80
82
 
81
 
    :param repo: bzr repository
 
83
    :param texts: VersionedFiles to add to
82
84
    :param path: Path in the tree
83
85
    :param blob: A git blob
84
 
    """
85
 
    file_id = mapping.generate_file_id(path)
86
 
    text_revision = inv.revision_id
87
 
    repo.texts.add_lines((file_id, text_revision),
88
 
        [(file_id, p[file_id].revision) for p in parent_invs if file_id in p],
89
 
        osutils.split_lines(blob.data))
90
 
    ie = inv.add_path(path, "file", file_id)
91
 
    ie.revision = text_revision
92
 
    ie.text_size = len(blob.data)
93
 
    ie.text_sha1 = osutils.sha_string(blob.data)
94
 
    ie.executable = executable
95
 
    gitmap._idmap.add_entry(blob.sha().hexdigest(), "blob", (ie.file_id, ie.revision))
96
 
 
97
 
 
98
 
def import_git_tree(repo, mapping, path, tree, inv, parent_invs, 
99
 
                    gitmap, lookup_object):
 
86
    :return: Inventory delta for this file
 
87
    """
 
88
    if not isinstance(path, bytes):
 
89
        raise TypeError(path)
 
90
    decoded_path = path.decode('utf-8')
 
91
    (base_mode, mode) = modes
 
92
    (base_hexsha, hexsha) = hexshas
 
93
    if mapping.is_special_file(path):
 
94
        return []
 
95
    if base_hexsha == hexsha and base_mode == mode:
 
96
        # If nothing has changed since the base revision, we're done
 
97
        return []
 
98
    file_id = lookup_file_id(decoded_path)
 
99
    if stat.S_ISLNK(mode):
 
100
        cls = InventoryLink
 
101
    else:
 
102
        cls = InventoryFile
 
103
    ie = cls(file_id, name.decode("utf-8"), parent_id)
 
104
    if ie.kind == "file":
 
105
        ie.executable = mode_is_executable(mode)
 
106
    if base_hexsha == hexsha and mode_kind(base_mode) == mode_kind(mode):
 
107
        base_exec = base_bzr_tree.is_executable(decoded_path)
 
108
        if ie.kind == "symlink":
 
109
            ie.symlink_target = base_bzr_tree.get_symlink_target(decoded_path)
 
110
        else:
 
111
            ie.text_size = base_bzr_tree.get_file_size(decoded_path)
 
112
            ie.text_sha1 = base_bzr_tree.get_file_sha1(decoded_path)
 
113
        if ie.kind == "symlink" or ie.executable == base_exec:
 
114
            ie.revision = base_bzr_tree.get_file_revision(decoded_path)
 
115
        else:
 
116
            blob = lookup_object(hexsha)
 
117
    else:
 
118
        blob = lookup_object(hexsha)
 
119
        if ie.kind == "symlink":
 
120
            ie.revision = None
 
121
            ie.symlink_target = blob.data.decode("utf-8")
 
122
        else:
 
123
            ie.text_size = sum(map(len, blob.chunked))
 
124
            ie.text_sha1 = osutils.sha_strings(blob.chunked)
 
125
    # Check what revision we should store
 
126
    parent_keys = []
 
127
    for ptree in parent_bzr_trees:
 
128
        try:
 
129
            ppath = ptree.id2path(file_id)
 
130
        except errors.NoSuchId:
 
131
            continue
 
132
        pkind = ptree.kind(ppath)
 
133
        if (pkind == ie.kind and
 
134
            ((pkind == "symlink" and ptree.get_symlink_target(ppath) == ie.symlink_target) or
 
135
             (pkind == "file" and ptree.get_file_sha1(ppath) == ie.text_sha1 and
 
136
                ptree.is_executable(ppath) == ie.executable))):
 
137
            # found a revision in one of the parents to use
 
138
            ie.revision = ptree.get_file_revision(ppath)
 
139
            break
 
140
        parent_key = (file_id, ptree.get_file_revision(ppath))
 
141
        if parent_key not in parent_keys:
 
142
            parent_keys.append(parent_key)
 
143
    if ie.revision is None:
 
144
        # Need to store a new revision
 
145
        ie.revision = revision_id
 
146
        if ie.revision is None:
 
147
            raise ValueError("no file revision set")
 
148
        if ie.kind == 'symlink':
 
149
            chunks = []
 
150
        else:
 
151
            chunks = blob.chunked
 
152
        texts.insert_record_stream([
 
153
            ChunkedContentFactory((file_id, ie.revision),
 
154
                                  tuple(parent_keys), ie.text_sha1, chunks)])
 
155
    invdelta = []
 
156
    if base_hexsha is not None:
 
157
        old_path = decoded_path  # Renames are not supported yet
 
158
        if stat.S_ISDIR(base_mode):
 
159
            invdelta.extend(remove_disappeared_children(
 
160
                base_bzr_tree, old_path, lookup_object(base_hexsha), [],
 
161
                lookup_object))
 
162
    else:
 
163
        old_path = None
 
164
    invdelta.append((old_path, decoded_path, file_id, ie))
 
165
    if base_hexsha != hexsha:
 
166
        store_updater.add_object(blob, (ie.file_id, ie.revision), path)
 
167
    return invdelta
 
168
 
 
169
 
 
170
class SubmodulesRequireSubtrees(BzrError):
 
171
    _fmt = ("The repository you are fetching from contains submodules, "
 
172
            "which require a Bazaar format that supports tree references.")
 
173
    internal = False
 
174
 
 
175
 
 
176
def import_git_submodule(texts, mapping, path, name, hexshas,
 
177
                         base_bzr_tree, parent_id, revision_id,
 
178
                         parent_bzr_trees, lookup_object,
 
179
                         modes, store_updater, lookup_file_id):
 
180
    """Import a git submodule."""
 
181
    (base_hexsha, hexsha) = hexshas
 
182
    (base_mode, mode) = modes
 
183
    if base_hexsha == hexsha and base_mode == mode:
 
184
        return [], {}
 
185
    file_id = lookup_file_id(path)
 
186
    invdelta = []
 
187
    ie = TreeReference(file_id, name.decode("utf-8"), parent_id)
 
188
    ie.revision = revision_id
 
189
    if base_hexsha is not None:
 
190
        old_path = path.decode("utf-8")  # Renames are not supported yet
 
191
        if stat.S_ISDIR(base_mode):
 
192
            invdelta.extend(remove_disappeared_children(
 
193
                base_bzr_tree, old_path, lookup_object(base_hexsha), [],
 
194
                lookup_object))
 
195
    else:
 
196
        old_path = None
 
197
    ie.reference_revision = mapping.revision_id_foreign_to_bzr(hexsha)
 
198
    texts.insert_record_stream([
 
199
        ChunkedContentFactory((file_id, ie.revision), (), None, [])])
 
200
    invdelta.append((old_path, path, file_id, ie))
 
201
    return invdelta, {}
 
202
 
 
203
 
 
204
def remove_disappeared_children(base_bzr_tree, path, base_tree,
 
205
                                existing_children, lookup_object):
 
206
    """Generate an inventory delta for removed children.
 
207
 
 
208
    :param base_bzr_tree: Base bzr tree against which to generate the
 
209
        inventory delta.
 
210
    :param path: Path to process (unicode)
 
211
    :param base_tree: Git Tree base object
 
212
    :param existing_children: Children that still exist
 
213
    :param lookup_object: Lookup a git object by its SHA1
 
214
    :return: Inventory delta, as list
 
215
    """
 
216
    if not isinstance(path, text_type):
 
217
        raise TypeError(path)
 
218
    ret = []
 
219
    for name, mode, hexsha in base_tree.iteritems():
 
220
        if name in existing_children:
 
221
            continue
 
222
        c_path = posixpath.join(path, name.decode("utf-8"))
 
223
        file_id = base_bzr_tree.path2id(c_path)
 
224
        if file_id is None:
 
225
            raise TypeError(file_id)
 
226
        ret.append((c_path, None, file_id, None))
 
227
        if stat.S_ISDIR(mode):
 
228
            ret.extend(remove_disappeared_children(
 
229
                base_bzr_tree, c_path, lookup_object(hexsha), [],
 
230
                lookup_object))
 
231
    return ret
 
232
 
 
233
 
 
234
def import_git_tree(texts, mapping, path, name, hexshas,
 
235
                    base_bzr_tree, parent_id, revision_id, parent_bzr_trees,
 
236
                    lookup_object, modes, store_updater,
 
237
                    lookup_file_id, allow_submodules=False):
100
238
    """Import a git tree object into a bzr repository.
101
239
 
102
 
    :param repo: A Bzr repository object
103
 
    :param path: Path in the tree
 
240
    :param texts: VersionedFiles object to add to
 
241
    :param path: Path in the tree (str)
 
242
    :param name: Name of the tree (str)
104
243
    :param tree: A git tree object
105
 
    :param inv: Inventory object
 
244
    :param base_bzr_tree: Base inventory against which to return inventory
 
245
        delta
 
246
    :return: Inventory delta for this subtree
106
247
    """
107
 
    file_id = mapping.generate_file_id(path)
108
 
    text_revision = inv.revision_id
109
 
    repo.texts.add_lines((file_id, text_revision),
110
 
        [(file_id, p[file_id].revision) for p in parent_invs if file_id in p],
111
 
        [])
112
 
    ie = inv.add_path(path, "directory", file_id)
113
 
    ie.revision = text_revision
114
 
    gitmap._idmap.add_entry(tree.sha().hexdigest(), "tree", (file_id, text_revision))
115
 
    for mode, name, hexsha in tree.entries():
116
 
        entry_kind = (mode & 0700000) / 0100000
117
 
        basename = name.decode("utf-8")
118
 
        if path == "":
119
 
            child_path = name
120
 
        else:
121
 
            child_path = urlutils.join(path, name)
122
 
        if entry_kind == 0:
123
 
            tree = lookup_object(hexsha)
124
 
            import_git_tree(repo, mapping, child_path, tree, inv, parent_invs, gitmap, lookup_object)
125
 
        elif entry_kind == 1:
126
 
            blob = lookup_object(hexsha)
127
 
            fs_mode = mode & 0777
128
 
            import_git_blob(repo, mapping, child_path, blob, inv, parent_invs, gitmap, bool(fs_mode & 0111))
129
 
        else:
130
 
            raise AssertionError("Unknown blob kind, perms=%r." % (mode,))
131
 
 
132
 
 
133
 
def import_git_objects(repo, mapping, object_iter, target_git_object_retriever, 
134
 
        pb=None):
 
248
    (base_hexsha, hexsha) = hexshas
 
249
    (base_mode, mode) = modes
 
250
    if not isinstance(path, bytes):
 
251
        raise TypeError(path)
 
252
    if not isinstance(name, bytes):
 
253
        raise TypeError(name)
 
254
    if base_hexsha == hexsha and base_mode == mode:
 
255
        # If nothing has changed since the base revision, we're done
 
256
        return [], {}
 
257
    invdelta = []
 
258
    file_id = lookup_file_id(osutils.safe_unicode(path))
 
259
    # We just have to hope this is indeed utf-8:
 
260
    ie = InventoryDirectory(file_id, name.decode("utf-8"), parent_id)
 
261
    tree = lookup_object(hexsha)
 
262
    if base_hexsha is None:
 
263
        base_tree = None
 
264
        old_path = None  # Newly appeared here
 
265
    else:
 
266
        base_tree = lookup_object(base_hexsha)
 
267
        old_path = path.decode("utf-8")  # Renames aren't supported yet
 
268
    new_path = path.decode("utf-8")
 
269
    if base_tree is None or type(base_tree) is not Tree:
 
270
        ie.revision = revision_id
 
271
        invdelta.append((old_path, new_path, ie.file_id, ie))
 
272
        texts.insert_record_stream([
 
273
            ChunkedContentFactory((ie.file_id, ie.revision), (), None, [])])
 
274
    # Remember for next time
 
275
    existing_children = set()
 
276
    child_modes = {}
 
277
    for name, child_mode, child_hexsha in tree.iteritems():
 
278
        existing_children.add(name)
 
279
        child_path = posixpath.join(path, name)
 
280
        if type(base_tree) is Tree:
 
281
            try:
 
282
                child_base_mode, child_base_hexsha = base_tree[name]
 
283
            except KeyError:
 
284
                child_base_hexsha = None
 
285
                child_base_mode = 0
 
286
        else:
 
287
            child_base_hexsha = None
 
288
            child_base_mode = 0
 
289
        if stat.S_ISDIR(child_mode):
 
290
            subinvdelta, grandchildmodes = import_git_tree(
 
291
                texts, mapping, child_path, name,
 
292
                (child_base_hexsha, child_hexsha), base_bzr_tree, file_id,
 
293
                revision_id, parent_bzr_trees, lookup_object,
 
294
                (child_base_mode, child_mode), store_updater, lookup_file_id,
 
295
                allow_submodules=allow_submodules)
 
296
        elif S_ISGITLINK(child_mode):  # submodule
 
297
            if not allow_submodules:
 
298
                raise SubmodulesRequireSubtrees()
 
299
            subinvdelta, grandchildmodes = import_git_submodule(
 
300
                texts, mapping, child_path, name,
 
301
                (child_base_hexsha, child_hexsha),
 
302
                base_bzr_tree, file_id, revision_id, parent_bzr_trees,
 
303
                lookup_object, (child_base_mode, child_mode), store_updater,
 
304
                lookup_file_id)
 
305
        else:
 
306
            if not mapping.is_special_file(name):
 
307
                subinvdelta = import_git_blob(
 
308
                    texts, mapping, child_path, name,
 
309
                    (child_base_hexsha, child_hexsha), base_bzr_tree, file_id,
 
310
                    revision_id, parent_bzr_trees, lookup_object,
 
311
                    (child_base_mode, child_mode), store_updater,
 
312
                    lookup_file_id)
 
313
            else:
 
314
                subinvdelta = []
 
315
            grandchildmodes = {}
 
316
        child_modes.update(grandchildmodes)
 
317
        invdelta.extend(subinvdelta)
 
318
        if child_mode not in (stat.S_IFDIR, DEFAULT_FILE_MODE,
 
319
                              stat.S_IFLNK, DEFAULT_FILE_MODE | 0o111,
 
320
                              S_IFGITLINK):
 
321
            child_modes[child_path] = child_mode
 
322
    # Remove any children that have disappeared
 
323
    if base_tree is not None and type(base_tree) is Tree:
 
324
        invdelta.extend(remove_disappeared_children(
 
325
            base_bzr_tree, old_path, base_tree, existing_children,
 
326
            lookup_object))
 
327
    store_updater.add_object(tree, (file_id, revision_id), path)
 
328
    return invdelta, child_modes
 
329
 
 
330
 
 
331
def verify_commit_reconstruction(target_git_object_retriever, lookup_object,
 
332
                                 o, rev, ret_tree, parent_trees, mapping,
 
333
                                 unusual_modes, verifiers):
 
334
    new_unusual_modes = mapping.export_unusual_file_modes(rev)
 
335
    if new_unusual_modes != unusual_modes:
 
336
        raise AssertionError("unusual modes don't match: %r != %r" % (
 
337
            unusual_modes, new_unusual_modes))
 
338
    # Verify that we can reconstruct the commit properly
 
339
    rec_o = target_git_object_retriever._reconstruct_commit(rev, o.tree, True,
 
340
                                                            verifiers)
 
341
    if rec_o != o:
 
342
        raise AssertionError("Reconstructed commit differs: %r != %r" % (
 
343
            rec_o, o))
 
344
    diff = []
 
345
    new_objs = {}
 
346
    for path, obj, ie in _tree_to_objects(
 
347
            ret_tree, parent_trees, target_git_object_retriever._cache.idmap,
 
348
            unusual_modes, mapping.BZR_DUMMY_FILE):
 
349
        old_obj_id = tree_lookup_path(lookup_object, o.tree, path)[1]
 
350
        new_objs[path] = obj
 
351
        if obj.id != old_obj_id:
 
352
            diff.append((path, lookup_object(old_obj_id), obj))
 
353
    for (path, old_obj, new_obj) in diff:
 
354
        while (old_obj.type_name == "tree"
 
355
               and new_obj.type_name == "tree"
 
356
               and sorted(old_obj) == sorted(new_obj)):
 
357
            for name in old_obj:
 
358
                if old_obj[name][0] != new_obj[name][0]:
 
359
                    raise AssertionError(
 
360
                        "Modes for %s differ: %o != %o" %
 
361
                        (path, old_obj[name][0], new_obj[name][0]))
 
362
                if old_obj[name][1] != new_obj[name][1]:
 
363
                    # Found a differing child, delve deeper
 
364
                    path = posixpath.join(path, name)
 
365
                    old_obj = lookup_object(old_obj[name][1])
 
366
                    new_obj = new_objs[path]
 
367
                    break
 
368
        raise AssertionError(
 
369
            "objects differ for %s: %r != %r" % (path, old_obj, new_obj))
 
370
 
 
371
 
 
372
def ensure_inventories_in_repo(repo, trees):
 
373
    real_inv_vf = repo.inventories.without_fallbacks()
 
374
    for t in trees:
 
375
        revid = t.get_revision_id()
 
376
        if not real_inv_vf.get_parent_map([(revid, )]):
 
377
            repo.add_inventory(revid, t.root_inventory, t.get_parent_ids())
 
378
 
 
379
 
 
380
def import_git_commit(repo, mapping, head, lookup_object,
 
381
                      target_git_object_retriever, trees_cache):
 
382
    o = lookup_object(head)
 
383
    # Note that this uses mapping.revision_id_foreign_to_bzr. If the parents
 
384
    # were bzr roundtripped revisions they would be specified in the
 
385
    # roundtrip data.
 
386
    rev, roundtrip_revid, verifiers = mapping.import_commit(
 
387
        o, mapping.revision_id_foreign_to_bzr)
 
388
    if roundtrip_revid is not None:
 
389
        original_revid = rev.revision_id
 
390
        rev.revision_id = roundtrip_revid
 
391
    # We have to do this here, since we have to walk the tree and
 
392
    # we need to make sure to import the blobs / trees with the right
 
393
    # path; this may involve adding them more than once.
 
394
    parent_trees = trees_cache.revision_trees(rev.parent_ids)
 
395
    ensure_inventories_in_repo(repo, parent_trees)
 
396
    if parent_trees == []:
 
397
        base_bzr_tree = trees_cache.revision_tree(NULL_REVISION)
 
398
        base_tree = None
 
399
        base_mode = None
 
400
    else:
 
401
        base_bzr_tree = parent_trees[0]
 
402
        base_tree = lookup_object(o.parents[0]).tree
 
403
        base_mode = stat.S_IFDIR
 
404
    store_updater = target_git_object_retriever._get_updater(rev)
 
405
    tree_supplement = mapping.get_fileid_map(lookup_object, o.tree)
 
406
    inv_delta, unusual_modes = import_git_tree(
 
407
        repo.texts, mapping, b"", b"", (base_tree, o.tree), base_bzr_tree,
 
408
        None, rev.revision_id, parent_trees, lookup_object,
 
409
        (base_mode, stat.S_IFDIR), store_updater,
 
410
        tree_supplement.lookup_file_id,
 
411
        allow_submodules=repo._format.supports_tree_reference)
 
412
    if unusual_modes != {}:
 
413
        for path, mode in unusual_modes.iteritems():
 
414
            warn_unusual_mode(rev.foreign_revid, path, mode)
 
415
        mapping.import_unusual_file_modes(rev, unusual_modes)
 
416
    try:
 
417
        basis_id = rev.parent_ids[0]
 
418
    except IndexError:
 
419
        basis_id = NULL_REVISION
 
420
        base_bzr_inventory = None
 
421
    else:
 
422
        base_bzr_inventory = base_bzr_tree.root_inventory
 
423
    rev.inventory_sha1, inv = repo.add_inventory_by_delta(
 
424
        basis_id, inv_delta, rev.revision_id, rev.parent_ids,
 
425
        base_bzr_inventory)
 
426
    ret_tree = InventoryRevisionTree(repo, inv, rev.revision_id)
 
427
    # Check verifiers
 
428
    if verifiers and roundtrip_revid is not None:
 
429
        testament = StrictTestament3(rev, ret_tree)
 
430
        calculated_verifiers = {"testament3-sha1": testament.as_sha1()}
 
431
        if calculated_verifiers != verifiers:
 
432
            trace.mutter("Testament SHA1 %r for %r did not match %r.",
 
433
                         calculated_verifiers["testament3-sha1"],
 
434
                         rev.revision_id, verifiers["testament3-sha1"])
 
435
            rev.revision_id = original_revid
 
436
            rev.inventory_sha1, inv = repo.add_inventory_by_delta(
 
437
                basis_id, inv_delta, rev.revision_id, rev.parent_ids,
 
438
                base_bzr_tree)
 
439
            ret_tree = InventoryRevisionTree(repo, inv, rev.revision_id)
 
440
    else:
 
441
        calculated_verifiers = {}
 
442
    store_updater.add_object(o, calculated_verifiers, None)
 
443
    store_updater.finish()
 
444
    trees_cache.add(ret_tree)
 
445
    repo.add_revision(rev.revision_id, rev)
 
446
    if "verify" in debug.debug_flags:
 
447
        verify_commit_reconstruction(
 
448
            target_git_object_retriever, lookup_object, o, rev, ret_tree,
 
449
            parent_trees, mapping, unusual_modes, verifiers)
 
450
 
 
451
 
 
452
def import_git_objects(repo, mapping, object_iter,
 
453
                       target_git_object_retriever, heads, pb=None,
 
454
                       limit=None):
135
455
    """Import a set of git objects into a bzr repository.
136
456
 
137
 
    :param repo: Bazaar repository
 
457
    :param repo: Target Bazaar repository
138
458
    :param mapping: Mapping to use
139
459
    :param object_iter: Iterator over Git objects.
 
460
    :return: Tuple with pack hints and last imported revision id
140
461
    """
141
 
    # TODO: a more (memory-)efficient implementation of this
 
462
    def lookup_object(sha):
 
463
        try:
 
464
            return object_iter[sha]
 
465
        except KeyError:
 
466
            return target_git_object_retriever[sha]
142
467
    graph = []
143
 
    root_trees = {}
144
 
    revisions = {}
 
468
    checked = set()
 
469
    heads = list(set(heads))
 
470
    trees_cache = LRUTreeCache(repo)
145
471
    # Find and convert commit objects
146
 
    for o in object_iter.iterobjects():
 
472
    while heads:
 
473
        if pb is not None:
 
474
            pb.update("finding revisions to fetch", len(graph), None)
 
475
        head = heads.pop()
 
476
        if head == ZERO_SHA:
 
477
            continue
 
478
        if not isinstance(head, bytes):
 
479
            raise TypeError(head)
 
480
        try:
 
481
            o = lookup_object(head)
 
482
        except KeyError:
 
483
            continue
147
484
        if isinstance(o, Commit):
148
 
            rev = mapping.import_commit(o)
149
 
            root_trees[rev.revision_id] = object_iter[o.tree]
150
 
            revisions[rev.revision_id] = rev
151
 
            graph.append((rev.revision_id, rev.parent_ids))
152
 
            target_git_object_retriever._idmap.add_entry(o.sha().hexdigest(), "commit", (rev.revision_id, o._tree))
 
485
            rev, roundtrip_revid, verifiers = mapping.import_commit(
 
486
                o, mapping.revision_id_foreign_to_bzr)
 
487
            if (repo.has_revision(rev.revision_id)
 
488
                    or (roundtrip_revid and
 
489
                        repo.has_revision(roundtrip_revid))):
 
490
                continue
 
491
            graph.append((o.id, o.parents))
 
492
            heads.extend([p for p in o.parents if p not in checked])
 
493
        elif isinstance(o, Tag):
 
494
            if o.object[1] not in checked:
 
495
                heads.append(o.object[1])
 
496
        else:
 
497
            trace.warning("Unable to import head object %r" % o)
 
498
        checked.add(o.id)
 
499
    del checked
153
500
    # Order the revisions
154
501
    # Create the inventory objects
155
 
    for i, revid in enumerate(topo_sort(graph)):
156
 
        if pb is not None:
157
 
            pb.update("fetching revisions", i, len(graph))
158
 
        root_tree = root_trees[revid]
159
 
        rev = revisions[revid]
160
 
        # We have to do this here, since we have to walk the tree and 
161
 
        # we need to make sure to import the blobs / trees with the riht 
162
 
        # path; this may involve adding them more than once.
163
 
        inv = Inventory()
164
 
        inv.revision_id = rev.revision_id
165
 
        def lookup_object(sha):
166
 
            if sha in object_iter:
167
 
                return object_iter[sha]
168
 
            return target_git_object_retriever[sha]
169
 
        parent_invs = [repo.get_inventory(r) for r in rev.parent_ids]
170
 
        import_git_tree(repo, mapping, "", root_tree, inv, parent_invs, 
171
 
            target_git_object_retriever, lookup_object)
172
 
        repo.add_revision(rev.revision_id, rev, inv)
173
 
 
174
 
 
175
 
class InterGitNonGitRepository(InterRepository):
176
 
 
177
 
    _matching_repo_format = GitFormat()
178
 
 
179
 
    @staticmethod
180
 
    def _get_repo_format_to_test():
181
 
        return None
182
 
 
183
 
    def copy_content(self, revision_id=None, pb=None):
184
 
        """See InterRepository.copy_content."""
185
 
        self.fetch(revision_id, pb, find_ghosts=False)
186
 
 
187
 
    def fetch_objects(self, determine_wants, mapping, pb=None):
188
 
        def progress(text):
189
 
            pb.update("git: %s" % text.rstrip("\r\n"), 0, 0)
190
 
        graph_walker = BzrFetchGraphWalker(self.target, mapping)
191
 
        create_pb = None
192
 
        if pb is None:
193
 
            create_pb = pb = ui.ui_factory.nested_progress_bar()
194
 
        target_git_object_retriever = GitObjectConverter(self.target, mapping)
195
 
        
 
502
    batch_size = 1000
 
503
    revision_ids = topo_sort(graph)
 
504
    pack_hints = []
 
505
    if limit is not None:
 
506
        revision_ids = revision_ids[:limit]
 
507
    last_imported = None
 
508
    for offset in range(0, len(revision_ids), batch_size):
 
509
        target_git_object_retriever.start_write_group()
196
510
        try:
197
 
            self.target.lock_write()
 
511
            repo.start_write_group()
198
512
            try:
199
 
                self.target.start_write_group()
200
 
                try:
201
 
                    objects_iter = self.source.fetch_objects(determine_wants, 
202
 
                                graph_walker, 
203
 
                                target_git_object_retriever.__getitem__, 
204
 
                                progress)
205
 
                    import_git_objects(self.target, mapping, objects_iter, 
206
 
                            target_git_object_retriever, pb)
207
 
                finally:
208
 
                    self.target.commit_write_group()
209
 
            finally:
210
 
                self.target.unlock()
211
 
        finally:
212
 
            if create_pb:
213
 
                create_pb.finished()
214
 
 
215
 
    def fetch(self, revision_id=None, pb=None, find_ghosts=False, 
216
 
              mapping=None):
217
 
        if mapping is None:
218
 
            mapping = self.source.get_mapping()
219
 
        def determine_wants(heads):
220
 
            if revision_id is None:
221
 
                ret = heads.values()
 
513
                for i, head in enumerate(
 
514
                        revision_ids[offset:offset + batch_size]):
 
515
                    if pb is not None:
 
516
                        pb.update("fetching revisions", offset + i,
 
517
                                  len(revision_ids))
 
518
                    import_git_commit(repo, mapping, head, lookup_object,
 
519
                                      target_git_object_retriever, trees_cache)
 
520
                    last_imported = head
 
521
            except BaseException:
 
522
                repo.abort_write_group()
 
523
                raise
222
524
            else:
223
 
                ret = [mapping.revision_id_bzr_to_foreign(revision_id)[0]]
224
 
            return [rev for rev in ret if not self.target.has_revision(mapping.revision_id_foreign_to_bzr(rev))]
225
 
        return self.fetch_objects(determine_wants, mapping, pb)
226
 
 
227
 
    @staticmethod
228
 
    def is_compatible(source, target):
229
 
        """Be compatible with GitRepository."""
230
 
        # FIXME: Also check target uses VersionedFile
231
 
        return (isinstance(source, GitRepository) and 
232
 
                target.supports_rich_root() and
233
 
                not isinstance(target, GitRepository))
234
 
 
235
 
 
236
 
class InterGitRepository(InterRepository):
237
 
 
238
 
    _matching_repo_format = GitFormat()
239
 
 
240
 
    @staticmethod
241
 
    def _get_repo_format_to_test():
242
 
        return None
243
 
 
244
 
    def copy_content(self, revision_id=None, pb=None):
245
 
        """See InterRepository.copy_content."""
246
 
        self.fetch(revision_id, pb, find_ghosts=False)
247
 
 
248
 
    def fetch(self, revision_id=None, pb=None, find_ghosts=False, 
249
 
              mapping=None):
250
 
        if mapping is None:
251
 
            mapping = self.source.get_mapping()
252
 
        def progress(text):
253
 
            info("git: %s", text)
254
 
        r = self.target._git
255
 
        if revision_id is None:
256
 
            determine_wants = lambda x: [y for y in x.values() if not y in r.object_store]
257
 
        else:
258
 
            args = [mapping.revision_id_bzr_to_foreign(revision_id)[0]]
259
 
            determine_wants = lambda x: [y for y in args if not y in r.object_store]
260
 
 
261
 
        graphwalker = SimpleFetchGraphWalker(r.heads().values(), r.get_parents)
262
 
        f, commit = r.object_store.add_pack()
263
 
        try:
264
 
            self.source._git.fetch_pack(path, determine_wants, graphwalker, f.write, progress)
265
 
            f.close()
266
 
            commit()
267
 
        except:
268
 
            f.close()
 
525
                hint = repo.commit_write_group()
 
526
                if hint is not None:
 
527
                    pack_hints.extend(hint)
 
528
        except BaseException:
 
529
            target_git_object_retriever.abort_write_group()
269
530
            raise
270
 
 
271
 
    @staticmethod
272
 
    def is_compatible(source, target):
273
 
        """Be compatible with GitRepository."""
274
 
        return (isinstance(source, GitRepository) and 
275
 
                isinstance(target, GitRepository))
 
531
        else:
 
532
            target_git_object_retriever.commit_write_group()
 
533
    return pack_hints, last_imported
 
534
 
 
535
 
 
536
class DetermineWantsRecorder(object):
 
537
 
 
538
    def __init__(self, actual):
 
539
        self.actual = actual
 
540
        self.wants = []
 
541
        self.remote_refs = {}
 
542
 
 
543
    def __call__(self, refs):
 
544
        if type(refs) is not dict:
 
545
            raise TypeError(refs)
 
546
        self.remote_refs = refs
 
547
        self.wants = self.actual(refs)
 
548
        return self.wants