/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to fetch.py

Support submodules during fetch.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2008 Canonical Ltd
 
1
# Copyright (C) 2008 Jelmer Vernooij <jelmer@samba.org>
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
from bzrlib import osutils, ui, urlutils
18
 
from bzrlib.errors import InvalidRevisionId
19
 
from bzrlib.inventory import Inventory
20
 
from bzrlib.repository import InterRepository
21
 
from bzrlib.trace import info
22
 
from bzrlib.tsort import topo_sort
23
 
 
24
 
from bzrlib.plugins.git import git
 
17
from dulwich.objects import (
 
18
    Commit,
 
19
    Tag,
 
20
    S_ISGITLINK,
 
21
    )
 
22
from dulwich.object_store import (
 
23
    tree_lookup_path,
 
24
    )
 
25
import re
 
26
import stat
 
27
 
 
28
from bzrlib import (
 
29
    debug,
 
30
    osutils,
 
31
    trace,
 
32
    ui,
 
33
    urlutils,
 
34
    )
 
35
from bzrlib.errors import (
 
36
    BzrError,
 
37
    NoSuchId,
 
38
    )
 
39
from bzrlib.inventory import (
 
40
    Inventory,
 
41
    InventoryDirectory,
 
42
    InventoryFile,
 
43
    InventoryLink,
 
44
    TreeReference,
 
45
    )
 
46
from bzrlib.lru_cache import (
 
47
    LRUCache,
 
48
    )
 
49
from bzrlib.repository import (
 
50
    InterRepository,
 
51
    )
 
52
from bzrlib.revision import (
 
53
    NULL_REVISION,
 
54
    )
 
55
from bzrlib.tsort import (
 
56
    topo_sort,
 
57
    )
 
58
from bzrlib.versionedfile import (
 
59
    FulltextContentFactory,
 
60
    )
 
61
 
 
62
from bzrlib.plugins.git.mapping import (
 
63
    DEFAULT_FILE_MODE,
 
64
    inventory_to_tree_and_blobs,
 
65
    mode_is_executable,
 
66
    squash_revision,
 
67
    warn_unusual_mode,
 
68
    )
 
69
from bzrlib.plugins.git.object_store import (
 
70
    BazaarObjectStore,
 
71
    )
 
72
from bzrlib.plugins.git.remote import (
 
73
    RemoteGitRepository,
 
74
    )
25
75
from bzrlib.plugins.git.repository import (
26
 
        LocalGitRepository, 
27
 
        GitRepository, 
28
 
        GitFormat,
29
 
        )
30
 
from bzrlib.plugins.git.remote import RemoteGitRepository
31
 
 
32
 
from dulwich.objects import Commit
33
 
 
34
 
from cStringIO import StringIO
35
 
 
36
 
 
37
 
class BzrFetchGraphWalker(object):
38
 
 
39
 
    def __init__(self, repository, mapping):
40
 
        self.repository = repository
41
 
        self.mapping = mapping
42
 
        self.done = set()
43
 
        self.heads = set(repository.all_revision_ids())
44
 
        self.parents = {}
45
 
 
46
 
    def ack(self, sha):
47
 
        revid = self.mapping.revision_id_foreign_to_bzr(sha)
48
 
        self.remove(revid)
49
 
 
50
 
    def remove(self, revid):
51
 
        self.done.add(revid)
52
 
        if ref in self.heads:
53
 
            self.heads.remove(revid)
54
 
        if revid in self.parents:
55
 
            for p in self.parents[revid]:
56
 
                self.remove(p)
57
 
 
58
 
    def next(self):
59
 
        while self.heads:
60
 
            ret = self.heads.pop()
61
 
            ps = self.repository.get_parent_map([ret])[ret]
62
 
            self.parents[ret] = ps
63
 
            self.heads.update([p for p in ps if not p in self.done])
64
 
            try:
65
 
                self.done.add(ret)
66
 
                return self.mapping.revision_id_bzr_to_foreign(ret)
67
 
            except InvalidRevisionId:
68
 
                pass
69
 
        return None
70
 
 
71
 
 
72
 
def import_git_blob(repo, mapping, path, blob, inv, parent_invs, executable):
 
76
    GitRepository,
 
77
    GitRepositoryFormat,
 
78
    LocalGitRepository,
 
79
    )
 
80
 
 
81
 
 
82
def import_git_blob(texts, mapping, path, hexsha, base_inv, base_ie, parent_id,
 
83
    revision_id, parent_invs, shagitmap, lookup_object, executable, symlink):
73
84
    """Import a git blob object into a bzr repository.
74
85
 
75
 
    :param repo: bzr repository
 
86
    :param texts: VersionedFiles to add to
76
87
    :param path: Path in the tree
77
88
    :param blob: A git blob
 
89
    :return: Inventory delta for this file
78
90
    """
79
91
    file_id = mapping.generate_file_id(path)
80
 
    text_revision = inv.revision_id
81
 
    repo.texts.add_lines((file_id, text_revision),
82
 
        [(file_id, p[file_id].revision) for p in parent_invs if file_id in p],
83
 
        osutils.split_lines(blob.data))
84
 
    ie = inv.add_path(path, "file", file_id)
85
 
    ie.revision = text_revision
86
 
    ie.text_size = len(blob.data)
87
 
    ie.text_sha1 = osutils.sha_string(blob.data)
 
92
    if symlink:
 
93
        cls = InventoryLink
 
94
    else:
 
95
        cls = InventoryFile
 
96
    # We just have to hope this is indeed utf-8:
 
97
    ie = cls(file_id, urlutils.basename(path).decode("utf-8"), parent_id)
88
98
    ie.executable = executable
89
 
 
90
 
 
91
 
def import_git_tree(repo, mapping, path, tree, inv, parent_invs, lookup_object):
 
99
    # See if this has changed at all
 
100
    if base_ie is None:
 
101
        base_sha = None
 
102
    else:
 
103
        try:
 
104
            base_sha = shagitmap.lookup_blob(file_id, base_ie.revision)
 
105
        except KeyError:
 
106
            base_sha = None
 
107
        else:
 
108
            if (base_sha == hexsha and base_ie.executable == ie.executable
 
109
                and base_ie.kind == ie.kind):
 
110
                # If nothing has changed since the base revision, we're done
 
111
                return [], []
 
112
    if base_sha == hexsha and base_ie.kind == ie.kind:
 
113
        ie.text_size = base_ie.text_size
 
114
        ie.text_sha1 = base_ie.text_sha1
 
115
        ie.symlink_target = base_ie.symlink_target
 
116
        if ie.executable == base_ie.executable:
 
117
            ie.revision = base_ie.revision
 
118
        else:
 
119
            blob = lookup_object(hexsha)
 
120
    else:
 
121
        blob = lookup_object(hexsha)
 
122
        if ie.kind == "symlink":
 
123
            ie.revision = None
 
124
            ie.symlink_target = blob.data
 
125
            ie.text_size = None
 
126
            ie.text_sha1 = None
 
127
        else:
 
128
            ie.text_size = len(blob.data)
 
129
            ie.text_sha1 = osutils.sha_string(blob.data)
 
130
    # Check what revision we should store
 
131
    parent_keys = []
 
132
    for pinv in parent_invs:
 
133
        if pinv.revision_id == base_inv.revision_id:
 
134
            pie = base_ie
 
135
            if pie is None:
 
136
                continue
 
137
        else:
 
138
            try:
 
139
                pie = pinv[file_id]
 
140
            except NoSuchId:
 
141
                continue
 
142
        if pie.text_sha1 == ie.text_sha1 and pie.executable == ie.executable and pie.symlink_target == ie.symlink_target:
 
143
            # found a revision in one of the parents to use
 
144
            ie.revision = pie.revision
 
145
            break
 
146
        parent_keys.append((file_id, pie.revision))
 
147
    if ie.revision is None:
 
148
        # Need to store a new revision
 
149
        ie.revision = revision_id
 
150
        assert file_id is not None
 
151
        assert ie.revision is not None
 
152
        texts.insert_record_stream([FulltextContentFactory((file_id, ie.revision), tuple(parent_keys), ie.text_sha1, blob.data)])
 
153
        shamap = [(hexsha, "blob", (ie.file_id, ie.revision))]
 
154
    else:
 
155
        shamap = []
 
156
    invdelta = []
 
157
    if base_ie is not None:
 
158
        old_path = base_inv.id2path(file_id)
 
159
        if base_ie.kind == "directory":
 
160
            invdelta.extend(remove_disappeared_children(old_path, base_ie.children, []))
 
161
    else:
 
162
        old_path = None
 
163
    invdelta.append((old_path, path, file_id, ie))
 
164
    return (invdelta, shamap)
 
165
 
 
166
 
 
167
class SubmodulesRequireSubtrees(BzrError):
 
168
    _fmt = """The repository you are fetching from contains submodules. Please run 'bzr upgrade --development-subtree'."""
 
169
    internal = False
 
170
 
 
171
 
 
172
def import_git_submodule(texts, mapping, path, hexsha, base_inv, base_ie,
 
173
    parent_id, revision_id, parent_invs, shagitmap, lookup_object):
 
174
    file_id = mapping.generate_file_id(path)
 
175
    ie = TreeReference(file_id, urlutils.basename(path.decode("utf-8")),
 
176
        parent_id)
 
177
    ie.revision = revision_id
 
178
    if base_ie is None:
 
179
        oldpath = None
 
180
    else:
 
181
        oldpath = path
 
182
        if base_ie.kind == ie.kind and base_ie.reference_revision == ie.reference_revision:
 
183
            ie.revision = base_ie.revision
 
184
    ie.reference_revision = mapping.revision_id_foreign_to_bzr(hexsha)
 
185
    texts.insert_record_stream([FulltextContentFactory((file_id, ie.revision), (), None, "")])
 
186
    invdelta = [(oldpath, path, file_id, ie)]
 
187
    return invdelta, {}, {}
 
188
 
 
189
 
 
190
def remove_disappeared_children(path, base_children, existing_children):
 
191
    ret = []
 
192
    deletable = [(osutils.pathjoin(path, k), v) for k,v in base_children.iteritems() if k not in existing_children]
 
193
    while deletable:
 
194
        (path, ie) = deletable.pop()
 
195
        ret.append((path, None, ie.file_id, None))
 
196
        if ie.kind == "directory":
 
197
            for name, child_ie in ie.children.iteritems():
 
198
                deletable.append((osutils.pathjoin(path, name), child_ie))
 
199
    return ret
 
200
 
 
201
 
 
202
def import_git_tree(texts, mapping, path, hexsha, base_inv, base_ie, parent_id,
 
203
    revision_id, parent_invs, shagitmap, lookup_object):
92
204
    """Import a git tree object into a bzr repository.
93
205
 
94
 
    :param repo: A Bzr repository object
 
206
    :param texts: VersionedFiles object to add to
95
207
    :param path: Path in the tree
96
208
    :param tree: A git tree object
97
 
    :param inv: Inventory object
 
209
    :param base_inv: Base inventory against which to return inventory delta
 
210
    :return: Inventory delta for this subtree
98
211
    """
 
212
    invdelta = []
99
213
    file_id = mapping.generate_file_id(path)
100
 
    text_revision = inv.revision_id
101
 
    repo.texts.add_lines((file_id, text_revision),
102
 
        [(file_id, p[file_id].revision) for p in parent_invs if file_id in p],
103
 
        [])
104
 
    ie = inv.add_path(path, "directory", file_id)
105
 
    ie.revision = text_revision
106
 
    for mode, name, hexsha in tree.entries():
107
 
        entry_kind = (mode & 0700000) / 0100000
 
214
    # We just have to hope this is indeed utf-8:
 
215
    ie = InventoryDirectory(file_id, urlutils.basename(path.decode("utf-8")),
 
216
        parent_id)
 
217
    if base_ie is None:
 
218
        # Newly appeared here
 
219
        ie.revision = revision_id
 
220
        texts.insert_record_stream([FulltextContentFactory((file_id, ie.revision), (), None, "")])
 
221
        invdelta.append((None, path, file_id, ie))
 
222
    else:
 
223
        # See if this has changed at all
 
224
        try:
 
225
            base_sha = shagitmap.lookup_tree(file_id, base_inv.revision_id)
 
226
        except KeyError:
 
227
            pass
 
228
        else:
 
229
            if base_sha == hexsha:
 
230
                # If nothing has changed since the base revision, we're done
 
231
                return [], {}, []
 
232
        if base_ie.kind != "directory":
 
233
            ie.revision = revision_id
 
234
            texts.insert_record_stream([FulltextContentFactory((ie.file_id, ie.revision), (), None, "")])
 
235
            invdelta.append((base_inv.id2path(ie.file_id), path, ie.file_id, ie))
 
236
    if base_ie is not None and base_ie.kind == "directory":
 
237
        base_children = base_ie.children
 
238
    else:
 
239
        base_children = {}
 
240
    # Remember for next time
 
241
    existing_children = set()
 
242
    child_modes = {}
 
243
    shamap = []
 
244
    tree = lookup_object(hexsha)
 
245
    for mode, name, child_hexsha in tree.entries():
108
246
        basename = name.decode("utf-8")
109
 
        if path == "":
110
 
            child_path = name
111
 
        else:
112
 
            child_path = urlutils.join(path, name)
113
 
        if entry_kind == 0:
114
 
            tree = lookup_object(hexsha)
115
 
            import_git_tree(repo, mapping, child_path, tree, inv, parent_invs, lookup_object)
116
 
        elif entry_kind == 1:
117
 
            blob = lookup_object(hexsha)
118
 
            fs_mode = mode & 0777
119
 
            import_git_blob(repo, mapping, child_path, blob, inv, parent_invs, bool(fs_mode & 0111))
120
 
        else:
121
 
            raise AssertionError("Unknown blob kind, perms=%r." % (mode,))
122
 
 
123
 
 
124
 
def import_git_objects(repo, mapping, object_iter, pb=None):
 
247
        existing_children.add(basename)
 
248
        child_path = osutils.pathjoin(path, name)
 
249
        if stat.S_ISDIR(mode):
 
250
            subinvdelta, grandchildmodes, subshamap = import_git_tree(
 
251
                    texts, mapping, child_path, child_hexsha, base_inv,
 
252
                    base_children.get(basename), file_id, revision_id, parent_invs, shagitmap,
 
253
                    lookup_object)
 
254
            invdelta.extend(subinvdelta)
 
255
            child_modes.update(grandchildmodes)
 
256
            shamap.extend(subshamap)
 
257
        elif S_ISGITLINK(mode): # submodule
 
258
            subinvdelta, grandchildmodes, subshamap = import_git_submodule(
 
259
                    texts, mapping, child_path, child_hexsha, base_inv, base_children.get(basename),
 
260
                    file_id, revision_id, parent_invs, shagitmap, lookup_object)
 
261
            invdelta.extend(subinvdelta)
 
262
            child_modes.update(grandchildmodes)
 
263
            shamap.extend(subshamap)
 
264
        else:
 
265
            subinvdelta, subshamap = import_git_blob(texts, mapping,
 
266
                    child_path, child_hexsha, base_inv, base_children.get(basename), file_id,
 
267
                    revision_id, parent_invs, shagitmap, lookup_object,
 
268
                    mode_is_executable(mode), stat.S_ISLNK(mode))
 
269
            invdelta.extend(subinvdelta)
 
270
            shamap.extend(subshamap)
 
271
        if mode not in (stat.S_IFDIR, DEFAULT_FILE_MODE,
 
272
                        stat.S_IFLNK, DEFAULT_FILE_MODE|0111):
 
273
            child_modes[child_path] = mode
 
274
    # Remove any children that have disappeared
 
275
    if base_ie is not None and base_ie.kind == "directory":
 
276
        invdelta.extend(remove_disappeared_children(base_inv.id2path(file_id),
 
277
            base_children, existing_children))
 
278
    shamap.append((hexsha, "tree", (file_id, revision_id)))
 
279
    return invdelta, child_modes, shamap
 
280
 
 
281
 
 
282
def import_git_objects(repo, mapping, object_iter, target_git_object_retriever,
 
283
        heads, pb=None):
125
284
    """Import a set of git objects into a bzr repository.
126
285
 
127
 
    :param repo: Bazaar repository
 
286
    :param repo: Target Bazaar repository
128
287
    :param mapping: Mapping to use
129
288
    :param object_iter: Iterator over Git objects.
130
289
    """
 
290
    def lookup_object(sha):
 
291
        try:
 
292
            return object_iter[sha]
 
293
        except KeyError:
 
294
            return target_git_object_retriever[sha]
131
295
    # TODO: a more (memory-)efficient implementation of this
132
 
    objects = {}
133
 
    for i, o in enumerate(object_iter):
134
 
        if pb is not None:
135
 
            pb.update("fetching objects", i) 
136
 
        objects[o.id] = o
137
296
    graph = []
138
297
    root_trees = {}
139
298
    revisions = {}
 
299
    checked = set()
 
300
    heads = list(heads)
 
301
    parent_invs_cache = LRUCache(50)
140
302
    # Find and convert commit objects
141
 
    for o in objects.itervalues():
 
303
    while heads:
 
304
        if pb is not None:
 
305
            pb.update("finding revisions to fetch", len(graph), None)
 
306
        head = heads.pop()
 
307
        assert isinstance(head, str)
 
308
        try:
 
309
            o = lookup_object(head)
 
310
        except KeyError:
 
311
            trace.mutter('missing head %s', head)
 
312
            continue
142
313
        if isinstance(o, Commit):
143
314
            rev = mapping.import_commit(o)
144
 
            root_trees[rev.revision_id] = objects[o.tree]
 
315
            if repo.has_revision(rev.revision_id):
 
316
                continue
 
317
            squash_revision(repo, rev)
 
318
            root_trees[rev.revision_id] = o.tree
145
319
            revisions[rev.revision_id] = rev
146
320
            graph.append((rev.revision_id, rev.parent_ids))
 
321
            target_git_object_retriever._idmap.add_entry(o.id, "commit",
 
322
                    (rev.revision_id, o.tree))
 
323
            heads.extend([p for p in o.parents if p not in checked])
 
324
        elif isinstance(o, Tag):
 
325
            heads.append(o.object[1])
 
326
        else:
 
327
            trace.warning("Unable to import head object %r" % o)
 
328
        checked.add(head)
147
329
    # Order the revisions
148
330
    # Create the inventory objects
149
331
    for i, revid in enumerate(topo_sort(graph)):
150
332
        if pb is not None:
151
333
            pb.update("fetching revisions", i, len(graph))
152
 
        root_tree = root_trees[revid]
153
334
        rev = revisions[revid]
154
 
        # We have to do this here, since we have to walk the tree and 
155
 
        # we need to make sure to import the blobs / trees with the riht 
 
335
        # We have to do this here, since we have to walk the tree and
 
336
        # we need to make sure to import the blobs / trees with the right
156
337
        # path; this may involve adding them more than once.
157
 
        inv = Inventory()
158
 
        inv.revision_id = rev.revision_id
159
 
        def lookup_object(sha):
160
 
            if sha in objects:
161
 
                return objects[sha]
162
 
            return reconstruct_git_object(repo, mapping, sha)
163
 
        parent_invs = [repo.get_inventory(r) for r in rev.parent_ids]
164
 
        import_git_tree(repo, mapping, "", root_tree, inv, parent_invs, lookup_object)
165
 
        repo.add_revision(rev.revision_id, rev, inv)
166
 
 
167
 
 
168
 
def reconstruct_git_commit(repo, rev):
169
 
    raise NotImplementedError(self.reconstruct_git_commit)
170
 
 
171
 
 
172
 
def reconstruct_git_object(repo, mapping, sha):
173
 
    # Commit
174
 
    revid = mapping.revision_id_foreign_to_bzr(sha)
175
 
    try:
176
 
        rev = repo.get_revision(revid)
177
 
    except NoSuchRevision:
178
 
        pass
179
 
    else:
180
 
        return reconstruct_git_commit(rev)
181
 
 
182
 
    # TODO: Tree
183
 
    # TODO: Blob
184
 
    raise KeyError("No such object %s" % sha)
 
338
        parent_invs = []
 
339
        for parent_id in rev.parent_ids:
 
340
            try:
 
341
                parent_invs.append(parent_invs_cache[parent_id])
 
342
            except KeyError:
 
343
                parent_inv = repo.get_inventory(parent_id)
 
344
                parent_invs.append(parent_inv)
 
345
                parent_invs_cache[parent_id] = parent_inv
 
346
        if parent_invs == []:
 
347
            base_inv = Inventory(root_id=None)
 
348
            base_ie = None
 
349
        else:
 
350
            base_inv = parent_invs[0]
 
351
            base_ie = base_inv.root
 
352
        inv_delta, unusual_modes, shamap = import_git_tree(repo.texts,
 
353
                mapping, "", root_trees[revid], base_inv, base_ie, None, revid,
 
354
                parent_invs, target_git_object_retriever._idmap, lookup_object)
 
355
        target_git_object_retriever._idmap.add_entries(shamap)
 
356
        if unusual_modes != {}:
 
357
            for path, mode in unusual_modes.iteritems():
 
358
                warn_unusual_mode(rev.foreign_revid, path, mode)
 
359
            mapping.import_unusual_file_modes(rev, unusual_modes)
 
360
        try:
 
361
            basis_id = rev.parent_ids[0]
 
362
        except IndexError:
 
363
            basis_id = NULL_REVISION
 
364
            base_inv = None
 
365
        rev.inventory_sha1, inv = repo.add_inventory_by_delta(basis_id,
 
366
                  inv_delta, rev.revision_id, rev.parent_ids,
 
367
                  base_inv)
 
368
        parent_invs_cache[rev.revision_id] = inv
 
369
        repo.add_revision(rev.revision_id, rev)
 
370
        if "verify" in debug.debug_flags:
 
371
            new_unusual_modes = mapping.export_unusual_file_modes(rev)
 
372
            if new_unusual_modes != unusual_modes:
 
373
                raise AssertionError("unusual modes don't match: %r != %r" % (unusual_modes, new_unusual_modes))
 
374
            objs = inventory_to_tree_and_blobs(inv, repo.texts, mapping, unusual_modes)
 
375
            for sha1, newobj, path in objs:
 
376
                assert path is not None
 
377
                oldobj = tree_lookup_path(lookup_object, root_trees[revid], path)
 
378
                if oldobj != newobj:
 
379
                    raise AssertionError("%r != %r in %s" % (oldobj, newobj, path))
 
380
 
 
381
    target_git_object_retriever._idmap.commit()
185
382
 
186
383
 
187
384
class InterGitRepository(InterRepository):
188
385
 
189
 
    _matching_repo_format = GitFormat()
 
386
    _matching_repo_format = GitRepositoryFormat()
190
387
 
191
388
    @staticmethod
192
389
    def _get_repo_format_to_test():
196
393
        """See InterRepository.copy_content."""
197
394
        self.fetch(revision_id, pb, find_ghosts=False)
198
395
 
199
 
    def fetch(self, revision_id=None, pb=None, find_ghosts=False, 
200
 
              mapping=None):
 
396
    def fetch(self, revision_id=None, pb=None, find_ghosts=False, mapping=None,
 
397
            fetch_spec=None):
 
398
        self.fetch_refs(revision_id=revision_id, pb=pb, find_ghosts=find_ghosts,
 
399
                mapping=mapping, fetch_spec=fetch_spec)
 
400
 
 
401
 
 
402
class InterGitNonGitRepository(InterGitRepository):
 
403
    """Base InterRepository that copies revisions from a Git into a non-Git
 
404
    repository."""
 
405
 
 
406
    def fetch_refs(self, revision_id=None, pb=None, find_ghosts=False,
 
407
              mapping=None, fetch_spec=None):
201
408
        if mapping is None:
202
409
            mapping = self.source.get_mapping()
203
 
        def progress(text):
204
 
            pb.note("git: %s", text)
205
 
        def determine_wants(heads):
206
 
            if revision_id is None:
207
 
                ret = heads.values()
 
410
        if revision_id is not None:
 
411
            interesting_heads = [revision_id]
 
412
        elif fetch_spec is not None:
 
413
            interesting_heads = fetch_spec.heads
 
414
        else:
 
415
            interesting_heads = None
 
416
        self._refs = {}
 
417
        def determine_wants(refs):
 
418
            self._refs = refs
 
419
            if interesting_heads is None:
 
420
                ret = [sha for (ref, sha) in refs.iteritems() if not ref.endswith("^{}")]
208
421
            else:
209
 
                ret = [mapping.revision_id_bzr_to_foreign(revision_id)]
 
422
                ret = [mapping.revision_id_bzr_to_foreign(revid)[0] for revid in interesting_heads if revid not in (None, NULL_REVISION)]
210
423
            return [rev for rev in ret if not self.target.has_revision(mapping.revision_id_foreign_to_bzr(rev))]
211
 
        graph_walker = BzrFetchGraphWalker(self.target, mapping)
 
424
        pack_hint = self.fetch_objects(determine_wants, mapping, pb)
 
425
        if pack_hint is not None and self.target._format.pack_compresses:
 
426
            self.target.pack(hint=pack_hint)
 
427
        if interesting_heads is not None:
 
428
            present_interesting_heads = self.target.has_revisions(interesting_heads)
 
429
            missing_interesting_heads = set(interesting_heads) - present_interesting_heads
 
430
            if missing_interesting_heads:
 
431
                raise AssertionError("Missing interesting heads: %r" % missing_interesting_heads)
 
432
        return self._refs
 
433
 
 
434
 
 
435
_GIT_PROGRESS_RE = re.compile(r"(.*?): +(\d+)% \((\d+)/(\d+)\)")
 
436
def report_git_progress(pb, text):
 
437
    text = text.rstrip("\r\n")
 
438
    g = _GIT_PROGRESS_RE.match(text)
 
439
    if g is not None:
 
440
        (text, pct, current, total) = g.groups()
 
441
        pb.update(text, int(current), int(total))
 
442
    else:
 
443
        pb.update(text, 0, 0)
 
444
 
 
445
 
 
446
class InterRemoteGitNonGitRepository(InterGitNonGitRepository):
 
447
    """InterRepository that copies revisions from a remote Git into a non-Git
 
448
    repository."""
 
449
 
 
450
    def get_target_heads(self):
 
451
        # FIXME: This should be more efficient
 
452
        all_revs = self.target.all_revision_ids()
 
453
        parent_map = self.target.get_parent_map(all_revs)
 
454
        all_parents = set()
 
455
        map(all_parents.update, parent_map.itervalues())
 
456
        return set(all_revs) - all_parents
 
457
 
 
458
    def fetch_objects(self, determine_wants, mapping, pb=None):
 
459
        def progress(text):
 
460
            report_git_progress(pb, text)
 
461
        store = BazaarObjectStore(self.target, mapping)
 
462
        self.target.lock_write()
 
463
        try:
 
464
            heads = self.get_target_heads()
 
465
            graph_walker = store.get_graph_walker(
 
466
                    [store._lookup_revision_sha1(head) for head in heads])
 
467
            recorded_wants = []
 
468
 
 
469
            def record_determine_wants(heads):
 
470
                wants = determine_wants(heads)
 
471
                recorded_wants.extend(wants)
 
472
                return wants
 
473
 
 
474
            create_pb = None
 
475
            if pb is None:
 
476
                create_pb = pb = ui.ui_factory.nested_progress_bar()
 
477
            try:
 
478
                self.target.start_write_group()
 
479
                try:
 
480
                    objects_iter = self.source.fetch_objects(
 
481
                                record_determine_wants, graph_walker,
 
482
                                store.get_raw, progress)
 
483
                    import_git_objects(self.target, mapping, objects_iter,
 
484
                            store, recorded_wants, pb)
 
485
                finally:
 
486
                    pack_hint = self.target.commit_write_group()
 
487
                return pack_hint
 
488
            finally:
 
489
                if create_pb:
 
490
                    create_pb.finished()
 
491
        finally:
 
492
            self.target.unlock()
 
493
 
 
494
    @staticmethod
 
495
    def is_compatible(source, target):
 
496
        """Be compatible with GitRepository."""
 
497
        # FIXME: Also check target uses VersionedFile
 
498
        return (isinstance(source, RemoteGitRepository) and
 
499
                target.supports_rich_root() and
 
500
                not isinstance(target, GitRepository))
 
501
 
 
502
 
 
503
class InterLocalGitNonGitRepository(InterGitNonGitRepository):
 
504
    """InterRepository that copies revisions from a local Git into a non-Git
 
505
    repository."""
 
506
 
 
507
    def fetch_objects(self, determine_wants, mapping, pb=None):
 
508
        wants = determine_wants(self.source._git.get_refs())
212
509
        create_pb = None
213
510
        if pb is None:
214
511
            create_pb = pb = ui.ui_factory.nested_progress_bar()
 
512
        target_git_object_retriever = BazaarObjectStore(self.target, mapping)
215
513
        try:
216
514
            self.target.lock_write()
217
515
            try:
218
516
                self.target.start_write_group()
219
517
                try:
220
518
                    import_git_objects(self.target, mapping,
221
 
                        iter(self.source.fetch_objects(determine_wants, graph_walker, 
222
 
                            progress)), pb)
 
519
                            self.source._git.object_store,
 
520
                            target_git_object_retriever, wants, pb)
223
521
                finally:
224
 
                    self.target.commit_write_group()
 
522
                    pack_hint = self.target.commit_write_group()
 
523
                return pack_hint
225
524
            finally:
226
525
                self.target.unlock()
227
526
        finally:
232
531
    def is_compatible(source, target):
233
532
        """Be compatible with GitRepository."""
234
533
        # FIXME: Also check target uses VersionedFile
235
 
        return (isinstance(source, GitRepository) and 
236
 
                target.supports_rich_root())
 
534
        return (isinstance(source, LocalGitRepository) and
 
535
                target.supports_rich_root() and
 
536
                not isinstance(target, GitRepository))
 
537
 
 
538
 
 
539
class InterGitGitRepository(InterGitRepository):
 
540
    """InterRepository that copies between Git repositories."""
 
541
 
 
542
    def fetch_objects(self, determine_wants, mapping, pb=None):
 
543
        def progress(text):
 
544
            trace.note("git: %s", text)
 
545
        graphwalker = self.target._git.get_graph_walker()
 
546
        if isinstance(self.source, LocalGitRepository) and isinstance(self.target, LocalGitRepository):
 
547
            return self.source._git.fetch(self.target._git, determine_wants,
 
548
                progress)
 
549
        elif isinstance(self.source, LocalGitRepository) and isinstance(self.target, RemoteGitRepository):
 
550
            raise NotImplementedError
 
551
        elif isinstance(self.source, RemoteGitRepository) and isinstance(self.target, LocalGitRepository):
 
552
            f, commit = self.target._git.object_store.add_thin_pack()
 
553
            try:
 
554
                refs = self.source._git.fetch_pack(determine_wants, graphwalker,
 
555
                                                   f.write, progress)
 
556
                commit()
 
557
                return refs
 
558
            except:
 
559
                f.close()
 
560
                raise
 
561
        else:
 
562
            raise AssertionError
 
563
 
 
564
    def fetch_refs(self, revision_id=None, pb=None, find_ghosts=False,
 
565
              mapping=None, fetch_spec=None, branches=None):
 
566
        if mapping is None:
 
567
            mapping = self.source.get_mapping()
 
568
        r = self.target._git
 
569
        if revision_id is not None:
 
570
            args = [mapping.revision_id_bzr_to_foreign(revision_id)[0]]
 
571
        elif fetch_spec is not None:
 
572
            args = [mapping.revision_id_bzr_to_foreign(revid)[0] for revid in fetch_spec.heads]
 
573
        if branches is not None:
 
574
            determine_wants = lambda x: [x[y] for y in branches if not x[y] in r.object_store]
 
575
        elif fetch_spec is None and revision_id is None:
 
576
            determine_wants = r.object_store.determine_wants_all
 
577
        else:
 
578
            determine_wants = lambda x: [y for y in args if not y in r.object_store]
 
579
        return self.fetch_objects(determine_wants, mapping)
 
580
 
 
581
 
 
582
    @staticmethod
 
583
    def is_compatible(source, target):
 
584
        """Be compatible with GitRepository."""
 
585
        return (isinstance(source, GitRepository) and
 
586
                isinstance(target, GitRepository))