/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to fetch.py

  • Committer: Jelmer Vernooij
  • Date: 2009-09-10 13:13:15 UTC
  • mto: (0.200.602 trunk)
  • mto: This revision was merged to the branch mainline in revision 6960.
  • Revision ID: jelmer@samba.org-20090910131315-6890xg58pl2jseml
Allow serving remote URLs.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2008 Canonical Ltd
 
1
# Copyright (C) 2008 Jelmer Vernooij <jelmer@samba.org>
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
from bzrlib import osutils, ui, urlutils
18
 
from bzrlib.errors import InvalidRevisionId
19
 
from bzrlib.inventory import Inventory
20
 
from bzrlib.repository import InterRepository
21
 
from bzrlib.trace import info
22
 
from bzrlib.tsort import topo_sort
23
 
 
 
17
from dulwich.objects import (
 
18
    Commit,
 
19
    Tag,
 
20
    S_ISGITLINK,
 
21
    )
 
22
from dulwich.object_store import (
 
23
    tree_lookup_path,
 
24
    )
 
25
import re
 
26
import stat
 
27
 
 
28
from bzrlib import (
 
29
    debug,
 
30
    osutils,
 
31
    trace,
 
32
    ui,
 
33
    urlutils,
 
34
    )
 
35
from bzrlib.errors import (
 
36
    BzrError,
 
37
    NoSuchId,
 
38
    )
 
39
from bzrlib.inventory import (
 
40
    Inventory,
 
41
    InventoryDirectory,
 
42
    InventoryFile,
 
43
    InventoryLink,
 
44
    )
 
45
from bzrlib.lru_cache import (
 
46
    LRUCache,
 
47
    )
 
48
from bzrlib.repository import (
 
49
    InterRepository,
 
50
    )
 
51
from bzrlib.revision import (
 
52
    NULL_REVISION,
 
53
    )
 
54
from bzrlib.tsort import (
 
55
    topo_sort,
 
56
    )
 
57
from bzrlib.versionedfile import (
 
58
    FulltextContentFactory,
 
59
    )
 
60
 
 
61
from bzrlib.plugins.git.mapping import (
 
62
    DEFAULT_FILE_MODE,
 
63
    inventory_to_tree_and_blobs,
 
64
    mode_is_executable,
 
65
    squash_revision,
 
66
    warn_unusual_mode,
 
67
    )
 
68
from bzrlib.plugins.git.object_store import (
 
69
    BazaarObjectStore,
 
70
    )
 
71
from bzrlib.plugins.git.remote import (
 
72
    RemoteGitRepository,
 
73
    )
24
74
from bzrlib.plugins.git.repository import (
25
 
        LocalGitRepository, 
26
 
        GitRepository, 
27
 
        GitFormat,
28
 
        )
29
 
from bzrlib.plugins.git.remote import RemoteGitRepository
30
 
 
31
 
import dulwich as git
32
 
from dulwich.client import SimpleFetchGraphWalker
33
 
from dulwich.objects import Commit
34
 
 
35
 
from cStringIO import StringIO
36
 
 
37
 
 
38
 
class BzrFetchGraphWalker(object):
39
 
    """GraphWalker implementation that uses a Bazaar repository."""
40
 
 
41
 
    def __init__(self, repository, mapping):
42
 
        self.repository = repository
43
 
        self.mapping = mapping
44
 
        self.done = set()
45
 
        self.heads = set(repository.all_revision_ids())
46
 
        self.parents = {}
47
 
 
48
 
    def __iter__(self):
49
 
        return iter(self.next, None)
50
 
 
51
 
    def ack(self, sha):
52
 
        revid = self.mapping.revision_id_foreign_to_bzr(sha)
53
 
        self.remove(revid)
54
 
 
55
 
    def remove(self, revid):
56
 
        self.done.add(revid)
57
 
        if revid in self.heads:
58
 
            self.heads.remove(revid)
59
 
        if revid in self.parents:
60
 
            for p in self.parents[revid]:
61
 
                self.remove(p)
62
 
 
63
 
    def next(self):
64
 
        while self.heads:
65
 
            ret = self.heads.pop()
66
 
            ps = self.repository.get_parent_map([ret])[ret]
67
 
            self.parents[ret] = ps
68
 
            self.heads.update([p for p in ps if not p in self.done])
69
 
            try:
70
 
                self.done.add(ret)
71
 
                return self.mapping.revision_id_bzr_to_foreign(ret)[0]
72
 
            except InvalidRevisionId:
73
 
                pass
74
 
        return None
75
 
 
76
 
 
77
 
def import_git_blob(repo, mapping, path, blob, inv, parent_invs, executable):
 
75
    GitRepository, 
 
76
    GitRepositoryFormat,
 
77
    LocalGitRepository,
 
78
    )
 
79
 
 
80
 
 
81
def import_git_blob(texts, mapping, path, hexsha, base_inv, base_ie, parent_id, 
 
82
    revision_id, parent_invs, shagitmap, lookup_object, executable, symlink):
78
83
    """Import a git blob object into a bzr repository.
79
84
 
80
 
    :param repo: bzr repository
 
85
    :param texts: VersionedFiles to add to
81
86
    :param path: Path in the tree
82
87
    :param blob: A git blob
 
88
    :return: Inventory delta for this file
83
89
    """
84
90
    file_id = mapping.generate_file_id(path)
85
 
    text_revision = inv.revision_id
86
 
    repo.texts.add_lines((file_id, text_revision),
87
 
        [(file_id, p[file_id].revision) for p in parent_invs if file_id in p],
88
 
        osutils.split_lines(blob.data))
89
 
    ie = inv.add_path(path, "file", file_id)
90
 
    ie.revision = text_revision
91
 
    ie.text_size = len(blob.data)
92
 
    ie.text_sha1 = osutils.sha_string(blob.data)
 
91
    if symlink:
 
92
        cls = InventoryLink
 
93
    else:
 
94
        cls = InventoryFile
 
95
    # We just have to hope this is indeed utf-8:
 
96
    ie = cls(file_id, urlutils.basename(path).decode("utf-8"), parent_id)
93
97
    ie.executable = executable
94
 
 
95
 
 
96
 
def import_git_tree(repo, mapping, path, tree, inv, parent_invs, lookup_object):
 
98
    # See if this has changed at all
 
99
    if base_ie is None:
 
100
        base_sha = None
 
101
    else:
 
102
        try:
 
103
            base_sha = shagitmap.lookup_blob(file_id, base_ie.revision)
 
104
        except KeyError:
 
105
            base_sha = None
 
106
        else:
 
107
            if (base_sha == hexsha and base_ie.executable == ie.executable
 
108
                and base_ie.kind == ie.kind):
 
109
                # If nothing has changed since the base revision, we're done
 
110
                return [], []
 
111
    if base_sha == hexsha and base_ie.kind == ie.kind:
 
112
        ie.text_size = base_ie.text_size
 
113
        ie.text_sha1 = base_ie.text_sha1
 
114
        ie.symlink_target = base_ie.symlink_target
 
115
        if ie.executable == base_ie.executable:
 
116
            ie.revision = base_ie.revision
 
117
        else:
 
118
            blob = lookup_object(hexsha)
 
119
    else:
 
120
        blob = lookup_object(hexsha)
 
121
        if ie.kind == "symlink":
 
122
            ie.revision = None
 
123
            ie.symlink_target = blob.data
 
124
            ie.text_size = None
 
125
            ie.text_sha1 = None
 
126
        else:
 
127
            ie.text_size = len(blob.data)
 
128
            ie.text_sha1 = osutils.sha_string(blob.data)
 
129
    # Check what revision we should store
 
130
    parent_keys = []
 
131
    for pinv in parent_invs:
 
132
        if pinv.revision_id == base_inv.revision_id:
 
133
            pie = base_ie
 
134
            if pie is None:
 
135
                continue
 
136
        else:
 
137
            try:
 
138
                pie = pinv[file_id]
 
139
            except NoSuchId:
 
140
                continue
 
141
        if pie.text_sha1 == ie.text_sha1 and pie.executable == ie.executable and pie.symlink_target == ie.symlink_target:
 
142
            # found a revision in one of the parents to use
 
143
            ie.revision = pie.revision
 
144
            break
 
145
        parent_keys.append((file_id, pie.revision))
 
146
    if ie.revision is None:
 
147
        # Need to store a new revision
 
148
        ie.revision = revision_id
 
149
        assert file_id is not None
 
150
        assert ie.revision is not None
 
151
        texts.insert_record_stream([FulltextContentFactory((file_id, ie.revision), tuple(parent_keys), ie.text_sha1, blob.data)])
 
152
        shamap = [(hexsha, "blob", (ie.file_id, ie.revision))]
 
153
    else:
 
154
        shamap = []
 
155
    invdelta = []
 
156
    if base_ie is not None: 
 
157
        old_path = base_inv.id2path(file_id)
 
158
        if base_ie.kind == "directory":
 
159
            invdelta.extend(remove_disappeared_children(old_path, base_ie.children, []))
 
160
    else:
 
161
        old_path = None
 
162
    invdelta.append((old_path, path, file_id, ie))
 
163
    return (invdelta, shamap)
 
164
 
 
165
 
 
166
class SubmodulesNotSupported(BzrError):
 
167
 
 
168
    _fmt = """Submodules can not yet be imported (requires nested tree support in Bazaar)."""
 
169
    internal = False
 
170
 
 
171
 
 
172
def import_git_submodule(texts, mapping, path, hexsha, base_inv, base_ie, 
 
173
    parent_id, revision_id, parent_invs, shagitmap, lookup_object):
 
174
    raise SubmodulesNotSupported()
 
175
 
 
176
 
 
177
def remove_disappeared_children(path, base_children, existing_children):
 
178
    ret = []
 
179
    deletable = [(osutils.pathjoin(path, k), v) for k,v in base_children.iteritems() if k not in existing_children]
 
180
    while deletable:
 
181
        (path, ie) = deletable.pop()
 
182
        ret.append((path, None, ie.file_id, None))
 
183
        if ie.kind == "directory":
 
184
            for name, child_ie in ie.children.iteritems():
 
185
                deletable.append((osutils.pathjoin(path, name), child_ie))
 
186
    return ret
 
187
 
 
188
 
 
189
def import_git_tree(texts, mapping, path, hexsha, base_inv, base_ie, parent_id, 
 
190
    revision_id, parent_invs, shagitmap, lookup_object):
97
191
    """Import a git tree object into a bzr repository.
98
192
 
99
 
    :param repo: A Bzr repository object
 
193
    :param texts: VersionedFiles object to add to
100
194
    :param path: Path in the tree
101
195
    :param tree: A git tree object
102
 
    :param inv: Inventory object
 
196
    :param base_inv: Base inventory against which to return inventory delta
 
197
    :return: Inventory delta for this subtree
103
198
    """
 
199
    invdelta = []
104
200
    file_id = mapping.generate_file_id(path)
105
 
    text_revision = inv.revision_id
106
 
    repo.texts.add_lines((file_id, text_revision),
107
 
        [(file_id, p[file_id].revision) for p in parent_invs if file_id in p],
108
 
        [])
109
 
    ie = inv.add_path(path, "directory", file_id)
110
 
    ie.revision = text_revision
111
 
    for mode, name, hexsha in tree.entries():
112
 
        entry_kind = (mode & 0700000) / 0100000
 
201
    # We just have to hope this is indeed utf-8:
 
202
    ie = InventoryDirectory(file_id, urlutils.basename(path.decode("utf-8")), 
 
203
        parent_id)
 
204
    if base_ie is None:
 
205
        # Newly appeared here
 
206
        ie.revision = revision_id
 
207
        texts.insert_record_stream([FulltextContentFactory((file_id, ie.revision), (), None, "")])
 
208
        invdelta.append((None, path, file_id, ie))
 
209
    else:
 
210
        # See if this has changed at all
 
211
        try:
 
212
            base_sha = shagitmap.lookup_tree(file_id, base_inv.revision_id)
 
213
        except KeyError:
 
214
            pass
 
215
        else:
 
216
            if base_sha == hexsha:
 
217
                # If nothing has changed since the base revision, we're done
 
218
                return [], {}, []
 
219
        if base_ie.kind != "directory":
 
220
            ie.revision = revision_id
 
221
            texts.insert_record_stream([FulltextContentFactory((ie.file_id, ie.revision), (), None, "")])
 
222
            invdelta.append((base_inv.id2path(ie.file_id), path, ie.file_id, ie))
 
223
    if base_ie is not None and base_ie.kind == "directory":
 
224
        base_children = base_ie.children
 
225
    else:
 
226
        base_children = {}
 
227
    # Remember for next time
 
228
    existing_children = set()
 
229
    child_modes = {}
 
230
    shamap = []
 
231
    tree = lookup_object(hexsha)
 
232
    for mode, name, child_hexsha in tree.entries():
113
233
        basename = name.decode("utf-8")
114
 
        if path == "":
115
 
            child_path = name
116
 
        else:
117
 
            child_path = urlutils.join(path, name)
118
 
        if entry_kind == 0:
119
 
            tree = lookup_object(hexsha)
120
 
            import_git_tree(repo, mapping, child_path, tree, inv, parent_invs, lookup_object)
121
 
        elif entry_kind == 1:
122
 
            blob = lookup_object(hexsha)
123
 
            fs_mode = mode & 0777
124
 
            import_git_blob(repo, mapping, child_path, blob, inv, parent_invs, bool(fs_mode & 0111))
125
 
        else:
126
 
            raise AssertionError("Unknown blob kind, perms=%r." % (mode,))
127
 
 
128
 
 
129
 
def import_git_objects(repo, mapping, object_iter, pb=None):
 
234
        existing_children.add(basename)
 
235
        child_path = osutils.pathjoin(path, name)
 
236
        if stat.S_ISDIR(mode):
 
237
            subinvdelta, grandchildmodes, subshamap = import_git_tree(
 
238
                    texts, mapping, child_path, child_hexsha, base_inv, 
 
239
                    base_children.get(basename), file_id, revision_id, parent_invs, shagitmap,
 
240
                    lookup_object)
 
241
            invdelta.extend(subinvdelta)
 
242
            child_modes.update(grandchildmodes)
 
243
            shamap.extend(subshamap)
 
244
        elif S_ISGITLINK(mode): # submodule
 
245
            subinvdelta, grandchildmodes, subshamap = import_git_submodule(
 
246
                    texts, mapping, child_path, child_hexsha, base_inv, base_children.get(basename),
 
247
                    file_id, revision_id, parent_invs, shagitmap, lookup_object)
 
248
            invdelta.extend(subinvdelta)
 
249
            child_modes.update(grandchildmodes)
 
250
            shamap.extend(subshamap)
 
251
        else:
 
252
            subinvdelta, subshamap = import_git_blob(texts, mapping, 
 
253
                    child_path, child_hexsha, base_inv, base_children.get(basename), file_id,
 
254
                    revision_id, parent_invs, shagitmap, lookup_object, 
 
255
                    mode_is_executable(mode), stat.S_ISLNK(mode))
 
256
            invdelta.extend(subinvdelta)
 
257
            shamap.extend(subshamap)
 
258
        if mode not in (stat.S_IFDIR, DEFAULT_FILE_MODE,
 
259
                        stat.S_IFLNK, DEFAULT_FILE_MODE|0111):
 
260
            child_modes[child_path] = mode
 
261
    # Remove any children that have disappeared
 
262
    if base_ie is not None and base_ie.kind == "directory":
 
263
        invdelta.extend(remove_disappeared_children(base_inv.id2path(file_id), 
 
264
            base_children, existing_children))
 
265
    shamap.append((hexsha, "tree", (file_id, revision_id)))
 
266
    return invdelta, child_modes, shamap
 
267
 
 
268
 
 
269
def import_git_objects(repo, mapping, object_iter, target_git_object_retriever, 
 
270
        heads, pb=None):
130
271
    """Import a set of git objects into a bzr repository.
131
272
 
132
 
    :param repo: Bazaar repository
 
273
    :param repo: Target Bazaar repository
133
274
    :param mapping: Mapping to use
134
275
    :param object_iter: Iterator over Git objects.
135
276
    """
 
277
    def lookup_object(sha):
 
278
        try:
 
279
            return object_iter[sha]
 
280
        except KeyError:
 
281
            return target_git_object_retriever[sha]
136
282
    # TODO: a more (memory-)efficient implementation of this
137
283
    graph = []
138
284
    root_trees = {}
139
285
    revisions = {}
 
286
    checked = set()
 
287
    heads = list(heads)
 
288
    parent_invs_cache = LRUCache(50)
140
289
    # Find and convert commit objects
141
 
    for o in object_iter.iterobjects():
 
290
    while heads:
 
291
        if pb is not None:
 
292
            pb.update("finding revisions to fetch", len(graph), None)
 
293
        head = heads.pop()
 
294
        assert isinstance(head, str)
 
295
        try:
 
296
            o = lookup_object(head)
 
297
        except KeyError:
 
298
            trace.mutter('missing head %s', head)
 
299
            continue
142
300
        if isinstance(o, Commit):
143
301
            rev = mapping.import_commit(o)
144
 
            root_trees[rev.revision_id] = object_iter[o.tree]
 
302
            if repo.has_revision(rev.revision_id):
 
303
                continue
 
304
            squash_revision(repo, rev)
 
305
            root_trees[rev.revision_id] = o.tree
145
306
            revisions[rev.revision_id] = rev
146
307
            graph.append((rev.revision_id, rev.parent_ids))
 
308
            target_git_object_retriever._idmap.add_entry(o.id, "commit", 
 
309
                    (rev.revision_id, o.tree))
 
310
            heads.extend([p for p in o.parents if p not in checked])
 
311
        elif isinstance(o, Tag):
 
312
            heads.append(o.object[1])
 
313
        else:
 
314
            trace.warning("Unable to import head object %r" % o)
 
315
        checked.add(head)
147
316
    # Order the revisions
148
317
    # Create the inventory objects
149
318
    for i, revid in enumerate(topo_sort(graph)):
150
319
        if pb is not None:
151
320
            pb.update("fetching revisions", i, len(graph))
152
 
        root_tree = root_trees[revid]
153
321
        rev = revisions[revid]
154
322
        # We have to do this here, since we have to walk the tree and 
155
 
        # we need to make sure to import the blobs / trees with the riht 
 
323
        # we need to make sure to import the blobs / trees with the right 
156
324
        # path; this may involve adding them more than once.
157
 
        inv = Inventory()
158
 
        inv.revision_id = rev.revision_id
159
 
        def lookup_object(sha):
160
 
            if sha in object_iter:
161
 
                return object_iter[sha]
162
 
            return reconstruct_git_object(repo, mapping, sha)
163
 
        parent_invs = [repo.get_inventory(r) for r in rev.parent_ids]
164
 
        import_git_tree(repo, mapping, "", root_tree, inv, parent_invs, 
165
 
            lookup_object)
166
 
        repo.add_revision(rev.revision_id, rev, inv)
167
 
 
168
 
 
169
 
def reconstruct_git_commit(repo, rev):
170
 
    raise NotImplementedError(self.reconstruct_git_commit)
171
 
 
172
 
 
173
 
def reconstruct_git_object(repo, mapping, sha):
174
 
    # Commit
175
 
    revid = mapping.revision_id_foreign_to_bzr(sha)
176
 
    try:
177
 
        rev = repo.get_revision(revid)
178
 
    except NoSuchRevision:
179
 
        pass
180
 
    else:
181
 
        return reconstruct_git_commit(rev)
182
 
 
183
 
    # TODO: Tree
184
 
    # TODO: Blob
185
 
    raise KeyError("No such object %s" % sha)
186
 
 
187
 
 
188
 
class InterGitNonGitRepository(InterRepository):
189
 
 
190
 
    _matching_repo_format = GitFormat()
 
325
        parent_invs = []
 
326
        for parent_id in rev.parent_ids:
 
327
            try:
 
328
                parent_invs.append(parent_invs_cache[parent_id])
 
329
            except KeyError:
 
330
                parent_inv = repo.get_inventory(parent_id)
 
331
                parent_invs.append(parent_inv)
 
332
                parent_invs_cache[parent_id] = parent_inv
 
333
        if parent_invs == []:
 
334
            base_inv = Inventory(root_id=None)
 
335
            base_ie = None
 
336
        else:
 
337
            base_inv = parent_invs[0]
 
338
            base_ie = base_inv.root
 
339
        inv_delta, unusual_modes, shamap = import_git_tree(repo.texts, 
 
340
                mapping, "", root_trees[revid], base_inv, base_ie, None, revid, 
 
341
                parent_invs, target_git_object_retriever._idmap, lookup_object)
 
342
        target_git_object_retriever._idmap.add_entries(shamap)
 
343
        if unusual_modes != {}:
 
344
            for path, mode in unusual_modes.iteritems():
 
345
                warn_unusual_mode(rev.foreign_revid, path, mode)
 
346
            mapping.import_unusual_file_modes(rev, unusual_modes)
 
347
        try:
 
348
            basis_id = rev.parent_ids[0]
 
349
        except IndexError:
 
350
            basis_id = NULL_REVISION
 
351
        rev.inventory_sha1, inv = repo.add_inventory_by_delta(basis_id,
 
352
                  inv_delta, rev.revision_id, rev.parent_ids)
 
353
        parent_invs_cache[rev.revision_id] = inv
 
354
        repo.add_revision(rev.revision_id, rev)
 
355
        if "verify" in debug.debug_flags:
 
356
            new_unusual_modes = mapping.export_unusual_file_modes(rev)
 
357
            if new_unusual_modes != unusual_modes:
 
358
                raise AssertionError("unusual modes don't match: %r != %r" % (unusual_modes, new_unusual_modes))
 
359
            objs = inventory_to_tree_and_blobs(inv, repo.texts, mapping, unusual_modes)
 
360
            for sha1, newobj, path in objs:
 
361
                assert path is not None
 
362
                oldobj = tree_lookup_path(lookup_object, root_trees[revid], path)
 
363
                if oldobj != newobj:
 
364
                    raise AssertionError("%r != %r in %s" % (oldobj, newobj, path))
 
365
 
 
366
    target_git_object_retriever._idmap.commit()
 
367
 
 
368
 
 
369
class InterGitRepository(InterRepository):
 
370
 
 
371
    _matching_repo_format = GitRepositoryFormat()
191
372
 
192
373
    @staticmethod
193
374
    def _get_repo_format_to_test():
197
378
        """See InterRepository.copy_content."""
198
379
        self.fetch(revision_id, pb, find_ghosts=False)
199
380
 
200
 
    def fetch(self, revision_id=None, pb=None, find_ghosts=False, 
201
 
              mapping=None):
 
381
    def fetch(self, revision_id=None, pb=None, find_ghosts=False, mapping=None,
 
382
            fetch_spec=None):
 
383
        self.fetch_refs(revision_id=revision_id, pb=pb, find_ghosts=find_ghosts,
 
384
                mapping=mapping, fetch_spec=fetch_spec)
 
385
 
 
386
 
 
387
class InterGitNonGitRepository(InterGitRepository):
 
388
    """Base InterRepository that copies revisions from a Git into a non-Git 
 
389
    repository."""
 
390
 
 
391
    def fetch_refs(self, revision_id=None, pb=None, find_ghosts=False, 
 
392
              mapping=None, fetch_spec=None):
202
393
        if mapping is None:
203
394
            mapping = self.source.get_mapping()
204
 
        def progress(text):
205
 
            pb.update("git: %s" % text.rstrip("\r\n"), 0, 0)
206
 
        def determine_wants(heads):
207
 
            if revision_id is None:
208
 
                ret = heads.values()
 
395
        if revision_id is not None:
 
396
            interesting_heads = [revision_id]
 
397
        elif fetch_spec is not None:
 
398
            interesting_heads = fetch_spec.heads
 
399
        else:
 
400
            interesting_heads = None
 
401
        self._refs = {}
 
402
        def determine_wants(refs):
 
403
            self._refs = refs
 
404
            if interesting_heads is None:
 
405
                ret = [sha for (ref, sha) in refs.iteritems() if not ref.endswith("^{}")]
209
406
            else:
210
 
                ret = [mapping.revision_id_bzr_to_foreign(revision_id)[0]]
 
407
                ret = [mapping.revision_id_bzr_to_foreign(revid)[0] for revid in interesting_heads if revid not in (None, NULL_REVISION)]
211
408
            return [rev for rev in ret if not self.target.has_revision(mapping.revision_id_foreign_to_bzr(rev))]
212
 
        graph_walker = BzrFetchGraphWalker(self.target, mapping)
 
409
        pack_hint = self.fetch_objects(determine_wants, mapping, pb)
 
410
        if pack_hint is not None and self.target._format.pack_compresses:
 
411
            self.target.pack(hint=pack_hint)
 
412
        if interesting_heads is not None:
 
413
            present_interesting_heads = self.target.has_revisions(interesting_heads)
 
414
            missing_interesting_heads = set(interesting_heads) - present_interesting_heads
 
415
            if missing_interesting_heads:
 
416
                raise AssertionError("Missing interesting heads: %r" % missing_interesting_heads)
 
417
        return self._refs
 
418
 
 
419
 
 
420
_GIT_PROGRESS_RE = re.compile(r"(.*?): +(\d+)% \((\d+)/(\d+)\)")
 
421
def report_git_progress(pb, text):
 
422
    text = text.rstrip("\r\n")
 
423
    g = _GIT_PROGRESS_RE.match(text)
 
424
    if g is not None:
 
425
        (text, pct, current, total) = g.groups()
 
426
        pb.update(text, int(current), int(total))
 
427
    else:
 
428
        pb.update(text, 0, 0)
 
429
 
 
430
 
 
431
class InterRemoteGitNonGitRepository(InterGitNonGitRepository):
 
432
    """InterRepository that copies revisions from a remote Git into a non-Git 
 
433
    repository."""
 
434
 
 
435
    def get_target_heads(self):
 
436
        # FIXME: This should be more efficient
 
437
        all_revs = self.target.all_revision_ids()
 
438
        parent_map = self.target.get_parent_map(all_revs)
 
439
        all_parents = set()
 
440
        map(all_parents.update, parent_map.itervalues())
 
441
        return set(all_revs) - all_parents
 
442
 
 
443
    def fetch_objects(self, determine_wants, mapping, pb=None):
 
444
        def progress(text):
 
445
            report_git_progress(pb, text)
 
446
        store = BazaarObjectStore(self.target, mapping)
 
447
        self.target.lock_write()
 
448
        try:
 
449
            heads = self.get_target_heads()
 
450
            graph_walker = store.get_graph_walker(
 
451
                    [store._lookup_revision_sha1(head) for head in heads])
 
452
            recorded_wants = []
 
453
 
 
454
            def record_determine_wants(heads):
 
455
                wants = determine_wants(heads)
 
456
                recorded_wants.extend(wants)
 
457
                return wants
 
458
        
 
459
            create_pb = None
 
460
            if pb is None:
 
461
                create_pb = pb = ui.ui_factory.nested_progress_bar()
 
462
            try:
 
463
                self.target.start_write_group()
 
464
                try:
 
465
                    objects_iter = self.source.fetch_objects(
 
466
                                record_determine_wants, graph_walker, 
 
467
                                store.get_raw, progress)
 
468
                    import_git_objects(self.target, mapping, objects_iter, 
 
469
                            store, recorded_wants, pb)
 
470
                finally:
 
471
                    pack_hint = self.target.commit_write_group()
 
472
                return pack_hint
 
473
            finally:
 
474
                if create_pb:
 
475
                    create_pb.finished()
 
476
        finally:
 
477
            self.target.unlock()
 
478
 
 
479
    @staticmethod
 
480
    def is_compatible(source, target):
 
481
        """Be compatible with GitRepository."""
 
482
        # FIXME: Also check target uses VersionedFile
 
483
        return (isinstance(source, RemoteGitRepository) and 
 
484
                target.supports_rich_root() and
 
485
                not isinstance(target, GitRepository))
 
486
 
 
487
 
 
488
class InterLocalGitNonGitRepository(InterGitNonGitRepository):
 
489
    """InterRepository that copies revisions from a local Git into a non-Git 
 
490
    repository."""
 
491
 
 
492
    def fetch_objects(self, determine_wants, mapping, pb=None):
 
493
        wants = determine_wants(self.source._git.get_refs())
213
494
        create_pb = None
214
495
        if pb is None:
215
496
            create_pb = pb = ui.ui_factory.nested_progress_bar()
 
497
        target_git_object_retriever = BazaarObjectStore(self.target, mapping)
216
498
        try:
217
499
            self.target.lock_write()
218
500
            try:
219
501
                self.target.start_write_group()
220
502
                try:
221
 
                    objects_iter = self.source.fetch_objects(determine_wants, 
222
 
                                graph_walker, progress)
223
 
                    import_git_objects(self.target, mapping, objects_iter, pb)
 
503
                    import_git_objects(self.target, mapping, 
 
504
                            self.source._git.object_store, 
 
505
                            target_git_object_retriever, wants, pb)
224
506
                finally:
225
 
                    self.target.commit_write_group()
 
507
                    pack_hint = self.target.commit_write_group()
 
508
                return pack_hint
226
509
            finally:
227
510
                self.target.unlock()
228
511
        finally:
233
516
    def is_compatible(source, target):
234
517
        """Be compatible with GitRepository."""
235
518
        # FIXME: Also check target uses VersionedFile
236
 
        return (isinstance(source, GitRepository) and 
 
519
        return (isinstance(source, LocalGitRepository) and 
237
520
                target.supports_rich_root() and
238
521
                not isinstance(target, GitRepository))
239
522
 
240
523
 
241
 
class InterGitRepository(InterRepository):
242
 
 
243
 
    _matching_repo_format = GitFormat()
244
 
 
245
 
    @staticmethod
246
 
    def _get_repo_format_to_test():
247
 
        return None
248
 
 
249
 
    def copy_content(self, revision_id=None, pb=None):
250
 
        """See InterRepository.copy_content."""
251
 
        self.fetch(revision_id, pb, find_ghosts=False)
252
 
 
253
 
    def fetch(self, revision_id=None, pb=None, find_ghosts=False, 
254
 
              mapping=None):
 
524
class InterGitGitRepository(InterGitRepository):
 
525
    """InterRepository that copies between Git repositories."""
 
526
 
 
527
    def fetch_refs(self, revision_id=None, pb=None, find_ghosts=False, 
 
528
              mapping=None, fetch_spec=None, branches=None):
255
529
        if mapping is None:
256
530
            mapping = self.source.get_mapping()
257
531
        def progress(text):
258
 
            info("git: %s", text)
 
532
            trace.info("git: %s", text)
259
533
        r = self.target._git
260
 
        if revision_id is None:
261
 
            determine_wants = lambda x: [y for y in x.values() if not y in r.object_store]
262
 
        else:
 
534
        if revision_id is not None:
263
535
            args = [mapping.revision_id_bzr_to_foreign(revision_id)[0]]
 
536
        elif fetch_spec is not None:
 
537
            args = [mapping.revision_id_bzr_to_foreign(revid)[0] for revid in fetch_spec.heads]
 
538
        if branches is not None:
 
539
            determine_wants = lambda x: [x[y] for y in branches if not x[y] in r.object_store]
 
540
        elif fetch_spec is None and revision_id is None:
 
541
            determine_wants = r.object_store.determine_wants_all
 
542
        else:
264
543
            determine_wants = lambda x: [y for y in args if not y in r.object_store]
265
544
 
266
 
        graphwalker = SimpleFetchGraphWalker(r.heads().values(), r.get_parents)
267
 
        f, commit = r.object_store.add_pack()
 
545
        graphwalker = r.get_graph_walker()
 
546
        f, commit = r.object_store.add_thin_pack()
268
547
        try:
269
 
            self.source._git.fetch_pack(path, determine_wants, graphwalker, f.write, progress)
270
 
            f.close()
 
548
            refs = self.source.fetch_pack(determine_wants, graphwalker,
 
549
                                          f.write, progress)
271
550
            commit()
 
551
            return refs
272
552
        except:
273
553
            f.close()
274
554
            raise