/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/store.py

  • Committer: Robert Collins
  • Date: 2005-09-30 02:54:51 UTC
  • mfrom: (1395)
  • mto: This revision was merged to the branch mainline in revision 1397.
  • Revision ID: robertc@robertcollins.net-20050930025451-47b9e412202be44b
symlink and weaves, whaddya know

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
2
 
#
 
1
# Copyright (C) 2005 by Canonical Development Ltd
 
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
#
 
7
 
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
#
 
12
 
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
# TODO: Could remember a bias towards whether a particular store is typically
18
18
# compressed or not.
19
19
 
20
20
"""
21
 
Stores are the main data-storage mechanism for Bazaar.
 
21
Stores are the main data-storage mechanism for Bazaar-NG.
22
22
 
23
23
A store is a simple write-once container indexed by a universally
24
24
unique ID.
25
25
"""
26
26
 
 
27
import errno
 
28
import gzip
27
29
import os
 
30
import tempfile
 
31
import types
 
32
from stat import ST_SIZE
 
33
from StringIO import StringIO
28
34
 
29
 
from bzrlib import (
30
 
    errors,
31
 
    versionedfile,
32
 
    )
33
35
from bzrlib.errors import BzrError, UnlistableStore
34
36
from bzrlib.trace import mutter
 
37
import bzrlib.ui
 
38
import bzrlib.osutils as osutils
 
39
#circular import
 
40
#from bzrlib.remotebranch import get_url
 
41
import urllib2
 
42
 
35
43
 
36
44
######################################################################
37
45
# stores
41
49
 
42
50
 
43
51
class Store(object):
44
 
    """This class represents the abstract storage layout for saving information.
 
52
    """An abstract store that holds files indexed by unique names.
45
53
 
46
54
    Files can be added, but not modified once they are in.  Typically
47
55
    the hash is used as the name, or something else known to be unique,
48
56
    such as a UUID.
 
57
 
 
58
    >>> st = ImmutableScratchStore()
 
59
 
 
60
    >>> st.add(StringIO('hello'), 'aa')
 
61
    >>> 'aa' in st
 
62
    True
 
63
    >>> 'foo' in st
 
64
    False
 
65
 
 
66
    You are not allowed to add an id that is already present.
 
67
 
 
68
    Entries can be retrieved as files, which may then be read.
 
69
 
 
70
    >>> st.add(StringIO('goodbye'), '123123')
 
71
    >>> st['123123'].read()
 
72
    'goodbye'
49
73
    """
50
74
 
51
 
    def __len__(self):
52
 
        raise NotImplementedError('Children should define their length')
53
 
 
54
 
    def get(self, fileid, suffix=None):
55
 
        """Returns a file reading from a particular entry.
56
 
 
57
 
        If suffix is present, retrieve the named suffix for fileid.
58
 
        """
59
 
        raise NotImplementedError
60
 
 
61
 
    def __getitem__(self, fileid):
62
 
        """DEPRECATED. Please use .get(fileid) instead."""
63
 
        raise NotImplementedError
64
 
 
65
 
    def __iter__(self):
66
 
        raise NotImplementedError
67
 
 
68
 
    def add(self, f, fileid):
69
 
        """Add a file object f to the store accessible from the given fileid"""
70
 
        raise NotImplementedError('Children of Store must define their method of adding entries.')
71
 
 
72
 
    def has_id(self, fileid, suffix=None):
73
 
        """Return True or false for the presence of fileid in the store.
74
 
 
75
 
        suffix, if present, is a per file suffix, i.e. for digital signature
76
 
        data."""
77
 
        raise NotImplementedError
78
 
 
79
 
    def listable(self):
80
 
        """Return True if this store is able to be listed."""
81
 
        return (getattr(self, "__iter__", None) is not None)
82
 
 
83
 
    def copy_all_ids(self, store_from, pb=None):
84
 
        """Copy all the file ids from store_from into self."""
85
 
        if not store_from.listable():
86
 
            raise UnlistableStore(store_from)
87
 
        ids = []
88
 
        for count, file_id in enumerate(store_from):
89
 
            if pb:
90
 
                pb.update('listing files', count, count)
91
 
            ids.append(file_id)
92
 
        if pb:
93
 
            pb.clear()
94
 
        mutter('copy_all ids: %r', ids)
95
 
        self.copy_multi(store_from, ids, pb=pb)
96
 
 
97
 
    def copy_multi(self, other, ids, pb=None, permit_failure=False):
98
 
        """Copy texts for ids from other into self.
99
 
 
100
 
        If an id is present in self, it is skipped.  A count of copied
101
 
        ids is returned, which may be less than len(ids).
102
 
 
103
 
        :param other: Another Store object
104
 
        :param ids: A list of entry ids to be copied
105
 
        :param pb: A ProgressTask object, if none is given, the default will be created.
106
 
        :param permit_failure: Allow missing entries to be ignored
107
 
        :return: (n_copied, [failed]) The number of entries copied successfully,
108
 
            followed by a list of entries which could not be copied (because they
109
 
            were missing)
110
 
        """
111
 
        if pb:
112
 
            pb.update('preparing to copy')
113
 
        failed = set()
114
 
        count = 0
115
 
        for fileid in ids:
116
 
            count += 1
117
 
            if self.has_id(fileid):
118
 
                continue
119
 
            try:
120
 
                self._copy_one(fileid, None, other, pb)
121
 
                for suffix in self._suffixes:
122
 
                    try:
123
 
                        self._copy_one(fileid, suffix, other, pb)
124
 
                    except KeyError:
125
 
                        pass
126
 
                if pb:
127
 
                    pb.update('copy', count, len(ids))
128
 
            except KeyError:
129
 
                if permit_failure:
130
 
                    failed.add(fileid)
131
 
                else:
132
 
                    raise
133
 
        if pb:
134
 
            pb.clear()
135
 
        return count, failed
136
 
 
137
 
    def _copy_one(self, fileid, suffix, other, pb):
138
 
        """Most generic copy-one object routine.
139
 
 
140
 
        Subclasses can override this to provide an optimised
141
 
        copy between their own instances. Such overriden routines
142
 
        should call this if they have no optimised facility for a
143
 
        specific 'other'.
144
 
        """
145
 
        mutter('Store._copy_one: %r', fileid)
146
 
        f = other.get(fileid, suffix)
147
 
        self.add(f, fileid, suffix)
148
 
 
149
 
 
150
 
class TransportStore(Store):
151
 
    """A TransportStore is a Store superclass for Stores that use Transports."""
152
 
 
153
 
    def add(self, f, fileid, suffix=None):
154
 
        """Add contents of a file into the store.
155
 
 
156
 
        f -- A file-like object
157
 
        """
158
 
        mutter("add store entry %r", fileid)
159
 
        names = self._id_to_names(fileid, suffix)
160
 
        if self._transport.has_any(names):
161
 
            raise BzrError("store %r already contains id %r"
162
 
                           % (self._transport.base, fileid))
163
 
 
164
 
        # Most of the time, just adding the file will work
165
 
        # if we find a time where it fails, (because the dir
166
 
        # doesn't exist), then create the dir, and try again
167
 
        self._add(names[0], f)
168
 
 
169
 
    def _add(self, relpath, f):
170
 
        """Actually add the file to the given location.
171
 
        This should be overridden by children.
172
 
        """
173
 
        raise NotImplementedError('children need to implement this function.')
174
 
 
175
 
    def _check_fileid(self, fileid):
176
 
        if type(fileid) != str:
177
 
            raise TypeError('Fileids should be bytestrings: %s %r' % (
178
 
                type(fileid), fileid))
179
 
        if '\\' in fileid or '/' in fileid:
180
 
            raise ValueError("invalid store id %r" % fileid)
181
 
 
182
 
    def _id_to_names(self, fileid, suffix):
183
 
        """Return the names in the expected order"""
184
 
        if suffix is not None:
185
 
            fn = self._relpath(fileid, [suffix])
186
 
        else:
187
 
            fn = self._relpath(fileid)
188
 
 
189
 
        # FIXME RBC 20051128 this belongs in TextStore.
190
 
        fn_gz = fn + '.gz'
191
 
        if self._compressed:
192
 
            return fn_gz, fn
193
 
        else:
194
 
            return fn, fn_gz
195
 
 
196
 
    def has_id(self, fileid, suffix=None):
197
 
        """See Store.has_id."""
198
 
        return self._transport.has_any(self._id_to_names(fileid, suffix))
199
 
 
200
 
    def _get_name(self, fileid, suffix=None):
201
 
        """A special check, which returns the name of an existing file.
202
 
 
203
 
        This is similar in spirit to 'has_id', but it is designed
204
 
        to return information about which file the store has.
205
 
        """
206
 
        for name in self._id_to_names(fileid, suffix=suffix):
207
 
            if self._transport.has(name):
208
 
                return name
209
 
        return None
210
 
 
211
 
    def _get(self, filename):
212
 
        """Return an vanilla file stream for clients to read from.
213
 
 
214
 
        This is the body of a template method on 'get', and should be
215
 
        implemented by subclasses.
216
 
        """
217
 
        raise NotImplementedError
218
 
 
219
 
    def get(self, fileid, suffix=None):
220
 
        """See Store.get()."""
221
 
        names = self._id_to_names(fileid, suffix)
222
 
        for name in names:
223
 
            try:
224
 
                return self._get(name)
225
 
            except errors.NoSuchFile:
226
 
                pass
227
 
        raise KeyError(fileid)
228
 
 
229
 
    def __init__(self, a_transport, prefixed=False, compressed=False,
230
 
                 dir_mode=None, file_mode=None,
231
 
                 escaped=False):
232
 
        super(TransportStore, self).__init__()
233
 
        self._transport = a_transport
234
 
        self._prefixed = prefixed
235
 
        # FIXME RBC 20051128 this belongs in TextStore.
236
 
        self._compressed = compressed
237
 
        self._suffixes = set()
238
 
        self._escaped = escaped
239
 
 
240
 
        # It is okay for these to be None, it just means they
241
 
        # will just use the filesystem defaults
242
 
        self._dir_mode = dir_mode
243
 
        self._file_mode = file_mode
244
 
        # Create a key mapper to use
245
 
        if escaped and prefixed:
246
 
            self._mapper = versionedfile.HashEscapedPrefixMapper()
247
 
        elif not escaped and prefixed:
248
 
            self._mapper = versionedfile.HashPrefixMapper()
249
 
        elif self._escaped:
250
 
            raise ValueError(
251
 
                "%r: escaped unprefixed stores are not permitted."
252
 
                % (self,))
253
 
        else:
254
 
            self._mapper = versionedfile.PrefixMapper()
255
 
 
256
 
    def _iter_files_recursive(self):
257
 
        """Iterate through the files in the transport."""
258
 
        for quoted_relpath in self._transport.iter_files_recursive():
259
 
            yield quoted_relpath
260
 
 
261
 
    def __iter__(self):
262
 
        for relpath in self._iter_files_recursive():
263
 
            # worst case is one of each suffix.
264
 
            name = os.path.basename(relpath)
265
 
            if name.endswith('.gz'):
266
 
                name = name[:-3]
267
 
            skip = False
268
 
            for count in range(len(self._suffixes)):
269
 
                for suffix in self._suffixes:
270
 
                    if name.endswith('.' + suffix):
271
 
                        skip = True
272
 
            if not skip:
273
 
                yield self._mapper.unmap(name)[0]
274
 
 
275
 
    def __len__(self):
276
 
        return len(list(self.__iter__()))
277
 
 
278
 
    def _relpath(self, fileid, suffixes=None):
279
 
        self._check_fileid(fileid)
280
 
        if suffixes:
281
 
            for suffix in suffixes:
282
 
                if not suffix in self._suffixes:
283
 
                    raise ValueError("Unregistered suffix %r" % suffix)
284
 
                self._check_fileid(suffix)
285
 
        else:
286
 
            suffixes = []
287
 
        path = self._mapper.map((fileid,))
288
 
        full_path = '.'.join([path] + suffixes)
289
 
        return full_path
290
 
 
291
 
    def __repr__(self):
292
 
        if self._transport is None:
293
 
            return "%s(None)" % (self.__class__.__name__)
294
 
        else:
295
 
            return "%s(%r)" % (self.__class__.__name__, self._transport.base)
296
 
 
297
 
    __str__ = __repr__
298
 
 
299
 
    def listable(self):
300
 
        """Return True if this store is able to be listed."""
301
 
        return self._transport.listable()
302
 
 
303
 
    def register_suffix(self, suffix):
304
 
        """Register a suffix as being expected in this store."""
305
 
        self._check_fileid(suffix)
306
 
        if suffix == 'gz':
307
 
            raise ValueError('You cannot register the "gz" suffix.')
308
 
        self._suffixes.add(suffix)
309
 
 
310
75
    def total_size(self):
311
76
        """Return (count, bytes)
312
77
 
314
79
        the content."""
315
80
        total = 0
316
81
        count = 0
317
 
        for relpath in self._transport.iter_files_recursive():
 
82
        for fid in self:
318
83
            count += 1
319
 
            total += self._transport.stat(relpath).st_size
320
 
 
 
84
            total += self._item_size(fid)
321
85
        return count, total
 
86
 
 
87
 
 
88
class ImmutableStore(Store):
 
89
    """Store that stores files on disk.
 
90
 
 
91
    TODO: Atomic add by writing to a temporary file and renaming.
 
92
    TODO: Guard against the same thing being stored twice, compressed and
 
93
          uncompressed during copy_multi_immutable - the window is for a
 
94
          matching store with some crack code that lets it offer a 
 
95
          non gz FOO and then a fz FOO.
 
96
 
 
97
    In bzr 0.0.5 and earlier, files within the store were marked
 
98
    readonly on disk.  This is no longer done but existing stores need
 
99
    to be accomodated.
 
100
    """
 
101
 
 
102
    def __init__(self, basedir):
 
103
        super(ImmutableStore, self).__init__()
 
104
        self._basedir = basedir
 
105
 
 
106
    def _path(self, entry_id):
 
107
        if not isinstance(entry_id, basestring):
 
108
            raise TypeError(type(entry_id))
 
109
        if '\\' in entry_id or '/' in entry_id:
 
110
            raise ValueError("invalid store id %r" % entry_id)
 
111
        return os.path.join(self._basedir, entry_id)
 
112
 
 
113
    def __repr__(self):
 
114
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
 
115
 
 
116
    def add(self, f, fileid, compressed=True):
 
117
        """Add contents of a file into the store.
 
118
 
 
119
        f -- An open file, or file-like object."""
 
120
        # FIXME: Only works on files that will fit in memory
 
121
        
 
122
        from bzrlib.atomicfile import AtomicFile
 
123
        
 
124
        mutter("add store entry %r" % (fileid))
 
125
        if isinstance(f, types.StringTypes):
 
126
            content = f
 
127
        else:
 
128
            content = f.read()
 
129
            
 
130
        p = self._path(fileid)
 
131
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
 
132
            raise BzrError("store %r already contains id %r" % (self._basedir, fileid))
 
133
 
 
134
        fn = p
 
135
        if compressed:
 
136
            fn = fn + '.gz'
 
137
            
 
138
        af = AtomicFile(fn, 'wb')
 
139
        try:
 
140
            if compressed:
 
141
                gf = gzip.GzipFile(mode='wb', fileobj=af)
 
142
                gf.write(content)
 
143
                gf.close()
 
144
            else:
 
145
                af.write(content)
 
146
            af.commit()
 
147
        finally:
 
148
            af.close()
 
149
 
 
150
 
 
151
    def copy_multi(self, other, ids, permit_failure=False):
 
152
        """Copy texts for ids from other into self.
 
153
 
 
154
        If an id is present in self, it is skipped.
 
155
 
 
156
        Returns (count_copied, failed), where failed is a collection of ids
 
157
        that could not be copied.
 
158
        """
 
159
        pb = bzrlib.ui.ui_factory.progress_bar()
 
160
        
 
161
        pb.update('preparing to copy')
 
162
        to_copy = [id for id in ids if id not in self]
 
163
        if isinstance(other, ImmutableStore):
 
164
            return self.copy_multi_immutable(other, to_copy, pb, 
 
165
                                             permit_failure=permit_failure)
 
166
        count = 0
 
167
        failed = set()
 
168
        for id in to_copy:
 
169
            count += 1
 
170
            pb.update('copy', count, len(to_copy))
 
171
            if not permit_failure:
 
172
                self.add(other[id], id)
 
173
            else:
 
174
                try:
 
175
                    entry = other[id]
 
176
                except KeyError:
 
177
                    failed.add(id)
 
178
                    continue
 
179
                self.add(entry, id)
 
180
                
 
181
        if not permit_failure:
 
182
            assert count == len(to_copy)
 
183
        pb.clear()
 
184
        return count, failed
 
185
 
 
186
    def copy_multi_immutable(self, other, to_copy, pb, permit_failure=False):
 
187
        count = 0
 
188
        failed = set()
 
189
        for id in to_copy:
 
190
            p = self._path(id)
 
191
            other_p = other._path(id)
 
192
            try:
 
193
                osutils.link_or_copy(other_p, p)
 
194
            except (IOError, OSError), e:
 
195
                if e.errno == errno.ENOENT:
 
196
                    if not permit_failure:
 
197
                        osutils.link_or_copy(other_p+".gz", p+".gz")
 
198
                    else:
 
199
                        try:
 
200
                            osutils.link_or_copy(other_p+".gz", p+".gz")
 
201
                        except IOError, e:
 
202
                            if e.errno == errno.ENOENT:
 
203
                                failed.add(id)
 
204
                            else:
 
205
                                raise
 
206
                else:
 
207
                    raise
 
208
            
 
209
            count += 1
 
210
            pb.update('copy', count, len(to_copy))
 
211
        assert count == len(to_copy)
 
212
        pb.clear()
 
213
        return count, failed
 
214
 
 
215
    def __contains__(self, fileid):
 
216
        """"""
 
217
        p = self._path(fileid)
 
218
        return (os.access(p, os.R_OK)
 
219
                or os.access(p + '.gz', os.R_OK))
 
220
 
 
221
    def _item_size(self, fid):
 
222
        p = self._path(fid)
 
223
        try:
 
224
            return os.stat(p)[ST_SIZE]
 
225
        except OSError:
 
226
            return os.stat(p + '.gz')[ST_SIZE]
 
227
 
 
228
    # TODO: Guard against the same thing being stored twice,
 
229
    # compressed and uncompressed
 
230
 
 
231
    def __iter__(self):
 
232
        for f in os.listdir(self._basedir):
 
233
            if f[-3:] == '.gz':
 
234
                # TODO: case-insensitive?
 
235
                yield f[:-3]
 
236
            else:
 
237
                yield f
 
238
 
 
239
    def __len__(self):
 
240
        return len(os.listdir(self._basedir))
 
241
 
 
242
    def __getitem__(self, fileid):
 
243
        """Returns a file reading from a particular entry."""
 
244
        p = self._path(fileid)
 
245
        try:
 
246
            return gzip.GzipFile(p + '.gz', 'rb')
 
247
        except IOError, e:
 
248
            if e.errno != errno.ENOENT:
 
249
                raise
 
250
 
 
251
        try:
 
252
            return file(p, 'rb')
 
253
        except IOError, e:
 
254
            if e.errno != errno.ENOENT:
 
255
                raise
 
256
 
 
257
        raise KeyError(fileid)
 
258
 
 
259
 
 
260
class ImmutableScratchStore(ImmutableStore):
 
261
    """Self-destructing test subclass of ImmutableStore.
 
262
 
 
263
    The Store only exists for the lifetime of the Python object.
 
264
 Obviously you should not put anything precious in it.
 
265
    """
 
266
    def __init__(self):
 
267
        super(ImmutableScratchStore, self).__init__(tempfile.mkdtemp())
 
268
 
 
269
    def __del__(self):
 
270
        for f in os.listdir(self._basedir):
 
271
            fpath = os.path.join(self._basedir, f)
 
272
            # needed on windows, and maybe some other filesystems
 
273
            os.chmod(fpath, 0600)
 
274
            os.remove(fpath)
 
275
        os.rmdir(self._basedir)
 
276
        mutter("%r destroyed" % self)
 
277
 
 
278
 
 
279
class ImmutableMemoryStore(Store):
 
280
    """A memory only store."""
 
281
 
 
282
    def __init__(self):
 
283
        super(ImmutableMemoryStore, self).__init__()
 
284
        self._contents = {}
 
285
 
 
286
    def add(self, stream, fileid, compressed=True):
 
287
        if self._contents.has_key(fileid):
 
288
            raise StoreError("fileid %s already in the store" % fileid)
 
289
        self._contents[fileid] = stream.read()
 
290
 
 
291
    def __getitem__(self, fileid):
 
292
        """Returns a file reading from a particular entry."""
 
293
        if not self._contents.has_key(fileid):
 
294
            raise IndexError
 
295
        return StringIO(self._contents[fileid])
 
296
 
 
297
    def _item_size(self, fileid):
 
298
        return len(self._contents[fileid])
 
299
 
 
300
    def __iter__(self):
 
301
        return iter(self._contents.keys())
 
302
 
 
303
 
 
304
class RemoteStore(object):
 
305
 
 
306
    def __init__(self, baseurl):
 
307
        self._baseurl = baseurl
 
308
 
 
309
    def _path(self, name):
 
310
        if '/' in name:
 
311
            raise ValueError('invalid store id', name)
 
312
        return self._baseurl + '/' + name
 
313
        
 
314
    def __getitem__(self, fileid):
 
315
        # circular import.
 
316
        from bzrlib.remotebranch import get_url
 
317
        p = self._path(fileid)
 
318
        try:
 
319
            return get_url(p, compressed=True)
 
320
        except urllib2.URLError:
 
321
            pass
 
322
        try:
 
323
            return get_url(p, compressed=False)
 
324
        except urllib2.URLError:
 
325
            raise KeyError(fileid)
 
326
 
 
327
    def __contains__(self, fileid):
 
328
        try:
 
329
            self[fileid]
 
330
            return True
 
331
        except KeyError:
 
332
            return False
 
333
        
 
334
 
 
335
class CachedStore:
 
336
    """A store that caches data locally, to avoid repeated downloads.
 
337
    The precacache method should be used to avoid server round-trips for
 
338
    every piece of data.
 
339
    """
 
340
 
 
341
    def __init__(self, store, cache_dir):
 
342
        self.source_store = store
 
343
        self.cache_store = ImmutableStore(cache_dir)
 
344
 
 
345
    def __getitem__(self, id):
 
346
        mutter("Cache add %s" % id)
 
347
        if id not in self.cache_store:
 
348
            self.cache_store.add(self.source_store[id], id)
 
349
        return self.cache_store[id]
 
350
 
 
351
    def prefetch(self, ids):
 
352
        """Copy a series of ids into the cache, before they are used.
 
353
        For remote stores that support pipelining or async downloads, this can
 
354
        increase speed considerably.
 
355
        Failures while prefetching are ignored.
 
356
        """
 
357
        mutter("Prefetch of ids %s" % ",".join(ids))
 
358
        self.cache_store.copy_multi(self.source_store, ids,
 
359
                                    permit_failure=True)
 
360
 
 
361
 
 
362
def copy_all(store_from, store_to):
 
363
    """Copy all ids from one store to another."""
 
364
    if not hasattr(store_from, "__iter__"):
 
365
        raise UnlistableStore(store_from)
 
366
    ids = [f for f in store_from]
 
367
    store_to.copy_multi(store_from, ids)