1
 
# (C) 2005 Canonical Ltd
 
3
 
# This program is free software; you can redistribute it and/or modify
 
4
 
# it under the terms of the GNU General Public License as published by
 
5
 
# the Free Software Foundation; either version 2 of the License, or
 
6
 
# (at your option) any later version.
 
8
 
# This program is distributed in the hope that it will be useful,
 
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
 
# GNU General Public License for more details.
 
13
 
# You should have received a copy of the GNU General Public License
 
14
 
# along with this program; if not, write to the Free Software
 
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
17
 
import stat, os, sha, time
 
18
 
from binascii import b2a_qp, a2b_qp
 
20
 
from trace import mutter
 
23
 
# file fingerprints are: (path, size, mtime, ctime, ino, dev).
 
25
 
# if this is the same for this file as in the previous revision, we
 
26
 
# assume the content is the same and the SHA-1 is the same.
 
28
 
# This is stored in a fingerprint file that also contains the file-id
 
29
 
# and the content SHA-1.
 
31
 
# Thus for any given file we can quickly get the SHA-1, either from
 
32
 
# the cache or if the cache is out of date.
 
34
 
# At the moment this is stored in a simple textfile; it might be nice
 
35
 
# to use a tdb instead.
 
40
 
# build a new cache from scratch
 
41
 
# load cache, incrementally update it
 
43
 
# TODO: Have a paranoid mode where we always compare the texts and
 
44
 
# always recalculate the digest, to trap modification without stat
 
45
 
# change and SHA collisions.
 
49
 
def fingerprint(path, abspath):
 
51
 
        fs = os.lstat(abspath)
 
53
 
        # might be missing, etc
 
56
 
    if stat.S_ISDIR(fs.st_mode):
 
59
 
    return (fs.st_size, fs.st_mtime,
 
60
 
            fs.st_ctime, fs.st_ino, fs.st_dev)
 
63
 
def write_cache(branch, entry_iter):
 
64
 
    outf = branch.controlfile('work-cache.tmp', 'wt')
 
65
 
    for entry in entry_iter:
 
66
 
        outf.write(entry[0] + ' ' + entry[1] + ' ')
 
67
 
        outf.write(b2a_qp(entry[2], True))
 
68
 
        outf.write(' %d %d %d %d %d\n' % entry[3:])
 
71
 
    os.rename(branch.controlfilename('work-cache.tmp'),
 
72
 
              branch.controlfilename('work-cache'))
 
76
 
def load_cache(branch):
 
80
 
        cachefile = branch.controlfile('work-cache', 'rt')
 
88
 
            raise BzrError("duplicated file_id in cache: {%s}" % file_id)
 
89
 
        cache[file_id] = (f[0], f[1], a2b_qp(f[2])) + tuple([long(x) for x in f[3:]])
 
95
 
def _files_from_inventory(inv):
 
96
 
    for path, ie in inv.iter_entries():
 
99
 
        yield ie.file_id, path
 
102
 
def build_cache(branch):
 
103
 
    inv = branch.read_working_inventory()
 
106
 
    _update_cache_from_list(branch, cache, _files_from_inventory(inv))
 
110
 
def update_cache(branch, inv):
 
111
 
    # TODO: It's supposed to be faster to stat the files in order by inum.
 
112
 
    # We don't directly know the inum of the files of course but we do
 
113
 
    # know where they were last sighted, so we can sort by that.
 
115
 
    cache = load_cache(branch)
 
116
 
    return _update_cache_from_list(branch, cache, _files_from_inventory(inv))
 
120
 
def _update_cache_from_list(branch, cache, to_update):
 
121
 
    """Update the cache to have info on the named files.
 
123
 
    to_update is a sequence of (file_id, path) pairs.
 
125
 
    hardcheck = dirty = 0
 
126
 
    for file_id, path in to_update:
 
127
 
        fap = branch.abspath(path)
 
128
 
        fp = fingerprint(fap, path)
 
129
 
        cacheentry = cache.get(file_id)
 
131
 
        if fp == None: # not here
 
137
 
        if cacheentry and (cacheentry[3:] == fp):
 
138
 
            continue                    # all stat fields unchanged
 
142
 
        dig = sha.new(file(fap, 'rb').read()).hexdigest()
 
144
 
        if cacheentry == None or dig != cacheentry[1]: 
 
145
 
            # if there was no previous entry for this file, or if the
 
146
 
            # SHA has changed, then update the cache
 
147
 
            cacheentry = (file_id, dig, path) + fp
 
148
 
            cache[file_id] = cacheentry
 
151
 
    mutter('work cache: read %d files, %d changed' % (hardcheck, dirty))
 
154
 
        write_cache(branch, cache.itervalues())