/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/tests/test_index.py

  • Committer: Jelmer Vernooij
  • Date: 2019-01-01 21:08:01 UTC
  • mto: This revision was merged to the branch mainline in revision 7231.
  • Revision ID: jelmer@jelmer.uk-20190101210801-2dlsv7b1lvydmpkl
Fix tests.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2007-2010 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
"""Tests for indices."""
 
18
 
 
19
from .. import (
 
20
    errors,
 
21
    tests,
 
22
    transport,
 
23
    )
 
24
from ..sixish import int2byte
 
25
from ..bzr import (
 
26
    index as _mod_index,
 
27
    )
 
28
 
 
29
 
 
30
class ErrorTests(tests.TestCase):
 
31
 
 
32
    def test_bad_index_format_signature(self):
 
33
        error = _mod_index.BadIndexFormatSignature("foo", "bar")
 
34
        self.assertEqual("foo is not an index of type bar.",
 
35
                         str(error))
 
36
 
 
37
    def test_bad_index_data(self):
 
38
        error = _mod_index.BadIndexData("foo")
 
39
        self.assertEqual("Error in data for index foo.",
 
40
                         str(error))
 
41
 
 
42
    def test_bad_index_duplicate_key(self):
 
43
        error = _mod_index.BadIndexDuplicateKey("foo", "bar")
 
44
        self.assertEqual("The key 'foo' is already in index 'bar'.",
 
45
                         str(error))
 
46
 
 
47
    def test_bad_index_key(self):
 
48
        error = _mod_index.BadIndexKey("foo")
 
49
        self.assertEqual("The key 'foo' is not a valid key.",
 
50
                         str(error))
 
51
 
 
52
    def test_bad_index_options(self):
 
53
        error = _mod_index.BadIndexOptions("foo")
 
54
        self.assertEqual("Could not parse options for index foo.",
 
55
                         str(error))
 
56
 
 
57
    def test_bad_index_value(self):
 
58
        error = _mod_index.BadIndexValue("foo")
 
59
        self.assertEqual("The value 'foo' is not a valid value.",
 
60
                         str(error))
 
61
 
 
62
 
 
63
class TestGraphIndexBuilder(tests.TestCaseWithMemoryTransport):
 
64
 
 
65
    def test_build_index_empty(self):
 
66
        builder = _mod_index.GraphIndexBuilder()
 
67
        stream = builder.finish()
 
68
        contents = stream.read()
 
69
        self.assertEqual(
 
70
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=0\n\n",
 
71
            contents)
 
72
 
 
73
    def test_build_index_empty_two_element_keys(self):
 
74
        builder = _mod_index.GraphIndexBuilder(key_elements=2)
 
75
        stream = builder.finish()
 
76
        contents = stream.read()
 
77
        self.assertEqual(
 
78
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=2\nlen=0\n\n",
 
79
            contents)
 
80
 
 
81
    def test_build_index_one_reference_list_empty(self):
 
82
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
83
        stream = builder.finish()
 
84
        contents = stream.read()
 
85
        self.assertEqual(
 
86
            b"Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=0\n\n",
 
87
            contents)
 
88
 
 
89
    def test_build_index_two_reference_list_empty(self):
 
90
        builder = _mod_index.GraphIndexBuilder(reference_lists=2)
 
91
        stream = builder.finish()
 
92
        contents = stream.read()
 
93
        self.assertEqual(
 
94
            b"Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=0\n\n",
 
95
            contents)
 
96
 
 
97
    def test_build_index_one_node_no_refs(self):
 
98
        builder = _mod_index.GraphIndexBuilder()
 
99
        builder.add_node((b'akey', ), b'data')
 
100
        stream = builder.finish()
 
101
        contents = stream.read()
 
102
        self.assertEqual(
 
103
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=1\n"
 
104
            b"akey\x00\x00\x00data\n\n", contents)
 
105
 
 
106
    def test_build_index_one_node_no_refs_accepts_empty_reflist(self):
 
107
        builder = _mod_index.GraphIndexBuilder()
 
108
        builder.add_node((b'akey', ), b'data', ())
 
109
        stream = builder.finish()
 
110
        contents = stream.read()
 
111
        self.assertEqual(
 
112
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=1\n"
 
113
            b"akey\x00\x00\x00data\n\n", contents)
 
114
 
 
115
    def test_build_index_one_node_2_element_keys(self):
 
116
        # multipart keys are separated by \x00 - because they are fixed length,
 
117
        # not variable this does not cause any issues, and seems clearer to the
 
118
        # author.
 
119
        builder = _mod_index.GraphIndexBuilder(key_elements=2)
 
120
        builder.add_node((b'akey', b'secondpart'), b'data')
 
121
        stream = builder.finish()
 
122
        contents = stream.read()
 
123
        self.assertEqual(
 
124
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=2\nlen=1\n"
 
125
            b"akey\x00secondpart\x00\x00\x00data\n\n", contents)
 
126
 
 
127
    def test_add_node_empty_value(self):
 
128
        builder = _mod_index.GraphIndexBuilder()
 
129
        builder.add_node((b'akey', ), b'')
 
130
        stream = builder.finish()
 
131
        contents = stream.read()
 
132
        self.assertEqual(
 
133
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=1\n"
 
134
            b"akey\x00\x00\x00\n\n", contents)
 
135
 
 
136
    def test_build_index_nodes_sorted(self):
 
137
        # the highest sorted node comes first.
 
138
        builder = _mod_index.GraphIndexBuilder()
 
139
        # use three to have a good chance of glitching dictionary hash
 
140
        # lookups etc. Insert in randomish order that is not correct
 
141
        # and not the reverse of the correct order.
 
142
        builder.add_node((b'2002', ), b'data')
 
143
        builder.add_node((b'2000', ), b'data')
 
144
        builder.add_node((b'2001', ), b'data')
 
145
        stream = builder.finish()
 
146
        contents = stream.read()
 
147
        self.assertEqual(
 
148
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=3\n"
 
149
            b"2000\x00\x00\x00data\n"
 
150
            b"2001\x00\x00\x00data\n"
 
151
            b"2002\x00\x00\x00data\n"
 
152
            b"\n", contents)
 
153
 
 
154
    def test_build_index_2_element_key_nodes_sorted(self):
 
155
        # multiple element keys are sorted first-key, second-key.
 
156
        builder = _mod_index.GraphIndexBuilder(key_elements=2)
 
157
        # use three values of each key element, to have a good chance of
 
158
        # glitching dictionary hash lookups etc. Insert in randomish order that
 
159
        # is not correct and not the reverse of the correct order.
 
160
        builder.add_node((b'2002', b'2002'), b'data')
 
161
        builder.add_node((b'2002', b'2000'), b'data')
 
162
        builder.add_node((b'2002', b'2001'), b'data')
 
163
        builder.add_node((b'2000', b'2002'), b'data')
 
164
        builder.add_node((b'2000', b'2000'), b'data')
 
165
        builder.add_node((b'2000', b'2001'), b'data')
 
166
        builder.add_node((b'2001', b'2002'), b'data')
 
167
        builder.add_node((b'2001', b'2000'), b'data')
 
168
        builder.add_node((b'2001', b'2001'), b'data')
 
169
        stream = builder.finish()
 
170
        contents = stream.read()
 
171
        self.assertEqual(
 
172
            b"Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=2\nlen=9\n"
 
173
            b"2000\x002000\x00\x00\x00data\n"
 
174
            b"2000\x002001\x00\x00\x00data\n"
 
175
            b"2000\x002002\x00\x00\x00data\n"
 
176
            b"2001\x002000\x00\x00\x00data\n"
 
177
            b"2001\x002001\x00\x00\x00data\n"
 
178
            b"2001\x002002\x00\x00\x00data\n"
 
179
            b"2002\x002000\x00\x00\x00data\n"
 
180
            b"2002\x002001\x00\x00\x00data\n"
 
181
            b"2002\x002002\x00\x00\x00data\n"
 
182
            b"\n", contents)
 
183
 
 
184
    def test_build_index_reference_lists_are_included_one(self):
 
185
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
186
        builder.add_node((b'key', ), b'data', ([], ))
 
187
        stream = builder.finish()
 
188
        contents = stream.read()
 
189
        self.assertEqual(
 
190
            b"Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=1\n"
 
191
            b"key\x00\x00\x00data\n"
 
192
            b"\n", contents)
 
193
 
 
194
    def test_build_index_reference_lists_with_2_element_keys(self):
 
195
        builder = _mod_index.GraphIndexBuilder(
 
196
            reference_lists=1, key_elements=2)
 
197
        builder.add_node((b'key', b'key2'), b'data', ([], ))
 
198
        stream = builder.finish()
 
199
        contents = stream.read()
 
200
        self.assertEqual(
 
201
            b"Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=2\nlen=1\n"
 
202
            b"key\x00key2\x00\x00\x00data\n"
 
203
            b"\n", contents)
 
204
 
 
205
    def test_build_index_reference_lists_are_included_two(self):
 
206
        builder = _mod_index.GraphIndexBuilder(reference_lists=2)
 
207
        builder.add_node((b'key', ), b'data', ([], []))
 
208
        stream = builder.finish()
 
209
        contents = stream.read()
 
210
        self.assertEqual(
 
211
            b"Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=1\n"
 
212
            b"key\x00\x00\t\x00data\n"
 
213
            b"\n", contents)
 
214
 
 
215
    def test_clear_cache(self):
 
216
        builder = _mod_index.GraphIndexBuilder(reference_lists=2)
 
217
        # This is a no-op, but the api should exist
 
218
        builder.clear_cache()
 
219
 
 
220
    def test_node_references_are_byte_offsets(self):
 
221
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
222
        builder.add_node((b'reference', ), b'data', ([], ))
 
223
        builder.add_node((b'key', ), b'data', ([(b'reference', )], ))
 
224
        stream = builder.finish()
 
225
        contents = stream.read()
 
226
        self.assertEqual(
 
227
            b"Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=2\n"
 
228
            b"key\x00\x0072\x00data\n"
 
229
            b"reference\x00\x00\x00data\n"
 
230
            b"\n", contents)
 
231
 
 
232
    def test_node_references_are_cr_delimited(self):
 
233
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
234
        builder.add_node((b'reference', ), b'data', ([], ))
 
235
        builder.add_node((b'reference2', ), b'data', ([], ))
 
236
        builder.add_node((b'key', ), b'data',
 
237
                         ([(b'reference', ), (b'reference2', )], ))
 
238
        stream = builder.finish()
 
239
        contents = stream.read()
 
240
        self.assertEqual(
 
241
            b"Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=3\n"
 
242
            b"key\x00\x00077\r094\x00data\n"
 
243
            b"reference\x00\x00\x00data\n"
 
244
            b"reference2\x00\x00\x00data\n"
 
245
            b"\n", contents)
 
246
 
 
247
    def test_multiple_reference_lists_are_tab_delimited(self):
 
248
        builder = _mod_index.GraphIndexBuilder(reference_lists=2)
 
249
        builder.add_node((b'keference', ), b'data', ([], []))
 
250
        builder.add_node((b'rey', ), b'data',
 
251
                         ([(b'keference', )], [(b'keference', )]))
 
252
        stream = builder.finish()
 
253
        contents = stream.read()
 
254
        self.assertEqual(
 
255
            b"Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=2\n"
 
256
            b"keference\x00\x00\t\x00data\n"
 
257
            b"rey\x00\x0059\t59\x00data\n"
 
258
            b"\n", contents)
 
259
 
 
260
    def test_add_node_referencing_missing_key_makes_absent(self):
 
261
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
262
        builder.add_node((b'rey', ), b'data',
 
263
                         ([(b'beference', ), (b'aeference2', )], ))
 
264
        stream = builder.finish()
 
265
        contents = stream.read()
 
266
        self.assertEqual(
 
267
            b"Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=1\n"
 
268
            b"aeference2\x00a\x00\x00\n"
 
269
            b"beference\x00a\x00\x00\n"
 
270
            b"rey\x00\x00074\r059\x00data\n"
 
271
            b"\n", contents)
 
272
 
 
273
    def test_node_references_three_digits(self):
 
274
        # test the node digit expands as needed.
 
275
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
276
        references = [((b"%d" % val), ) for val in range(8, -1, -1)]
 
277
        builder.add_node((b'2-key', ), b'', (references, ))
 
278
        stream = builder.finish()
 
279
        contents = stream.read()
 
280
        self.assertEqualDiff(
 
281
            b"Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=1\n"
 
282
            b"0\x00a\x00\x00\n"
 
283
            b"1\x00a\x00\x00\n"
 
284
            b"2\x00a\x00\x00\n"
 
285
            b"2-key\x00\x00151\r145\r139\r133\r127\r121\r071\r065\r059\x00\n"
 
286
            b"3\x00a\x00\x00\n"
 
287
            b"4\x00a\x00\x00\n"
 
288
            b"5\x00a\x00\x00\n"
 
289
            b"6\x00a\x00\x00\n"
 
290
            b"7\x00a\x00\x00\n"
 
291
            b"8\x00a\x00\x00\n"
 
292
            b"\n", contents)
 
293
 
 
294
    def test_absent_has_no_reference_overhead(self):
 
295
        # the offsets after an absent record should be correct when there are
 
296
        # >1 reference lists.
 
297
        builder = _mod_index.GraphIndexBuilder(reference_lists=2)
 
298
        builder.add_node((b'parent', ), b'', ([(b'aail', ), (b'zther', )], []))
 
299
        stream = builder.finish()
 
300
        contents = stream.read()
 
301
        self.assertEqual(
 
302
            b"Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=1\n"
 
303
            b"aail\x00a\x00\x00\n"
 
304
            b"parent\x00\x0059\r84\t\x00\n"
 
305
            b"zther\x00a\x00\x00\n"
 
306
            b"\n", contents)
 
307
 
 
308
    def test_add_node_bad_key(self):
 
309
        builder = _mod_index.GraphIndexBuilder()
 
310
        for bad_char in bytearray(b'\t\n\x0b\x0c\r\x00 '):
 
311
            self.assertRaises(_mod_index.BadIndexKey, builder.add_node,
 
312
                              (b'a%skey' % int2byte(bad_char), ), b'data')
 
313
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node,
 
314
                          (), b'data')
 
315
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node,
 
316
                          b'not-a-tuple', b'data')
 
317
        # not enough length
 
318
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node,
 
319
                          (), b'data')
 
320
        # too long
 
321
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node,
 
322
                          (b'primary', b'secondary'), b'data')
 
323
        # secondary key elements get checked too:
 
324
        builder = _mod_index.GraphIndexBuilder(key_elements=2)
 
325
        for bad_char in bytearray(b'\t\n\x0b\x0c\r\x00 '):
 
326
            self.assertRaises(_mod_index.BadIndexKey, builder.add_node,
 
327
                              (b'prefix', b'a%skey' % int2byte(bad_char)), b'data')
 
328
 
 
329
    def test_add_node_bad_data(self):
 
330
        builder = _mod_index.GraphIndexBuilder()
 
331
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
332
                          b'data\naa')
 
333
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
334
                          b'data\x00aa')
 
335
 
 
336
    def test_add_node_bad_mismatched_ref_lists_length(self):
 
337
        builder = _mod_index.GraphIndexBuilder()
 
338
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
339
                          b'data aa', ([], ))
 
340
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
341
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
342
                          b'data aa')
 
343
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
344
                          b'data aa', (), )
 
345
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
346
                          b'data aa', ([], []))
 
347
        builder = _mod_index.GraphIndexBuilder(reference_lists=2)
 
348
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
349
                          b'data aa')
 
350
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
351
                          b'data aa', ([], ))
 
352
        self.assertRaises(_mod_index.BadIndexValue, builder.add_node, (b'akey', ),
 
353
                          b'data aa', ([], [], []))
 
354
 
 
355
    def test_add_node_bad_key_in_reference_lists(self):
 
356
        # first list, first key - trivial
 
357
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
358
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node, (b'akey', ),
 
359
                          b'data aa', ([(b'a key', )], ))
 
360
        # references keys must be tuples too
 
361
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node, (b'akey', ),
 
362
                          b'data aa', (['not-a-tuple'], ))
 
363
        # not enough length
 
364
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node, (b'akey', ),
 
365
                          b'data aa', ([()], ))
 
366
        # too long
 
367
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node, (b'akey', ),
 
368
                          b'data aa', ([(b'primary', b'secondary')], ))
 
369
        # need to check more than the first key in the list
 
370
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node, (b'akey', ),
 
371
                          b'data aa', ([(b'agoodkey', ), (b'that is a bad key', )], ))
 
372
        # and if there is more than one list it should be getting checked
 
373
        # too
 
374
        builder = _mod_index.GraphIndexBuilder(reference_lists=2)
 
375
        self.assertRaises(_mod_index.BadIndexKey, builder.add_node, (b'akey', ),
 
376
                          b'data aa', ([], ['a bad key']))
 
377
 
 
378
    def test_add_duplicate_key(self):
 
379
        builder = _mod_index.GraphIndexBuilder()
 
380
        builder.add_node((b'key', ), b'data')
 
381
        self.assertRaises(_mod_index.BadIndexDuplicateKey,
 
382
                          builder.add_node, (b'key', ), b'data')
 
383
 
 
384
    def test_add_duplicate_key_2_elements(self):
 
385
        builder = _mod_index.GraphIndexBuilder(key_elements=2)
 
386
        builder.add_node((b'key', b'key'), b'data')
 
387
        self.assertRaises(_mod_index.BadIndexDuplicateKey, builder.add_node,
 
388
                          (b'key', b'key'), b'data')
 
389
 
 
390
    def test_add_key_after_referencing_key(self):
 
391
        builder = _mod_index.GraphIndexBuilder(reference_lists=1)
 
392
        builder.add_node((b'key', ), b'data', ([(b'reference', )], ))
 
393
        builder.add_node((b'reference', ), b'data', ([],))
 
394
 
 
395
    def test_add_key_after_referencing_key_2_elements(self):
 
396
        builder = _mod_index.GraphIndexBuilder(
 
397
            reference_lists=1, key_elements=2)
 
398
        builder.add_node((b'k', b'ey'), b'data',
 
399
                         ([(b'reference', b'tokey')], ))
 
400
        builder.add_node((b'reference', b'tokey'), b'data', ([],))
 
401
 
 
402
    def test_set_optimize(self):
 
403
        builder = _mod_index.GraphIndexBuilder(
 
404
            reference_lists=1, key_elements=2)
 
405
        builder.set_optimize(for_size=True)
 
406
        self.assertTrue(builder._optimize_for_size)
 
407
        builder.set_optimize(for_size=False)
 
408
        self.assertFalse(builder._optimize_for_size)
 
409
 
 
410
 
 
411
class TestGraphIndex(tests.TestCaseWithMemoryTransport):
 
412
 
 
413
    def make_key(self, number):
 
414
        return ((b'%d' % number) + b'X' * 100,)
 
415
 
 
416
    def make_value(self, number):
 
417
        return (b'%d' % number) + b'Y' * 100
 
418
 
 
419
    def make_nodes(self, count=64):
 
420
        # generate a big enough index that we only read some of it on a typical
 
421
        # bisection lookup.
 
422
        nodes = []
 
423
        for counter in range(count):
 
424
            nodes.append(
 
425
                (self.make_key(counter), self.make_value(counter), ()))
 
426
        return nodes
 
427
 
 
428
    def make_index(self, ref_lists=0, key_elements=1, nodes=[]):
 
429
        builder = _mod_index.GraphIndexBuilder(
 
430
            ref_lists, key_elements=key_elements)
 
431
        for key, value, references in nodes:
 
432
            builder.add_node(key, value, references)
 
433
        stream = builder.finish()
 
434
        trans = transport.get_transport_from_url('trace+' + self.get_url())
 
435
        size = trans.put_file('index', stream)
 
436
        return _mod_index.GraphIndex(trans, 'index', size)
 
437
 
 
438
    def make_index_with_offset(self, ref_lists=0, key_elements=1, nodes=[],
 
439
                               offset=0):
 
440
        builder = _mod_index.GraphIndexBuilder(
 
441
            ref_lists, key_elements=key_elements)
 
442
        for key, value, references in nodes:
 
443
            builder.add_node(key, value, references)
 
444
        content = builder.finish().read()
 
445
        size = len(content)
 
446
        trans = self.get_transport()
 
447
        trans.put_bytes('index', (b' ' * offset) + content)
 
448
        return _mod_index.GraphIndex(trans, 'index', size, offset=offset)
 
449
 
 
450
    def test_clear_cache(self):
 
451
        index = self.make_index()
 
452
        # For now, we just want to make sure the api is available. As this is
 
453
        # old code, we don't really worry if it *does* anything.
 
454
        index.clear_cache()
 
455
 
 
456
    def test_open_bad_index_no_error(self):
 
457
        trans = self.get_transport()
 
458
        trans.put_bytes('name', b"not an index\n")
 
459
        idx = _mod_index.GraphIndex(trans, 'name', 13)
 
460
 
 
461
    def test_with_offset(self):
 
462
        nodes = self.make_nodes(200)
 
463
        idx = self.make_index_with_offset(offset=1234567, nodes=nodes)
 
464
        self.assertEqual(200, idx.key_count())
 
465
 
 
466
    def test_buffer_all_with_offset(self):
 
467
        nodes = self.make_nodes(200)
 
468
        idx = self.make_index_with_offset(offset=1234567, nodes=nodes)
 
469
        idx._buffer_all()
 
470
        self.assertEqual(200, idx.key_count())
 
471
 
 
472
    def test_side_effect_buffering_with_offset(self):
 
473
        nodes = self.make_nodes(20)
 
474
        index = self.make_index_with_offset(offset=1234567, nodes=nodes)
 
475
        index._transport.recommended_page_size = lambda: 64 * 1024
 
476
        subset_nodes = [nodes[0][0], nodes[10][0], nodes[19][0]]
 
477
        entries = [n[1] for n in index.iter_entries(subset_nodes)]
 
478
        self.assertEqual(sorted(subset_nodes), sorted(entries))
 
479
        self.assertEqual(20, index.key_count())
 
480
 
 
481
    def test_open_sets_parsed_map_empty(self):
 
482
        index = self.make_index()
 
483
        self.assertEqual([], index._parsed_byte_map)
 
484
        self.assertEqual([], index._parsed_key_map)
 
485
 
 
486
    def test_key_count_buffers(self):
 
487
        index = self.make_index(nodes=self.make_nodes(2))
 
488
        # reset the transport log
 
489
        del index._transport._activity[:]
 
490
        self.assertEqual(2, index.key_count())
 
491
        # We should have requested reading the header bytes
 
492
        self.assertEqual([
 
493
            ('readv', 'index', [(0, 200)], True, index._size),
 
494
            ],
 
495
            index._transport._activity)
 
496
        # And that should have been enough to trigger reading the whole index
 
497
        # with buffering
 
498
        self.assertIsNot(None, index._nodes)
 
499
 
 
500
    def test_lookup_key_via_location_buffers(self):
 
501
        index = self.make_index()
 
502
        # reset the transport log
 
503
        del index._transport._activity[:]
 
504
        # do a _lookup_keys_via_location call for the middle of the file, which
 
505
        # is what bisection uses.
 
506
        result = index._lookup_keys_via_location(
 
507
            [(index._size // 2, (b'missing', ))])
 
508
        # this should have asked for a readv request, with adjust_for_latency,
 
509
        # and two regions: the header, and half-way into the file.
 
510
        self.assertEqual([
 
511
            ('readv', 'index', [(30, 30), (0, 200)], True, 60),
 
512
            ],
 
513
            index._transport._activity)
 
514
        # and the result should be that the key cannot be present, because this
 
515
        # is a trivial index.
 
516
        self.assertEqual([((index._size // 2, (b'missing', )), False)],
 
517
                         result)
 
518
        # And this should have caused the file to be fully buffered
 
519
        self.assertIsNot(None, index._nodes)
 
520
        self.assertEqual([], index._parsed_byte_map)
 
521
 
 
522
    def test_first_lookup_key_via_location(self):
 
523
        # We need enough data so that the _HEADER_READV doesn't consume the
 
524
        # whole file. We always read 800 bytes for every key, and the local
 
525
        # transport natural expansion is 4096 bytes. So we have to have >8192
 
526
        # bytes or we will trigger "buffer_all".
 
527
        # We also want the 'missing' key to fall within the range that *did*
 
528
        # read
 
529
        nodes = []
 
530
        index = self.make_index(nodes=self.make_nodes(64))
 
531
        # reset the transport log
 
532
        del index._transport._activity[:]
 
533
        # do a _lookup_keys_via_location call for the middle of the file, which
 
534
        # is what bisection uses.
 
535
        start_lookup = index._size // 2
 
536
        result = index._lookup_keys_via_location(
 
537
            [(start_lookup, (b'40missing', ))])
 
538
        # this should have asked for a readv request, with adjust_for_latency,
 
539
        # and two regions: the header, and half-way into the file.
 
540
        self.assertEqual([
 
541
            ('readv', 'index',
 
542
             [(start_lookup, 800), (0, 200)], True, index._size),
 
543
            ],
 
544
            index._transport._activity)
 
545
        # and the result should be that the key cannot be present, because this
 
546
        # is a trivial index.
 
547
        self.assertEqual([((start_lookup, (b'40missing', )), False)],
 
548
                         result)
 
549
        # And this should not have caused the file to be fully buffered
 
550
        self.assertIs(None, index._nodes)
 
551
        # And the regions of the file that have been parsed should be in the
 
552
        # parsed_byte_map and the parsed_key_map
 
553
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
 
554
        self.assertEqual([((), self.make_key(26)),
 
555
                          (self.make_key(31), self.make_key(48))],
 
556
                         index._parsed_key_map)
 
557
 
 
558
    def test_parsing_non_adjacent_data_trims(self):
 
559
        index = self.make_index(nodes=self.make_nodes(64))
 
560
        result = index._lookup_keys_via_location(
 
561
            [(index._size // 2, (b'40', ))])
 
562
        # and the result should be that the key cannot be present, because key is
 
563
        # in the middle of the observed data from a 4K read - the smallest transport
 
564
        # will do today with this api.
 
565
        self.assertEqual([((index._size // 2, (b'40', )), False)],
 
566
                         result)
 
567
        # and we should have a parse map that includes the header and the
 
568
        # region that was parsed after trimming.
 
569
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
 
570
        self.assertEqual([((), self.make_key(26)),
 
571
                          (self.make_key(31), self.make_key(48))],
 
572
                         index._parsed_key_map)
 
573
 
 
574
    def test_parsing_data_handles_parsed_contained_regions(self):
 
575
        # the following patten creates a parsed region that is wholly within a
 
576
        # single result from the readv layer:
 
577
        # .... single-read (readv-minimum-size) ...
 
578
        # which then trims the start and end so the parsed size is < readv
 
579
        # miniumum.
 
580
        # then a dual lookup (or a reference lookup for that matter) which
 
581
        # abuts or overlaps the parsed region on both sides will need to
 
582
        # discard the data in the middle, but parse the end as well.
 
583
        #
 
584
        # we test this by doing a single lookup to seed the data, then
 
585
        # a lookup for two keys that are present, and adjacent -
 
586
        # we except both to be found, and the parsed byte map to include the
 
587
        # locations of both keys.
 
588
        index = self.make_index(nodes=self.make_nodes(128))
 
589
        result = index._lookup_keys_via_location(
 
590
            [(index._size // 2, (b'40', ))])
 
591
        # and we should have a parse map that includes the header and the
 
592
        # region that was parsed after trimming.
 
593
        self.assertEqual([(0, 4045), (11759, 15707)], index._parsed_byte_map)
 
594
        self.assertEqual([((), self.make_key(116)),
 
595
                          (self.make_key(35), self.make_key(51))],
 
596
                         index._parsed_key_map)
 
597
        # now ask for two keys, right before and after the parsed region
 
598
        result = index._lookup_keys_via_location(
 
599
            [(11450, self.make_key(34)), (15707, self.make_key(52))])
 
600
        self.assertEqual([
 
601
            ((11450, self.make_key(34)),
 
602
             (index, self.make_key(34), self.make_value(34))),
 
603
            ((15707, self.make_key(52)),
 
604
             (index, self.make_key(52), self.make_value(52))),
 
605
            ],
 
606
            result)
 
607
        self.assertEqual([(0, 4045), (9889, 17993)], index._parsed_byte_map)
 
608
 
 
609
    def test_lookup_missing_key_answers_without_io_when_map_permits(self):
 
610
        # generate a big enough index that we only read some of it on a typical
 
611
        # bisection lookup.
 
612
        index = self.make_index(nodes=self.make_nodes(64))
 
613
        # lookup the keys in the middle of the file
 
614
        result = index._lookup_keys_via_location(
 
615
            [(index._size // 2, (b'40', ))])
 
616
        # check the parse map, this determines the test validity
 
617
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
 
618
        self.assertEqual([((), self.make_key(26)),
 
619
                          (self.make_key(31), self.make_key(48))],
 
620
                         index._parsed_key_map)
 
621
        # reset the transport log
 
622
        del index._transport._activity[:]
 
623
        # now looking up a key in the portion of the file already parsed should
 
624
        # not create a new transport request, and should return False (cannot
 
625
        # be in the index) - even when the byte location we ask for is outside
 
626
        # the parsed region
 
627
        result = index._lookup_keys_via_location(
 
628
            [(4000, (b'40', ))])
 
629
        self.assertEqual([((4000, (b'40', )), False)],
 
630
                         result)
 
631
        self.assertEqual([], index._transport._activity)
 
632
 
 
633
    def test_lookup_present_key_answers_without_io_when_map_permits(self):
 
634
        # generate a big enough index that we only read some of it on a typical
 
635
        # bisection lookup.
 
636
        index = self.make_index(nodes=self.make_nodes(64))
 
637
        # lookup the keys in the middle of the file
 
638
        result = index._lookup_keys_via_location(
 
639
            [(index._size // 2, (b'40', ))])
 
640
        # check the parse map, this determines the test validity
 
641
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
 
642
        self.assertEqual([((), self.make_key(26)),
 
643
                          (self.make_key(31), self.make_key(48))],
 
644
                         index._parsed_key_map)
 
645
        # reset the transport log
 
646
        del index._transport._activity[:]
 
647
        # now looking up a key in the portion of the file already parsed should
 
648
        # not create a new transport request, and should return False (cannot
 
649
        # be in the index) - even when the byte location we ask for is outside
 
650
        # the parsed region
 
651
        #
 
652
        result = index._lookup_keys_via_location([(4000, self.make_key(40))])
 
653
        self.assertEqual(
 
654
            [((4000, self.make_key(40)),
 
655
              (index, self.make_key(40), self.make_value(40)))],
 
656
            result)
 
657
        self.assertEqual([], index._transport._activity)
 
658
 
 
659
    def test_lookup_key_below_probed_area(self):
 
660
        # generate a big enough index that we only read some of it on a typical
 
661
        # bisection lookup.
 
662
        index = self.make_index(nodes=self.make_nodes(64))
 
663
        # ask for the key in the middle, but a key that is located in the
 
664
        # unparsed region before the middle.
 
665
        result = index._lookup_keys_via_location(
 
666
            [(index._size // 2, (b'30', ))])
 
667
        # check the parse map, this determines the test validity
 
668
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
 
669
        self.assertEqual([((), self.make_key(26)),
 
670
                          (self.make_key(31), self.make_key(48))],
 
671
                         index._parsed_key_map)
 
672
        self.assertEqual([((index._size // 2, (b'30', )), -1)],
 
673
                         result)
 
674
 
 
675
    def test_lookup_key_above_probed_area(self):
 
676
        # generate a big enough index that we only read some of it on a typical
 
677
        # bisection lookup.
 
678
        index = self.make_index(nodes=self.make_nodes(64))
 
679
        # ask for the key in the middle, but a key that is located in the
 
680
        # unparsed region after the middle.
 
681
        result = index._lookup_keys_via_location(
 
682
            [(index._size // 2, (b'50', ))])
 
683
        # check the parse map, this determines the test validity
 
684
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
 
685
        self.assertEqual([((), self.make_key(26)),
 
686
                          (self.make_key(31), self.make_key(48))],
 
687
                         index._parsed_key_map)
 
688
        self.assertEqual([((index._size // 2, (b'50', )), +1)],
 
689
                         result)
 
690
 
 
691
    def test_lookup_key_resolves_references(self):
 
692
        # generate a big enough index that we only read some of it on a typical
 
693
        # bisection lookup.
 
694
        nodes = []
 
695
        for counter in range(99):
 
696
            nodes.append((self.make_key(counter), self.make_value(counter),
 
697
                          ((self.make_key(counter + 20),),)))
 
698
        index = self.make_index(ref_lists=1, nodes=nodes)
 
699
        # lookup a key in the middle that does not exist, so that when we can
 
700
        # check that the referred-to-keys are not accessed automatically.
 
701
        index_size = index._size
 
702
        index_center = index_size // 2
 
703
        result = index._lookup_keys_via_location(
 
704
            [(index_center, (b'40', ))])
 
705
        # check the parse map - only the start and middle should have been
 
706
        # parsed.
 
707
        self.assertEqual([(0, 4027), (10198, 14028)], index._parsed_byte_map)
 
708
        self.assertEqual([((), self.make_key(17)),
 
709
                          (self.make_key(44), self.make_key(5))],
 
710
                         index._parsed_key_map)
 
711
        # and check the transport activity likewise.
 
712
        self.assertEqual(
 
713
            [('readv', 'index', [(index_center, 800), (0, 200)], True,
 
714
              index_size)],
 
715
            index._transport._activity)
 
716
        # reset the transport log for testing the reference lookup
 
717
        del index._transport._activity[:]
 
718
        # now looking up a key in the portion of the file already parsed should
 
719
        # only perform IO to resolve its key references.
 
720
        result = index._lookup_keys_via_location([(11000, self.make_key(45))])
 
721
        self.assertEqual(
 
722
            [((11000, self.make_key(45)),
 
723
              (index, self.make_key(45), self.make_value(45),
 
724
               ((self.make_key(65),),)))],
 
725
            result)
 
726
        self.assertEqual([('readv', 'index', [(15093, 800)], True, index_size)],
 
727
                         index._transport._activity)
 
728
 
 
729
    def test_lookup_key_can_buffer_all(self):
 
730
        nodes = []
 
731
        for counter in range(64):
 
732
            nodes.append((self.make_key(counter), self.make_value(counter),
 
733
                          ((self.make_key(counter + 20),),)))
 
734
        index = self.make_index(ref_lists=1, nodes=nodes)
 
735
        # lookup a key in the middle that does not exist, so that when we can
 
736
        # check that the referred-to-keys are not accessed automatically.
 
737
        index_size = index._size
 
738
        index_center = index_size // 2
 
739
        result = index._lookup_keys_via_location([(index_center, (b'40', ))])
 
740
        # check the parse map - only the start and middle should have been
 
741
        # parsed.
 
742
        self.assertEqual([(0, 3890), (6444, 10274)], index._parsed_byte_map)
 
743
        self.assertEqual([((), self.make_key(25)),
 
744
                          (self.make_key(37), self.make_key(52))],
 
745
                         index._parsed_key_map)
 
746
        # and check the transport activity likewise.
 
747
        self.assertEqual(
 
748
            [('readv', 'index', [(index_center, 800), (0, 200)], True,
 
749
              index_size)],
 
750
            index._transport._activity)
 
751
        # reset the transport log for testing the reference lookup
 
752
        del index._transport._activity[:]
 
753
        # now looking up a key in the portion of the file already parsed should
 
754
        # only perform IO to resolve its key references.
 
755
        result = index._lookup_keys_via_location([(7000, self.make_key(40))])
 
756
        self.assertEqual(
 
757
            [((7000, self.make_key(40)),
 
758
              (index, self.make_key(40), self.make_value(40),
 
759
               ((self.make_key(60),),)))],
 
760
            result)
 
761
        # Resolving the references would have required more data read, and we
 
762
        # are already above the 50% threshold, so it triggered a _buffer_all
 
763
        self.assertEqual([('get', 'index')], index._transport._activity)
 
764
 
 
765
    def test_iter_all_entries_empty(self):
 
766
        index = self.make_index()
 
767
        self.assertEqual([], list(index.iter_all_entries()))
 
768
 
 
769
    def test_iter_all_entries_simple(self):
 
770
        index = self.make_index(nodes=[((b'name', ), b'data', ())])
 
771
        self.assertEqual([(index, (b'name', ), b'data')],
 
772
                         list(index.iter_all_entries()))
 
773
 
 
774
    def test_iter_all_entries_simple_2_elements(self):
 
775
        index = self.make_index(key_elements=2,
 
776
                                nodes=[((b'name', b'surname'), b'data', ())])
 
777
        self.assertEqual([(index, (b'name', b'surname'), b'data')],
 
778
                         list(index.iter_all_entries()))
 
779
 
 
780
    def test_iter_all_entries_references_resolved(self):
 
781
        index = self.make_index(1, nodes=[
 
782
            ((b'name', ), b'data', ([(b'ref', )], )),
 
783
            ((b'ref', ), b'refdata', ([], ))])
 
784
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),)),
 
785
                          (index, (b'ref', ), b'refdata', ((), ))},
 
786
                         set(index.iter_all_entries()))
 
787
 
 
788
    def test_iter_entries_buffers_once(self):
 
789
        index = self.make_index(nodes=self.make_nodes(2))
 
790
        # reset the transport log
 
791
        del index._transport._activity[:]
 
792
        self.assertEqual({(index, self.make_key(1), self.make_value(1))},
 
793
                         set(index.iter_entries([self.make_key(1)])))
 
794
        # We should have requested reading the header bytes
 
795
        # But not needed any more than that because it would have triggered a
 
796
        # buffer all
 
797
        self.assertEqual([
 
798
            ('readv', 'index', [(0, 200)], True, index._size),
 
799
            ],
 
800
            index._transport._activity)
 
801
        # And that should have been enough to trigger reading the whole index
 
802
        # with buffering
 
803
        self.assertIsNot(None, index._nodes)
 
804
 
 
805
    def test_iter_entries_buffers_by_bytes_read(self):
 
806
        index = self.make_index(nodes=self.make_nodes(64))
 
807
        list(index.iter_entries([self.make_key(10)]))
 
808
        # The first time through isn't enough to trigger a buffer all
 
809
        self.assertIs(None, index._nodes)
 
810
        self.assertEqual(4096, index._bytes_read)
 
811
        # Grabbing a key in that same page won't trigger a buffer all, as we
 
812
        # still haven't read 50% of the file
 
813
        list(index.iter_entries([self.make_key(11)]))
 
814
        self.assertIs(None, index._nodes)
 
815
        self.assertEqual(4096, index._bytes_read)
 
816
        # We haven't read more data, so reading outside the range won't trigger
 
817
        # a buffer all right away
 
818
        list(index.iter_entries([self.make_key(40)]))
 
819
        self.assertIs(None, index._nodes)
 
820
        self.assertEqual(8192, index._bytes_read)
 
821
        # On the next pass, we will not trigger buffer all if the key is
 
822
        # available without reading more
 
823
        list(index.iter_entries([self.make_key(32)]))
 
824
        self.assertIs(None, index._nodes)
 
825
        # But if we *would* need to read more to resolve it, then we will
 
826
        # buffer all.
 
827
        list(index.iter_entries([self.make_key(60)]))
 
828
        self.assertIsNot(None, index._nodes)
 
829
 
 
830
    def test_iter_entries_references_resolved(self):
 
831
        index = self.make_index(1, nodes=[
 
832
            ((b'name', ), b'data', ([(b'ref', ), (b'ref', )], )),
 
833
            ((b'ref', ), b'refdata', ([], ))])
 
834
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',), (b'ref',)),)),
 
835
                          (index, (b'ref', ), b'refdata', ((), ))},
 
836
                         set(index.iter_entries([(b'name',), (b'ref',)])))
 
837
 
 
838
    def test_iter_entries_references_2_refs_resolved(self):
 
839
        index = self.make_index(2, nodes=[
 
840
            ((b'name', ), b'data', ([(b'ref', )], [(b'ref', )])),
 
841
            ((b'ref', ), b'refdata', ([], []))])
 
842
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),), ((b'ref',),))),
 
843
                          (index, (b'ref', ), b'refdata', ((), ()))},
 
844
                         set(index.iter_entries([(b'name',), (b'ref',)])))
 
845
 
 
846
    def test_iteration_absent_skipped(self):
 
847
        index = self.make_index(1, nodes=[
 
848
            ((b'name', ), b'data', ([(b'ref', )], ))])
 
849
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),))},
 
850
                         set(index.iter_all_entries()))
 
851
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),))},
 
852
                         set(index.iter_entries([(b'name', )])))
 
853
        self.assertEqual([], list(index.iter_entries([(b'ref', )])))
 
854
 
 
855
    def test_iteration_absent_skipped_2_element_keys(self):
 
856
        index = self.make_index(1, key_elements=2, nodes=[
 
857
            ((b'name', b'fin'), b'data', ([(b'ref', b'erence')], ))])
 
858
        self.assertEqual([(index, (b'name', b'fin'), b'data', (((b'ref', b'erence'),),))],
 
859
                         list(index.iter_all_entries()))
 
860
        self.assertEqual([(index, (b'name', b'fin'), b'data', (((b'ref', b'erence'),),))],
 
861
                         list(index.iter_entries([(b'name', b'fin')])))
 
862
        self.assertEqual([], list(index.iter_entries([(b'ref', b'erence')])))
 
863
 
 
864
    def test_iter_all_keys(self):
 
865
        index = self.make_index(1, nodes=[
 
866
            ((b'name', ), b'data', ([(b'ref', )], )),
 
867
            ((b'ref', ), b'refdata', ([], ))])
 
868
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),)),
 
869
                          (index, (b'ref', ), b'refdata', ((), ))},
 
870
                         set(index.iter_entries([(b'name', ), (b'ref', )])))
 
871
 
 
872
    def test_iter_nothing_empty(self):
 
873
        index = self.make_index()
 
874
        self.assertEqual([], list(index.iter_entries([])))
 
875
 
 
876
    def test_iter_missing_entry_empty(self):
 
877
        index = self.make_index()
 
878
        self.assertEqual([], list(index.iter_entries([(b'a', )])))
 
879
 
 
880
    def test_iter_missing_entry_empty_no_size(self):
 
881
        idx = self.make_index()
 
882
        idx = _mod_index.GraphIndex(idx._transport, 'index', None)
 
883
        self.assertEqual([], list(idx.iter_entries([(b'a', )])))
 
884
 
 
885
    def test_iter_key_prefix_1_element_key_None(self):
 
886
        index = self.make_index()
 
887
        self.assertRaises(_mod_index.BadIndexKey, list,
 
888
                          index.iter_entries_prefix([(None, )]))
 
889
 
 
890
    def test_iter_key_prefix_wrong_length(self):
 
891
        index = self.make_index()
 
892
        self.assertRaises(_mod_index.BadIndexKey, list,
 
893
                          index.iter_entries_prefix([(b'foo', None)]))
 
894
        index = self.make_index(key_elements=2)
 
895
        self.assertRaises(_mod_index.BadIndexKey, list,
 
896
                          index.iter_entries_prefix([(b'foo', )]))
 
897
        self.assertRaises(_mod_index.BadIndexKey, list,
 
898
                          index.iter_entries_prefix([(b'foo', None, None)]))
 
899
 
 
900
    def test_iter_key_prefix_1_key_element_no_refs(self):
 
901
        index = self.make_index(nodes=[
 
902
            ((b'name', ), b'data', ()),
 
903
            ((b'ref', ), b'refdata', ())])
 
904
        self.assertEqual({(index, (b'name', ), b'data'),
 
905
                          (index, (b'ref', ), b'refdata')},
 
906
                         set(index.iter_entries_prefix([(b'name', ), (b'ref', )])))
 
907
 
 
908
    def test_iter_key_prefix_1_key_element_refs(self):
 
909
        index = self.make_index(1, nodes=[
 
910
            ((b'name', ), b'data', ([(b'ref', )], )),
 
911
            ((b'ref', ), b'refdata', ([], ))])
 
912
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),)),
 
913
                          (index, (b'ref', ), b'refdata', ((), ))},
 
914
                         set(index.iter_entries_prefix([(b'name', ), (b'ref', )])))
 
915
 
 
916
    def test_iter_key_prefix_2_key_element_no_refs(self):
 
917
        index = self.make_index(key_elements=2, nodes=[
 
918
            ((b'name', b'fin1'), b'data', ()),
 
919
            ((b'name', b'fin2'), b'beta', ()),
 
920
            ((b'ref', b'erence'), b'refdata', ())])
 
921
        self.assertEqual({(index, (b'name', b'fin1'), b'data'),
 
922
                          (index, (b'ref', b'erence'), b'refdata')},
 
923
                         set(index.iter_entries_prefix([(b'name', b'fin1'), (b'ref', b'erence')])))
 
924
        self.assertEqual({(index, (b'name', b'fin1'), b'data'),
 
925
                          (index, (b'name', b'fin2'), b'beta')},
 
926
                         set(index.iter_entries_prefix([(b'name', None)])))
 
927
 
 
928
    def test_iter_key_prefix_2_key_element_refs(self):
 
929
        index = self.make_index(1, key_elements=2, nodes=[
 
930
            ((b'name', b'fin1'), b'data', ([(b'ref', b'erence')], )),
 
931
            ((b'name', b'fin2'), b'beta', ([], )),
 
932
            ((b'ref', b'erence'), b'refdata', ([], ))])
 
933
        self.assertEqual({(index, (b'name', b'fin1'), b'data', (((b'ref', b'erence'),),)),
 
934
                          (index, (b'ref', b'erence'), b'refdata', ((), ))},
 
935
                         set(index.iter_entries_prefix([(b'name', b'fin1'), (b'ref', b'erence')])))
 
936
        self.assertEqual({(index, (b'name', b'fin1'), b'data', (((b'ref', b'erence'),),)),
 
937
                          (index, (b'name', b'fin2'), b'beta', ((), ))},
 
938
                         set(index.iter_entries_prefix([(b'name', None)])))
 
939
 
 
940
    def test_key_count_empty(self):
 
941
        index = self.make_index()
 
942
        self.assertEqual(0, index.key_count())
 
943
 
 
944
    def test_key_count_one(self):
 
945
        index = self.make_index(nodes=[((b'name', ), b'', ())])
 
946
        self.assertEqual(1, index.key_count())
 
947
 
 
948
    def test_key_count_two(self):
 
949
        index = self.make_index(nodes=[
 
950
            ((b'name', ), b'', ()), ((b'foo', ), b'', ())])
 
951
        self.assertEqual(2, index.key_count())
 
952
 
 
953
    def test_read_and_parse_tracks_real_read_value(self):
 
954
        index = self.make_index(nodes=self.make_nodes(10))
 
955
        del index._transport._activity[:]
 
956
        index._read_and_parse([(0, 200)])
 
957
        self.assertEqual([
 
958
            ('readv', 'index', [(0, 200)], True, index._size),
 
959
            ],
 
960
            index._transport._activity)
 
961
        # The readv expansion code will expand the initial request to 4096
 
962
        # bytes, which is more than enough to read the entire index, and we
 
963
        # will track the fact that we read that many bytes.
 
964
        self.assertEqual(index._size, index._bytes_read)
 
965
 
 
966
    def test_read_and_parse_triggers_buffer_all(self):
 
967
        index = self.make_index(key_elements=2, nodes=[
 
968
            ((b'name', b'fin1'), b'data', ()),
 
969
            ((b'name', b'fin2'), b'beta', ()),
 
970
            ((b'ref', b'erence'), b'refdata', ())])
 
971
        self.assertTrue(index._size > 0)
 
972
        self.assertIs(None, index._nodes)
 
973
        index._read_and_parse([(0, index._size)])
 
974
        self.assertIsNot(None, index._nodes)
 
975
 
 
976
    def test_validate_bad_index_errors(self):
 
977
        trans = self.get_transport()
 
978
        trans.put_bytes('name', b"not an index\n")
 
979
        idx = _mod_index.GraphIndex(trans, 'name', 13)
 
980
        self.assertRaises(_mod_index.BadIndexFormatSignature, idx.validate)
 
981
 
 
982
    def test_validate_bad_node_refs(self):
 
983
        idx = self.make_index(2)
 
984
        trans = self.get_transport()
 
985
        content = trans.get_bytes('index')
 
986
        # change the options line to end with a rather than a parseable number
 
987
        new_content = content[:-2] + b'a\n\n'
 
988
        trans.put_bytes('index', new_content)
 
989
        self.assertRaises(_mod_index.BadIndexOptions, idx.validate)
 
990
 
 
991
    def test_validate_missing_end_line_empty(self):
 
992
        index = self.make_index(2)
 
993
        trans = self.get_transport()
 
994
        content = trans.get_bytes('index')
 
995
        # truncate the last byte
 
996
        trans.put_bytes('index', content[:-1])
 
997
        self.assertRaises(_mod_index.BadIndexData, index.validate)
 
998
 
 
999
    def test_validate_missing_end_line_nonempty(self):
 
1000
        index = self.make_index(2, nodes=[((b'key', ), b'', ([], []))])
 
1001
        trans = self.get_transport()
 
1002
        content = trans.get_bytes('index')
 
1003
        # truncate the last byte
 
1004
        trans.put_bytes('index', content[:-1])
 
1005
        self.assertRaises(_mod_index.BadIndexData, index.validate)
 
1006
 
 
1007
    def test_validate_empty(self):
 
1008
        index = self.make_index()
 
1009
        index.validate()
 
1010
 
 
1011
    def test_validate_no_refs_content(self):
 
1012
        index = self.make_index(nodes=[((b'key', ), b'value', ())])
 
1013
        index.validate()
 
1014
 
 
1015
    # XXX: external_references tests are duplicated in test_btree_index.  We
 
1016
    # probably should have per_graph_index tests...
 
1017
    def test_external_references_no_refs(self):
 
1018
        index = self.make_index(ref_lists=0, nodes=[])
 
1019
        self.assertRaises(ValueError, index.external_references, 0)
 
1020
 
 
1021
    def test_external_references_no_results(self):
 
1022
        index = self.make_index(ref_lists=1, nodes=[
 
1023
            ((b'key',), b'value', ([],))])
 
1024
        self.assertEqual(set(), index.external_references(0))
 
1025
 
 
1026
    def test_external_references_missing_ref(self):
 
1027
        missing_key = (b'missing',)
 
1028
        index = self.make_index(ref_lists=1, nodes=[
 
1029
            ((b'key',), b'value', ([missing_key],))])
 
1030
        self.assertEqual({missing_key}, index.external_references(0))
 
1031
 
 
1032
    def test_external_references_multiple_ref_lists(self):
 
1033
        missing_key = (b'missing',)
 
1034
        index = self.make_index(ref_lists=2, nodes=[
 
1035
            ((b'key',), b'value', ([], [missing_key]))])
 
1036
        self.assertEqual(set([]), index.external_references(0))
 
1037
        self.assertEqual({missing_key}, index.external_references(1))
 
1038
 
 
1039
    def test_external_references_two_records(self):
 
1040
        index = self.make_index(ref_lists=1, nodes=[
 
1041
            ((b'key-1',), b'value', ([(b'key-2',)],)),
 
1042
            ((b'key-2',), b'value', ([],)),
 
1043
            ])
 
1044
        self.assertEqual(set([]), index.external_references(0))
 
1045
 
 
1046
    def test__find_ancestors(self):
 
1047
        key1 = (b'key-1',)
 
1048
        key2 = (b'key-2',)
 
1049
        index = self.make_index(ref_lists=1, key_elements=1, nodes=[
 
1050
            (key1, b'value', ([key2],)),
 
1051
            (key2, b'value', ([],)),
 
1052
            ])
 
1053
        parent_map = {}
 
1054
        missing_keys = set()
 
1055
        search_keys = index._find_ancestors(
 
1056
            [key1], 0, parent_map, missing_keys)
 
1057
        self.assertEqual({key1: (key2,)}, parent_map)
 
1058
        self.assertEqual(set(), missing_keys)
 
1059
        self.assertEqual({key2}, search_keys)
 
1060
        search_keys = index._find_ancestors(search_keys, 0, parent_map,
 
1061
                                            missing_keys)
 
1062
        self.assertEqual({key1: (key2,), key2: ()}, parent_map)
 
1063
        self.assertEqual(set(), missing_keys)
 
1064
        self.assertEqual(set(), search_keys)
 
1065
 
 
1066
    def test__find_ancestors_w_missing(self):
 
1067
        key1 = (b'key-1',)
 
1068
        key2 = (b'key-2',)
 
1069
        key3 = (b'key-3',)
 
1070
        index = self.make_index(ref_lists=1, key_elements=1, nodes=[
 
1071
            (key1, b'value', ([key2],)),
 
1072
            (key2, b'value', ([],)),
 
1073
            ])
 
1074
        parent_map = {}
 
1075
        missing_keys = set()
 
1076
        search_keys = index._find_ancestors([key2, key3], 0, parent_map,
 
1077
                                            missing_keys)
 
1078
        self.assertEqual({key2: ()}, parent_map)
 
1079
        self.assertEqual({key3}, missing_keys)
 
1080
        self.assertEqual(set(), search_keys)
 
1081
 
 
1082
    def test__find_ancestors_dont_search_known(self):
 
1083
        key1 = (b'key-1',)
 
1084
        key2 = (b'key-2',)
 
1085
        key3 = (b'key-3',)
 
1086
        index = self.make_index(ref_lists=1, key_elements=1, nodes=[
 
1087
            (key1, b'value', ([key2],)),
 
1088
            (key2, b'value', ([key3],)),
 
1089
            (key3, b'value', ([],)),
 
1090
            ])
 
1091
        # We already know about key2, so we won't try to search for key3
 
1092
        parent_map = {key2: (key3,)}
 
1093
        missing_keys = set()
 
1094
        search_keys = index._find_ancestors([key1], 0, parent_map,
 
1095
                                            missing_keys)
 
1096
        self.assertEqual({key1: (key2,), key2: (key3,)}, parent_map)
 
1097
        self.assertEqual(set(), missing_keys)
 
1098
        self.assertEqual(set(), search_keys)
 
1099
 
 
1100
    def test_supports_unlimited_cache(self):
 
1101
        builder = _mod_index.GraphIndexBuilder(0, key_elements=1)
 
1102
        stream = builder.finish()
 
1103
        trans = self.get_transport()
 
1104
        size = trans.put_file('index', stream)
 
1105
        # It doesn't matter what unlimited_cache does here, just that it can be
 
1106
        # passed
 
1107
        idx = _mod_index.GraphIndex(trans, 'index', size, unlimited_cache=True)
 
1108
 
 
1109
 
 
1110
class TestCombinedGraphIndex(tests.TestCaseWithMemoryTransport):
 
1111
 
 
1112
    def make_index(self, name, ref_lists=0, key_elements=1, nodes=[]):
 
1113
        builder = _mod_index.GraphIndexBuilder(
 
1114
            ref_lists, key_elements=key_elements)
 
1115
        for key, value, references in nodes:
 
1116
            builder.add_node(key, value, references)
 
1117
        stream = builder.finish()
 
1118
        trans = self.get_transport()
 
1119
        size = trans.put_file(name, stream)
 
1120
        return _mod_index.GraphIndex(trans, name, size)
 
1121
 
 
1122
    def make_combined_index_with_missing(self, missing=['1', '2']):
 
1123
        """Create a CombinedGraphIndex which will have missing indexes.
 
1124
 
 
1125
        This creates a CGI which thinks it has 2 indexes, however they have
 
1126
        been deleted. If CGI._reload_func() is called, then it will repopulate
 
1127
        with a new index.
 
1128
 
 
1129
        :param missing: The underlying indexes to delete
 
1130
        :return: (CombinedGraphIndex, reload_counter)
 
1131
        """
 
1132
        idx1 = self.make_index('1', nodes=[((b'1',), b'', ())])
 
1133
        idx2 = self.make_index('2', nodes=[((b'2',), b'', ())])
 
1134
        idx3 = self.make_index('3', nodes=[
 
1135
            ((b'1',), b'', ()),
 
1136
            ((b'2',), b'', ())])
 
1137
 
 
1138
        # total_reloads, num_changed, num_unchanged
 
1139
        reload_counter = [0, 0, 0]
 
1140
 
 
1141
        def reload():
 
1142
            reload_counter[0] += 1
 
1143
            new_indices = [idx3]
 
1144
            if idx._indices == new_indices:
 
1145
                reload_counter[2] += 1
 
1146
                return False
 
1147
            reload_counter[1] += 1
 
1148
            idx._indices[:] = new_indices
 
1149
            return True
 
1150
        idx = _mod_index.CombinedGraphIndex([idx1, idx2], reload_func=reload)
 
1151
        trans = self.get_transport()
 
1152
        for fname in missing:
 
1153
            trans.delete(fname)
 
1154
        return idx, reload_counter
 
1155
 
 
1156
    def test_open_missing_index_no_error(self):
 
1157
        trans = self.get_transport()
 
1158
        idx1 = _mod_index.GraphIndex(trans, 'missing', 100)
 
1159
        idx = _mod_index.CombinedGraphIndex([idx1])
 
1160
 
 
1161
    def test_add_index(self):
 
1162
        idx = _mod_index.CombinedGraphIndex([])
 
1163
        idx1 = self.make_index('name', 0, nodes=[((b'key', ), b'', ())])
 
1164
        idx.insert_index(0, idx1)
 
1165
        self.assertEqual([(idx1, (b'key', ), b'')],
 
1166
                         list(idx.iter_all_entries()))
 
1167
 
 
1168
    def test_clear_cache(self):
 
1169
        log = []
 
1170
 
 
1171
        class ClearCacheProxy(object):
 
1172
 
 
1173
            def __init__(self, index):
 
1174
                self._index = index
 
1175
 
 
1176
            def __getattr__(self, name):
 
1177
                return getattr(self._index)
 
1178
 
 
1179
            def clear_cache(self):
 
1180
                log.append(self._index)
 
1181
                return self._index.clear_cache()
 
1182
 
 
1183
        idx = _mod_index.CombinedGraphIndex([])
 
1184
        idx1 = self.make_index('name', 0, nodes=[((b'key', ), b'', ())])
 
1185
        idx.insert_index(0, ClearCacheProxy(idx1))
 
1186
        idx2 = self.make_index('name', 0, nodes=[((b'key', ), b'', ())])
 
1187
        idx.insert_index(1, ClearCacheProxy(idx2))
 
1188
        # CombinedGraphIndex should call 'clear_cache()' on all children
 
1189
        idx.clear_cache()
 
1190
        self.assertEqual(sorted([idx1, idx2]), sorted(log))
 
1191
 
 
1192
    def test_iter_all_entries_empty(self):
 
1193
        idx = _mod_index.CombinedGraphIndex([])
 
1194
        self.assertEqual([], list(idx.iter_all_entries()))
 
1195
 
 
1196
    def test_iter_all_entries_children_empty(self):
 
1197
        idx1 = self.make_index('name')
 
1198
        idx = _mod_index.CombinedGraphIndex([idx1])
 
1199
        self.assertEqual([], list(idx.iter_all_entries()))
 
1200
 
 
1201
    def test_iter_all_entries_simple(self):
 
1202
        idx1 = self.make_index('name', nodes=[((b'name', ), b'data', ())])
 
1203
        idx = _mod_index.CombinedGraphIndex([idx1])
 
1204
        self.assertEqual([(idx1, (b'name', ), b'data')],
 
1205
                         list(idx.iter_all_entries()))
 
1206
 
 
1207
    def test_iter_all_entries_two_indices(self):
 
1208
        idx1 = self.make_index('name1', nodes=[((b'name', ), b'data', ())])
 
1209
        idx2 = self.make_index('name2', nodes=[((b'2', ), b'', ())])
 
1210
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1211
        self.assertEqual([(idx1, (b'name', ), b'data'),
 
1212
                          (idx2, (b'2', ), b'')],
 
1213
                         list(idx.iter_all_entries()))
 
1214
 
 
1215
    def test_iter_entries_two_indices_dup_key(self):
 
1216
        idx1 = self.make_index('name1', nodes=[((b'name', ), b'data', ())])
 
1217
        idx2 = self.make_index('name2', nodes=[((b'name', ), b'data', ())])
 
1218
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1219
        self.assertEqual([(idx1, (b'name', ), b'data')],
 
1220
                         list(idx.iter_entries([(b'name', )])))
 
1221
 
 
1222
    def test_iter_all_entries_two_indices_dup_key(self):
 
1223
        idx1 = self.make_index('name1', nodes=[((b'name', ), b'data', ())])
 
1224
        idx2 = self.make_index('name2', nodes=[((b'name', ), b'data', ())])
 
1225
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1226
        self.assertEqual([(idx1, (b'name', ), b'data')],
 
1227
                         list(idx.iter_all_entries()))
 
1228
 
 
1229
    def test_iter_key_prefix_2_key_element_refs(self):
 
1230
        idx1 = self.make_index('1', 1, key_elements=2, nodes=[
 
1231
            ((b'name', b'fin1'), b'data', ([(b'ref', b'erence')], ))])
 
1232
        idx2 = self.make_index('2', 1, key_elements=2, nodes=[
 
1233
            ((b'name', b'fin2'), b'beta', ([], )),
 
1234
            ((b'ref', b'erence'), b'refdata', ([], ))])
 
1235
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1236
        self.assertEqual({(idx1, (b'name', b'fin1'), b'data',
 
1237
                           (((b'ref', b'erence'),),)),
 
1238
                          (idx2, (b'ref', b'erence'), b'refdata', ((), ))},
 
1239
                         set(idx.iter_entries_prefix([(b'name', b'fin1'),
 
1240
                                                      (b'ref', b'erence')])))
 
1241
        self.assertEqual({(idx1, (b'name', b'fin1'), b'data',
 
1242
                           (((b'ref', b'erence'),),)),
 
1243
                          (idx2, (b'name', b'fin2'), b'beta', ((), ))},
 
1244
                         set(idx.iter_entries_prefix([(b'name', None)])))
 
1245
 
 
1246
    def test_iter_nothing_empty(self):
 
1247
        idx = _mod_index.CombinedGraphIndex([])
 
1248
        self.assertEqual([], list(idx.iter_entries([])))
 
1249
 
 
1250
    def test_iter_nothing_children_empty(self):
 
1251
        idx1 = self.make_index('name')
 
1252
        idx = _mod_index.CombinedGraphIndex([idx1])
 
1253
        self.assertEqual([], list(idx.iter_entries([])))
 
1254
 
 
1255
    def test_iter_all_keys(self):
 
1256
        idx1 = self.make_index('1', 1, nodes=[((b'name', ), b'data',
 
1257
                                               ([(b'ref', )], ))])
 
1258
        idx2 = self.make_index(
 
1259
            '2', 1, nodes=[((b'ref', ), b'refdata', ((), ))])
 
1260
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1261
        self.assertEqual({(idx1, (b'name', ), b'data', (((b'ref', ), ), )),
 
1262
                          (idx2, (b'ref', ), b'refdata', ((), ))},
 
1263
                         set(idx.iter_entries([(b'name', ), (b'ref', )])))
 
1264
 
 
1265
    def test_iter_all_keys_dup_entry(self):
 
1266
        idx1 = self.make_index('1', 1, nodes=[((b'name', ), b'data',
 
1267
                                               ([(b'ref', )], )),
 
1268
                                              ((b'ref', ), b'refdata', ([], ))])
 
1269
        idx2 = self.make_index(
 
1270
            '2', 1, nodes=[((b'ref', ), b'refdata', ([], ))])
 
1271
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1272
        self.assertEqual({(idx1, (b'name', ), b'data', (((b'ref',),),)),
 
1273
                          (idx1, (b'ref', ), b'refdata', ((), ))},
 
1274
                         set(idx.iter_entries([(b'name', ), (b'ref', )])))
 
1275
 
 
1276
    def test_iter_missing_entry_empty(self):
 
1277
        idx = _mod_index.CombinedGraphIndex([])
 
1278
        self.assertEqual([], list(idx.iter_entries([('a', )])))
 
1279
 
 
1280
    def test_iter_missing_entry_one_index(self):
 
1281
        idx1 = self.make_index('1')
 
1282
        idx = _mod_index.CombinedGraphIndex([idx1])
 
1283
        self.assertEqual([], list(idx.iter_entries([(b'a', )])))
 
1284
 
 
1285
    def test_iter_missing_entry_two_index(self):
 
1286
        idx1 = self.make_index('1')
 
1287
        idx2 = self.make_index('2')
 
1288
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1289
        self.assertEqual([], list(idx.iter_entries([('a', )])))
 
1290
 
 
1291
    def test_iter_entry_present_one_index_only(self):
 
1292
        idx1 = self.make_index('1', nodes=[((b'key', ), b'', ())])
 
1293
        idx2 = self.make_index('2', nodes=[])
 
1294
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1295
        self.assertEqual([(idx1, (b'key', ), b'')],
 
1296
                         list(idx.iter_entries([(b'key', )])))
 
1297
        # and in the other direction
 
1298
        idx = _mod_index.CombinedGraphIndex([idx2, idx1])
 
1299
        self.assertEqual([(idx1, (b'key', ), b'')],
 
1300
                         list(idx.iter_entries([(b'key', )])))
 
1301
 
 
1302
    def test_key_count_empty(self):
 
1303
        idx1 = self.make_index('1', nodes=[])
 
1304
        idx2 = self.make_index('2', nodes=[])
 
1305
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1306
        self.assertEqual(0, idx.key_count())
 
1307
 
 
1308
    def test_key_count_sums_index_keys(self):
 
1309
        idx1 = self.make_index('1', nodes=[
 
1310
            ((b'1',), b'', ()),
 
1311
            ((b'2',), b'', ())])
 
1312
        idx2 = self.make_index('2', nodes=[((b'1',), b'', ())])
 
1313
        idx = _mod_index.CombinedGraphIndex([idx1, idx2])
 
1314
        self.assertEqual(3, idx.key_count())
 
1315
 
 
1316
    def test_validate_bad_child_index_errors(self):
 
1317
        trans = self.get_transport()
 
1318
        trans.put_bytes('name', b"not an index\n")
 
1319
        idx1 = _mod_index.GraphIndex(trans, 'name', 13)
 
1320
        idx = _mod_index.CombinedGraphIndex([idx1])
 
1321
        self.assertRaises(_mod_index.BadIndexFormatSignature, idx.validate)
 
1322
 
 
1323
    def test_validate_empty(self):
 
1324
        idx = _mod_index.CombinedGraphIndex([])
 
1325
        idx.validate()
 
1326
 
 
1327
    def test_key_count_reloads(self):
 
1328
        idx, reload_counter = self.make_combined_index_with_missing()
 
1329
        self.assertEqual(2, idx.key_count())
 
1330
        self.assertEqual([1, 1, 0], reload_counter)
 
1331
 
 
1332
    def test_key_count_no_reload(self):
 
1333
        idx, reload_counter = self.make_combined_index_with_missing()
 
1334
        idx._reload_func = None
 
1335
        # Without a _reload_func we just raise the exception
 
1336
        self.assertRaises(errors.NoSuchFile, idx.key_count)
 
1337
 
 
1338
    def test_key_count_reloads_and_fails(self):
 
1339
        # We have deleted all underlying indexes, so we will try to reload, but
 
1340
        # still fail. This is mostly to test we don't get stuck in an infinite
 
1341
        # loop trying to reload
 
1342
        idx, reload_counter = self.make_combined_index_with_missing(
 
1343
            ['1', '2', '3'])
 
1344
        self.assertRaises(errors.NoSuchFile, idx.key_count)
 
1345
        self.assertEqual([2, 1, 1], reload_counter)
 
1346
 
 
1347
    def test_iter_entries_reloads(self):
 
1348
        index, reload_counter = self.make_combined_index_with_missing()
 
1349
        result = list(index.iter_entries([(b'1',), (b'2',), (b'3',)]))
 
1350
        index3 = index._indices[0]
 
1351
        self.assertEqual({(index3, (b'1',), b''), (index3, (b'2',), b'')},
 
1352
                         set(result))
 
1353
        self.assertEqual([1, 1, 0], reload_counter)
 
1354
 
 
1355
    def test_iter_entries_reloads_midway(self):
 
1356
        # The first index still looks present, so we get interrupted mid-way
 
1357
        # through
 
1358
        index, reload_counter = self.make_combined_index_with_missing(['2'])
 
1359
        index1, index2 = index._indices
 
1360
        result = list(index.iter_entries([(b'1',), (b'2',), (b'3',)]))
 
1361
        index3 = index._indices[0]
 
1362
        # We had already yielded b'1', so we just go on to the next, we should
 
1363
        # not yield b'1' twice.
 
1364
        self.assertEqual([(index1, (b'1',), b''), (index3, (b'2',), b'')],
 
1365
                         result)
 
1366
        self.assertEqual([1, 1, 0], reload_counter)
 
1367
 
 
1368
    def test_iter_entries_no_reload(self):
 
1369
        index, reload_counter = self.make_combined_index_with_missing()
 
1370
        index._reload_func = None
 
1371
        # Without a _reload_func we just raise the exception
 
1372
        self.assertListRaises(errors.NoSuchFile, index.iter_entries, [('3',)])
 
1373
 
 
1374
    def test_iter_entries_reloads_and_fails(self):
 
1375
        index, reload_counter = self.make_combined_index_with_missing(
 
1376
            ['1', '2', '3'])
 
1377
        self.assertListRaises(errors.NoSuchFile, index.iter_entries, [('3',)])
 
1378
        self.assertEqual([2, 1, 1], reload_counter)
 
1379
 
 
1380
    def test_iter_all_entries_reloads(self):
 
1381
        index, reload_counter = self.make_combined_index_with_missing()
 
1382
        result = list(index.iter_all_entries())
 
1383
        index3 = index._indices[0]
 
1384
        self.assertEqual({(index3, (b'1',), b''), (index3, (b'2',), b'')},
 
1385
                         set(result))
 
1386
        self.assertEqual([1, 1, 0], reload_counter)
 
1387
 
 
1388
    def test_iter_all_entries_reloads_midway(self):
 
1389
        index, reload_counter = self.make_combined_index_with_missing(['2'])
 
1390
        index1, index2 = index._indices
 
1391
        result = list(index.iter_all_entries())
 
1392
        index3 = index._indices[0]
 
1393
        # We had already yielded '1', so we just go on to the next, we should
 
1394
        # not yield '1' twice.
 
1395
        self.assertEqual([(index1, (b'1',), b''), (index3, (b'2',), b'')],
 
1396
                         result)
 
1397
        self.assertEqual([1, 1, 0], reload_counter)
 
1398
 
 
1399
    def test_iter_all_entries_no_reload(self):
 
1400
        index, reload_counter = self.make_combined_index_with_missing()
 
1401
        index._reload_func = None
 
1402
        self.assertListRaises(errors.NoSuchFile, index.iter_all_entries)
 
1403
 
 
1404
    def test_iter_all_entries_reloads_and_fails(self):
 
1405
        index, reload_counter = self.make_combined_index_with_missing(
 
1406
            ['1', '2', '3'])
 
1407
        self.assertListRaises(errors.NoSuchFile, index.iter_all_entries)
 
1408
 
 
1409
    def test_iter_entries_prefix_reloads(self):
 
1410
        index, reload_counter = self.make_combined_index_with_missing()
 
1411
        result = list(index.iter_entries_prefix([(b'1',)]))
 
1412
        index3 = index._indices[0]
 
1413
        self.assertEqual([(index3, (b'1',), b'')], result)
 
1414
        self.assertEqual([1, 1, 0], reload_counter)
 
1415
 
 
1416
    def test_iter_entries_prefix_reloads_midway(self):
 
1417
        index, reload_counter = self.make_combined_index_with_missing(['2'])
 
1418
        index1, index2 = index._indices
 
1419
        result = list(index.iter_entries_prefix([(b'1',)]))
 
1420
        index3 = index._indices[0]
 
1421
        # We had already yielded b'1', so we just go on to the next, we should
 
1422
        # not yield b'1' twice.
 
1423
        self.assertEqual([(index1, (b'1',), b'')], result)
 
1424
        self.assertEqual([1, 1, 0], reload_counter)
 
1425
 
 
1426
    def test_iter_entries_prefix_no_reload(self):
 
1427
        index, reload_counter = self.make_combined_index_with_missing()
 
1428
        index._reload_func = None
 
1429
        self.assertListRaises(errors.NoSuchFile, index.iter_entries_prefix,
 
1430
                              [(b'1',)])
 
1431
 
 
1432
    def test_iter_entries_prefix_reloads_and_fails(self):
 
1433
        index, reload_counter = self.make_combined_index_with_missing(
 
1434
            ['1', '2', '3'])
 
1435
        self.assertListRaises(errors.NoSuchFile, index.iter_entries_prefix,
 
1436
                              [(b'1',)])
 
1437
 
 
1438
    def make_index_with_simple_nodes(self, name, num_nodes=1):
 
1439
        """Make an index named after 'name', with keys named after 'name' too.
 
1440
 
 
1441
        Nodes will have a value of '' and no references.
 
1442
        """
 
1443
        nodes = [
 
1444
            ((('index-%s-key-%s' % (name, n)).encode('ascii'),), b'', ())
 
1445
            for n in range(1, num_nodes + 1)]
 
1446
        return self.make_index('index-%s' % name, 0, nodes=nodes)
 
1447
 
 
1448
    def test_reorder_after_iter_entries(self):
 
1449
        # Four indices: [key1] in idx1, [key2,key3] in idx2, [] in idx3,
 
1450
        # [key4] in idx4.
 
1451
        idx = _mod_index.CombinedGraphIndex([])
 
1452
        idx.insert_index(0, self.make_index_with_simple_nodes('1'), b'1')
 
1453
        idx.insert_index(1, self.make_index_with_simple_nodes('2'), b'2')
 
1454
        idx.insert_index(2, self.make_index_with_simple_nodes('3'), b'3')
 
1455
        idx.insert_index(3, self.make_index_with_simple_nodes('4'), b'4')
 
1456
        idx1, idx2, idx3, idx4 = idx._indices
 
1457
        # Query a key from idx4 and idx2.
 
1458
        self.assertLength(2, list(idx.iter_entries(
 
1459
            [(b'index-4-key-1',), (b'index-2-key-1',)])))
 
1460
        # Now idx2 and idx4 should be moved to the front (and idx1 should
 
1461
        # still be before idx3).
 
1462
        self.assertEqual([idx2, idx4, idx1, idx3], idx._indices)
 
1463
        self.assertEqual([b'2', b'4', b'1', b'3'], idx._index_names)
 
1464
 
 
1465
    def test_reorder_propagates_to_siblings(self):
 
1466
        # Two CombinedGraphIndex objects, with the same number of indicies with
 
1467
        # matching names.
 
1468
        cgi1 = _mod_index.CombinedGraphIndex([])
 
1469
        cgi2 = _mod_index.CombinedGraphIndex([])
 
1470
        cgi1.insert_index(0, self.make_index_with_simple_nodes('1-1'), 'one')
 
1471
        cgi1.insert_index(1, self.make_index_with_simple_nodes('1-2'), 'two')
 
1472
        cgi2.insert_index(0, self.make_index_with_simple_nodes('2-1'), 'one')
 
1473
        cgi2.insert_index(1, self.make_index_with_simple_nodes('2-2'), 'two')
 
1474
        index2_1, index2_2 = cgi2._indices
 
1475
        cgi1.set_sibling_indices([cgi2])
 
1476
        # Trigger a reordering in cgi1.  cgi2 will be reordered as well.
 
1477
        list(cgi1.iter_entries([(b'index-1-2-key-1',)]))
 
1478
        self.assertEqual([index2_2, index2_1], cgi2._indices)
 
1479
        self.assertEqual(['two', 'one'], cgi2._index_names)
 
1480
 
 
1481
    def test_validate_reloads(self):
 
1482
        idx, reload_counter = self.make_combined_index_with_missing()
 
1483
        idx.validate()
 
1484
        self.assertEqual([1, 1, 0], reload_counter)
 
1485
 
 
1486
    def test_validate_reloads_midway(self):
 
1487
        idx, reload_counter = self.make_combined_index_with_missing(['2'])
 
1488
        idx.validate()
 
1489
 
 
1490
    def test_validate_no_reload(self):
 
1491
        idx, reload_counter = self.make_combined_index_with_missing()
 
1492
        idx._reload_func = None
 
1493
        self.assertRaises(errors.NoSuchFile, idx.validate)
 
1494
 
 
1495
    def test_validate_reloads_and_fails(self):
 
1496
        idx, reload_counter = self.make_combined_index_with_missing(
 
1497
            ['1', '2', '3'])
 
1498
        self.assertRaises(errors.NoSuchFile, idx.validate)
 
1499
 
 
1500
    def test_find_ancestors_across_indexes(self):
 
1501
        key1 = (b'key-1',)
 
1502
        key2 = (b'key-2',)
 
1503
        key3 = (b'key-3',)
 
1504
        key4 = (b'key-4',)
 
1505
        index1 = self.make_index('12', ref_lists=1, nodes=[
 
1506
            (key1, b'value', ([],)),
 
1507
            (key2, b'value', ([key1],)),
 
1508
            ])
 
1509
        index2 = self.make_index('34', ref_lists=1, nodes=[
 
1510
            (key3, b'value', ([key2],)),
 
1511
            (key4, b'value', ([key3],)),
 
1512
            ])
 
1513
        c_index = _mod_index.CombinedGraphIndex([index1, index2])
 
1514
        parent_map, missing_keys = c_index.find_ancestry([key1], 0)
 
1515
        self.assertEqual({key1: ()}, parent_map)
 
1516
        self.assertEqual(set(), missing_keys)
 
1517
        # Now look for a key from index2 which requires us to find the key in
 
1518
        # the second index, and then continue searching for parents in the
 
1519
        # first index
 
1520
        parent_map, missing_keys = c_index.find_ancestry([key3], 0)
 
1521
        self.assertEqual({key1: (), key2: (key1,), key3: (key2,)}, parent_map)
 
1522
        self.assertEqual(set(), missing_keys)
 
1523
 
 
1524
    def test_find_ancestors_missing_keys(self):
 
1525
        key1 = (b'key-1',)
 
1526
        key2 = (b'key-2',)
 
1527
        key3 = (b'key-3',)
 
1528
        key4 = (b'key-4',)
 
1529
        index1 = self.make_index('12', ref_lists=1, nodes=[
 
1530
            (key1, b'value', ([],)),
 
1531
            (key2, b'value', ([key1],)),
 
1532
            ])
 
1533
        index2 = self.make_index('34', ref_lists=1, nodes=[
 
1534
            (key3, b'value', ([key2],)),
 
1535
            ])
 
1536
        c_index = _mod_index.CombinedGraphIndex([index1, index2])
 
1537
        # Searching for a key which is actually not present at all should
 
1538
        # eventually converge
 
1539
        parent_map, missing_keys = c_index.find_ancestry([key4], 0)
 
1540
        self.assertEqual({}, parent_map)
 
1541
        self.assertEqual({key4}, missing_keys)
 
1542
 
 
1543
    def test_find_ancestors_no_indexes(self):
 
1544
        c_index = _mod_index.CombinedGraphIndex([])
 
1545
        key1 = (b'key-1',)
 
1546
        parent_map, missing_keys = c_index.find_ancestry([key1], 0)
 
1547
        self.assertEqual({}, parent_map)
 
1548
        self.assertEqual({key1}, missing_keys)
 
1549
 
 
1550
    def test_find_ancestors_ghost_parent(self):
 
1551
        key1 = (b'key-1',)
 
1552
        key2 = (b'key-2',)
 
1553
        key3 = (b'key-3',)
 
1554
        key4 = (b'key-4',)
 
1555
        index1 = self.make_index('12', ref_lists=1, nodes=[
 
1556
            (key1, b'value', ([],)),
 
1557
            (key2, b'value', ([key1],)),
 
1558
            ])
 
1559
        index2 = self.make_index('34', ref_lists=1, nodes=[
 
1560
            (key4, b'value', ([key2, key3],)),
 
1561
            ])
 
1562
        c_index = _mod_index.CombinedGraphIndex([index1, index2])
 
1563
        # Searching for a key which is actually not present at all should
 
1564
        # eventually converge
 
1565
        parent_map, missing_keys = c_index.find_ancestry([key4], 0)
 
1566
        self.assertEqual({key4: (key2, key3), key2: (key1,), key1: ()},
 
1567
                         parent_map)
 
1568
        self.assertEqual({key3}, missing_keys)
 
1569
 
 
1570
    def test__find_ancestors_empty_index(self):
 
1571
        idx = self.make_index('test', ref_lists=1, key_elements=1, nodes=[])
 
1572
        parent_map = {}
 
1573
        missing_keys = set()
 
1574
        search_keys = idx._find_ancestors([(b'one',), (b'two',)], 0, parent_map,
 
1575
                                          missing_keys)
 
1576
        self.assertEqual(set(), search_keys)
 
1577
        self.assertEqual({}, parent_map)
 
1578
        self.assertEqual({(b'one',), (b'two',)}, missing_keys)
 
1579
 
 
1580
 
 
1581
class TestInMemoryGraphIndex(tests.TestCaseWithMemoryTransport):
 
1582
 
 
1583
    def make_index(self, ref_lists=0, key_elements=1, nodes=[]):
 
1584
        result = _mod_index.InMemoryGraphIndex(
 
1585
            ref_lists, key_elements=key_elements)
 
1586
        result.add_nodes(nodes)
 
1587
        return result
 
1588
 
 
1589
    def test_add_nodes_no_refs(self):
 
1590
        index = self.make_index(0)
 
1591
        index.add_nodes([((b'name', ), b'data')])
 
1592
        index.add_nodes([((b'name2', ), b''), ((b'name3', ), b'')])
 
1593
        self.assertEqual({
 
1594
            (index, (b'name', ), b'data'),
 
1595
            (index, (b'name2', ), b''),
 
1596
            (index, (b'name3', ), b''),
 
1597
            }, set(index.iter_all_entries()))
 
1598
 
 
1599
    def test_add_nodes(self):
 
1600
        index = self.make_index(1)
 
1601
        index.add_nodes([((b'name', ), b'data', ([],))])
 
1602
        index.add_nodes([((b'name2', ), b'', ([],)),
 
1603
                         ((b'name3', ), b'', ([(b'r', )],))])
 
1604
        self.assertEqual({
 
1605
            (index, (b'name', ), b'data', ((),)),
 
1606
            (index, (b'name2', ), b'', ((),)),
 
1607
            (index, (b'name3', ), b'', (((b'r', ), ), )),
 
1608
            }, set(index.iter_all_entries()))
 
1609
 
 
1610
    def test_iter_all_entries_empty(self):
 
1611
        index = self.make_index()
 
1612
        self.assertEqual([], list(index.iter_all_entries()))
 
1613
 
 
1614
    def test_iter_all_entries_simple(self):
 
1615
        index = self.make_index(nodes=[((b'name', ), b'data')])
 
1616
        self.assertEqual([(index, (b'name', ), b'data')],
 
1617
                         list(index.iter_all_entries()))
 
1618
 
 
1619
    def test_iter_all_entries_references(self):
 
1620
        index = self.make_index(1, nodes=[
 
1621
            ((b'name', ), b'data', ([(b'ref', )], )),
 
1622
            ((b'ref', ), b'refdata', ([], ))])
 
1623
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref', ),),)),
 
1624
                          (index, (b'ref', ), b'refdata', ((), ))},
 
1625
                         set(index.iter_all_entries()))
 
1626
 
 
1627
    def test_iteration_absent_skipped(self):
 
1628
        index = self.make_index(1, nodes=[
 
1629
            ((b'name', ), b'data', ([(b'ref', )], ))])
 
1630
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),))},
 
1631
                         set(index.iter_all_entries()))
 
1632
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),))},
 
1633
                         set(index.iter_entries([(b'name', )])))
 
1634
        self.assertEqual([], list(index.iter_entries([(b'ref', )])))
 
1635
 
 
1636
    def test_iter_all_keys(self):
 
1637
        index = self.make_index(1, nodes=[
 
1638
            ((b'name', ), b'data', ([(b'ref', )], )),
 
1639
            ((b'ref', ), b'refdata', ([], ))])
 
1640
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),)),
 
1641
                          (index, (b'ref', ), b'refdata', ((), ))},
 
1642
                         set(index.iter_entries([(b'name', ), (b'ref', )])))
 
1643
 
 
1644
    def test_iter_key_prefix_1_key_element_no_refs(self):
 
1645
        index = self.make_index(nodes=[
 
1646
            ((b'name', ), b'data'),
 
1647
            ((b'ref', ), b'refdata')])
 
1648
        self.assertEqual({(index, (b'name', ), b'data'),
 
1649
                          (index, (b'ref', ), b'refdata')},
 
1650
                         set(index.iter_entries_prefix([(b'name', ), (b'ref', )])))
 
1651
 
 
1652
    def test_iter_key_prefix_1_key_element_refs(self):
 
1653
        index = self.make_index(1, nodes=[
 
1654
            ((b'name', ), b'data', ([(b'ref', )], )),
 
1655
            ((b'ref', ), b'refdata', ([], ))])
 
1656
        self.assertEqual({(index, (b'name', ), b'data', (((b'ref',),),)),
 
1657
                          (index, (b'ref', ), b'refdata', ((), ))},
 
1658
                         set(index.iter_entries_prefix([(b'name', ), (b'ref', )])))
 
1659
 
 
1660
    def test_iter_key_prefix_2_key_element_no_refs(self):
 
1661
        index = self.make_index(key_elements=2, nodes=[
 
1662
            ((b'name', b'fin1'), b'data'),
 
1663
            ((b'name', b'fin2'), b'beta'),
 
1664
            ((b'ref', b'erence'), b'refdata')])
 
1665
        self.assertEqual({(index, (b'name', b'fin1'), b'data'),
 
1666
                          (index, (b'ref', b'erence'), b'refdata')},
 
1667
                         set(index.iter_entries_prefix([(b'name', b'fin1'), (b'ref', b'erence')])))
 
1668
        self.assertEqual({(index, (b'name', b'fin1'), b'data'),
 
1669
                          (index, (b'name', b'fin2'), b'beta')},
 
1670
                         set(index.iter_entries_prefix([(b'name', None)])))
 
1671
 
 
1672
    def test_iter_key_prefix_2_key_element_refs(self):
 
1673
        index = self.make_index(1, key_elements=2, nodes=[
 
1674
            ((b'name', b'fin1'), b'data', ([(b'ref', b'erence')], )),
 
1675
            ((b'name', b'fin2'), b'beta', ([], )),
 
1676
            ((b'ref', b'erence'), b'refdata', ([], ))])
 
1677
        self.assertEqual({(index, (b'name', b'fin1'), b'data', (((b'ref', b'erence'),),)),
 
1678
                          (index, (b'ref', b'erence'), b'refdata', ((), ))},
 
1679
                         set(index.iter_entries_prefix([(b'name', b'fin1'), (b'ref', b'erence')])))
 
1680
        self.assertEqual({(index, (b'name', b'fin1'), b'data', (((b'ref', b'erence'),),)),
 
1681
                          (index, (b'name', b'fin2'), b'beta', ((), ))},
 
1682
                         set(index.iter_entries_prefix([(b'name', None)])))
 
1683
 
 
1684
    def test_iter_nothing_empty(self):
 
1685
        index = self.make_index()
 
1686
        self.assertEqual([], list(index.iter_entries([])))
 
1687
 
 
1688
    def test_iter_missing_entry_empty(self):
 
1689
        index = self.make_index()
 
1690
        self.assertEqual([], list(index.iter_entries([b'a'])))
 
1691
 
 
1692
    def test_key_count_empty(self):
 
1693
        index = self.make_index()
 
1694
        self.assertEqual(0, index.key_count())
 
1695
 
 
1696
    def test_key_count_one(self):
 
1697
        index = self.make_index(nodes=[((b'name', ), b'')])
 
1698
        self.assertEqual(1, index.key_count())
 
1699
 
 
1700
    def test_key_count_two(self):
 
1701
        index = self.make_index(nodes=[((b'name', ), b''), ((b'foo', ), b'')])
 
1702
        self.assertEqual(2, index.key_count())
 
1703
 
 
1704
    def test_validate_empty(self):
 
1705
        index = self.make_index()
 
1706
        index.validate()
 
1707
 
 
1708
    def test_validate_no_refs_content(self):
 
1709
        index = self.make_index(nodes=[((b'key', ), b'value')])
 
1710
        index.validate()
 
1711
 
 
1712
 
 
1713
class TestGraphIndexPrefixAdapter(tests.TestCaseWithMemoryTransport):
 
1714
 
 
1715
    def make_index(self, ref_lists=1, key_elements=2, nodes=[],
 
1716
                   add_callback=False):
 
1717
        result = _mod_index.InMemoryGraphIndex(
 
1718
            ref_lists, key_elements=key_elements)
 
1719
        result.add_nodes(nodes)
 
1720
        if add_callback:
 
1721
            add_nodes_callback = result.add_nodes
 
1722
        else:
 
1723
            add_nodes_callback = None
 
1724
        adapter = _mod_index.GraphIndexPrefixAdapter(
 
1725
            result, (b'prefix', ), key_elements - 1,
 
1726
            add_nodes_callback=add_nodes_callback)
 
1727
        return result, adapter
 
1728
 
 
1729
    def test_add_node(self):
 
1730
        index, adapter = self.make_index(add_callback=True)
 
1731
        adapter.add_node((b'key',), b'value', (((b'ref',),),))
 
1732
        self.assertEqual({(index, (b'prefix', b'key'), b'value',
 
1733
                           (((b'prefix', b'ref'),),))},
 
1734
                         set(index.iter_all_entries()))
 
1735
 
 
1736
    def test_add_nodes(self):
 
1737
        index, adapter = self.make_index(add_callback=True)
 
1738
        adapter.add_nodes((
 
1739
            ((b'key',), b'value', (((b'ref',),),)),
 
1740
            ((b'key2',), b'value2', ((),)),
 
1741
            ))
 
1742
        self.assertEqual({
 
1743
            (index, (b'prefix', b'key2'), b'value2', ((),)),
 
1744
            (index, (b'prefix', b'key'), b'value', (((b'prefix', b'ref'),),))
 
1745
            },
 
1746
            set(index.iter_all_entries()))
 
1747
 
 
1748
    def test_construct(self):
 
1749
        idx = _mod_index.InMemoryGraphIndex()
 
1750
        adapter = _mod_index.GraphIndexPrefixAdapter(idx, (b'prefix', ), 1)
 
1751
 
 
1752
    def test_construct_with_callback(self):
 
1753
        idx = _mod_index.InMemoryGraphIndex()
 
1754
        adapter = _mod_index.GraphIndexPrefixAdapter(idx, (b'prefix', ), 1,
 
1755
                                                     idx.add_nodes)
 
1756
 
 
1757
    def test_iter_all_entries_cross_prefix_map_errors(self):
 
1758
        index, adapter = self.make_index(nodes=[
 
1759
            ((b'prefix', b'key1'), b'data1', (((b'prefixaltered', b'key2'),),))])
 
1760
        self.assertRaises(_mod_index.BadIndexData, list,
 
1761
                          adapter.iter_all_entries())
 
1762
 
 
1763
    def test_iter_all_entries(self):
 
1764
        index, adapter = self.make_index(nodes=[
 
1765
            ((b'notprefix', b'key1'), b'data', ((), )),
 
1766
            ((b'prefix', b'key1'), b'data1', ((), )),
 
1767
            ((b'prefix', b'key2'), b'data2', (((b'prefix', b'key1'),),))])
 
1768
        self.assertEqual({(index, (b'key1', ), b'data1', ((),)),
 
1769
                          (index, (b'key2', ), b'data2', (((b'key1',),),))},
 
1770
                         set(adapter.iter_all_entries()))
 
1771
 
 
1772
    def test_iter_entries(self):
 
1773
        index, adapter = self.make_index(nodes=[
 
1774
            ((b'notprefix', b'key1'), b'data', ((), )),
 
1775
            ((b'prefix', b'key1'), b'data1', ((), )),
 
1776
            ((b'prefix', b'key2'), b'data2', (((b'prefix', b'key1'),),))])
 
1777
        # ask for many - get all
 
1778
        self.assertEqual({(index, (b'key1', ), b'data1', ((),)),
 
1779
                          (index, (b'key2', ), b'data2', (((b'key1', ),),))},
 
1780
                         set(adapter.iter_entries([(b'key1', ), (b'key2', )])))
 
1781
        # ask for one, get one
 
1782
        self.assertEqual({(index, (b'key1', ), b'data1', ((),))},
 
1783
                         set(adapter.iter_entries([(b'key1', )])))
 
1784
        # ask for missing, get none
 
1785
        self.assertEqual(set(),
 
1786
                         set(adapter.iter_entries([(b'key3', )])))
 
1787
 
 
1788
    def test_iter_entries_prefix(self):
 
1789
        index, adapter = self.make_index(key_elements=3, nodes=[
 
1790
            ((b'notprefix', b'foo', b'key1'), b'data', ((), )),
 
1791
            ((b'prefix', b'prefix2', b'key1'), b'data1', ((), )),
 
1792
            ((b'prefix', b'prefix2', b'key2'), b'data2', (((b'prefix', b'prefix2', b'key1'),),))])
 
1793
        # ask for a prefix, get the results for just that prefix, adjusted.
 
1794
        self.assertEqual({(index, (b'prefix2', b'key1', ), b'data1', ((),)),
 
1795
                          (index, (b'prefix2', b'key2', ), b'data2', (((b'prefix2', b'key1', ),),))},
 
1796
                         set(adapter.iter_entries_prefix([(b'prefix2', None)])))
 
1797
 
 
1798
    def test_key_count_no_matching_keys(self):
 
1799
        index, adapter = self.make_index(nodes=[
 
1800
            ((b'notprefix', b'key1'), b'data', ((), ))])
 
1801
        self.assertEqual(0, adapter.key_count())
 
1802
 
 
1803
    def test_key_count_some_keys(self):
 
1804
        index, adapter = self.make_index(nodes=[
 
1805
            ((b'notprefix', b'key1'), b'data', ((), )),
 
1806
            ((b'prefix', b'key1'), b'data1', ((), )),
 
1807
            ((b'prefix', b'key2'), b'data2', (((b'prefix', b'key1'),),))])
 
1808
        self.assertEqual(2, adapter.key_count())
 
1809
 
 
1810
    def test_validate(self):
 
1811
        index, adapter = self.make_index()
 
1812
        calls = []
 
1813
 
 
1814
        def validate():
 
1815
            calls.append('called')
 
1816
        index.validate = validate
 
1817
        adapter.validate()
 
1818
        self.assertEqual(['called'], calls)