/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/globbing.py

  • Committer: Martin
  • Date: 2018-11-16 16:38:22 UTC
  • mto: This revision was merged to the branch mainline in revision 7172.
  • Revision ID: gzlist@googlemail.com-20181116163822-yg1h1cdng6w7w9kn
Make --profile-imports work on Python 3

Also tweak heading to line up correctly.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006-2010 Canonical Ltd
 
1
# Copyright (C) 2006-2011 Canonical Ltd
2
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
20
20
expressions.
21
21
"""
22
22
 
 
23
from __future__ import absolute_import
 
24
 
23
25
import re
24
26
 
25
 
from bzrlib.trace import (
26
 
    warning
 
27
from . import (
 
28
    lazy_regex,
 
29
    )
 
30
from .trace import (
 
31
    mutter,
 
32
    warning,
27
33
    )
28
34
 
29
35
 
36
42
    must not contain capturing groups.
37
43
    """
38
44
 
39
 
    _expand = re.compile(ur'\\&')
 
45
    _expand = lazy_regex.lazy_compile(u'\\\\&')
40
46
 
41
47
    def __init__(self, source=None):
42
48
        self._pat = None
72
78
 
73
79
    def __call__(self, text):
74
80
        if not self._pat:
75
 
            self._pat = re.compile(
 
81
            self._pat = lazy_regex.lazy_compile(
76
82
                    u'|'.join([u'(%s)' % p for p in self._pats]),
77
83
                    re.UNICODE)
78
84
        return self._pat.sub(self._do_sub, text)
86
92
 
87
93
 
88
94
_sub_named = Replacer()
89
 
_sub_named.add(ur'\[:digit:\]', ur'\d')
90
 
_sub_named.add(ur'\[:space:\]', ur'\s')
91
 
_sub_named.add(ur'\[:alnum:\]', ur'\w')
92
 
_sub_named.add(ur'\[:ascii:\]', ur'\0-\x7f')
93
 
_sub_named.add(ur'\[:blank:\]', ur' \t')
94
 
_sub_named.add(ur'\[:cntrl:\]', ur'\0-\x1f\x7f-\x9f')
 
95
_sub_named.add(r'\[:digit:\]', r'\d')
 
96
_sub_named.add(r'\[:space:\]', r'\s')
 
97
_sub_named.add(r'\[:alnum:\]', r'\w')
 
98
_sub_named.add(r'\[:ascii:\]', r'\0-\x7f')
 
99
_sub_named.add(r'\[:blank:\]', r' \t')
 
100
_sub_named.add(r'\[:cntrl:\]', r'\0-\x1f\x7f-\x9f')
95
101
 
96
102
 
97
103
def _sub_group(m):
123
129
 
124
130
_sub_re = Replacer()
125
131
_sub_re.add(u'^RE:', u'')
126
 
_sub_re.add(u'\((?!\?)', u'(?:')
127
 
_sub_re.add(u'\(\?P<.*>', _invalid_regex(u'(?:'))
128
 
_sub_re.add(u'\(\?P=[^)]*\)', _invalid_regex(u''))
129
 
_sub_re.add(ur'\\+$', _trailing_backslashes_regex)
 
132
_sub_re.add(u'\\((?!\\?)', u'(?:')
 
133
_sub_re.add(u'\\(\\?P<.*>', _invalid_regex(u'(?:'))
 
134
_sub_re.add(u'\\(\\?P=[^)]*\\)', _invalid_regex(u''))
 
135
_sub_re.add(r'\\+$', _trailing_backslashes_regex)
130
136
 
131
137
 
132
138
_sub_fullpath = Replacer()
133
 
_sub_fullpath.add(ur'^RE:.*', _sub_re) # RE:<anything> is a regex
134
 
_sub_fullpath.add(ur'\[\^?\]?(?:[^][]|\[:[^]]+:\])+\]', _sub_group) # char group
135
 
_sub_fullpath.add(ur'(?:(?<=/)|^)(?:\.?/)+', u'') # canonicalize path
136
 
_sub_fullpath.add(ur'\\.', ur'\&') # keep anything backslashed
137
 
_sub_fullpath.add(ur'[(){}|^$+.]', ur'\\&') # escape specials
138
 
_sub_fullpath.add(ur'(?:(?<=/)|^)\*\*+/', ur'(?:.*/)?') # **/ after ^ or /
139
 
_sub_fullpath.add(ur'\*+', ur'[^/]*') # * elsewhere
140
 
_sub_fullpath.add(ur'\?', ur'[^/]') # ? everywhere
 
139
_sub_fullpath.add(r'^RE:.*', _sub_re) # RE:<anything> is a regex
 
140
_sub_fullpath.add(r'\[\^?\]?(?:[^][]|\[:[^]]+:\])+\]', _sub_group) # char group
 
141
_sub_fullpath.add(r'(?:(?<=/)|^)(?:\.?/)+', u'') # canonicalize path
 
142
_sub_fullpath.add(r'\\.', r'\&') # keep anything backslashed
 
143
_sub_fullpath.add(r'[(){}|^$+.]', r'\\&') # escape specials
 
144
_sub_fullpath.add(r'(?:(?<=/)|^)\*\*+/', r'(?:.*/)?') # **/ after ^ or /
 
145
_sub_fullpath.add(r'\*+', r'[^/]*') # * elsewhere
 
146
_sub_fullpath.add(r'\?', r'[^/]') # ? everywhere
141
147
 
142
148
 
143
149
_sub_basename = Replacer()
144
 
_sub_basename.add(ur'\[\^?\]?(?:[^][]|\[:[^]]+:\])+\]', _sub_group) # char group
145
 
_sub_basename.add(ur'\\.', ur'\&') # keep anything backslashed
146
 
_sub_basename.add(ur'[(){}|^$+.]', ur'\\&') # escape specials
147
 
_sub_basename.add(ur'\*+', ur'.*') # * everywhere
148
 
_sub_basename.add(ur'\?', ur'.') # ? everywhere
 
150
_sub_basename.add(r'\[\^?\]?(?:[^][]|\[:[^]]+:\])+\]', _sub_group) # char group
 
151
_sub_basename.add(r'\\.', r'\&') # keep anything backslashed
 
152
_sub_basename.add(r'[(){}|^$+.]', r'\\&') # escape specials
 
153
_sub_basename.add(r'\*+', r'.*') # * everywhere
 
154
_sub_basename.add(r'\?', r'.') # ? everywhere
149
155
 
150
156
 
151
157
def _sub_extension(pattern):
177
183
    so are matched first, then the basename patterns, then the fullpath
178
184
    patterns.
179
185
    """
 
186
    # We want to _add_patterns in a specific order (as per type_list below)
 
187
    # starting with the shortest and going to the longest.
 
188
    # As some Python version don't support ordered dicts the list below is
 
189
    # used to select inputs for _add_pattern in a specific order.
 
190
    pattern_types = [ "extension", "basename", "fullpath" ]
 
191
 
 
192
    pattern_info = {
 
193
        "extension": {
 
194
            "translator" : _sub_extension,
 
195
            "prefix" : r'(?:.*/)?(?!.*/)(?:.*\.)'
 
196
        },
 
197
        "basename": {
 
198
            "translator" : _sub_basename,
 
199
            "prefix" : r'(?:.*/)?(?!.*/)'
 
200
        },
 
201
        "fullpath": {
 
202
            "translator" : _sub_fullpath,
 
203
            "prefix" : r''
 
204
        },
 
205
    }
 
206
 
180
207
    def __init__(self, patterns):
181
208
        self._regex_patterns = []
182
 
        path_patterns = []
183
 
        base_patterns = []
184
 
        ext_patterns = []
 
209
        pattern_lists = {
 
210
            "extension": [],
 
211
            "basename": [],
 
212
            "fullpath": [],
 
213
        }
185
214
        for pat in patterns:
186
215
            pat = normalize_pattern(pat)
187
 
            if pat.startswith(u'RE:') or u'/' in pat:
188
 
                path_patterns.append(pat)
189
 
            elif pat.startswith(u'*.'):
190
 
                ext_patterns.append(pat)
191
 
            else:
192
 
                base_patterns.append(pat)
193
 
        self._add_patterns(ext_patterns,_sub_extension,
194
 
            prefix=r'(?:.*/)?(?!.*/)(?:.*\.)')
195
 
        self._add_patterns(base_patterns,_sub_basename,
196
 
            prefix=r'(?:.*/)?(?!.*/)')
197
 
        self._add_patterns(path_patterns,_sub_fullpath)
 
216
            pattern_lists[Globster.identify(pat)].append(pat)
 
217
        pi = Globster.pattern_info
 
218
        for t in Globster.pattern_types:
 
219
            self._add_patterns(pattern_lists[t], pi[t]["translator"],
 
220
                pi[t]["prefix"])
198
221
 
199
222
    def _add_patterns(self, patterns, translator, prefix=''):
200
223
        while patterns:
201
 
            grouped_rules = ['(%s)' % translator(pat) for pat in patterns[:99]]
 
224
            grouped_rules = [
 
225
                '(%s)' % translator(pat) for pat in patterns[:99]]
202
226
            joined_rule = '%s(?:%s)$' % (prefix, '|'.join(grouped_rules))
203
 
            self._regex_patterns.append((re.compile(joined_rule, re.UNICODE),
 
227
            # Explicitly use lazy_compile here, because we count on its
 
228
            # nicer error reporting.
 
229
            self._regex_patterns.append((
 
230
                lazy_regex.lazy_compile(joined_rule, re.UNICODE),
204
231
                patterns[:99]))
205
232
            patterns = patterns[99:]
206
233
 
209
236
 
210
237
        :return A matching pattern or None if there is no matching pattern.
211
238
        """
212
 
        for regex, patterns in self._regex_patterns:
213
 
            match = regex.match(filename)
214
 
            if match:
215
 
                return patterns[match.lastindex -1]
 
239
        try:
 
240
            for regex, patterns in self._regex_patterns:
 
241
                match = regex.match(filename)
 
242
                if match:
 
243
                    return patterns[match.lastindex -1]
 
244
        except lazy_regex.InvalidPattern as e:
 
245
            # We can't show the default e.msg to the user as thats for
 
246
            # the combined pattern we sent to regex. Instead we indicate to
 
247
            # the user that an ignore file needs fixing.
 
248
            mutter('Invalid pattern found in regex: %s.', e.msg)
 
249
            e.msg = "File ~/.bazaar/ignore or .bzrignore contains error(s)."
 
250
            bad_patterns = ''
 
251
            for _, patterns in self._regex_patterns:
 
252
                for p in patterns:
 
253
                    if not Globster.is_pattern_valid(p):
 
254
                        bad_patterns += ('\n  %s' % p)
 
255
            e.msg += bad_patterns
 
256
            raise e
216
257
        return None
217
258
 
 
259
    @staticmethod
 
260
    def identify(pattern):
 
261
        """Returns pattern category.
 
262
 
 
263
        :param pattern: normalized pattern.
 
264
        Identify if a pattern is fullpath, basename or extension
 
265
        and returns the appropriate type.
 
266
        """
 
267
        if pattern.startswith(u'RE:') or u'/' in pattern:
 
268
            return "fullpath"
 
269
        elif pattern.startswith(u'*.'):
 
270
            return "extension"
 
271
        else:
 
272
            return "basename"
 
273
 
 
274
    @staticmethod
 
275
    def is_pattern_valid(pattern):
 
276
        """Returns True if pattern is valid.
 
277
 
 
278
        :param pattern: Normalized pattern.
 
279
        is_pattern_valid() assumes pattern to be normalized.
 
280
        see: globbing.normalize_pattern
 
281
        """
 
282
        result = True
 
283
        translator = Globster.pattern_info[Globster.identify(pattern)]["translator"]
 
284
        tpattern = '(%s)' % translator(pattern)
 
285
        try:
 
286
            re_obj = lazy_regex.lazy_compile(tpattern, re.UNICODE)
 
287
            re_obj.search("") # force compile
 
288
        except lazy_regex.InvalidPattern as e:
 
289
            result = False
 
290
        return result
 
291
 
 
292
 
218
293
class ExceptionGlobster(object):
219
294
    """A Globster that supports exception patterns.
220
295
    
226
301
    that apply under paths specified by '!' exception patterns.
227
302
    """
228
303
    
229
 
    def __init__(self,patterns):
 
304
    def __init__(self, patterns):
230
305
        ignores = [[], [], []]
231
306
        for p in patterns:
232
307
            if p.startswith(u'!!'):
262
337
        self._regex_patterns = []
263
338
        for pat in patterns:
264
339
            pat = normalize_pattern(pat)
265
 
            if pat.startswith(u'RE:') or u'/' in pat:
266
 
                self._add_patterns([pat], _sub_fullpath)
267
 
            elif pat.startswith(u'*.'):
268
 
                self._add_patterns([pat], _sub_extension,
269
 
                    prefix=r'(?:.*/)?(?!.*/)(?:.*\.)')
270
 
            else:
271
 
                self._add_patterns([pat], _sub_basename,
272
 
                    prefix=r'(?:.*/)?(?!.*/)')
273
 
 
274
 
 
275
 
_slashes = re.compile(r'[\\/]+')
 
340
            t = Globster.identify(pat)
 
341
            self._add_patterns([pat], Globster.pattern_info[t]["translator"],
 
342
                Globster.pattern_info[t]["prefix"])
 
343
 
 
344
 
 
345
_slashes = lazy_regex.lazy_compile(r'[\\/]+')
276
346
def normalize_pattern(pattern):
277
347
    """Converts backslashes in path patterns to forward slashes.
278
348