f9d9848455d42b4900ea67da48e94b554f3ec153
[apps/agl-service-can-low-level.git] / generator / nanopb_generator.py
1 #!/usr/bin/python
2
3 '''Generate header file for nanopb from a ProtoBuf FileDescriptorSet.'''
4 nanopb_version = "nanopb-0.3.4-dev"
5
6 import sys
7 import re
8
9 try:
10     # Add some dummy imports to keep packaging tools happy.
11     import google, distutils.util # bbfreeze seems to need these
12     import pkg_resources # pyinstaller / protobuf 2.5 seem to need these
13 except:
14     # Don't care, we will error out later if it is actually important.
15     pass
16
17 try:
18     import google.protobuf.text_format as text_format
19     import google.protobuf.descriptor_pb2 as descriptor
20 except:
21     sys.stderr.write('''
22          *************************************************************
23          *** Could not import the Google protobuf Python libraries ***
24          *** Try installing package 'python-protobuf' or similar.  ***
25          *************************************************************
26     ''' + '\n')
27     raise
28
29 try:
30     import proto.nanopb_pb2 as nanopb_pb2
31     import proto.plugin_pb2 as plugin_pb2
32 except:
33     sys.stderr.write('''
34          ********************************************************************
35          *** Failed to import the protocol definitions for generator.     ***
36          *** You have to run 'make' in the nanopb/generator/proto folder. ***
37          ********************************************************************
38     ''' + '\n')
39     raise
40
41 # ---------------------------------------------------------------------------
42 #                     Generation of single fields
43 # ---------------------------------------------------------------------------
44
45 import time
46 import os.path
47
48 # Values are tuple (c type, pb type, encoded size, int_size_allowed)
49 FieldD = descriptor.FieldDescriptorProto
50 datatypes = {
51     FieldD.TYPE_BOOL:       ('bool',     'BOOL',        1,  False),
52     FieldD.TYPE_DOUBLE:     ('double',   'DOUBLE',      8,  False),
53     FieldD.TYPE_FIXED32:    ('uint32_t', 'FIXED32',     4,  False),
54     FieldD.TYPE_FIXED64:    ('uint64_t', 'FIXED64',     8,  False),
55     FieldD.TYPE_FLOAT:      ('float',    'FLOAT',       4,  False),
56     FieldD.TYPE_INT32:      ('int32_t',  'INT32',      10,  True),
57     FieldD.TYPE_INT64:      ('int64_t',  'INT64',      10,  True),
58     FieldD.TYPE_SFIXED32:   ('int32_t',  'SFIXED32',    4,  False),
59     FieldD.TYPE_SFIXED64:   ('int64_t',  'SFIXED64',    8,  False),
60     FieldD.TYPE_SINT32:     ('int32_t',  'SINT32',      5,  True),
61     FieldD.TYPE_SINT64:     ('int64_t',  'SINT64',     10,  True),
62     FieldD.TYPE_UINT32:     ('uint32_t', 'UINT32',      5,  True),
63     FieldD.TYPE_UINT64:     ('uint64_t', 'UINT64',     10,  True)
64 }
65
66 # Integer size overrides (from .proto settings)
67 intsizes = {
68     nanopb_pb2.IS_8:     'int8_t',
69     nanopb_pb2.IS_16:    'int16_t',
70     nanopb_pb2.IS_32:    'int32_t',
71     nanopb_pb2.IS_64:    'int64_t',
72 }
73
74 class Names:
75     '''Keeps a set of nested names and formats them to C identifier.'''
76     def __init__(self, parts = ()):
77         if isinstance(parts, Names):
78             parts = parts.parts
79         self.parts = tuple(parts)
80     
81     def __str__(self):
82         return '_'.join(self.parts)
83
84     def __add__(self, other):
85         if isinstance(other, (str, unicode)):
86             return Names(self.parts + (other,))
87         elif isinstance(other, tuple):
88             return Names(self.parts + other)
89         else:
90             raise ValueError("Name parts should be of type str")
91     
92     def __eq__(self, other):
93         return isinstance(other, Names) and self.parts == other.parts
94     
95 def names_from_type_name(type_name):
96     '''Parse Names() from FieldDescriptorProto type_name'''
97     if type_name[0] != '.':
98         raise NotImplementedError("Lookup of non-absolute type names is not supported")
99     return Names(type_name[1:].split('.'))
100
101 def varint_max_size(max_value):
102     '''Returns the maximum number of bytes a varint can take when encoded.'''
103     for i in range(1, 11):
104         if (max_value >> (i * 7)) == 0:
105             return i
106     raise ValueError("Value too large for varint: " + str(max_value))
107
108 assert varint_max_size(0) == 1
109 assert varint_max_size(127) == 1
110 assert varint_max_size(128) == 2
111
112 class EncodedSize:
113     '''Class used to represent the encoded size of a field or a message.
114     Consists of a combination of symbolic sizes and integer sizes.'''
115     def __init__(self, value = 0, symbols = []):
116         if isinstance(value, (str, Names)):
117             symbols = [str(value)]
118             value = 0
119         self.value = value
120         self.symbols = symbols
121     
122     def __add__(self, other):
123         if isinstance(other, (int, long)):
124             return EncodedSize(self.value + other, self.symbols)
125         elif isinstance(other, (str, Names)):
126             return EncodedSize(self.value, self.symbols + [str(other)])
127         elif isinstance(other, EncodedSize):
128             return EncodedSize(self.value + other.value, self.symbols + other.symbols)
129         else:
130             raise ValueError("Cannot add size: " + repr(other))
131
132     def __mul__(self, other):
133         if isinstance(other, (int, long)):
134             return EncodedSize(self.value * other, [str(other) + '*' + s for s in self.symbols])
135         else:
136             raise ValueError("Cannot multiply size: " + repr(other))
137
138     def __str__(self):
139         if not self.symbols:
140             return str(self.value)
141         else:
142             return '(' + str(self.value) + ' + ' + ' + '.join(self.symbols) + ')'
143
144     def upperlimit(self):
145         if not self.symbols:
146             return self.value
147         else:
148             return 2**32 - 1
149
150 class Enum:
151     def __init__(self, names, desc, enum_options):
152         '''desc is EnumDescriptorProto'''
153         
154         self.options = enum_options
155         self.names = names + desc.name
156         
157         if enum_options.long_names:
158             self.values = [(self.names + x.name, x.number) for x in desc.value]            
159         else:
160             self.values = [(names + x.name, x.number) for x in desc.value] 
161         
162         self.value_longnames = [self.names + x.name for x in desc.value]
163         self.packed = enum_options.packed_enum
164     
165     def has_negative(self):
166         for n, v in self.values:
167             if v < 0:
168                 return True
169         return False
170     
171     def __str__(self):
172         result = 'typedef enum _%s {\n' % self.names
173         result += ',\n'.join(["    %s = %d" % x for x in self.values])
174         result += '\n}'
175         
176         if self.packed:
177             result += ' pb_packed'
178         
179         result += ' %s;' % self.names
180         
181         if not self.options.long_names:
182             # Define the long names always so that enum value references
183             # from other files work properly.
184             for i, x in enumerate(self.values):
185                 result += '\n#define %s %s' % (self.value_longnames[i], x[0])
186         
187         return result
188
189 class Field:
190     def __init__(self, struct_name, desc, field_options):
191         '''desc is FieldDescriptorProto'''
192         self.tag = desc.number
193         self.struct_name = struct_name
194         self.union_name = None
195         self.name = desc.name
196         self.default = None
197         self.max_size = None
198         self.max_count = None
199         self.array_decl = ""
200         self.enc_size = None
201         self.ctype = None
202         
203         # Parse field options
204         if field_options.HasField("max_size"):
205             self.max_size = field_options.max_size
206         
207         if field_options.HasField("max_count"):
208             self.max_count = field_options.max_count
209         
210         if desc.HasField('default_value'):
211             self.default = desc.default_value
212            
213         # Check field rules, i.e. required/optional/repeated.
214         can_be_static = True
215         if desc.label == FieldD.LABEL_REQUIRED:
216             self.rules = 'REQUIRED'
217         elif desc.label == FieldD.LABEL_OPTIONAL:
218             self.rules = 'OPTIONAL'
219         elif desc.label == FieldD.LABEL_REPEATED:
220             self.rules = 'REPEATED'
221             if self.max_count is None:
222                 can_be_static = False
223             else:
224                 self.array_decl = '[%d]' % self.max_count
225         else:
226             raise NotImplementedError(desc.label)
227         
228         # Check if the field can be implemented with static allocation
229         # i.e. whether the data size is known.
230         if desc.type == FieldD.TYPE_STRING and self.max_size is None:
231             can_be_static = False
232         
233         if desc.type == FieldD.TYPE_BYTES and self.max_size is None:
234             can_be_static = False
235         
236         # Decide how the field data will be allocated
237         if field_options.type == nanopb_pb2.FT_DEFAULT:
238             if can_be_static:
239                 field_options.type = nanopb_pb2.FT_STATIC
240             else:
241                 field_options.type = nanopb_pb2.FT_CALLBACK
242         
243         if field_options.type == nanopb_pb2.FT_STATIC and not can_be_static:
244             raise Exception("Field %s is defined as static, but max_size or "
245                             "max_count is not given." % self.name)
246         
247         if field_options.type == nanopb_pb2.FT_STATIC:
248             self.allocation = 'STATIC'
249         elif field_options.type == nanopb_pb2.FT_POINTER:
250             self.allocation = 'POINTER'
251         elif field_options.type == nanopb_pb2.FT_CALLBACK:
252             self.allocation = 'CALLBACK'
253         else:
254             raise NotImplementedError(field_options.type)
255         
256         # Decide the C data type to use in the struct.
257         if datatypes.has_key(desc.type):
258             self.ctype, self.pbtype, self.enc_size, isa = datatypes[desc.type]
259
260             # Override the field size if user wants to use smaller integers
261             if isa and field_options.int_size != nanopb_pb2.IS_DEFAULT:
262                 self.ctype = intsizes[field_options.int_size]
263                 if desc.type == FieldD.TYPE_UINT32 or desc.type == FieldD.TYPE_UINT64:
264                     self.ctype = 'u' + self.ctype;
265         elif desc.type == FieldD.TYPE_ENUM:
266             self.pbtype = 'ENUM'
267             self.ctype = names_from_type_name(desc.type_name)
268             if self.default is not None:
269                 self.default = self.ctype + self.default
270             self.enc_size = 5 # protoc rejects enum values > 32 bits
271         elif desc.type == FieldD.TYPE_STRING:
272             self.pbtype = 'STRING'
273             self.ctype = 'char'
274             if self.allocation == 'STATIC':
275                 self.ctype = 'char'
276                 self.array_decl += '[%d]' % self.max_size
277                 self.enc_size = varint_max_size(self.max_size) + self.max_size
278         elif desc.type == FieldD.TYPE_BYTES:
279             self.pbtype = 'BYTES'
280             if self.allocation == 'STATIC':
281                 self.ctype = self.struct_name + self.name + 't'
282                 self.enc_size = varint_max_size(self.max_size) + self.max_size
283             elif self.allocation == 'POINTER':
284                 self.ctype = 'pb_bytes_array_t'
285         elif desc.type == FieldD.TYPE_MESSAGE:
286             self.pbtype = 'MESSAGE'
287             self.ctype = self.submsgname = names_from_type_name(desc.type_name)
288             self.enc_size = None # Needs to be filled in after the message type is available
289         else:
290             raise NotImplementedError(desc.type)
291         
292     def __cmp__(self, other):
293         return cmp(self.tag, other.tag)
294     
295     def __str__(self):
296         result = ''
297         if self.allocation == 'POINTER':
298             if self.rules == 'REPEATED':
299                 result += '    pb_size_t ' + self.name + '_count;\n'
300             
301             if self.pbtype == 'MESSAGE':
302                 # Use struct definition, so recursive submessages are possible
303                 result += '    struct _%s *%s;' % (self.ctype, self.name)
304             elif self.rules == 'REPEATED' and self.pbtype in ['STRING', 'BYTES']:
305                 # String/bytes arrays need to be defined as pointers to pointers
306                 result += '    %s **%s;' % (self.ctype, self.name)
307             else:
308                 result += '    %s *%s;' % (self.ctype, self.name)
309         elif self.allocation == 'CALLBACK':
310             result += '    pb_callback_t %s;' % self.name
311         else:
312             if self.rules == 'OPTIONAL' and self.allocation == 'STATIC':
313                 result += '    bool has_' + self.name + ';\n'
314             elif self.rules == 'REPEATED' and self.allocation == 'STATIC':
315                 result += '    pb_size_t ' + self.name + '_count;\n'
316             result += '    %s %s%s;' % (self.ctype, self.name, self.array_decl)
317         return result
318     
319     def types(self):
320         '''Return definitions for any special types this field might need.'''
321         if self.pbtype == 'BYTES' and self.allocation == 'STATIC':
322             result = 'typedef PB_BYTES_ARRAY_T(%d) %s;\n' % (self.max_size, self.ctype)
323         else:
324             result = ''
325         return result
326     
327     def get_dependencies(self):
328         '''Get list of type names used by this field.'''
329         if self.allocation == 'STATIC':
330             return [str(self.ctype)]
331         else:
332             return []
333
334     def get_initializer(self, null_init, inner_init_only = False):
335         '''Return literal expression for this field's default value.
336         null_init: If True, initialize to a 0 value instead of default from .proto
337         inner_init_only: If True, exclude initialization for any count/has fields
338         '''
339
340         inner_init = None
341         if self.pbtype == 'MESSAGE':
342             if null_init:
343                 inner_init = '%s_init_zero' % self.ctype
344             else:
345                 inner_init = '%s_init_default' % self.ctype
346         elif self.default is None or null_init:
347             if self.pbtype == 'STRING':
348                 inner_init = '""'
349             elif self.pbtype == 'BYTES':
350                 inner_init = '{0, {0}}'
351             elif self.pbtype in ('ENUM', 'UENUM'):
352                 inner_init = '(%s)0' % self.ctype
353             else:
354                 inner_init = '0'
355         else:
356             if self.pbtype == 'STRING':
357                 inner_init = self.default.encode('utf-8').encode('string_escape')
358                 inner_init = inner_init.replace('"', '\\"')
359                 inner_init = '"' + inner_init + '"'
360             elif self.pbtype == 'BYTES':
361                 data = str(self.default).decode('string_escape')
362                 data = ['0x%02x' % ord(c) for c in data]
363                 if len(data) == 0:
364                     inner_init = '{0, {0}}'
365                 else:
366                     inner_init = '{%d, {%s}}' % (len(data), ','.join(data))
367             elif self.pbtype in ['FIXED32', 'UINT32']:
368                 inner_init = str(self.default) + 'u'
369             elif self.pbtype in ['FIXED64', 'UINT64']:
370                 inner_init = str(self.default) + 'ull'
371             elif self.pbtype in ['SFIXED64', 'INT64']:
372                 inner_init = str(self.default) + 'll'
373             else:
374                 inner_init = str(self.default)
375         
376         if inner_init_only:
377             return inner_init
378
379         outer_init = None
380         if self.allocation == 'STATIC':
381             if self.rules == 'REPEATED':
382                 outer_init = '0, {'
383                 outer_init += ', '.join([inner_init] * self.max_count)
384                 outer_init += '}'
385             elif self.rules == 'OPTIONAL':
386                 outer_init = 'false, ' + inner_init
387             else:
388                 outer_init = inner_init
389         elif self.allocation == 'POINTER':
390             if self.rules == 'REPEATED':
391                 outer_init = '0, NULL'
392             else:
393                 outer_init = 'NULL'
394         elif self.allocation == 'CALLBACK':
395             if self.pbtype == 'EXTENSION':
396                 outer_init = 'NULL'
397             else:
398                 outer_init = '{{NULL}, NULL}'
399
400         return outer_init
401
402     def default_decl(self, declaration_only = False):
403         '''Return definition for this field's default value.'''
404         if self.default is None:
405             return None
406
407         ctype = self.ctype
408         default = self.get_initializer(False, True)
409         array_decl = ''
410         
411         if self.pbtype == 'STRING':
412             if self.allocation != 'STATIC':
413                 return None # Not implemented
414             array_decl = '[%d]' % self.max_size
415         elif self.pbtype == 'BYTES':
416             if self.allocation != 'STATIC':
417                 return None # Not implemented
418         
419         if declaration_only:
420             return 'extern const %s %s_default%s;' % (ctype, self.struct_name + self.name, array_decl)
421         else:
422             return 'const %s %s_default%s = %s;' % (ctype, self.struct_name + self.name, array_decl, default)
423     
424     def tags(self):
425         '''Return the #define for the tag number of this field.'''
426         identifier = '%s_%s_tag' % (self.struct_name, self.name)
427         return '#define %-40s %d\n' % (identifier, self.tag)
428     
429     def pb_field_t(self, prev_field_name):
430         '''Return the pb_field_t initializer to use in the constant array.
431         prev_field_name is the name of the previous field or None.
432         '''
433
434         if self.rules == 'ONEOF':
435             result = '    PB_ONEOF_FIELD(%s, ' % self.union_name
436         else:
437             result = '    PB_FIELD('
438
439         result += '%3d, ' % self.tag
440         result += '%-8s, ' % self.pbtype
441         result += '%s, ' % self.rules
442         result += '%-8s, ' % self.allocation
443         result += '%s, ' % ("FIRST" if not prev_field_name else "OTHER")
444         result += '%s, ' % self.struct_name
445         result += '%s, ' % self.name
446         result += '%s, ' % (prev_field_name or self.name)
447         
448         if self.pbtype == 'MESSAGE':
449             result += '&%s_fields)' % self.submsgname
450         elif self.default is None:
451             result += '0)'
452         elif self.pbtype in ['BYTES', 'STRING'] and self.allocation != 'STATIC':
453             result += '0)' # Arbitrary size default values not implemented
454         elif self.rules == 'OPTEXT':
455             result += '0)' # Default value for extensions is not implemented
456         else:
457             result += '&%s_default)' % (self.struct_name + self.name)
458         
459         return result
460     
461     def largest_field_value(self):
462         '''Determine if this field needs 16bit or 32bit pb_field_t structure to compile properly.
463         Returns numeric value or a C-expression for assert.'''
464         if self.pbtype == 'MESSAGE':
465             if self.rules == 'REPEATED' and self.allocation == 'STATIC':
466                 return 'pb_membersize(%s, %s[0])' % (self.struct_name, self.name)
467             elif self.rules == 'ONEOF':
468                 return 'pb_membersize(%s, %s.%s)' % (self.struct_name, self.union_name, self.name)
469             else:
470                 return 'pb_membersize(%s, %s)' % (self.struct_name, self.name)
471
472         return max(self.tag, self.max_size, self.max_count)        
473
474     def encoded_size(self, dependencies):
475         '''Return the maximum size that this field can take when encoded,
476         including the field tag. If the size cannot be determined, returns
477         None.'''
478         
479         if self.allocation != 'STATIC':
480             return None
481         
482         if self.pbtype == 'MESSAGE':
483             if str(self.submsgname) in dependencies:
484                 submsg = dependencies[str(self.submsgname)]
485                 encsize = submsg.encoded_size(dependencies)
486                 if encsize is None:
487                     return None # Submessage size is indeterminate
488                     
489                 # Include submessage length prefix
490                 encsize += varint_max_size(encsize.upperlimit())
491             else:
492                 # Submessage cannot be found, this currently occurs when
493                 # the submessage type is defined in a different file and
494                 # not using the protoc plugin.
495                 # Instead of direct numeric value, reference the size that
496                 # has been #defined in the other file.
497                 encsize = EncodedSize(self.submsgname + 'size')
498
499                 # We will have to make a conservative assumption on the length
500                 # prefix size, though.
501                 encsize += 5
502
503         elif self.enc_size is None:
504             raise RuntimeError("Could not determine encoded size for %s.%s"
505                                % (self.struct_name, self.name))
506         else:
507             encsize = EncodedSize(self.enc_size)
508         
509         encsize += varint_max_size(self.tag << 3) # Tag + wire type
510
511         if self.rules == 'REPEATED':
512             # Decoders must be always able to handle unpacked arrays.
513             # Therefore we have to reserve space for it, even though
514             # we emit packed arrays ourselves.
515             encsize *= self.max_count
516         
517         return encsize
518
519
520 class ExtensionRange(Field):
521     def __init__(self, struct_name, range_start, field_options):
522         '''Implements a special pb_extension_t* field in an extensible message
523         structure. The range_start signifies the index at which the extensions
524         start. Not necessarily all tags above this are extensions, it is merely
525         a speed optimization.
526         '''
527         self.tag = range_start
528         self.struct_name = struct_name
529         self.name = 'extensions'
530         self.pbtype = 'EXTENSION'
531         self.rules = 'OPTIONAL'
532         self.allocation = 'CALLBACK'
533         self.ctype = 'pb_extension_t'
534         self.array_decl = ''
535         self.default = None
536         self.max_size = 0
537         self.max_count = 0
538         
539     def __str__(self):
540         return '    pb_extension_t *extensions;'
541     
542     def types(self):
543         return ''
544     
545     def tags(self):
546         return ''
547     
548     def encoded_size(self, dependencies):
549         # We exclude extensions from the count, because they cannot be known
550         # until runtime. Other option would be to return None here, but this
551         # way the value remains useful if extensions are not used.
552         return EncodedSize(0)
553
554 class ExtensionField(Field):
555     def __init__(self, struct_name, desc, field_options):
556         self.fullname = struct_name + desc.name
557         self.extendee_name = names_from_type_name(desc.extendee)
558         Field.__init__(self, self.fullname + 'struct', desc, field_options)
559         
560         if self.rules != 'OPTIONAL':
561             self.skip = True
562         else:
563             self.skip = False
564             self.rules = 'OPTEXT'
565
566     def tags(self):
567         '''Return the #define for the tag number of this field.'''
568         identifier = '%s_tag' % self.fullname
569         return '#define %-40s %d\n' % (identifier, self.tag)
570
571     def extension_decl(self):
572         '''Declaration of the extension type in the .pb.h file'''
573         if self.skip:
574             msg = '/* Extension field %s was skipped because only "optional"\n' % self.fullname
575             msg +='   type of extension fields is currently supported. */\n'
576             return msg
577         
578         return ('extern const pb_extension_type_t %s; /* field type: %s */\n' %
579             (self.fullname, str(self).strip()))
580
581     def extension_def(self):
582         '''Definition of the extension type in the .pb.c file'''
583
584         if self.skip:
585             return ''
586
587         result  = 'typedef struct {\n'
588         result += str(self)
589         result += '\n} %s;\n\n' % self.struct_name
590         result += ('static const pb_field_t %s_field = \n  %s;\n\n' %
591                     (self.fullname, self.pb_field_t(None)))
592         result += 'const pb_extension_type_t %s = {\n' % self.fullname
593         result += '    NULL,\n'
594         result += '    NULL,\n'
595         result += '    &%s_field\n' % self.fullname
596         result += '};\n'
597         return result
598
599
600 # ---------------------------------------------------------------------------
601 #                   Generation of oneofs (unions)
602 # ---------------------------------------------------------------------------
603
604 class OneOf(Field):
605     def __init__(self, struct_name, oneof_desc):
606         self.struct_name = struct_name
607         self.name = oneof_desc.name
608         self.ctype = 'union'
609         self.pbtype = 'oneof'
610         self.fields = []
611         self.allocation = 'ONEOF'
612         self.default = None
613         self.rules = 'ONEOF'
614
615     def add_field(self, field):
616         if field.allocation == 'CALLBACK':
617             raise Exception("Callback fields inside of oneof are not supported"
618                             + " (field %s)" % field.name)
619
620         field.union_name = self.name
621         field.rules = 'ONEOF'
622         self.fields.append(field)
623         self.fields.sort(key = lambda f: f.tag)
624
625         # Sort by the lowest tag number inside union
626         self.tag = min([f.tag for f in self.fields])
627
628     def __cmp__(self, other):
629         return cmp(self.tag, other.tag)
630
631     def __str__(self):
632         result = ''
633         if self.fields:
634             result += '    pb_size_t which_' + self.name + ";\n"
635             result += '    union {\n'
636             for f in self.fields:
637                 result += '    ' + str(f).replace('\n', '\n    ') + '\n'
638             result += '    } ' + self.name + ';'
639         return result
640
641     def types(self):
642         return ''.join([f.types() for f in self.fields])
643
644     def get_dependencies(self):
645         deps = []
646         for f in self.fields:
647             deps += f.get_dependencies()
648         return deps
649
650     def get_initializer(self, null_init):
651         return '0, {' + self.fields[0].get_initializer(null_init) + '}'
652
653     def default_decl(self, declaration_only = False):
654         return None
655
656     def tags(self):
657         return '\n'.join([f.tags() for f in self.fields])
658
659     def pb_field_t(self, prev_field_name):
660         result = ',\n'.join([f.pb_field_t(prev_field_name) for f in self.fields])
661         return result
662
663     def largest_field_value(self):
664         return max([f.largest_field_value() for f in self.fields])
665
666     def encoded_size(self, dependencies):
667         largest = EncodedSize(0)
668         for f in self.fields:
669             size = f.encoded_size(dependencies)
670             if size is None:
671                 return None
672             elif size.symbols:
673                 return None # Cannot resolve maximum of symbols
674             elif size.value > largest.value:
675                 largest = size
676
677         return largest
678
679 # ---------------------------------------------------------------------------
680 #                   Generation of messages (structures)
681 # ---------------------------------------------------------------------------
682
683
684 class Message:
685     def __init__(self, names, desc, message_options):
686         self.name = names
687         self.fields = []
688         self.oneofs = {}
689         no_unions = []
690
691         if message_options.msgid:
692             self.msgid = message_options.msgid
693
694         if hasattr(desc, 'oneof_decl'):
695             for i, f in enumerate(desc.oneof_decl):
696                 oneof_options = get_nanopb_suboptions(desc, message_options, self.name + f.name)
697                 if oneof_options.no_unions:
698                     no_unions.append(i) # No union, but add fields normally
699                 elif oneof_options.type == nanopb_pb2.FT_IGNORE:
700                     pass # No union and skip fields also
701                 else:
702                     oneof = OneOf(self.name, f)
703                     self.oneofs[i] = oneof
704                     self.fields.append(oneof)
705
706         for f in desc.field:
707             field_options = get_nanopb_suboptions(f, message_options, self.name + f.name)
708             if field_options.type == nanopb_pb2.FT_IGNORE:
709                 continue
710
711             field = Field(self.name, f, field_options)
712             if (hasattr(f, 'oneof_index') and
713                 f.HasField('oneof_index') and
714                 f.oneof_index not in no_unions):
715                 if f.oneof_index in self.oneofs:
716                     self.oneofs[f.oneof_index].add_field(field)
717             else:
718                 self.fields.append(field)
719         
720         if len(desc.extension_range) > 0:
721             field_options = get_nanopb_suboptions(desc, message_options, self.name + 'extensions')
722             range_start = min([r.start for r in desc.extension_range])
723             if field_options.type != nanopb_pb2.FT_IGNORE:
724                 self.fields.append(ExtensionRange(self.name, range_start, field_options))
725         
726         self.packed = message_options.packed_struct
727         self.ordered_fields = self.fields[:]
728         self.ordered_fields.sort()
729
730     def get_dependencies(self):
731         '''Get list of type names that this structure refers to.'''
732         deps = []
733         for f in self.fields:
734             deps += f.get_dependencies()
735         return deps
736     
737     def __str__(self):
738         result = 'typedef struct _%s {\n' % self.name
739
740         if not self.ordered_fields:
741             # Empty structs are not allowed in C standard.
742             # Therefore add a dummy field if an empty message occurs.
743             result += '    uint8_t dummy_field;'
744
745         result += '\n'.join([str(f) for f in self.ordered_fields])
746         result += '\n}'
747         
748         if self.packed:
749             result += ' pb_packed'
750         
751         result += ' %s;' % self.name
752         
753         if self.packed:
754             result = 'PB_PACKED_STRUCT_START\n' + result
755             result += '\nPB_PACKED_STRUCT_END'
756         
757         return result
758     
759     def types(self):
760         return ''.join([f.types() for f in self.fields])
761
762     def get_initializer(self, null_init):
763         if not self.ordered_fields:
764             return '{0}'
765     
766         parts = []
767         for field in self.ordered_fields:
768             parts.append(field.get_initializer(null_init))
769         return '{' + ', '.join(parts) + '}'
770     
771     def default_decl(self, declaration_only = False):
772         result = ""
773         for field in self.fields:
774             default = field.default_decl(declaration_only)
775             if default is not None:
776                 result += default + '\n'
777         return result
778
779     def count_required_fields(self):
780         '''Returns number of required fields inside this message'''
781         count = 0
782         for f in self.fields:
783             if not isinstance(f, OneOf):
784                 if f.rules == 'REQUIRED':
785                     count += 1
786         return count
787
788     def count_all_fields(self):
789         count = 0
790         for f in self.fields:
791             if isinstance(f, OneOf):
792                 count += len(f.fields)
793             else:
794                 count += 1
795         return count
796
797     def fields_declaration(self):
798         result = 'extern const pb_field_t %s_fields[%d];' % (self.name, self.count_all_fields() + 1)
799         return result
800
801     def fields_definition(self):
802         result = 'const pb_field_t %s_fields[%d] = {\n' % (self.name, self.count_all_fields() + 1)
803         
804         prev = None
805         for field in self.ordered_fields:
806             result += field.pb_field_t(prev)
807             result += ',\n'
808             if isinstance(field, OneOf):
809                 prev = field.name + '.' + field.fields[-1].name
810             else:
811                 prev = field.name
812         
813         result += '    PB_LAST_FIELD\n};'
814         return result
815
816     def encoded_size(self, dependencies):
817         '''Return the maximum size that this message can take when encoded.
818         If the size cannot be determined, returns None.
819         '''
820         size = EncodedSize(0)
821         for field in self.fields:
822             fsize = field.encoded_size(dependencies)
823             if fsize is None:
824                 return None
825             size += fsize
826         
827         return size
828
829
830 # ---------------------------------------------------------------------------
831 #                    Processing of entire .proto files
832 # ---------------------------------------------------------------------------
833
834 def iterate_messages(desc, names = Names()):
835     '''Recursively find all messages. For each, yield name, DescriptorProto.'''
836     if hasattr(desc, 'message_type'):
837         submsgs = desc.message_type
838     else:
839         submsgs = desc.nested_type
840     
841     for submsg in submsgs:
842         sub_names = names + submsg.name
843         yield sub_names, submsg
844         
845         for x in iterate_messages(submsg, sub_names):
846             yield x
847
848 def iterate_extensions(desc, names = Names()):
849     '''Recursively find all extensions.
850     For each, yield name, FieldDescriptorProto.
851     '''
852     for extension in desc.extension:
853         yield names, extension
854
855     for subname, subdesc in iterate_messages(desc, names):
856         for extension in subdesc.extension:
857             yield subname, extension
858
859 def toposort2(data):
860     '''Topological sort.
861     From http://code.activestate.com/recipes/577413-topological-sort/
862     This function is under the MIT license.
863     '''
864     for k, v in data.items():
865         v.discard(k) # Ignore self dependencies
866     extra_items_in_deps = reduce(set.union, data.values(), set()) - set(data.keys())
867     data.update(dict([(item, set()) for item in extra_items_in_deps]))
868     while True:
869         ordered = set(item for item,dep in data.items() if not dep)
870         if not ordered:
871             break
872         for item in sorted(ordered):
873             yield item
874         data = dict([(item, (dep - ordered)) for item,dep in data.items()
875                 if item not in ordered])
876     assert not data, "A cyclic dependency exists amongst %r" % data
877
878 def sort_dependencies(messages):
879     '''Sort a list of Messages based on dependencies.'''
880     dependencies = {}
881     message_by_name = {}
882     for message in messages:
883         dependencies[str(message.name)] = set(message.get_dependencies())
884         message_by_name[str(message.name)] = message
885     
886     for msgname in toposort2(dependencies):
887         if msgname in message_by_name:
888             yield message_by_name[msgname]
889
890 def make_identifier(headername):
891     '''Make #ifndef identifier that contains uppercase A-Z and digits 0-9'''
892     result = ""
893     for c in headername.upper():
894         if c.isalnum():
895             result += c
896         else:
897             result += '_'
898     return result
899
900 class ProtoFile:
901     def __init__(self, fdesc, file_options):
902         '''Takes a FileDescriptorProto and parses it.'''
903         self.fdesc = fdesc
904         self.file_options = file_options
905         self.dependencies = {}
906         self.parse()
907         
908         # Some of types used in this file probably come from the file itself.
909         # Thus it has implicit dependency on itself.
910         self.add_dependency(self)
911
912     def parse(self):
913         self.enums = []
914         self.messages = []
915         self.extensions = []
916         
917         if self.fdesc.package:
918             base_name = Names(self.fdesc.package.split('.'))
919         else:
920             base_name = Names()
921     
922         for enum in self.fdesc.enum_type:
923             enum_options = get_nanopb_suboptions(enum, self.file_options, base_name + enum.name)
924             self.enums.append(Enum(base_name, enum, enum_options))
925         
926         for names, message in iterate_messages(self.fdesc, base_name):
927             message_options = get_nanopb_suboptions(message, self.file_options, names)
928             
929             if message_options.skip_message:
930                 continue
931        
932             self.messages.append(Message(names, message, message_options))
933             for enum in message.enum_type:
934                 enum_options = get_nanopb_suboptions(enum, message_options, names + enum.name)
935                 self.enums.append(Enum(names, enum, enum_options))
936         
937         for names, extension in iterate_extensions(self.fdesc, base_name):
938             field_options = get_nanopb_suboptions(extension, self.file_options, names + extension.name)
939             if field_options.type != nanopb_pb2.FT_IGNORE:
940                 self.extensions.append(ExtensionField(names, extension, field_options))
941     
942     def add_dependency(self, other):
943         for enum in other.enums:
944             self.dependencies[str(enum.names)] = enum
945         
946         for msg in other.messages:
947             self.dependencies[str(msg.name)] = msg
948         
949         # Fix field default values where enum short names are used.
950         for enum in other.enums:
951             if not enum.options.long_names:
952                 for message in self.messages:
953                     for field in message.fields:
954                         if field.default in enum.value_longnames:
955                             idx = enum.value_longnames.index(field.default)
956                             field.default = enum.values[idx][0]
957         
958         # Fix field data types where enums have negative values.
959         for enum in other.enums:
960             if not enum.has_negative():
961                 for message in self.messages:
962                     for field in message.fields:
963                         if field.pbtype == 'ENUM' and field.ctype == enum.names:
964                             field.pbtype = 'UENUM'
965
966     def generate_header(self, includes, headername, options):
967         '''Generate content for a header file.
968         Generates strings, which should be concatenated and stored to file.
969         '''
970         
971         yield '/* Automatically generated nanopb header */\n'
972         if options.notimestamp:
973             yield '/* Generated by %s */\n\n' % (nanopb_version)
974         else:
975             yield '/* Generated by %s at %s. */\n\n' % (nanopb_version, time.asctime())
976         
977         symbol = make_identifier(headername)
978         yield '#ifndef PB_%s_INCLUDED\n' % symbol
979         yield '#define PB_%s_INCLUDED\n' % symbol
980         try:
981             yield options.libformat % ('pb.h')
982         except TypeError:
983             # no %s specified - use whatever was passed in as options.libformat
984             yield options.libformat
985         yield '\n'
986         
987         for incfile in includes:
988             noext = os.path.splitext(incfile)[0]
989             yield options.genformat % (noext + options.extension + '.h')
990             yield '\n'
991
992         yield '#if PB_PROTO_HEADER_VERSION != 30\n'
993         yield '#error Regenerate this file with the current version of nanopb generator.\n'
994         yield '#endif\n'
995         yield '\n'
996
997         yield '#ifdef __cplusplus\n'
998         yield 'extern "C" {\n'
999         yield '#endif\n\n'
1000         
1001         if self.enums:
1002             yield '/* Enum definitions */\n'
1003             for enum in self.enums:
1004                 yield str(enum) + '\n\n'
1005         
1006         if self.messages:
1007             yield '/* Struct definitions */\n'
1008             for msg in sort_dependencies(self.messages):
1009                 yield msg.types()
1010                 yield str(msg) + '\n\n'
1011         
1012         if self.extensions:
1013             yield '/* Extensions */\n'
1014             for extension in self.extensions:
1015                 yield extension.extension_decl()
1016             yield '\n'
1017         
1018         if self.messages:
1019             yield '/* Default values for struct fields */\n'
1020             for msg in self.messages:
1021                 yield msg.default_decl(True)
1022             yield '\n'
1023         
1024             yield '/* Initializer values for message structs */\n'
1025             for msg in self.messages:
1026                 identifier = '%s_init_default' % msg.name
1027                 yield '#define %-40s %s\n' % (identifier, msg.get_initializer(False))
1028             for msg in self.messages:
1029                 identifier = '%s_init_zero' % msg.name
1030                 yield '#define %-40s %s\n' % (identifier, msg.get_initializer(True))
1031             yield '\n'
1032         
1033             yield '/* Field tags (for use in manual encoding/decoding) */\n'
1034             for msg in sort_dependencies(self.messages):
1035                 for field in msg.fields:
1036                     yield field.tags()
1037             for extension in self.extensions:
1038                 yield extension.tags()
1039             yield '\n'
1040         
1041             yield '/* Struct field encoding specification for nanopb */\n'
1042             for msg in self.messages:
1043                 yield msg.fields_declaration() + '\n'
1044             yield '\n'
1045         
1046             yield '/* Maximum encoded size of messages (where known) */\n'
1047             for msg in self.messages:
1048                 msize = msg.encoded_size(self.dependencies)
1049                 if msize is not None:
1050                     identifier = '%s_size' % msg.name
1051                     yield '#define %-40s %s\n' % (identifier, msize)
1052             yield '\n'
1053
1054             yield '/* Message IDs (where set with "msgid" option) */\n'
1055             
1056             yield '#ifdef PB_MSGID\n'
1057             for msg in self.messages:
1058                 if hasattr(msg,'msgid'):
1059                     yield '#define PB_MSG_%d %s\n' % (msg.msgid, msg.name)
1060             yield '\n'
1061
1062             symbol = make_identifier(headername.split('.')[0])
1063             yield '#define %s_MESSAGES \\\n' % symbol
1064
1065             for msg in self.messages:
1066                 m = "-1"
1067                 msize = msg.encoded_size(self.dependencies)
1068                 if msize is not None:
1069                     m = msize
1070                 if hasattr(msg,'msgid'):
1071                     yield '\tPB_MSG(%d,%s,%s) \\\n' % (msg.msgid, m, msg.name)
1072             yield '\n'
1073
1074             for msg in self.messages:
1075                 if hasattr(msg,'msgid'):
1076                     yield '#define %s_msgid %d\n' % (msg.name, msg.msgid)
1077             yield '\n'
1078
1079             yield '#endif\n\n'
1080
1081         yield '#ifdef __cplusplus\n'
1082         yield '} /* extern "C" */\n'
1083         yield '#endif\n'
1084         
1085         # End of header
1086         yield '\n#endif\n'
1087
1088     def generate_source(self, headername, options):
1089         '''Generate content for a source file.'''
1090         
1091         yield '/* Automatically generated nanopb constant definitions */\n'
1092         if options.notimestamp:
1093             yield '/* Generated by %s */\n\n' % (nanopb_version)
1094         else:
1095             yield '/* Generated by %s at %s. */\n\n' % (nanopb_version, time.asctime())
1096         yield options.genformat % (headername)
1097         yield '\n'
1098         
1099         yield '#if PB_PROTO_HEADER_VERSION != 30\n'
1100         yield '#error Regenerate this file with the current version of nanopb generator.\n'
1101         yield '#endif\n'
1102         yield '\n'
1103         
1104         for msg in self.messages:
1105             yield msg.default_decl(False)
1106         
1107         yield '\n\n'
1108         
1109         for msg in self.messages:
1110             yield msg.fields_definition() + '\n\n'
1111         
1112         for ext in self.extensions:
1113             yield ext.extension_def() + '\n'
1114             
1115         # Add checks for numeric limits
1116         if self.messages:
1117             largest_msg = max(self.messages, key = lambda m: m.count_required_fields())
1118             largest_count = largest_msg.count_required_fields()
1119             if largest_count > 64:
1120                 yield '\n/* Check that missing required fields will be properly detected */\n'
1121                 yield '#if PB_MAX_REQUIRED_FIELDS < %d\n' % largest_count
1122                 yield '#error Properly detecting missing required fields in %s requires \\\n' % largest_msg.name
1123                 yield '       setting PB_MAX_REQUIRED_FIELDS to %d or more.\n' % largest_count
1124                 yield '#endif\n'
1125         
1126         worst = 0
1127         worst_field = ''
1128         checks = []
1129         checks_msgnames = []
1130         for msg in self.messages:
1131             checks_msgnames.append(msg.name)
1132             for field in msg.fields:
1133                 status = field.largest_field_value()
1134                 if isinstance(status, (str, unicode)):
1135                     checks.append(status)
1136                 elif status > worst:
1137                     worst = status
1138                     worst_field = str(field.struct_name) + '.' + str(field.name)
1139
1140         if worst > 255 or checks:
1141             yield '\n/* Check that field information fits in pb_field_t */\n'
1142             
1143             if worst > 65535 or checks:
1144                 yield '#if !defined(PB_FIELD_32BIT)\n'
1145                 if worst > 65535:
1146                     yield '#error Field descriptor for %s is too large. Define PB_FIELD_32BIT to fix this.\n' % worst_field
1147                 else:
1148                     assertion = ' && '.join(str(c) + ' < 65536' for c in checks)
1149                     msgs = '_'.join(str(n) for n in checks_msgnames)
1150                     yield '/* If you get an error here, it means that you need to define PB_FIELD_32BIT\n'
1151                     yield ' * compile-time option. You can do that in pb.h or on compiler command line.\n'
1152                     yield ' * \n'
1153                     yield ' * The reason you need to do this is that some of your messages contain tag\n'
1154                     yield ' * numbers or field sizes that are larger than what can fit in 8 or 16 bit\n'
1155                     yield ' * field descriptors.\n'
1156                     yield ' */\n'
1157                     yield 'PB_STATIC_ASSERT((%s), YOU_MUST_DEFINE_PB_FIELD_32BIT_FOR_MESSAGES_%s)\n'%(assertion,msgs)
1158                 yield '#endif\n\n'
1159             
1160             if worst < 65536:
1161                 yield '#if !defined(PB_FIELD_16BIT) && !defined(PB_FIELD_32BIT)\n'
1162                 if worst > 255:
1163                     yield '#error Field descriptor for %s is too large. Define PB_FIELD_16BIT to fix this.\n' % worst_field
1164                 else:
1165                     assertion = ' && '.join(str(c) + ' < 256' for c in checks)
1166                     msgs = '_'.join(str(n) for n in checks_msgnames)
1167                     yield '/* If you get an error here, it means that you need to define PB_FIELD_16BIT\n'
1168                     yield ' * compile-time option. You can do that in pb.h or on compiler command line.\n'
1169                     yield ' * \n'
1170                     yield ' * The reason you need to do this is that some of your messages contain tag\n'
1171                     yield ' * numbers or field sizes that are larger than what can fit in the default\n'
1172                     yield ' * 8 bit descriptors.\n'
1173                     yield ' */\n'
1174                     yield 'PB_STATIC_ASSERT((%s), YOU_MUST_DEFINE_PB_FIELD_16BIT_FOR_MESSAGES_%s)\n'%(assertion,msgs)
1175                 yield '#endif\n\n'
1176         
1177         # Add check for sizeof(double)
1178         has_double = False
1179         for msg in self.messages:
1180             for field in msg.fields:
1181                 if field.ctype == 'double':
1182                     has_double = True
1183         
1184         if has_double:
1185             yield '\n'
1186             yield '/* On some platforms (such as AVR), double is really float.\n'
1187             yield ' * These are not directly supported by nanopb, but see example_avr_double.\n'
1188             yield ' * To get rid of this error, remove any double fields from your .proto.\n'
1189             yield ' */\n'
1190             yield 'PB_STATIC_ASSERT(sizeof(double) == 8, DOUBLE_MUST_BE_8_BYTES)\n'
1191         
1192         yield '\n'
1193
1194 # ---------------------------------------------------------------------------
1195 #                    Options parsing for the .proto files
1196 # ---------------------------------------------------------------------------
1197
1198 from fnmatch import fnmatch
1199
1200 def read_options_file(infile):
1201     '''Parse a separate options file to list:
1202         [(namemask, options), ...]
1203     '''
1204     results = []
1205     data = infile.read()
1206     data = re.sub('/\*.*?\*/', '', data, flags = re.MULTILINE)
1207     data = re.sub('//.*?$', '', data, flags = re.MULTILINE)
1208     data = re.sub('#.*?$', '', data, flags = re.MULTILINE)
1209     for i, line in enumerate(data.split('\n')):
1210         line = line.strip()
1211         if not line:
1212             continue
1213         
1214         parts = line.split(None, 1)
1215         
1216         if len(parts) < 2:
1217             sys.stderr.write("%s:%d: " % (infile.name, i + 1) +
1218                              "Option lines should have space between field name and options. " +
1219                              "Skipping line: '%s'\n" % line)
1220             continue
1221         
1222         opts = nanopb_pb2.NanoPBOptions()
1223         
1224         try:
1225             text_format.Merge(parts[1], opts)
1226         except Exception, e:
1227             sys.stderr.write("%s:%d: " % (infile.name, i + 1) +
1228                              "Unparseable option line: '%s'. " % line +
1229                              "Error: %s\n" % str(e))
1230             continue
1231         results.append((parts[0], opts))
1232
1233     return results
1234
1235 class Globals:
1236     '''Ugly global variables, should find a good way to pass these.'''
1237     verbose_options = False
1238     separate_options = []
1239     matched_namemasks = set()
1240
1241 def get_nanopb_suboptions(subdesc, options, name):
1242     '''Get copy of options, and merge information from subdesc.'''
1243     new_options = nanopb_pb2.NanoPBOptions()
1244     new_options.CopyFrom(options)
1245     
1246     # Handle options defined in a separate file
1247     dotname = '.'.join(name.parts)
1248     for namemask, options in Globals.separate_options:
1249         if fnmatch(dotname, namemask):
1250             Globals.matched_namemasks.add(namemask)
1251             new_options.MergeFrom(options)
1252     
1253     # Handle options defined in .proto
1254     if isinstance(subdesc.options, descriptor.FieldOptions):
1255         ext_type = nanopb_pb2.nanopb
1256     elif isinstance(subdesc.options, descriptor.FileOptions):
1257         ext_type = nanopb_pb2.nanopb_fileopt
1258     elif isinstance(subdesc.options, descriptor.MessageOptions):
1259         ext_type = nanopb_pb2.nanopb_msgopt
1260     elif isinstance(subdesc.options, descriptor.EnumOptions):
1261         ext_type = nanopb_pb2.nanopb_enumopt
1262     else:
1263         raise Exception("Unknown options type")
1264     
1265     if subdesc.options.HasExtension(ext_type):
1266         ext = subdesc.options.Extensions[ext_type]
1267         new_options.MergeFrom(ext)
1268     
1269     if Globals.verbose_options:
1270         sys.stderr.write("Options for " + dotname + ": ")
1271         sys.stderr.write(text_format.MessageToString(new_options) + "\n")
1272     
1273     return new_options
1274
1275
1276 # ---------------------------------------------------------------------------
1277 #                         Command line interface
1278 # ---------------------------------------------------------------------------
1279
1280 import sys
1281 import os.path    
1282 from optparse import OptionParser
1283
1284 optparser = OptionParser(
1285     usage = "Usage: nanopb_generator.py [options] file.pb ...",
1286     epilog = "Compile file.pb from file.proto by: 'protoc -ofile.pb file.proto'. " +
1287              "Output will be written to file.pb.h and file.pb.c.")
1288 optparser.add_option("-x", dest="exclude", metavar="FILE", action="append", default=[],
1289     help="Exclude file from generated #include list.")
1290 optparser.add_option("-e", "--extension", dest="extension", metavar="EXTENSION", default=".pb",
1291     help="Set extension to use instead of '.pb' for generated files. [default: %default]")
1292 optparser.add_option("-f", "--options-file", dest="options_file", metavar="FILE", default="%s.options",
1293     help="Set name of a separate generator options file.")
1294 optparser.add_option("-I", "--options-path", dest="options_path", metavar="DIR",
1295     action="append", default = [],
1296     help="Search for .options files additionally in this path")
1297 optparser.add_option("-Q", "--generated-include-format", dest="genformat",
1298     metavar="FORMAT", default='#include "%s"\n',
1299     help="Set format string to use for including other .pb.h files. [default: %default]")
1300 optparser.add_option("-L", "--library-include-format", dest="libformat",
1301     metavar="FORMAT", default='#include <%s>\n',
1302     help="Set format string to use for including the nanopb pb.h header. [default: %default]")
1303 optparser.add_option("-T", "--no-timestamp", dest="notimestamp", action="store_true", default=False,
1304     help="Don't add timestamp to .pb.h and .pb.c preambles")
1305 optparser.add_option("-q", "--quiet", dest="quiet", action="store_true", default=False,
1306     help="Don't print anything except errors.")
1307 optparser.add_option("-v", "--verbose", dest="verbose", action="store_true", default=False,
1308     help="Print more information.")
1309 optparser.add_option("-s", dest="settings", metavar="OPTION:VALUE", action="append", default=[],
1310     help="Set generator option (max_size, max_count etc.).")
1311
1312 def parse_file(filename, fdesc, options):
1313     '''Parse a single file. Returns a ProtoFile instance.'''
1314     toplevel_options = nanopb_pb2.NanoPBOptions()
1315     for s in options.settings:
1316         text_format.Merge(s, toplevel_options)
1317     
1318     if not fdesc:
1319         data = open(filename, 'rb').read()
1320         fdesc = descriptor.FileDescriptorSet.FromString(data).file[0]
1321     
1322     # Check if there is a separate .options file
1323     had_abspath = False
1324     try:
1325         optfilename = options.options_file % os.path.splitext(filename)[0]
1326     except TypeError:
1327         # No %s specified, use the filename as-is
1328         optfilename = options.options_file
1329         had_abspath = True
1330
1331     paths = ['.'] + options.options_path
1332     for p in paths:
1333         if os.path.isfile(os.path.join(p, optfilename)):
1334             optfilename = os.path.join(p, optfilename)
1335             if options.verbose:
1336                 sys.stderr.write('Reading options from ' + optfilename + '\n')
1337             Globals.separate_options = read_options_file(open(optfilename, "rU"))
1338             break
1339     else:
1340         # If we are given a full filename and it does not exist, give an error.
1341         # However, don't give error when we automatically look for .options file
1342         # with the same name as .proto.
1343         if options.verbose or had_abspath:
1344             sys.stderr.write('Options file not found: ' + optfilename + '\n')
1345         Globals.separate_options = []
1346
1347     Globals.matched_namemasks = set()
1348     
1349     # Parse the file
1350     file_options = get_nanopb_suboptions(fdesc, toplevel_options, Names([filename]))
1351     f = ProtoFile(fdesc, file_options)
1352     f.optfilename = optfilename
1353     
1354     return f
1355
1356 def process_file(filename, fdesc, options, other_files = {}):
1357     '''Process a single file.
1358     filename: The full path to the .proto or .pb source file, as string.
1359     fdesc: The loaded FileDescriptorSet, or None to read from the input file.
1360     options: Command line options as they come from OptionsParser.
1361     
1362     Returns a dict:
1363         {'headername': Name of header file,
1364          'headerdata': Data for the .h header file,
1365          'sourcename': Name of the source code file,
1366          'sourcedata': Data for the .c source code file
1367         }
1368     '''
1369     f = parse_file(filename, fdesc, options)
1370
1371     # Provide dependencies if available
1372     for dep in f.fdesc.dependency:
1373         if dep in other_files:
1374             f.add_dependency(other_files[dep])
1375
1376     # Decide the file names
1377     noext = os.path.splitext(filename)[0]
1378     headername = noext + options.extension + '.h'
1379     sourcename = noext + options.extension + '.c'
1380     headerbasename = os.path.basename(headername)
1381     
1382     # List of .proto files that should not be included in the C header file
1383     # even if they are mentioned in the source .proto.
1384     excludes = ['nanopb.proto', 'google/protobuf/descriptor.proto'] + options.exclude
1385     includes = [d for d in f.fdesc.dependency if d not in excludes]
1386     
1387     headerdata = ''.join(f.generate_header(includes, headerbasename, options))
1388     sourcedata = ''.join(f.generate_source(headerbasename, options))
1389
1390     # Check if there were any lines in .options that did not match a member
1391     unmatched = [n for n,o in Globals.separate_options if n not in Globals.matched_namemasks]
1392     if unmatched and not options.quiet:
1393         sys.stderr.write("Following patterns in " + f.optfilename + " did not match any fields: "
1394                          + ', '.join(unmatched) + "\n")
1395         if not Globals.verbose_options:
1396             sys.stderr.write("Use  protoc --nanopb-out=-v:.   to see a list of the field names.\n")
1397
1398     return {'headername': headername, 'headerdata': headerdata,
1399             'sourcename': sourcename, 'sourcedata': sourcedata}
1400     
1401 def main_cli():
1402     '''Main function when invoked directly from the command line.'''
1403     
1404     options, filenames = optparser.parse_args()
1405     
1406     if not filenames:
1407         optparser.print_help()
1408         sys.exit(1)
1409     
1410     if options.quiet:
1411         options.verbose = False
1412
1413     Globals.verbose_options = options.verbose
1414     
1415     for filename in filenames:
1416         results = process_file(filename, None, options)
1417         
1418         if not options.quiet:
1419             sys.stderr.write("Writing to " + results['headername'] + " and "
1420                              + results['sourcename'] + "\n")
1421     
1422         open(results['headername'], 'w').write(results['headerdata'])
1423         open(results['sourcename'], 'w').write(results['sourcedata'])        
1424
1425 def main_plugin():
1426     '''Main function when invoked as a protoc plugin.'''
1427
1428     import sys
1429     if sys.platform == "win32":
1430         import os, msvcrt
1431         # Set stdin and stdout to binary mode
1432         msvcrt.setmode(sys.stdin.fileno(), os.O_BINARY)
1433         msvcrt.setmode(sys.stdout.fileno(), os.O_BINARY)
1434     
1435     data = sys.stdin.read()
1436     request = plugin_pb2.CodeGeneratorRequest.FromString(data)
1437     
1438     try:
1439         # Versions of Python prior to 2.7.3 do not support unicode
1440         # input to shlex.split(). Try to convert to str if possible.
1441         params = str(request.parameter)
1442     except UnicodeEncodeError:
1443         params = request.parameter
1444     
1445     import shlex
1446     args = shlex.split(params)
1447     options, dummy = optparser.parse_args(args)
1448     
1449     Globals.verbose_options = options.verbose
1450     
1451     response = plugin_pb2.CodeGeneratorResponse()
1452     
1453     # Google's protoc does not currently indicate the full path of proto files.
1454     # Instead always add the main file path to the search dirs, that works for
1455     # the common case.
1456     import os.path
1457     options.options_path.append(os.path.dirname(request.file_to_generate[0]))
1458     
1459     # Process any include files first, in order to have them
1460     # available as dependencies
1461     other_files = {}
1462     for fdesc in request.proto_file:
1463         other_files[fdesc.name] = parse_file(fdesc.name, fdesc, options)
1464     
1465     for filename in request.file_to_generate:
1466         for fdesc in request.proto_file:
1467             if fdesc.name == filename:
1468                 results = process_file(filename, fdesc, options, other_files)
1469                 
1470                 f = response.file.add()
1471                 f.name = results['headername']
1472                 f.content = results['headerdata']
1473
1474                 f = response.file.add()
1475                 f.name = results['sourcename']
1476                 f.content = results['sourcedata']    
1477     
1478     sys.stdout.write(response.SerializeToString())
1479
1480 if __name__ == '__main__':
1481     # Check if we are running as a plugin under protoc
1482     if 'protoc-gen-' in sys.argv[0] or '--protoc-plugin' in sys.argv:
1483         main_plugin()
1484     else:
1485         main_cli()
1486