Thanks Andreas, two more questions<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
1. Create a word-based version of each model.  For example, you can construct a POS-based LM and combine it with a class membership mapping (in classes-format, see man page) to get a word-level POS-based model.   Similar with lemma-based LMs (the lemmas are effectively word classes).<br>

<br></blockquote><div><br>which is the instruction to do this?<br> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
2. Then interpolate the models using<br>
<br>
    ngram -bayes 0 -lm LM1 -mix-lm LM2 -mix-lm2 LM3 .... -lambda ... -mix-lambda2 ... -classes CLASSES<br>
<br>
where CLASSES is a classes-format(5) file defining the union of all the word classes used in the various component models.<span class="HOEnZb"><font color="#888888"><br>
<br></font></span></blockquote><div><br>to find the lambdas can I use the compute-best-mix, can't I?<br><br>best regards,<br>Marta<br><br> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<span class="HOEnZb"><font color="#888888">
Andreas<br>
<br>
</font></span></blockquote></div><br><br clear="all"><br>-- <br>Marta Ruiz Costa-jussą<br><a href="mailto:martaruizcostajussa@gmail.com">martaruizcostajussa@gmail.com</a><br><a href="http://gps-tsc.upc.es/veu/personal/mruiz/mruiz.php3">http://gps-tsc.upc.es/veu/personal/mruiz/mruiz.php3</a><br>