<html>
  <head>

    <meta http-equiv="content-type" content="text/html; charset=ISO-8859-1">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    Hi,<br>
    <br>
    I found that the accuracy of the recognition results obtained with
    HVite is about 5% better with comparison to the hypothesis got after
    rescoring the lattices with lattice-tool.<br>
    <br>
    HVite do not really use an N-gram, it is a word net, but I cannot
    really figure out why does it work so much better than SRILM models.<br>
    <br>
    I use the following script to generate lattices (60-best):<br>
    <br>
    <font face="Courier New">HVite -A -T 1 \<br>
      -C GENLATTICES.conf \<br>
      -n 20 60 \<br>
      -l outLatDir \ <br>
      -z lat \<br>
      -H hmmDefs \<br>
      -S test.list \<br>
      -i out.bigram.HLStats.mlf \<br>
      -w bigram.HLStats.lat \<br>
      -p 0.0 \<br>
      -s 8.0 \<br>
      lexicon \<br>
      hmm.mono.list</font><br>
    <br>
    Which are then rescored with:<br>
    <br>
    <font face="Courier New">lattice-tool \<br>
      -read-htk \<br>
      -write-htk \<br>
      -htk-lmscale 10.0 \<br>
      -htk-words-on-nodes \<br>
      -order 3 \<br>
      -in-lattice-list srclat.list \<br>
      -out-lattice-dir rescoredLatDir \<br>
      -lm trigram.SRILM.lm \<br>
      -overwrite<br>
      <br>
      find rescoredLatDir -name "*.lat" > rescoredLat.list<br>
      <br>
      lattice-tool \<br>
      -read-htk \<br>
      -write-htk \<br>
      -htk-lmscale 10.0 \<br>
      -htk-words-on-nodes \<br>
      -order 3  \<br>
      -in-lattice-list rescoredLat.list\<br>
      -viterbi-decode \<br>
      -output-ctm | ctm2mlf_r > out.trigram.SRILM.mlf</font><br>
    <br>
    Decoded with HVite (92.86%):<br>
    <br>
    <font face="Courier New"> LAB: <A> wie sieht es aus mit einem
      weiteren zweitaegigen mit einer weiteren zweitaegigen arbeitssitzu
      <br>
       REC: <A> wie sieht es aus mit einem weiteren zweitaegigen
      in  einer weiteren zweitaegigen arbeitssitzu</font><br>
    <br>
    ... and with lattice-tool (64.29%):<br>
    <br>
    <font face="Courier New"> LAB: <A> wie sieht es aus mit einem
      weiteren zweitaegigen mit  einer weiteren zweitaegigen
      arbeitssitzu<br>
       REC: <A> wie sieht es aus mit einen weiteren zweitaegigen
      dann bei   einem    zweitaegigen arbeitssitzung</font><br>
    <br>
    Corresponding word nets and LMs have been built using the same
    vocabulary and training data. I should say that for some sentences
    SRILM outperforms HTK, but in general it is roughly 5-7% behind.<br>
    Could you please suggest why is it so? Maybe some parameter values
    are wrong?<br>
    Or should it be like this?<br>
    <br>
    I would be greatly appreciated for help.<br>
    <br>
    Yours,<br>
    Dmytro Prylipko.<br>
  </body>
</html>