En este trabajo se ha propuesto, estudiado e implementado, un nuevo método incremental de inferencia gramatical: el método ECGI.
Tal como se ha explicado detalladamente en el capítulo 6, ECGI recurre a una poderosa herramienta de comparación de objetos y formas, la corrección de errores (implementada mediante técnicas de programación dinámica), para construir modelos de formas y (simultáneamente, si se necesario) reconocer nuevos objetos. Gracias a esta herramienta, ECGI es capaz de encontrar qué subestructuras es necesario añadir al modelo para incorporarle, con un coste mínimo de modificación, cada una de las nuevas muestras.
Junto con otros cuatro métodos, unos igualmente recientes (métodos de Thomason y Falaschi), otros poco estudiados (métodos de Chirathamjaree y de Marco) (capítulo 12), ECGI forma una nueva clase de métodos de inferencia. Esta clase, compuesta por los métodos que emplean la misma técnica que ECGI u otras técnicas similares, también basadas en la programación dinámica y en la corrección de errores, contribuye a engrosar el (hoy por hoy más bien parco) conjunto de los métodos de inferencia gramatical. De entre éstos, el método ECGI se coloca entre los que mejores resultados han obtenido en aplicaciones prácticas.
Si bien, como ha quedado patente en su lugar (capítulos 3 y 6), los algoritmos de la clase del ECGI son métodos heurísticos y difícilmente caracterizables, los resultados obtenidos (capítulo 8) demuestran que el ECGI está sorprentemente bien adaptado a determinadas aplicaciones reales de reconocimiento de formas. Incluso en condiciones de forzada suboptimalidad (experimentos con autómatas deterministas, capítulo 11), y con información muy escasa y de pobre calidad (experimentos piloto, capítulo 8) se obtienen tasas de reconocimiento elevadas, a veces idénticas a las obtenidas en las mejores condiciones. Ello permite introducir nuevos heurísticos adaptados al problema, en la forma (por ejemplo) de distintos criterios de distancia (relacionados o no con los tres estudiados en el capítulo 6), en la confianza de que, aún siendo su evaluación subóptima, se van a lograr resultados de alcance práctico.
Los resultados que proporciona ECGI en aplicaciones de reconocimiento de formas (capítulo 9) son perfectamente comparables, e incluso generalmente superiores, a los obtenidos aplicando, a los mismos objetos (particularmente imágenes y palabras), técnicas más convencionales como pueden ser los Modelos de Markov y varios modelos basados en la teoría de la decisión (DTW,K-Vecinos, momentos geométricos con distancia de Mahalanobis, etc.) (capítulo 12). En experimentos de reconocimiento de dígitos hablados independientes del locutor se obtiene sin dificultad un 99,8% de aciertos, mientras que para diccionarios hablados notablemente más difíciles (EE-letras) aún se consigue un 73,6% de aciertos. En reconocimiento de imágenes planas los resultados son del orden del 98,2% de aciertos (dígitos manuscritos) y del 99,9% (dígitos impresos), habiendo sido obtenidos estos últimos resultados sin ninguna adaptación de ECGI al problema y con un método relativamente simple de parametrización.
Por otra parte, la complejidad (temporal y espacial) de ECGI en tareas de reconocimiento de formas ha resultado ser similar, y a menudo inferior, a la de estos mismos métodos convencionales, siendo el coste del reconocimiento de una muestra de O(|a|.[Beta].|Q|), donde a es la cadena muestra, B el factor de ramificación medio (entre 1,6 y 3,8) y Q el conjunto de estados del modelo (talla normalmente entre 200 y 700 estados). Para el caso de que la complejidad de ECGI fuera, a pesar de todo, una desventaja, se ha estudiado la posibilidad de simplificar los modelos inferidos (capítulo 10), comprobándose que es factible reducir la complejidad espacial de los mismos en un 40% a 60%, sin merma de la tasa de reconocimiento. Además, trabajos realizados en paralelo con éste demuestran que es posible reducir, también sin pérdida de eficacia, la complejidad temporal en un factor 10.
Asimismo, en los diversos experimentos presentados en los capítulos 8 y 9, ha quedado patente que es posible reducir la complejidad temporal de ECGI en la fase de reconocimiento en un 30-40%, sencillamente y sin reducción de eficacia (e incluso con un aumento de ésta), con sólo restringir el modelo de error, prohibiéndole inserciones y borrados. Ello es tanto más cierto cuanto con más detalle se haya inferido el modelo (muchas muestras y/o resolución)
Discutiendo las condiciones de convergencia de ECGI (capítulo 9) se ha mostrado que los modelos inferidos por ECGI nunca dejan realmente de crecer. Sin embargo, un razonamiento y una demostración empírica confirman que en condiciones reales, y siempre que las muestras no presenten una variabilidad excesiva, el ECGI converge asintóticamente proporcionando modelos eficaces con un número de muestras relativamente reducido (~200).
ECGI infiere gramáticas regulares (de tipo SANSAT: "SAme Non-terminal, then SAme Terminal", ver capítulo 2) sin circuitos, en general ambiguas y no deterministas. Se ha propuesto un método (muy heurístico y subóptimo) que permite obligarle a inferir gramáticas deterministas (y por lo tanto no ambiguas) sin pérdida alguna de eficacia en reconocimiento (capítulo 11).
Por otra parte, simultáneamente con todos estos estudios centrados en el método ECGI, y como consecuencia más o menos directa de ellos, se han desarrollado otros trabajos que pueden considerarse más marginales. Estos trabajos han proporcionado resultados que tienen interés, no sólo en el marco de ECGI, sino en otros ámbitos más generales del reconocimiento sintáctico de formas y/o la teoría de lenguajes. En particular:
Se ha mostrado la factibilidad y convergencia de un algoritmo que permite la corrección de errores en todo tipo de gramáticas regulares, independientemente de que tengan o no circuitos (véase algoritmo cíclico, capítulo 5).
Se ha demostrado que toda gramática regular tiene una gramática SANSAT equivalente y un autómata de estados etiquetados (LAS: "LAbelled State automata") también equivalente (capítulo 2). Ello proporciona un método de modelización de lenguajes que en ocasiones puede ser útil en reconocimiento de formas.
Se ha definido una nueva manera de asegurar la consistencia de las probabilidades de una gramática estocástica, expandida mediante un modelo de error convencional. Este modelo asegura la consistencia de las reglas de error y reduce la complejidad del análisis sintáctico cuando se utiliza el algoritmo de Viterbi. El modelo asume probabilidades de inserción independientes de la posición y del número de reglas asociadas a un no terminal.
Se ha introducido una técnica que permite la simplificación progresiva de gramáticas regulares estocásticas (o no), siempre que no tengan circuitos. Accesoriamente, se ha definido una cantidad (el "tráfico") que permite cuantificar la importancia estructural de un vértice o un arco pertenecientes a un grafo sin circuitos.
Se ha propuesto y comprobado un método para obtener la "cadena mediana" de un conjunto de cadenas (capítulo 11), utilizando la cadena más probable de la gramática inferida por ECGI para dicho conjunto de cadenas. Como alternativa para simplificar el cálculo de la cadena más probable, se han propuesto la cadena más frecuente y la cadena localmente más frecuente. Esta última permite obtener una buena aproximación a la cadena mediana sin necesidad de recurrir a una búsqueda por optimización en la gramática inferida por ECGI.
Muchas de las perspectivas que, en su momento, abrió ECGI al proporcionar los primeros resultados esperanzadores, han sido exploradas durante los años transcurridos desde entonces hasta la finalización de este texto (apéndice A): mejoras de complejidad temporal mediante búsqueda en haz, reconocimiento anticipado y examen tan sólo de los estados alcanzados [Torró,89]; utilización de las probabilidades durante el reconocimiento y reestimación estocástica de las mismas [Castaño,90]; modificación del algoritmo de inferencia para permitirles utilizar reglas que no pertenencen todas a la misma derivación [Miralles,91]; aplicación de ECGI para la inferencia de estructuras de modelos de Markov [Casacuberta,90] [Casacuberta,90a], para la inferencia de modelos de unidades subléxicas [Carpi,90] [Sanchis,91] [Tarazona,91], para la inferencia de modelos de lenguajes [Prieto,91] [Prieto,91a]; extensión de ECGI para la utilización de modelos semicontinuos [Arévalo,90],... La mayoría de estos trabajos han abierto a su vez nuevos posibles caminos y han dejado por resolver algunas cuestiones. En cualquiera de estos campos queda pues trabajo por hacer, habiendo demostrado el ECGI, no sólo ser una herramienta eficaz de reconocimiento, sino un método flexible, aplicable a muchos campos del reconocimiento de formas y suceptible de variadas extensiones y mejoras.
En general, las direcciones de más interés hacia la que se orientan, hoy por hoy, los trabajos sobre ECGI, se centran alrededor de la mejora de su capacidad de reconocimiento, recurriendo a las mismas técnicas que se utilizan en los modelos de Markov cuando es imposible sacar más partido a los símbolos provenientes de la cuantificación vectorial: el empleo de modelos (semi)continuos. Con estas aproximaciones, se espera mejorar notablemente las tasas de reconocimiento de ECGI a costa, eso sí, de un cierto aumento de la complejidad temporal (aunque probablemente pueda mantenerse inferior a la de los modelos de Markov en el mismo caso).
Por otra parte, existe la posibilidad extremadamente interesante de utilizar ECGI en reconocimiento del habla continua. La idea en este caso consiste en concatenar modelos aprendidos mediante el ECGI (de fonemas u otras unidades subléxicas) siguiendo reglas aprendidas por el mismo ECGI (modelos de lenguaje). En esto también se sigue la aproximación seguida anteriormente por otros autores, que construyen (manualmente) modelos de lenguajes a partir de la composición de modelos de Markov [Lee,88]. Los trabajos ya realizados en este campo (ver apéndice A) han ofrecido perspectivas interesantes, con buenos (no excelentes) resultados.
Apèndice A
En paralelo con este trabajo se han realizado, en el interior del mismo grupo de investigación, varios estudios e implementaciones práticas destinadas a mejorar las capacidades del ECGI desde diversos puntos de vista y a utilizarlo en diversas aplicaciones. Estos trabajos, derivados de éste, lo complementan, por lo que se reseñan a continuación.
Isabel Alfonso, en [Alfonso,91] llevó a cabo una implementación de ECGI que funciona a tiempo real, aprovechando las técnicas desarrolladas por F.Torró para disminuir la complejidad temporal de ECGI. Esto ha permitido comparar los tiempos de respuesta reales de ECGI con los de otras métodos de reconocimiento de formas (modelos de Markov, Redes neuronales), obteniéndose resultados significativamente favorables a ECGI.
Manuél Arévalo, en [Arévalo,90] implementa una version semicontinua de ECGI, es decir, se estima una función de "densidad de probabilidad" en cada estado del modelo, que es utilizado entonces, no para inferir o reconocer a partir de símbolos discretos, sino a partir directamente de los vectores de parámetros (coeficientes cepstrales en este caso).
Francisco Casacuberta, en [Casacuberta,91] y junto con Begonia Mas, Enrique Vidal y H.Rulot en [Casacuberta,90], [Casacuberta,90a] utilizan los procedimientos de simplificación de autómatas descritos en el capítulo 10 para obtener, mediante simplificación de modelos inferidos por ECGI, la estructura de unos modelos de Markov que posteriormente entrenan con las técnicas clásicas de este campo. Finalemente, comparan los resultados obtenidos con los que proporciona ECGI, consiguiendo demostrar (ver capítulo 12) que los modelos inferidos por ECGI son, por lo menos, igualmente eficaces que modelos de Markov de no menos de 30 estados y que los métodos de simplificación propuestos en este trabajo conservan la información estructural de los modelos inferidos.
Asunción Castaño, en [Castaño,90] introdujo técnicas de reestimación estocástica para mejorar la fiabilidad de las probabilidades de los modelos inferidos por ECGI. Excepto para las primera N (N arbitrario) muestras, la inferencia es estocástica (se utilizan las probabilidades en la búsqueda de la derivación óptima). Cada N muestras siguientes se reestiman las probabilidades, utilizando el nuevo conjunto de frecuencias. El proceso se repite hasta que se cumpla cierto criterio de parada (p.e.: convergencia de las probabilidades). Los resultados obtenidos en reconocimiento, si bien no mejoran los de ECGI convencional, muestran la factibilidad de la idea de la reestimación de probabilidades.
Mª Isabel Galiano, en [Galiano, 90] introdujo un nuevo heurístico que le permitía simplificar autómatas inferidos por ECGI. A estos modelos simplificados, se les añadía luego un modelo duracional en los estados y se procedía a una reestimación de probabilidades. Las tasas de reconocimiento obtenidas no fueron todo lo buenas que se esperaba, aunque una revisión de la idea ha justificado la puesta en marcha de otro proyecto, actualmente en curso y que aún no ha proporcionado resultados.
Felipe Miralles, en [Miralles,91] modifica los heurísticos de inferencia de ECGI, para permitir que la que la secuencia de reglas identificada como la que genera la cadena más próxima a la cadena muestra pueda no ser una derivación permitida por la gramática actual en el momento de recibir la muestra (sólo se requiere que sea una combinación de fragmentos de derivaciones permitidas). La modificación realizada mantiene las características de las gramáticas inferidas por ECGI y produce en general modelos menos complejos, aunque con una mayor generalización (tamaño del lenguaje). Se introduce también un modelo de aprendizaje con muestras positivas y negativas. Sin embargo, los resultados de reconocimiento no han mostrado una clara mejora con respecto al ECGI convencional.
Natividad Prieto, H.Rulot, Emilio Sanchis y Enrique Vidal en [Prieto, 88] utilizaron el mismo corpus de letras habladas descrito en el capítulo 9, pero parametrizado con menos precisión (frecuencia de muestreo relativamente baja, clustering con pocos símbolos), obteniendo los resultados que se presentan en la tabla A.1. Estos resultados, como era de esperar por la inferioridad de la parametrización, son inferiores a los presentados en el capítulo 8, aunque a pesar de todo comparables a los que se obtienen con otros métodos de reconocimiento. La razón principal por la que se han incluído aquí es debido a que permiten observar como las tasas de reconocimiento emperoran generalmente (-0.5%) en el caso de utilizar 10 tablas de sustitución en vez de una única tabla promedio (ver capítulo 7) (aunque mejoran mucho más en un caso: +3%).
Experimento:
|
(L1)
H,I,J,K,L,M,N,O,P,Q
|
(L2)
F,L,LL,M,N,Ñ,R,S
|
Numero
medio de estados
|
240
|
346
|
No
estocástico
|
80,0%
|
60%
|
Estocástico
|
||
Modelo
de error Completo
|
83,5%
|
65,0%
|
Idem, pero 10 Tablas Sus.
|
86,5%
|
64,5%
|
Sólo
substitución
|
79,0%
|
60,6%
|
Idem, pero 10 Tablas Sus.
|
78,5%
|
60,6%
|
Sin
probabilidades de error
|
83,5%
|
61,2%
|
Emilio Sanchis y Francisco Casacuberta, en [Sanchis,90] y [Sanchis,91], y junto con MªIsabel Galiano en [Galiano,91], utilizan el ECGI para la inferencia de modelos para unidades del habla de tamaño inferior a la palabra (fonemas, sílabas,...), con el fin de generar grandes vocabularios por concatenación de dichos modelos (siguiendo reglas posiblemente también inferidas por ECGI, aplicando los procedimientos propuestos en por N.Prieto). Otros trabajos basados también en la misma idea son los de Sofía Carpi [Carpi,90] y Joaquín Tarazona [Tarazona,91], que aprenden modelos de fonemas y los utilizan luego para llevar a cabo la decodificación acústico-fonética mediante el algoritmo de un paso (J.Tarazona utiliza una versión semicontinua de ECGI, como M.Arévalo en [Arévalo,91]).
Francesc Torró, en [Torró,90] propone y estudia varios métodos que permiten reducir drásticamante la complejidad temporal de ECGI durante el reconocimiento. Utilizando técnicas de búsqueda en haz, reconocimiento anticipado y analizando sólo los estados alcanzados, obtiene las mismas tasas de aciertos visitando tan sólo un 9% de los vértices del trellis.
Apéndice B
Se muestran a continuación una serie de tablas que contienen el número de estados de los autómatas inferidos en la mayoría de los experimentos presentados en el capítulo 8.
H1: H2: H3: H4: H5: H6: piloto
0 133 171 157 130 169 153 126
1 152 144 141 118 149 159 100
2 121 135 131 113 150 129 73
3 102 120 121 97 126 107 95
4 171 182 171 178 165 162 129
5 233 270 238 210 258 243 136
6 104 121 114 126 116 104 85
7 185 209 183 186 196 181 104
8 136 149 203 140 141 147 105
9 196 220 203 171 242 202 110
Total 1533 1721 1599 1469 1712 1587 1063
HLKO11 H11: H22: H33: H44: H55:
0 193 175 187 178 180
1 179 177 194 182 186
2 150 155 140 138 141
3 126 141 131 121 131
4 213 228 217 203 222
5 340 314 326 305 332
6 131 148 156 123 149
7 236 250 236 216 223
8 188 175 186 174 175
9 225 242 223 220 243
1981 2005 1996 1860 1982
L1: L2: L3: L4:
H 854 F 763 LL 882 M 784 LL 592 M 561
I 332 L 797 RR 914 N 696 RR 696 N 468
J 676 LL 882 CH 495 O 271 CH 387 O 243
K 316 M 784 A 304 P 472 A 281 P 356
L 797 N 696 B 514 Q 271 B 393 Q 210
M 784 Ñ 901 C 781 R 708 C 583 R 497
N 696 R 708 D 541 S 817 D 388 S 584
O 271 RR 967 E 478 T 470 E 346 T 346
P 531 S 817 F 763 U 235 F 574 U 199
Q 309 G 624 V 697 G 436 V 496
H 838 W 1202 H 626 W 810
I 332 X 681 I 249 X 544
J 676 Y 1218 J 452 Y 825
K 316 Z 959 K 276 Z 670
L 752 Ñ 901 L 568 Ñ 631
5566 7315 17502 14287
LLKO L11: L22: L33: L44: L55:
F 823 787 759 753 721
L 849 732 766 731 768
LL 915 847 860 828 762
M 780 756 811 734 751
N 721 690 674 638 619
Ñ 885 870 895 834 834
R 717 663 702 672 653
RR 954 924 953 905 898
S 843 790 757 774 736
7487 7059 7177 6869 6742
Experimento con Rejilla 4
R1 R2 R3 R4 R5 R6 R7 R8 R9 R10 R11 R12
cero 225 218 222 218 219 220 218 214 213 218 163 152
uno 250 263 246 242 238 239 233 235 208 202 237 271
dos 364 357 361 391 386 379 383 391 389 386 381 365
tres 351 365 355 368 357 345 353 370 371 365 363 349
cuat 315 340 352 357 342 313 325 353 359 356 355 335
cinco 380 349 354 357 349 341 349 352 358 359 344 336
seis 257 252 255 255 247 235 242 248 247 252 257 273
siete 365 370 367 387 383 376 382 385 383 381 359 349
ocho 309 295 310 331 322 319 322 302 298 319 324 320
nueve 279 281 285 285 262 255 285 283 280 284 275 285
3096 3090 3107 3191 3105 3022 3092 3133 3106 3122 3058 3035
Experimento con Rejilla 6
R1 R2 R3 R4 R5 R6 R7 R8 R9 R10 R11 R12
cero 149 149 157 153 152 152 153 153 151 152 112 106
uno 168 179 190 190 188 189 185 186 171 166 188 181
dos 268 245 251 263 257 262 263 271 268 268 264 273
tres 278 258 248 246 236 235 239 245 246 244 243 245
cuat 245 239 251 248 240 211 222 244 246 248 248 236
cinco 261 268 274 276 274 273 274 278 280 279 273 254
seis 197 183 182 176 174 166 172 177 176 181 182 184
siete 257 283 267 271 263 259 264 279 278 275 245 261
ocho 229 211 215 243 235 236 235 223 223 237 241 229
nueve 205 206 211 218 193 190 204 204 203 207 200 196
2257 2221 2246 2284 2212 2173 2211 2260 2242 2257 2196 2165
Experimento con Rejilla 8
R1 R2 R3 R4 R5 R6 R7 R8 R9 R10 R11 R12
cero 118 120 121 119 120 118 119 118 117 118 85 91
uno 137 140 132 147 146 144 137 138 134 126 142 136
dos 202 205 197 206 208 208 207 212 213 211 208 204
tres 223 206 210 202 205 198 191 199 205 203 200 211
cuat 179 185 193 193 186 168 176 194 198 193 190 180
cinco 210 217 218 219 213 213 218 226 226 228 220 192
seis 152 140 142 136 127 128 140 142 141 144 146 153
siete 208 217 217 218 226 223 225 229 225 230 212 198
ocho 159 162 170 177 174 171 172 165 166 169 172 183
nueve 163 153 166 168 139 139 169 165 165 166 160 160
1751 1745 1766 1785 1744 1710 1754 1788 1790 1788 1735 1708
Experimento con Rejilla 10
R1 R2 R3 R4 R5 R6 R7 R8 R9 R10 R11 R12
cero 94 91 96 91 90 96 95 95 94 96 70 73
uno 111 116 115 112 108 109 110 110 97 94 109 111
dos 187 155 163 177 177 174 176 180 186 184 176 171
tres 185 173 173 173 168 164 161 167 166 163 164 168
cuat 146 145 150 151 148 140 144 151 154 153 152 151
cinco 170 176 186 193 189 183 185 189 190 190 187 159
seis 119 119 122 120 121 119 118 120 122 123 124 126
siete 174 183 181 187 183 181 182 181 183 183 172 152
ocho 147 144 136 148 141 139 145 134 132 135 141 137
nueve 141 136 133 134 113 117 137 132 131 132 128 127
1474 1438 1455 1486 1438 1422 1453 1459 1455 1453 1423 1375
Experimento con Rejilla 4
R1 R2 R3 R4 R5 R6 R7 R8
cero 135 139 142 141 141 142 142 142
uno 230 264 271 285 288 285 290 291
dos 296 308 300 295 283 302 301 301
tres 298 319 339 333 320 335 339 339
cuat 221 250 245 249 245 248 248 250
cinco 341 337 351 353 343 353 355 357
seis 219 246 253 243 239 247 247 246
siete 225 240 251 252 237 249 256 249
ocho 186 175 178 182 176 180 176 181
nueve 227 256 252 248 247 255 256 256
2378 2534 2582 2581 2519 2596 2610 2612
Experimento con Rejilla 6
R1 R2 R3 R4 R5 R6 R7 R8
cero 91 90 94 93 95 95 93 95
uno 165 166 154 152 158 157 157 160
dos 221 224 228 236 218 237 235 234
tres 210 211 219 220 209 220 222 221
cuat 162 175 157 163 157 158 164 165
cinco 257 248 265 265 245 260 264 266
seis 154 176 164 160 152 165 165 166
siete 171 164 175 179 170 179 179 179
ocho 115 115 121 120 118 120 120 121
nueve 166 186 165 163 156 166 166 165
1712 1755 1742 1751 1678 1757 1765 1772
Experimento con Rejilla 8
R1 R2 R3 R4 R5 R6 R7 R8
cero 68 75 76 76 75 76 76 76
uno 115 131 131 131 136 136 138 136
dos 150 158 158 156 153 161 160 159
tres 169 187 191 184 172 190 190 191
cuat 121 124 126 125 128 122 128 128
cinco 193 190 191 195 184 190 192 192
seis 136 130 121 123 119 125 126 123
siete 125 118 126 128 121 127 128 125
ocho 99 92 97 96 92 94 97 95
nueve 128 141 137 134 128 139 139 138
1304 1346 1354 1348 1308 1360 1374 1363
Experimento con Rejilla 10
R1 R2 R3 R4 R5 R6 R7 R8
cero 59 58 60 59 59 59 59 60
uno 104 118 112 117 121 122 117 122
dos 136 141 149 148 141 149 147 148
tres 151 148 159 156 151 157 157 157
cuat 101 99 102 103 100 101 102 103
cinco 138 151 157 157 152 156 159 159
seis 100 112 113 106 110 112 113 113
siete 101 103 111 113 106 111 112 109
ocho 74 80 89 89 84 89 87 89
nueve 105 107 115 109 109 116 116 116
1069 1117 1167 1157 1133 1172 1169 1176
En las matrices de confusión quese incluyen a continuación (las correspondientes a los experimentos de reconocimiento de imágenes) no figuran las diagonales y se han substituído los ceros por puntos, con el fin de mejorar la legibilidad.
Experimento con Rejilla 4
0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . . . . . . . . . .
uno . . . . 5 . . 3 . 1
dos . 9 . . . . . . 12 1
tres . . . . . . . . 6 27
cuat . . . . . . . . . .
cinco . . . . . . . . . .
seis 2 . . . . . . . . .
siete . . . . 11 . . . . 4
ocho 2 . . . . . . . . .
nueve . 1 . . 4 . . . 4 .
Errores por clase:
4 10 0 0 20 0 0 3 22 33
92 errores de 4800 muestras: 98.08% aciertos
Experimento con Rejilla 6
0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . . . . . . . . . .
uno . . . . 1 . . 2 . 2
dos . 8 . . . . . . 12 .
tres . . . . . . . . 6 12
cuat . . . . . . . . 1 .
cinco . . . . . . . . . 6
seis 3 . . . . . . . 1 .
siete . . . . 4 . . . . .
ocho 3 . . . . . . . . 4
nueve . 5 . . 10 . . 2 7 .
Errores por clase:
6 13 0 0 15 0 0 4 27 24
89 errores de 4800 muestras: 98.15% aciertos
Experimento con Rejilla 8
0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . . . . . . . . . .
uno . . . . 6 . . 12 . 5
dos . 5 . . . . . 1 . .
tres . . . . . . . . 3 18
cuat . . . . . . . . 1 8
cinco . . . . . . . . . 13
seis 3 . . . . . . . 3 .
siete . . 1 . 5 . . . 4 .
ocho 2 . . . . 2 2 . . 1
nueve . 19 . . 16 . . . 18 .
Errores por clase:
5 24 1 0 27 2 2 13 29 45
148 errores de 4800 muestras: 96.92% aciertos
Experimento con Rejilla 10
0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . . . . . . . . 13 2
uno . . . . 8 . 1 11 3 10
dos . 16 . . . . . 1 . .
tres . . . . . . . . 6 26
cuat . . . . . . . 1 1 6
cinco . . . 4 . . . . . .
seis . . . . . . . . 7 .
siete . . 1 . 4 . . . 3 5
ocho 6 . . . . . . . . 10
nueve . 2 . 1 19 . . . 10 .
Errores por clase:
6 18 1 5 31 0 1 13 43 59
177 errores de 4800 muestras: 96.31% Aciertos
Experimento con Rejilla 4
0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . . . . . . . . . .
uno . . . . . . . . . .
dos . . . . . . . . . .
tres . . . . . . . . . .
cuat . . . . . . . . . .
cinco . . . . . . . . . .
seis . . . . . . . . . .
siete . 1 . . . . . . . .
ocho . . . . . . . . . .
nueve . . . . . . . . . .
Errores por clase:
0 1 0 0 0 0 0 0 0 0
1 errores de 3200 muestras: 99.97%
Experimento con Rejilla 6
debe ser-> 0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . . . . . . . . 1 .
uno . . . . . . . . . .
dos . . . . . . . . . .
tres . . . . . . . . . .
cuat . . . . . . . . . .
cinco . . . . . . . . . .
seis . . . . . . . . . .
siete . 11 . . . . . . . .
ocho 1 . . . . . 4 . . 1
nueve . . . . . . . . . .
Errores por clase:
1 11 0 0 0 0 4 0 1 1
18 errores de 3200 muestras: 99.44%
Experimento con Rejilla 8
0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . 3 . . . . . . 7 .
uno . . . . . . . . . .
dos . . . . . . . . . .
tres . . . . . . . . . .
cuat . . . . . . . . . .
cinco . . . . . . . . . .
seis . . . . . . . . . .
siete . 4 . . . . . . . .
ocho 1 . . 2 . . 8 . . 1
nueve . . . 9 . . . . . .
Errores por clase:
1 7 0 11 0 0 8 0 7 1
35 errores de 3200 muestras: 98.91%
Experimento con Rejilla 10
0 1 2 3 4 5 6 7 8 9 (Clase correcta)
cero . 1 . . . . . . 7 .
uno . . . . . . . . . .
dos . . . . . . . . . .
tres . . . . . . . . 1 .
cuat . . . . . . . . . .
cinco . . . . . . . . . .
seis 1 . . . . . . . . .
siete . 1 . . . . . . . .
ocho . . . . . . 2 . . .
nueve . . . . . . . . . .
Errores por clase:
1 2 0 0 0 0 2 0 8 0
13 errores de 3200 muestras: 99.59%