Hola amigos, en mi debian sarge he creado un algoritmo en R y una version compilada en C de ese algoritmo, he notado que el programa en R converge mas rapidamente que el de C, el programa en R usa 5 digitos de precision mientras que el programa en C usa 6 digitos, se puede deber a la precision el problema de la convergencia. Gracias de antemano. -- Web Page http://geocities.com/lord_tyranus_96/