El trabajo realizado se enfoca en el estudio de diferentes alternativas para el entrenamiento de un modelo de regresion logistica aplicado al caso de estudio de filtrado de spam, un problema bastante comun y peligroso en la actualidad. El objetivo del estudio es determinar la forma en que los diferentes enfoques para afrontar el proceso de entrenamiento afectan la rapidez con que se ejecuta el mismo. Se estudiaron diferentes alternativas del algoritmo de entrenamiento conocido como Descenso de Gradiente (DG) utilizando tanto CPUs como GPUs. Entre las alternativas se encuentran DG por lotes (CPU), DG estocastico (CPU) y diferentes configuraciones de DG estocastico en paralelo (GPU). Para cada alternativa se estudio la forma en que diferentes hiperparametros del modelo afectan dos aspectos: el tiempo total que tarda el algoritmo en ejecutar una "epoca" (iterar sobre todas las instancias del conjunto de entrenamiento) y la cantidad de epocas que toma el algoritmo para alcanzar algun nivel determinado de exactitud en la clasificacion. Los resultados muestran que una configuracion apropiada del enfoque de DG estocastico en paralelo puede acelerar el proceso de entrenamiento hasta dos veces con respecto a la version basica del algoritmo en CPU.