Tutor: José Luis Guisado Lizar (Departamento: Arquitectura y Tecnología de Computadores)
Co-tutor: Fernando Díaz del Rio (Departamento: Arquitectura y Tecnología de Computadores)
Se ha conseguido minimizar el tiempo de ejecución del algoritmo mediante la aplicación de procedimientos de desarrollo que optimizan el uso de los recursos de la GPU mediante CUDA.

Se han Implementado distintos modelos para la paralelización del algoritmo: modelo maestro-esclavo, modelo de islas, modelo celular y modelo híbrido. Se ha realizado un estudio comparativo del rendimiento obtenido por la aplicación paralela sobre GPU empleando cada uno de los modelos frente a la aplicación secuencial sobre CPU.
En el mejor de los casos, se ha conseguido obtener una aceleración de más de 120x usando una GPU NVIDIA GeForce GTX 660 con 960 núcleos CUDA, en comparación con una CPU Intel i7 de última generación.
El código fuente está disponible con licencia "open source" en: https://github.com/rxp90/cuEVOGENET