El ponente Miguel A. Martínez del Amor impartirá este seminario el próximo jueves, 7 de marzo a las 11. Se podrá seguir desde este enlace de la retransmisión telemática. Toda la información aquí.

Resumen de la ponencia

Las tarjetas gráficas son dispositivos que han cobrado una gran relevancia en la Inteligencia Artificial. Su procesador paralelo, conocido como la GPU, es capaz de acelerar de forma efectiva el entrenamiento de modelos de Machine Learning. Sobre todo, tienen una gran importancia a la hora de entrenar redes neuronales. En esta ponencia introduciremos la computación con GPU: de dónde vienen las GPUs, cómo son, por qué ofrecen tanto paralelismo, cómo se programan, la arquitectura actual, cómo se emplea en el Deep Learning, y cómo se puede emplear también para el resto de modelos de Machine Learning y Data Science en general. Esta es la primera charla de una pequeña serie que vendrá dedicada a la computación con GPUs y Machine Learning.

Fuente: SIAUS (Seminario de Inteligencia Artificial de la Universidad de Sevilla).