Das Training von tiefen Neuronalen Netzen braucht nicht nur große Datenmengen, sondern ist auch sehr rechenintensiv.
Durch massive Parallelisierung bleibt es dennoch in einem akzeptablen Zeitrahmen.
Als besonders effizient für solche Aufgaben haben sich Grafikkarten (GPUs) herausgestellt.
Wir besitzen einen Server speziell für Deep Learning, mit dem wir Netze trainieren und auswerten können:
- 2 x Nvidia GeForce GTX 1080 (Pascal)
- 2 x Nvidia TITAN X (Pascal)
- 64 GB RAM
- 2 x Intel Xeon CPU E5-2620 v4