У вас есть вопрос, у нас — ответ!

Q: Несколько GPU для deep learning – хороший вариант?

Q: Несколько GPU для deep learning – хороший вариант?

A: У нескольких GPU есть свои минусы. Во-первых, очень сложно эффективно распараллелить нейросети на несколько GPU. Во-вторых, это дает очень малый прирост скорости (почти нулевой) для крупных нейросетей. Преимуществом использования нескольких GPU является только то, что вы можете запустить несколько алгоритмов или экспериментов отдельно на каждом GPU. Однако никакого прироста скорости вы не получите. Это полезно лишь в том случае, если вы хотите запустить несколько версий одного алгоритма в одно и то же время.

CNTK от Microsoft дает лучшую производительность параллелизации, однако инструментарий сложен в использовании и работает с конфигурационными файлами, а не с библиотечным API.  

Остались вопросы? Пишите!

Принимая Соглашение, Вы подтверждаете, что ознакомились и согласны с вышеизложенным соглашением, Условиями использования сайта, Политикой конфиденциальности и Условиями возврата денежных средств, и даете согласие на обработку своих персональных данных.