RTX 5090 оказалась быстрее дорогих ИИ-ускорителей Nvidia H200 и AMD MI300X в задачах подбора паролей. По тестам команды Specops, в Hashcat игровая видеокарта в среднем обгоняет MI300X на 20%, а H200 — на 63,7%, хотя серверные GPU могут стоить около $30 000 (примерно 3 млн рублей).
Как тестировали и какие алгоритмы сравнили
Specops прогнали три GPU через Hashcat — популярный инструмент восстановления паролей по хэшам. В тестах использовали пять распространённых алгоритмов: MD5, NTLM, bcrypt, SHA-256 и SHA-512. Результаты сняли в скоростях перебора для каждого типа хэширования.
| Алгоритм | H200 | MI300X | RTX 5090 |
|---|---|---|---|
| MD5 | 124,4 GH/s | 164,1 GH/s | 219,5 GH/s |
| NTLM | 218,2 GH/s | 268,5 GH/s | 340,1 GH/s |
| bcrypt | 275,3 kH/s | 142,3 kH/s | 304,8 kH/s |
| SHA-256 | 15092,3 MH/s | 24673,6 MH/s | 27681,6 MH/s |
| SHA-512 | 5173,6 MH/s | 8771,4 MH/s | 10014,2 MH/s |
Если смотреть на отдельные пики, RTX 5090 была быстрее MI300X на 33,7% в MD5. А разрыв с H200 доходил до 93,5% в SHA-512.
Почему ИИ-ускорители проиграли игровой карте
Подбор паролей в Hashcat упирается в 32-битные целочисленные операции (INT32) и в «тупую» вычислительную плотность. Это другой профиль нагрузки, чем обучение и инференс, где в ход идут FP4, BF16, FP8 и INT8.
Из-за этого датацентровые ускорители оптимизируют железо под тензорные блоки и низкую точность, а не под массовый INT32. В Specops отдельно объясняют, что у H200 INT32-ядер примерно вдвое меньше, чем FP32, и их меньше, чем у RTX 5090 — потому что основную работу в ИИ-задачах делают Tensor Cores.
С MI300X ситуация тоньше. По данным Specops, у него INT32-производительность даже выше, чем у RTX 5090. Но в Hashcat он всё равно проиграл, потому что в коде есть оптимизации под Nvidia.
В итоге тесты показывают простой вывод: современные ИИ-ускорители стали узкоспециализированными. В задачах, где нужен «старый добрый» INT32, потребительские видеокарты пока остаются быстрее.
Полный разбор Specops с графиками и пояснениями опубликован в их блоге: Specops — GPU password cracking.