Версия cuda на вашей видеокарте

Содержание
  1. Русские Блоги
  2. Как проверить версию CUDA, поддерживаемую Nvidia в Win10
  3. Интеллектуальная рекомендация
  4. Основы MySQL (2) записи таблицы операций
  5. Глубокое исследование и традиционная разница алгоритма обучения машины
  6. Программирование хакера C ++ показывает процедуру в первой главе
  7. Анализ исходного кода Django-DRF
  8. Использование универсальных классов Java, универсальных методов, подстановочных знаков
  9. Русские Блоги
  10. Как проверить версию Windows CUDA
  11. Русские Блоги
  12. Установите несколько версий cuda
  13. 1 | 0 Значение модели GPU
  14. 2 | 0 Значение имени CUDA
  15. 2 | 1 CUDA
  16. 2 | 2 cudnn
  17. 2 | 3 CUDA Toolkit
  18. 3 | 0 nvcc&nvidia-smi
  19. 3 | 1 nvcc
  20. 3 | 2 nvidia-smi
  21. 3 | 3 Отличаются ли версии CUDA, отображаемые nvcc и nvidia-smi?
  22. 4 | 0 Разница между средой выполнения и API драйвера
  23. 5 | 0 Разница между PATH, LIBRARY_PATH, LD_LIBRARY_PATH в Linux
  24. 5 | 1 PATH
  25. 5 | 2 LIBRARY_PATH и LD_LIBRARY_PATH
  26. 6 | 0 Мультиверсионный переключатель CUDA
  27. 6 | 1 Как скачать и установить cuda
  28. 6 | 2 установка cuda
  29. 6 | 3 Переключение между несколькими версиями cuda

Русские Блоги

Как проверить версию CUDA, поддерживаемую Nvidia в Win10

Открыть настройки

Введите панель управления в поиск и откройте панель управления

Щелкните параметр «Оборудование и звук», а затем выберите панель Nvidia.

Нажмите Help на панели Nvidia и выберите System Information.

Выберите компонент, найдите «NVCUDA.DLL», вы увидите поддерживаемую версию CUDA.

Интеллектуальная рекомендация

Основы MySQL (2) записи таблицы операций

Пред. Основы MySQL (1) Типы данных и операции с таблицами данных Эта статья представляет собой примечание об операции записи таблицы. База данных операции имеет код из предыдущей статьи, вы можете про.

Глубокое исследование и традиционная разница алгоритма обучения машины

Особенность конструкции Традиционное обучение машины требует искусственных особенностей конструирования, дизайн-экстракторы. Глубокое обучение автоматически проводит экстракцию объектов. Машинное обуч.

Программирование хакера C ++ показывает процедуру в первой главе

Привет всем, я недавно видел эту книгу, некоторые из программ в книге используют технологию MFC, я напишу все это с SDK. Это вовлечено только в программный код и улучшение человека, даст вам ссылку! П.

Анализ исходного кода Django-DRF

ПРИМЕЧАНИЕ ИСТОЧНИК КУРС: https://pythonav.com/index/ Особенности Apiview и могут получить параметры с помощью запросов Характеристика 1. Унаследовать с точки зрения 2. Предоставьте свой собственный о.

Использование универсальных классов Java, универсальных методов, подстановочных знаков

Справочная точка блога (следующий контент дополнен или изменен на основе исходного блога, спасибо за руководство блога этих больших коров): Общие методы Java 1. Определите универсальный класс Синтакси.

Источник

Русские Блоги

Как проверить версию Windows CUDA

Недавно я начал изучать некоторые проблемы компьютерного зрения, связанные с обработкой изображений (следуйте за учителем, чтобы расширить свой кругозор)

Первый — установить anaconda Окружающая среда (это просто)

Затем учитель попросил использовать pytorch в качестве нашего инструмента обучения, поэтому перейдите на официальный сайт, чтобы проверить соответствующую версию pytorch:

Нам нужно только самостоятельно выбрать соответствующую систему, загрузить используемые инструменты, версию python и номер версии CUDA, а затем мы сможем получить соответствующие команды для загрузки и установки.

Я столкнулся с проблемой в это время, Что такое CUDA?

CUDA (Compute Unified Device Architecture), производитель видеокартNVIDIAВычислительная платформа запущена. CUDA ™ — универсальныйПараллельные вычисленияАрхитектура, позволяющаяGPUУмеет решать сложные вычислительные задачи. Он содержит CUDAАрхитектура набора команд(ISA) И механизм параллельных вычислений внутри графического процессора. (Приведенное выше объяснение взято из записи Baidu)

Понять, что такое CUDA, Так какой у меня номер версии CUDA? (Два метода перечислены ниже, мне только что удалось использовать первый метод, просто посмотрите на первый напрямую)

(1) Нажмите win + Q, войдите в панель управления, затем просмотрите маленький значок, щелкните панель управления NVIDIA:

Щелкните Справка на панели управления NVIDIA, а затем щелкните Информация о системе в нижнем левом углу:

Щелкните компонент: Здесь отображается ваша информация CUDA! ! !

(2) Второй способ:

Откройте CMD, введите nvcc —version

(Я знаю, что не добавил путь к пути, но, Я искал диск C и нашел его! ! ! У меня нет этого файла ∑ (っ ° Д °;) っ Бля, его больше нет! ! ! ! Я не понимаю действия гнева. . . . . Если кто-нибудь знает, где сейчас находится папка, оставьте сообщение и дайте мне знать, спасибо! ! ! ! )

(Путь поиска в Интернете: C: \ Program Files \ NVIDIA GPU Computing Toolkit \ CUDA)

Если статья неправильная, дайте мне совет! ! ! Спасибо (* ^ ▽ ^ *)

Источник

Русские Блоги

Установите несколько версий cuda

В процессе использования фреймворка глубокого обучения мы часто сталкиваемся с этими вещами. Хотя anaconda иногда помогает нам автоматически решать эти настройки, некоторые специальные библиотеки по-прежнему требуют, чтобы мы вручную настраивали среду, но на самом деле у меня есть эти термины в названии Это не очень понятно, поэтому меня всегда смущают онлайн-уроки, поэтому я считаю, что необходимо написать статью в качестве примечания для дальнейшего использования.

1 | Значение модели GPU

Видеокарта: Просто поймите, что мы сказали ранееGPU, Особенно серии GPU, производимые NVIDIA, потому что cuda и cudnn, описанные ниже, все разработаны NVIDIA исключительно для собственного GPU.

Графический драйвер: Очевидно, это буквально означает, обычно относится кNVIDIA Driver, По сути, это программный драйвер, а предыдущийВидеокартаЭто оборудование.

Архитектура графического процессора: Тесла, Ферми, Кеплер, Максвелл, Паскаль

Модель чипа: GT200, GK210, GM104, GF104 и др.

Серия видеокарт: GeForce, Quadro, Tesla

Модели видеокарт GeForce: G / GS, GT, GTS, GTX

Читайте также:  Видеокарта для physx драйвер

Архитектура графического процессора относится к способу проектирования оборудования, например к количеству ядер в кластере потокового процессора, наличию кеш-памяти L1 или L2, наличия вычислительного блока с двойной точностью и т. Д. Архитектура каждого поколения — это своего рода мышление, как лучше завершить параллельное мышление

Чип является реализацией вышеупомянутой идеи архитектуры графического процессора. Например, вторая буква в модели чипа GT200 обозначает, какое поколение архитектуры, иногда бывает 100 и 200 поколений микросхем. Их основные идеи дизайна согласуются с этим поколением архитектуры, но в деталях Некоторые изменения были внесены в вышеизложенное, например, GK210 имеет вдвое больше регистров, чем GK110. Иногда в видеокарте может быть два чипа, и Tesla k80 использует два чипа GK210. Архитектура графического процессора первого поколения здесь также называется Tesla, но в основном нет карт с таким дизайном. Если упомянуто ниже, для различения будут использоваться архитектура Tesla и серия Tesla.

Нет никакой разницы в характере серии видеокарт, но NVIDIA надеется разделить ее на три варианта: GeForce для домашних развлечений, Quadro для рабочих станций и серия Tesla для серверов. Карта Tesla K-типа разработана для высокопроизводительных научных вычислений. Выдающиеся преимущества — это высокие вычислительные возможности с плавающей запятой двойной точности и поддержка памяти ECC. Однако возможность двойной точности бесполезна для обучения глубокому обучению, поэтому серия Tesla Представлена ​​модель M как специальная видеокарта для обучения сетей глубокого обучения. Следует отметить, что серия Tesla не имеет интерфейса вывода на дисплей, она ориентирована на расчет данных, а не на графическое отображение.

Последняя модель видеокарты GeForce представляет собой другую аппаратную настройку, чем позже, тем лучше производительность, чем выше тактовая частота, тем больше память, то есть G / GS

2 | Значение имени CUDA

2 | 1 CUDA

Прочитав множество ответов, некоторые люди говорят, что CUDA — это язык программирования, такой как C, C ++ и python. Другие говорят, что CUDA — это API. Полное английское название CUDA — Compute Unified Device Architecture, вычислительная платформа, запущенная производителем видеокарт NVIDIA. CUDA ™ — это архитектура параллельных вычислений общего назначения, запущенная NVIDIA, которая позволяет графическим процессорам решать сложные вычислительные задачи. в соответствии софициальныйАргумент таков,CUDA — это платформа параллельных вычислений и модель программирования, которые могут сделать использование графического процессора для общих вычислений простым и элегантным.

2 | 2 cudnn

На самом деле это программная библиотека, специально разработанная для вычислений с глубоким обучением, которая предоставляет множество специализированных функций вычислений, таких как свертка. Как видно из приведенного выше рисунка, существует множество других программных библиотек и промежуточного программного обеспечения, включая trust, который реализует c ++ STL, cublas, реализующий версию blas для графических процессоров, cuFFT, реализующий быстрое преобразование Фурье, cuSparse, реализующий операции с разреженными матрицами, и Реализуйте cuDNN для ускорения сети с глубоким обучением и т. Д. Подробнее см.GPU-Accelerated Libraries

2 | 3 CUDA Toolkit

CUDA Toolkit состоит из следующих компонентов:

  • Compiler: Компилятор CUDA-C и CUDA-C ++ NVCC роды bin/ Справочник. Он построен на NVVM Над оптимизатором и NVVM Сам оптимизатор построен на LLVM На вершине инфраструктуры компилятора. Надеюсь, разработчики смогут использовать nvm/ Компилятор SDK в каталоге для непосредственной разработки для NVVM.
  • Tools: Укажите изображения profiler , debuggers И другие инструменты, эти инструменты могут быть из bin/ Попасть в каталог
  • Libraries: Некоторые из научных библиотек и служебных библиотек, перечисленных ниже, можно найти в lib/ Использовать в каталоге (DLL в Windows находится в bin/ В) их интерфейсы находятся в include/ Имеется в каталоге.
    • cudart: CUDA Runtime
    • cudadevrt: CUDA device runtime
    • cupti: CUDA profiling tools interface
    • nvml: NVIDIA management library
    • nvrtc: CUDA runtime compilation
    • cublas: BLAS (базовые подпрограммы линейной алгебры, базовая сборка линейной алгебры)
    • cublas_device: BLAS kernel interface
    • .
  • CUDA Samples: Продемонстрируйте, как использовать различные примеры кода CUDA и библиотечного API. Доступно для Linux и Mac samples/ Каталог, путь в Windows C:\ProgramData\NVIDIA Corporation\CUDA Samples в. В Linux и Mac samples/ Каталоги доступны только для чтения, если вы хотите их изменить, вы должны скопировать эти примеры в другое место.
  • CUDA Driver: Для запуска приложений CUDA требуется хотя бы одно в системеGPU с функцией CUDAс участиемДрайвер, совместимый с CUDA toolkit. Каждая версия набора инструментов CUDA соответствует минимальной версии драйвера CUDA, что означает, что если версия устанавливаемого драйвера CUDA ниже официальной рекомендации, она может работать некорректно. Драйвер CUDA имеет обратную совместимость, что означает, что приложения, скомпилированные в соответствии с определенной версией CUDA, будут продолжать работать в последующих выпусках драйвера. Обычно для удобства драйвер CUDA устанавливается по умолчанию при установке CUDA Toolkit. На этапе разработки вы можете выбрать установку драйвера по умолчанию, но для коммерческих ситуаций, таких как графические процессоры Tesla, рекомендуетсяофициальныйУстановите последнюю версию драйвера.
    Текущие (октябрь 2019 г.) версии CUDA Toolkit и CUDA Driver соответствуют следующему:
CUDA Toolkit Linux x86_64 Driver Version Windows x86_64 Driver Version
CUDA 10.1 (10.1.105 general release, and updates) >= 418.39 >= 418.96
CUDA 10.0.130 >= 410.48 >= 411.31
CUDA 9.2 (9.2.148 Update 1) >= 396.37 >= 398.26
CUDA 9.2 (9.2.88) >= 396.26 >= 397.44
CUDA 9.1 (9.1.85) >= 390.46 >= 391.29
CUDA 9.0 (9.0.76) >= 384.81 >= 385.54
CUDA 8.0 (8.0.61 GA2) >= 375.26 >= 376.51
CUDA 8.0 (8.0.44) >= 367.48 >= 369.30
CUDA 7.5 (7.5.16) >= 352.31 >= 353.66
CUDA 7.0 (7.0.28) >= 346.46 >= 347.62

3 | nvcc&nvidia-smi

3 | 1 nvcc

Это было введено ранее, nvcc По сути, это компилятор CUDA, который можно скачать из CUDA Toolkit. /bin Из каталога аналогично gcc Это компилятор языка C. Поскольку программа запрограммирована в исполняемый двоичный файл компилятором, а программа cuda имеет два типа кодов: один — это код хоста, работающий на процессоре, другой — код устройства, работающий на графическом процессоре, поэтому nvcc Компилятор должен гарантировать, что две части кода могут быть скомпилированы в двоичный файл и выполнены на разных машинах. Суффиксы файлов и связанные с ними значения, используемые в nvcc, следующие

Расширение файла значение
.cu исходные файлы cuda, включая коды хоста и устройства
.cup Предварительно обработанный исходный файл cuda, опция компиляции —preprocess / -E
.c c исходный файл
.cc/.cxx/.cpp исходный файл c ++
.gpu промежуточный файл gpu, опция компиляции —gpu
.ptx Как и в коде сборки, опция компиляции —ptx
.o/.obj Объектный файл, параметр компиляции —compile / -c
.a/.lib Файл библиотеки, опция компиляции —lib / -lib
.res ресурс
.so Общий объектный файл, параметр компиляции —shared / -shared
.cubin двоичный файл cuda, опция компиляции -cubin

3 | 2 nvidia-smi

nvidia-smi Весь процесс представляет собой интерфейс управления системой NVIDIA, который основан на ранее представленной NVIDIA Management Library(NVML) Утилита командной строки, созданная для помощи в управлении и мониторинге устройств NVIDIA GPU.

3 | 3 Отличаются ли версии CUDA, отображаемые nvcc и nvidia-smi?

На сервере в нашей лаборатории nvcc —version Отображаются следующие результаты:

а также nvidia-smi Результаты приведены ниже:

можно увидеть nvcc Версия CUDA — 9.2, и nvidia-smi Версия CUDA — 10.0. Странно, что иногда код удается запустить в большинстве случаев.stackoverflowПриведенное выше объяснение выглядит следующим образом:

CUDA имеет два основных API:исполняемый APIс участиемdriver API. Оба API имеют соответствующие версии CUDA (например, 9.2, 10.0 и т. Д.).

  • Используется для поддержкиdriver APIНеобходимые документы (например, libcuda.so )ОтGPU driver installerУстановлен. nvidia-smi Он принадлежит к этому типу API.
  • Используется для поддержкиruntime APIНеобходимые документы (например, libcudart.so также как и nvcc )ОтCUDA Toolkit installerУстановлен. (Установщик CUDA Toolkit иногда может интегрировать установщик драйвера графического процессора). nvcc Это инструмент компилятора-драйвера CUDA, устанавливаемый вместе с CUDA Toolkit. Он знает только версию среды выполнения CUDA, когда она была создана. Он не знает, какая версия драйвера графического процессора установлена, и даже установлен ли он.

Таким образом, если версии CUDA API драйвера и API среды выполнения несовместимы, это может быть связано с тем, что вы используете отдельный установщик драйвера графического процессора вместо установщика драйвера графического процессора в установщике CUDA Toolkit.

4 | Разница между средой выполнения и API драйвера

На следующем рисунке четко показана взаимосвязь между различными концепциями, упомянутыми ранее. Среди них среда выполнения и API драйвера во многих случаях очень похожи, что означает, что эффект от их использования эквивалентен, но вы не можете смешивать два API. , Потому что оба исключают друг друга. Другими словами, в процессе разработки вы можете выбрать только один из API. Простое понимание разницы между ними заключается в следующем: среда выполнения — это более продвинутый пакет, который более удобен для разработчиков, в то время как API драйвера находится ближе к основанию, а скорость может быть выше.

Подробно о двух APIразличияследующим образом:

  • Сложность
    • API среды выполнения упрощает управление кодом устройства, обеспечивая неявную инициализацию, управление контекстом и управление модулями. Это упрощает код, но ему также не хватает уровня контроля, обеспечиваемого API драйвера.
    • Напротив, API драйвера обеспечивает более детальный контроль, особенно в контексте и загрузке модулей. Реализовать запуск ядра намного сложнее, потому что конфигурация выполнения и параметры ядра должны быть указаны с явными вызовами функций.
  • контроль
    • Для API среды выполнения все ядра автоматически загружаются во время инициализации во время выполнения и остаются загруженными во время работы программы.
    • С помощью API драйвера вы можете загружать только те модули, которые необходимы в данный момент, или даже динамически перезагружать модули. API драйвера также не зависит от языка, потому что он обрабатывает только cubin Объект.
  • Управление контекстом
    Управление контекстом может осуществляться через API драйвера, но оно не отображается в API среды выполнения. Вместо этого API среды выполнения сам решает, какой контекст использовать для потока:
    • Если контекст становится текущим контекстом вызывающего потока через API драйвера, среда выполнения будет его использовать,
    • Если такого контекста нет, он будет использовать «первичный контекст».

Основной контекст создается по мере необходимости, по одному контексту на устройство для каждого процесса, подсчитываются ссылки, а затем уничтожаются, когда ссылок больше нет. В процессе все пользователи API среды выполнения будут совместно использовать основной контекст, если только контекст не стал текущим контекстом каждого потока. Контекст, используемый средой выполнения, то есть текущий контекст или основной контекст, может использоваться cudaDeviceSynchronize() Синхронизировать, вы также можете использовать cudaDeviceReset() уничтожить.
Однако при использовании API среды выполнения с основным контекстом придется пойти на компромисс. Например, для разработчиков, которым необходимо писать подключаемые модули для более крупных пакетов программного обеспечения, это вызовет массу проблем, потому что, если все подключаемые модули работают в одном процессе, они будут использовать общий контекст, но не смогут взаимодействовать друг с другом. . То есть, если один из них вызывает после завершения всей работы CUDA cudaDeviceReset() , Другие плагины потерпят неудачу, потому что контекст, который они используют, уничтожен без их ведома. Чтобы избежать этой проблемы, клиенты CUDA могут использовать API драйвера для создания и установки текущего контекста, а затем использовать API среды выполнения для его обработки. Однако контекст может потреблять много ресурсов, таких как память устройства, дополнительные потоки хоста и затраты производительности при переключении контекста на устройстве. Такой вид совместного использования контекста драйвера времени выполнения очень важен при использовании API драйвера с библиотеками, построенными на API времени выполнения, таких как cuBLAS или cuFFT.

5 | Разница между PATH, LIBRARY_PATH, LD_LIBRARY_PATH в Linux

5 | 1 PATH

PATH — это путь к исполняемому файлу, который является наиболее часто встречающимся из трех, потому что каждая команда в нашей командной строке, такая как ls, top, ps и т. Д., Является файлом выполнения команды, найденным системой через PATH , Затем запустите эту команду (исполняемый файл). Например, в каталоге пользователя

/mycode/ Есть папка bin, в которой находятся исполняемые двоичные файлы, сценарии оболочки и т. Д. Если вы хотите запустить исполняемый файл указанной выше папки bin в любом каталоге, вам нужно только добавить путь к корзине в PATH, как показано ниже:

5 | 2 LIBRARY_PATH и LD_LIBRARY_PATH

Эти два пути можно обсудить вместе,

  • LIBRARY_PATH даВо время компиляции программыУкажите путь для поиска общих библиотек при поиске библиотек динамической компоновки
  • LD_LIBRARY_PATH даВо время загрузки и запуска программыПри поиске библиотеки динамической компоновки укажите путь, отличный от пути по умолчанию в системе

Их общей точкой является библиотека, которая представляет собой разницу между двумя путями и путем PATH, а PATH — это исполняемый файл.

Разница между ними в том, что время использования разное. Один из них — период компиляции, который соответствует стадии разработки, такой как компиляция gcc; другой — период загрузки и выполнения, который соответствует стадии использования поставленной программы.

Способ настройки аналогичен:

6 | Мультиверсионный переключатель CUDA

На основе введения в предыдущих разделах будет легче понять, как теперь управлять несколькими версиями CUDA.

6 | 1 Как скачать и установить cuda

ЧтобыCUDA Toolkit Download Скачайте нужную версию, возьмите в качестве примера cuda_9.0.176_384.81_linux.run:

Рекомендуется использовать .run Установка файла из-за использования .deb Он может заменить установленный более новый драйвер видеокарты.

6 | 2 установка cuda

Введите на место cuda_9.0.176_384.81_linux.run Справочник:

Перехватите наиболее важные варианты в процессе установки:

Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 384.81?
(y)es/(n)o/(q)uit: n # Если вы ранее устанавливали более позднюю версию драйвера видеокарты, вам не нужно устанавливать его повторно.Если вам нужно установить его снова, выберите Да, и вам нужно закрыть графический интерфейс.

Install the CUDA 9.0 Toolkit?
(y)es/(n)o/(q)uit: y

Enter Toolkit Location
[ default is /usr/ local /cuda-9.0 ]: # Обычно выбирайте значение по умолчанию, вы также можете выбрать установку в другой каталог, указать на этот каталог при необходимости или использовать программную ссылку на / usr / local / cuda.

/usr/ local /cuda-9.0 is not writable.
Do you wish to run the installation with ‘sudo’ ?
(y)es/(n)o: y

Please enter your password:
Do you want to install a symbolic link at /usr/ local /cuda? # Связывать ли установочный каталог с / usr / local / cuda через программную ссылку, да или нет, зависит от того, используете ли вы / usr / local / cuda в качестве каталога cuda по умолчанию.
(y)es/(n)o/(q)uit: n

Install the CUDA 9.0 Samples?
(y)es/(n)o/(q)uit: n

Краткое описание предыдущих выборов:

Please make sure that

  • PATH includes /usr/ local /cuda-9.0/bin
  • LD_LIBRARY_PATH includes /usr/ local /cuda-9.0/lib64, or, add /usr/ local /cuda-9.0/lib64 to /etc/ld.so.conf and run ldconfig as root

To uninstall the CUDA Toolkit, run the uninstall script in /usr/ local /cuda-9.0/bin

Please see CUDA_Installation_Guide_Linux.pdf in /usr/ local /cuda-9.0/doc/pdf for detailed information on setting up CUDA.

***WARNING: Incomplete installation! This installation did not install the CUDA Driver. A driver of version at least 384.00 is required for CUDA 9.0 functionality to work.
To install the driver using this installer, run the following command , replacing with the name of this run file:
sudo .run -silent -driver

После завершения установки вы сможете увидеть его в каталоге / usr / local:

6 | 3 Переключение между несколькими версиями cuda

/.zshrc Пути, связанные с cuda, изменены на /usr/local/cuda/ Не используйте /usr/local/cuda-8.0/ или /usr/local/cuda-9.0/ 。

nvcc: NVIDIA ® Cuda compiler driver
Copyright © 2005-2016 NVIDIA Corporation
Built on Mon_Jan_23_12:24:11_CST_2017
Cuda compilation tools, release 8.0, V8.0.62

# cuda8.0 перейти на cuda9.0
rm -rf /usr/ local /cuda
sudo ln -s /usr/ local /cuda-9.0/ /usr/ local /cuda/
nvcc —version

Источник

Adblock
detector