我的硬件信息,有两张8g的内存,一张英伟达显存为4g的3050显卡
查看内存信息:wmic memorychip get capacity, devicelocator, manufacturer, memorytype, speed
查看GPU的信息:nvidia-smi
CUDA Unified Memory: CUDA 提供了统一内存(Unified Memory),允许 GPU 和 CPU 共享内存空间。这可以使得内存需求超出 GPU 显存时,数据可以存储在主机内存中并在需要时传输到 GPU。
1.cuda的选择与安装
1.打开NVIDIA控制面板>>>系统信息>>>组件
就这个:
可以看到我的是nvduda64.dll NVIDIA cuda 12.6.41 driver
2.进官网,选择相应的cuda,选择版本应该=<自己的版本NVIDIA cuda 12.6.41 driver:CUDA Toolkit Archive | NVIDIA Developer
3.选择本地exe安装
4.双击安装包,自定义设置,勾选组件:
继续点下一步
点击关闭,安装结束
验证:cmd输入
最高版本:nvidia-smi
当前版本:nvcc --version
结果:
2.cudnn的安装
网址:https://developer.nvidia.com/cudnn-downloads?target_os=Windows
多版本:cuDNN Archive | NVIDIA Developer
下载的是一个压缩包,解压至你想保存的位置,并将解压的目录中的bin目录添加到环境变量里的系统变量path里面
这是我解压的bin文件夹位置:
D:\app\cudnn\bin
验证是否成功:
找到你的这个目录,并将下面的变量添加到环境变量里的系统变量path里面
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.4\extras\demo_suite
打开cmd,分别输入
bandwidthTest.exe
和
deviceQuery.exe
结果:
官网:Ollama
双击安装,默认会安到c盘,好像也没法改,但是看了一下也不是很大,大的是模型,待会会说怎么改模型的存储位置,install,等安装完:
它会自动启动
打开cmd,不用配置path啥的,输入下面两个代码看一下结果:
ollama
ollama list
OK啦
ollama官方提供的模型:llama3.1
小黄脸hugging face的模型(模型社区),有别人训练好的模型:https://huggingface.co/
模型的选择
创建一个想要你想要保存模型的位置
添加系统环境变量
变量名:OLLAMA_MODELS
变量值:D:\app\OLLAMA_MODELS
8b模型是我们目前能运行的最大模型
复制指令,cmd中输入,等下载完
上一步设置无误的话,下载文件会有在你的模型存储位置会有两个这样的文件
下载完后,它自己会启动,试着对话一下,还是很顺畅的
版权说明:如非注明,本站文章均为 扬州驻场服务-网络设备调试-监控维修-南京泽同信息科技有限公司 原创,转载请注明出处和附带本文链接。
请在这里放置你的在线分享代码