电脑性能测试工具软件

近期,deepseek在互联网上非常火热,不仅在单位,个人进行本地部署也备受瞩目。尽管我的笔记本配置并不出众,但我也怀着学习的热情想要尝试部署。关于ollama的部署和性能问题,我了解到它可以在win11宿主机以及wsl2的docker中部署,但是两者的性能差距如何呢?显卡使用情况又如何?在没有实际测试之前,我无法给出确定的答案。由于windows和wsl2可以跨文件系统访问,我也打算测试一下这种跨文件系统访问是否会有性能损失。
以下是本次测试的环境和样例:
硬件环境方面,我使用的是自己的笔记本,具体配置如下:CPU为intel酷睿I5-1135G7,内存为40G DDR4 3200MHz,显卡为nvidia mx450,配备2G专用显存,硬盘为512G SSD。
软件环境方面,我使用的是win11 家庭版操作系统,cuda为目前最新的v12.8版本。我安装了wsl2分发版ubuntu(当前版本为Ubuntu 24.04.2 LTS),以及docker v28.0.0容器。
在安装好ollma并配置好gpu加速后,我进行了两次测试提问:
Q1:我是一名中小企业员工,我们该如何使用deepseek建立本地知识库?
Q2:作为一名IT工程师,我该如何使用ollama和anythingllm来部署本地知识库?
一、部署软件过程:
1. ollama:在win11宿主机上部署ollama非常简单,只需在ollama下载程序并安装即可。
2. cuda:需要安装与显卡驱动相匹配的cuda版本,我的笔记本安装的是最新版的12.8版本。还需按照官方教程配置相应的环境变量。
3. 强制GPU加速的配置也需进行相应的环境变量设置。
二、运行ollama测试:
1. 拉取模型:在windows终端中输入特定命令以拉取模型。
2. 运行模型:同样在windows终端中输入命令运行模型。
三、测试结果
在wsl2环境下的部署过程包括安装wsl2、分发版、docker等步骤。而gpu加速则需要参照nvidia的官方说明进行配置。在wsl2环境中运行ollama的测试过程包括进入wsl2、创建容器、运行容器等步骤。经过测试数据对比,我发现win11下直接部署ollama的性能不如在wsl2+docker的环境下部署。由此推测,直接在linux下部署docker可能会获得更好的性能。
值得注意的是,如果在wsl2+docker环境中将模型文件放置在windows文件系统下,加载模型进内存的过程会显著变慢。强烈建议避免跨文件系统的访问。
