llama.cpp编译

编译llama.cpp

基础依赖

1.编译工具

1
sudo apt-get update && sudo apt-get install -y build-essential cmake git wget

2.数学库支持

1
sudo apt-get install -y libblas-dev liblapack-dev

3.网络支持

1
sudo apt-get install -y libcurl4-openssl-dev

开始编译

1.克隆仓库然后编译

1
git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && mkdir build && cd build && cmake .. && cmake --build . --config Release

2.验证安装

1
./bin/llama-cli --version

加速支持

AMD GPU(HIP)

1
cmake .. -DGGML_HIPBLAS=ON

需安装 ROCm 和 HIP 工具链

Vulkan 加速

Linux 系统:安装 Vulkan SDK 和驱动

1
sudo apt install vulkan-tools libvulkan-dev vulkan-validationlayers

启用支持

1
cmake .. -DGGML_VULKAN=ON

验证

1
./llama-cli -m model.gguf -p "Hello" --gpu-vulkan

需确保 GPU 支持 Vulkan 1.2 及以上版本(如 AMD RDNA 架构、NVIDIA Maxwell 后显卡)

OpenBLAS 加速(CPU)

1
sudo apt-get install -y libopenblas-dev && cmake .. -DGGML_BLAS=ON -DGGML_BLAS_VENDOR=OpenBLAS

使用的模型格式

使用模型格式为gguf


llama.cpp编译
https://blog.computerqwq.top/2025/04/27/llama-cpp-bian-yi/
作者
计算机qwq
发布于
2025年4月27日
更新于
2025年4月27日
许可协议