.:. 草榴社區 » 技術討論區 » 本地部署到电脑上 Llama 3.1. meta最强开源大模型。只比ChatGPT低一个等级, 可以离线使用, 也可在线使用,
本頁主題: 本地部署到电脑上 Llama 3.1. meta最强开源大模型。只比ChatGPT低一个等级, 可以离线使用, 也可在线使用,字體大小 寬屏顯示 只看樓主 最新點評 熱門評論 時間順序
呼兰大侠 


級別:禁止發言 ( 8 )
發帖:2624
威望:143 點
金錢:2640 USD
貢獻:252274 點
註冊:2015-08-14

本地部署到电脑上 Llama 3.1. meta最强开源大模型。只比ChatGPT低一个等级, 可以离线使用, 也可在线使用,

废话不多说直接上干货。
1.本地电脑安装的硬件要求:​
​Windows:3060以上显卡+8G以上显存+16G内存,硬盘空间至少20G
Mac:M1或M2芯片 16G内存,20G以上硬盘空间
在开始之前,首先我们需要安装Ollama客户端,来进行本地部署Llama3.1大模型
安装llama3.1-8b,至少需要8G的显存,
ollama run llama3.1:8b
安装llama3.1-70b,至少需要大约 70-75 GB 显存,适合企业用户,
ollama run llama3.1:78b
安装llama3.1-405b,这是一个极其庞大的模型,安装和运行它在本地需要非常高的显存和硬件资源,至少需要大约 400-450 GB 显存,适合顶级大企业用户,
ollama run llama3.1:405b

下载地址 https://ollama.com/download
下面是你是什么系统 下载什么版本。
 
下载完成安装即可
 
C盘如果小 建议换个大的。
展示页面
 
 
当然看着CMD 很蛋疼, 那么可以直接安装可视化界面。
https://www.freedidi.com/11195.html

 
 
 
 
 
 
 
 
 
 


本帖为转发,转自油管大佬 零度解说, 实在不会的请看原视频
https://www.youtube.com/watch?v=nvTQI6d8Gkw&ab_channel=%E9%9B%B6%E5%BA%A6%E8%A7%A3%E8%AF%B4
最简单的还不会的话 如果设备不行的话可以用在线网页版,网址在这。
注意 除本地部署成功后 ,不需要梯子, 下载 和视频教程 都需要梯子。
https://huggingface.co/chat/



赞(52)
DMCA / ABUSE REPORT | TOP Posted: 09-27 23:09 發表評論
.:. 草榴社區 » 技術討論區


電腦版 手機版 客戶端 DMCA
用時 0.02(s) x3, 10-30 17:19