【AI开源大模型】Llama3.1一键本地部署最强开源大模型!支持Windows、Mac并可以可离线使用

【AI开源大模型】Llama3.1一键本地部署最强开源大模型!支持Windows、Mac并可以可离线使用
[点击观看视频教程]

【YouTube频道】 | 【Telegram频道】 | 【GitHub仓库】

《部署教程说明》

一、需要准备的前提资料

1.本地电脑安装的硬件要求:​

​Windows:3060以上显卡+8G以上显存+16G内存,硬盘空间至少20G

Mac:M1、M2、M3芯片 16G内存,20G以上硬盘空间

2. Llama 3.1 安装所需Ollama客户端

  • 我们需要安装Ollama客户端来进行本地部署Llama3.1大模型
  • 点击进入下载地址
  • 下载完成后解压文件,(win)然后双击安装 ,(mac)把Ollama.app文件拉到Applications里就可以完成安装

3. 获取SSH连接工具

二、开始安装

win打开powershell
Mac打开终端工具(如iterm2)
ai-Llama3.1

1.安装命令:

  • 安装llama3.1-8b,至少需要8G的显存,安装命令就是

    1
    ollama run llama3.1:8b
  • 安装llama3.1-70b,至少需要大约 70-75 GB 显存,适合企业用户,安装命令就是

    1
    ollama run llama3.1:78b
  • 安装llama3.1-405b,这是一个极其庞大的模型,安装和运行它在本地需要非常高的显存和硬件资源,至少需要大约 400-450 GB 显存,适合顶级大企业用户,安装命令就是

    1
    ollama run llama3.1:405b
ai-Llama3.1

2.退出聊天输入/bye然后回车就可以:

1
/bye

3.再次进入AI模型聊天就还是之前安装命令就可以,这次就不会再安装模型,直接进入聊天窗口了

1
ollama run llama3.1:8b

三、如何卸载删除?

​Windows:默认的安装目录是:C:\Users\你的用户名\.ollama
直接在你的安装目录下,删除ollama文件夹即可, 所有下载的数据和大模型文件都在里面

Mac:默认的安装目录是:~/Applications/Ollama

  • 1、卸载llama3.1:8b模型命令:
    1
    ollama rm llama3.1:8b
  • 2、在~/Applications/目录下删除 Ollama文件就可以

四、Llama3.1大模型免费在线平台

Huggingface平台已经托管了Llama3.1大模型,现在完全免费使用!

➖➖➖➖➖➖➖➖➖➖➖➖➖
▶️ 新人YouTube 需要您的支持,请务必帮我点赞关注打开小铃铛十分感谢!!!

🎁 不要只是下载或Fork。请 follow 我的GitHub、给我所有项目一个 Star 星星(拜托了)!你的支持是我不断前进的动力! 💖

[点击展开] 赞赏支持 ~🧧 *我非常感谢您的赞赏和支持,它们将极大地激励我继续创新,持续产生有价值的工作。*
  • USDT-TRC20: TWTxUyay6QJN3K4fs4kvJTT8Zfa2mWTwDD

➖➖➖➖➖广告位➖➖➖➖
【红杏加速器】机场,专属全场套餐5折,低至5元左右222G,数量有限,先到先得!!!
点击官网【注册地址】注册
5折优惠码:AM科技
多条高速iepl专线,独家定制极速机场专线,玩游戏首选,支持奈飞,chatGPT,tiktok等8K流媒体。

➖➖➖➖➖➖➖➖➖➖➖➖➖
【69云】中转高速机场
点击官网【https://am.69yun69.com】注册
✅看片秒加载,全流媒体解锁,Chatgpt解锁web+app!
🎁不限时套餐,永久有效,让您的流量永不过期。签到,每日免费流量
✅双千兆节点,一秒下载不卡顿!低至9.9元400G

➖➖➖➖➖➖➖➖➖➖➖➖➖
【云狐VPN】专线机场
点击官网【https://yunfox.cc】注册
✔️无视晚高峰,高清流畅体验Netflix、Disney+等,可配置中转静态住宅IP,Chat GPT专线,海外社交流媒体全解锁。

➖➖➖➖➖➖➖➖➖➖➖➖➖