fly63前端网

www.fly63.com

首页文章资源工具教程 栏目
  • 关于我们
  • 网站投稿
  • 赞助一下
搜索

在线工具_工作生活好帮手

打造各种简单、易用、便捷的在线工具,网友无需注册和下载安装即可使用

点击查看

关闭

提交网站

Llamafile
分享
复制链接
新浪微博
QQ 好友

扫一扫分享

网站地址:https://llamafile.ai
GitHub:https://github.com/Mozilla-Ocho/llamafile
网站描述:单个文件分发和运行LLM

llamafile项目的目标是让开发人员和终端用户更容易访问开源大型语言模型。为此,llamafile项目将llama.cpp与Cosmopolitan Libc结合到一个框架中,将 LLM 的所有复杂性压缩为一个可在大多数计算机上(同时支持 macOS, Windows, Linux, FreeBSD, OpenBSD, NetBSD系统)本地运行的可执行文件(称为“llamafile”),无需安装。


llama.cpp由Georgi Gerganov开发,用于以量化格式运行大型语言模型,因此它们可以在CPU上运行。llama.cpp 是一个 C 库,它允许我们在消费类硬件上运行量化的 LLM。另一方面,cosmopolitan libc 是另一个 C 库,它构建了一个可以在任何操作系统(Windows、Mac、Ubuntu)上运行的二进制文件,而无需解释器。因此,Llamafile 建立在这些库之上,这使得它可以创建单文件可执行的 LLM


可用模型采用 GGUF 量化格式。GGUF是由llama.cpp的创建者Georgi Gerganov开发的大型语言模型文件格式。GGUF 是一种用于在 CPU 和 GPU 上有效且高效地存储、共享和加载大型语言模型的格式。GGUF 使用量化技术将模型从原始的 16 位浮点压缩为 4 位或 8 位整数格式。此量化模型的权重可以以这种 GGUF 格式存储


这使得 70 亿参数模型在具有 16GB VRAM 的计算机上运行变得更加简单。我们可以在不需要 GPU 的情况下运行大型语言模型(尽管 Llamafile 甚至允许我们在 GPU 上运行 LLM)。现在,流行的开源大型语言模型(如 LlaVa、Mistral 和 WizardCoder)的 llamafile 随时可供下载和运行


下载

示例模型:Qwen-7B-Chat/Qwen-7B-Chat-q4_0.llamafile,这个模型是 70 亿参数的 int4 量化版本,4.23GB。

使用modelscope的lib下载单个文件:

from modelscope.hub.file_download import model_file_download

model_dir = model_file_download(model_id='bingal/llamafile-models',file_path='Qwen-7B-Chat/Qwen-7B-Chat-q4_0.llamafile',revision='master')


链接: https://fly63.com/nav/4173

more>>
相关栏目
文心一言
百度研发的知识增强大语言模型
官网
Bard
Google 推出的一款对话式 AI 工具
官网
讯飞星火
科大讯飞推出的新一代认知智能大模型
官网
Gemini
谷歌发布最新人工智能模型
官网
盘古大模型
华为盘古大模型,重塑千行百业
官网
豆包AI
字节跳动旗下 AI 智能助手
官网
Anthropic Claude
Anthropic发布的与ChatGPT竞争的聊天机器人
官网
Adobe Firefly
Adobe最新推出的AI图像生成和编辑工具
官网
Midjourney
一款AI绘画工具
官网
LLaMA
Meta(Facebook)推出的AI大语言模型
点击进入GitHub
AI提示语
AI提示指令,让生产力加倍!
官网
百川智能
汇聚世界知识,创作妙笔生花
官网
通义千问
一个不断进化的AI大模型
官网
Ollama
本地便捷部署和运行大型语言模型LLM框架
官网GitHub
DeepSeek
幻方量化公司旗下的开源大模型平台
官网GitHub
火山写作
字节跳动推出的一款AI智能写作服务
官网

手机预览