# Qwen **Repository Path**: lvyuan/qwen ## Basic Information - **Project Name**: Qwen - **Description**: Qwen是阿里云推出的一系列大型语言模型。 Qwen是阿里云推出的一系列基于Transformer的大型语言模型,在大量数据(包括网页文本、书籍、代码等)进行了预训练。 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2025-04-03 - **Last Updated**: 2025-04-03 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # Qwen ## Qwen介绍 Qwen1.5是阿里云推出的一系列大型语言模型。 Qwen是阿里云推出的一系列基于Transformer的大型语言模型,在大量数据(包括网页文本、书籍、代码等)进行了预训练。 ## 硬件要求: CPU配置:CPU最低第六代intel酷睿4核,AMD ZEN 4核以上;推荐12代intel酷睿8核,AMD ZEN 8核以上 内存要求:运行内存4G及以上 ## ollama Ollama 是一个便于本地部署和运行大型语言模型(Large Language Models, LLMs)的工具。 使用通俗的语言来说,如果你想在自己的电脑上运行如 GPT-3 这样的大型人工智能模型,而不是通过互联网连接到它们, 那么 Ollama 是一个实现这一目标的工具 - 本地运行大型语言模型:Ollama 允许用户在自己的设备上直接运行各种大型语言模型,包括 Llama 2、Mistral、Dolphin Phi 等多种模型。这样用户就可以在没有网络连接的情况下也能使用这些先进的人工智能模型。 - 跨平台支持:Ollama 支持 macOS、Windows(预览版)、Linux 以及 Docker,这使得几乎所有主流操作系统的用户都可以利用这个工具。 - 语言库和第三方库支持:它提供了一个模型库,用户可以从中下载并运行各种模型。此外,也支持通过 ollama-python 和 ollama-js 等库与其他软件集成。 - 快速启动和易于定制:用户只需简单的命令就可以运行模型。对于想要自定义模型的用户,Ollama 也提供了如从 GGUF 导入模型、调整参数和系统消息以及创建自定义提示(prompt)的功能。 ## open-webui Open WebUI(以前称为Ollama WebUI)是一款面向大型语言模型(LLMs)的用户友好型Web界面 支持Ollama和兼容OpenAI的API运行。通过一个直观的界面,它为用户提供了一种便捷的方式,与语言模型进行交互、训练和管理 ## 环境准备 ### ollama ```shell docker run -d \ --name ollama \ -p 11434:11434 \ -v /home/docker/ollama/data:/root/.ollama \ ollama/ollama ``` 访问 http://192.168.0.234:11434/ 当返回 【Ollama is running】 时 进入容器执行 下载 llama2-chinese:7b ```shell ollama pull llama2-chinese:7b ``` 运行 llama2-chinese:7b ```shell ollama run llama2-chinese:7b ``` 下载 qwen:0.5b ```shell ollama pull qwen:0.5b ``` 运行 qwen:0.5b ```shell ollama run qwen:0.5b ``` ### ollama-webui ```shell docker run -d \ --name ollama-webui \ -p 11433:8080 \ -v /home/docker/ollama-webui/data:/app/backend/data \ -e OLLAMA_API_BASE_URL=http://192.168.0.234:11434/api \ -e WEBUI_SECRET_KEY=TkjGEiQ@5K^j \ ghcr.io/open-webui/open-webui:main ```