npm link命令
查看哪些包被 link 了 全局查看```bashnpm ls -g --link=true```* `--link=true` 会列出 **全局 symlink** 包* 你会看到类似:```/usr/local/lib└── ui-library -/Users/xxx/workspace/p...
npm link介绍
**`npm link` 是一个专门为本地开发 npm 包(比如你做的组件库)设计的工具。**一句话解释就是:它在不同项目之间创建“符号链接(symlink)”,让你在不发布到 npm 的情况下,本地实时使用这个包。 一、为什么要用 `npm link`当你在开发一个组件库时(例如 `ui-libr...
React 统一UI组件库
本文示例将展示如何在本地开发一个统一的 React 组件库,向团队提供统一的ui组件,并演示如何在其他项目中引用这些组件。示例内容包括:* Button 和 Modal 组件的实现* 本地调试方法(file: 引入或 npm link)* Client Component 的事件交互支持 结构示例`...
Python使用Ollama
安装Ollama(Mac/Linux系统):在终端中输入`brew install ollama`,等待安装完成。下载并运行模型:在终端输入`ollama run mistral`,即可下载并运行Mistral模型。调用Ollama的API:在Python环境中,使用以下代码调用API:```imp...
Python使用vLLM
安装依赖项:在命令行中输入`pip install vllm`,按提示完成安装。在LLaMA模型上运行推理:在Python环境中,输入以下代码:```from vllm import LLMdef main(): llm = LLM(model="Qwen/Qwen3-0.6B", max_n...
通过pip安装vLLM
通过pip安装vLLM:```pip install vllm```加载和运行模型:```vllm serve "Qwen/Qwen3-0.6B"```使用curl调用服务:```curl -X POST "http://localhost:8000/v1/chat/completions" \-H...
Docker运行vLLM
Docker运行vLLM:``` Deploy with docker on Linux:docker run --runtime nvidia --gpus all \--name my_vllm_container \-v ~/.cache/huggingface:/root/.cache/hu...
Ollama介绍
Ollama是一个本地大语言模型运行时环境,能简化开源AI模型的部署和使用流程。它具备以下特点:- **预打包模型丰富**:内置了LLaMA、Mistral、Falcon等多种模型。- **硬件适配性强**:针对日常使用的硬件进行了CPU和GPU推理优化,无论是MacBook、PC还是边缘设备,都能...
VLLM介绍
vLLM(超大型语言模型)是SKYPILOT开发的推理优化框架,主要用于提升大语言模型在GPU上的运行效率。它的优势体现在以下几个方面:- **快速令牌生成**:采用连续批处理技术,让令牌生成速度大幅提升。- **高效内存利用**:借助PagedAttention技术,在处理大上下文窗口时,能有效控...