随着人工智能技术的飞速发展,大型语言模型(LLM)的本地部署成为研究者和开发者关注的热点。DeepSeek R1,作为一款开源的推理模型,以其卓越的数学、代码和逻辑推理能力崭露头角。本文深入探讨了DeepSeek R1从1.5B到70B参数模型的本地部署全过程,涵盖硬件需求、模型选择、部署步骤及性能测试。我们提供了详细的代码示例(含中文注释),使用Ollama和vLLM等工具实现从轻量级1.5B到高性能70B模型的本地运行,并通过数学推理和代码生成任务进行测试。文章还分析了不同模型在资源占用和推理速度上的表