魔搭社区和HuggingFace使用攻略 魔搭社区和HuggingFace使用攻略魔搭社区123456789101112131415161718#安装环境pip install -r requirements# 创建模型文件夹# mkdir 文件名mkdir DeepSeek-R1-Distill-Qwen-7B# 从modelscope拉取模型文件到文件夹# modelscope download --model 【modelscope的模型名,按照下图的步骤获取】 --local_dir ./上一步创建的文件夹名字modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-7B --local_dir ./DeepSeek-R1-Distill-Qwen-7B#数据集下载# mkdir 【数据集名字】mkdir dataset# modelscope download --dataset 【'modelscope中数据集的id,如下图'】 --local_dir './dataset'modelscope download --dataset 'FreedomIntelligence/medical-o1-reasoning-SFT' --local_dir './dataset' 获取模型 获取数据集 Hugging Face12345678910111213141516# 或者使用国内镜像加速pip install datasets -U -i https://pypi.tuna.tsinghua.edu.cn/simplepip install huggingface_hub[cli] -U -i https://pypi.tuna.tsinghua.edu.cn/simple# 重要!!如果访问 huggingface.co 速度慢,尝试设置国内镜像端点export HF_ENDPOINT="https://hf-mirror.com"#验证环境变量是否设置成功 (可选)echo $HF_ENDPOINTmkdir ruozhibahuggingface-cli download hfl/ruozhiba_gpt4 --repo-type dataset --local-dir ./ruozhibahfl/ruozhiba_gpt替换为你想要的模型idruozhiba替换为你的下载路径 炼丹 #炼丹小技巧 #魔搭 #HuggingFace 魔搭社区和HuggingFace使用攻略 https://wengerblogs.me/2025/05/16/魔搭社区和Hugging Face使用攻略/ Author Wenger Posted on May 16, 2025 Licensed under 3090 24G显卡基于WIKI中文,使用Qwen2架构预训练 Previous 在Linux服务器上进行文件传输 Next