登录
首页 >  科技周边 >  人工智能

AI绘画入门:SD新手教程详解

时间:2026-04-15 11:24:33 483浏览 收藏

前往漫画官网入口并下载 ➜
这是一份专为零基础用户量身打造的Stable Diffusion实战入门指南,手把手带你从环境搭建到高质量图像生成:无需编程经验,只需一块满足要求的NVIDIA显卡,就能完成WebUI安装、模型与VAE匹配、结构化英文提示词编写、关键参数精细调优(采样器、步数、分辨率及Hires.fix),并进阶掌握ControlNet插件实现线稿/姿态精准控图——每一步都直击新手痛点,避开常见坑点,让你在短短几小时内真正跑通属于自己的AI绘画工作流,轻松迈出从好奇到创作的关键第一步。

AI绘画怎么入门_StableDiffusion新手入门详细教程

如果您对AI绘画感兴趣,但尚未接触过Stable Diffusion,可能因安装复杂、界面陌生或提示词使用不当而难以生成理想图像。以下是针对零基础用户开展Stable Diffusion实践的详细入门路径:

一、安装Stable Diffusion本地运行环境

Stable Diffusion需在本地计算机部署模型与推理框架,依赖Python环境及显卡驱动支持,确保基础运行条件满足是启动绘图的第一步。

1、确认显卡为NVIDIA型号且显存≥4GB,驱动版本需高于510.00

2、安装Python 3.10.6(不可使用3.11或更高版本),并勾选“Add Python to PATH”;

3、从GitHub克隆webui仓库:执行命令 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

4、进入stable-diffusion-webui文件夹,双击运行webui-user.bat(Windows)或webui.sh(Linux/macOS);

5、首次运行将自动下载所需依赖与默认模型,等待终端显示“Running on local URL: http://127.0.0.1:7860”即完成

二、加载基础模型与VAE文件

模型文件决定画风与细节表现力,VAE(变分自编码器)则影响颜色还原与平滑度,二者必须匹配才能避免色偏或模糊。

1、访问Civitai网站,搜索标签“SD1.5”或“sdxl”,下载一个评分≥4.5的Checkpoint模型(如“deliberate_v3”);

2、将模型文件(.safetensors或.ckpt格式)放入webui根目录下的models/Stable-diffusion/文件夹;

3、下载对应模型推荐的VAE文件(通常名称含vae-ft-mse-840000.ckpt),放入models/VAE/文件夹;

4、重启WebUI,在左上角“Stable Diffusion Checkpoint”下拉菜单中选择刚添加的模型,下方“VAE”选项同步选择同名VAE文件

三、编写有效提示词(Prompt)结构

提示词是控制画面内容的核心指令,需按权重层级组织,主体描述优先,风格与质量参数后置,避免语义冲突。

1、在“Positive prompt”框内输入:a realistic portrait of a young East Asian woman, soft lighting, studio photo, detailed skin texture, 8k uhd, masterpiece, best quality

2、在“Negative prompt”框内输入:deformed, mutated hands, bad anatomy, text, error, missing fingers, extra digit;

3、使用括号调节词权重:(masterpiece:1.3)、[low quality:0.8],括号嵌套不超过两层

4、避免中英文混输,所有提示词必须为英文单词或短语

四、配置关键采样参数与尺寸

采样器与步数共同影响图像收敛稳定性,分辨率设置需匹配显存容量,过高将导致显存溢出或中断生成。

1、在“Sampling method”中选择Euler a或DPM++ 2M Karras,避免使用PLMS或DDIM(已弃用)

2、设置Sampling steps为20–30,低于15易出现噪声,高于40提升有限但耗时显著增加

3、Width与Height建议设为512×768(竖版人像)或768×512(横版场景),总像素不得超过1280×720(921600像素)以适配6GB显存

4、启用“Hires.fix”时,先以低分辨率生成再放大,第一阶段分辨率设为512×512,第二阶段缩放倍数选1.5。

五、使用ControlNet增强构图控制力

ControlNet插件可将手绘草图、边缘图或姿态关键点映射为生成约束,大幅降低提示词调试成本,尤其适用于人物姿态与建筑结构。

1、在WebUI扩展页点击“Available”,搜索“controlnet”,勾选并点击“Install”;

2、重启WebUI后,切换至“ControlNet”选项卡,点击“Enable”;

3、上传一张人物姿势线稿图,在“Preprocessor”中选择“openpose”,点击“Detect”生成骨骼图;

4、在“Model”下拉菜单中选择匹配的controlnet-openpose模型(如control_v11p_sd15_openpose),权重(Weight)设为0.8–1.0,Processor Res设为512

今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>