词汇表
创建于 2024-01-31 /
1800
本手册中有关于Stable Diffusion的专有名词,附上中文翻译与注释,以正体中文(台湾)的翻译为主。
参考自benlisquare/stable-diffusion-webui-localization-zh_TW和dtlnor/stable-diffusion-webui-localization-zh_CN
- artificial intelligence generated content (AIGC): 生成式人工智能
- ancestral sampling: 祖先采样,又称向前采样
- annotation: 标示
- batch count: 批量数量
- batch size: 批量大小
- checkpoint: 存盘点,模型格式,附文件名为
.ckpt
。 - classifier-free guidance scale (CFG scale): 事前训练的条件控制生成方法。
- CodeFormer: 2022年由Shangchen Zhou等人发表的脸部修复模型。
- conditioning:制约训练
- ControlNet: 2022年由Lvmin Zhang发表,通过加入额外条件来控制扩散模型的神经网络结构。
- cross-attention: 分散注意
- dataset: 数据集
- denoising: 去噪,降噪
- diffusion: 扩散
- Denoising Diffusion Implicit Models (DDIM): 去噪扩散隐式模型,2022年由Jiaming Song等人发表的采样方法。
- Dreambooth: Google Research和波士顿大学于2022年发表的深度学习模型,用于调整现有的文生图模型。
- embedding: 嵌入
- epoch: 时期
- Euler Ancestral (Euler a): 基于k-diffusion的采样方法,使用祖父采样与欧拉方法步数。可在20~30步数生出好结果。
- Euler: 基于k-diffusion的采样方法,使用欧拉方法步数。可在20~30步数生出好结果。
- fine-tune: 微调
- float16 (fp16): 半精度浮点数
- float32 (fp32): 单精度浮点数
- generate:生成图片
- Generative Adversarial Network (GAN):生成对抗网络,让两个神经网络相互博弈的方式进行学习的训练方法。
- GFPGAN: 腾讯于2021年发表的脸部修复模型。
- hypernetwork: 超网络
- image to image: 图生图
- inference: 模型推理
- inpaint: 内补绘制
- interrogator: 图像理解
- k-diffusion: Karras等人于2022年发表的PyTorch扩散模型,基于论文〈Elucidating the Design Space of Diffusion-Based Generative Models〉所实作。
- latent diffusion: 潜在扩散
- latent space: 潜在空间
- learning rate: 学习率
- Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion (LyCORIS)
- low-rank adaptation (LoRA): 低秩自适应,2023年由Microsoft发表,用于微调大模型的技术。
- machine learning: 机器学习
- model:模型
- negative prompts: 负向提示词
- outpaint: 外补绘制
- pickle: 保存张量的模型格式,扩展名为
.pt
- postprocessing: 后处理
- precision: 精度
- preprocessing: 预处理
- prompts: 提示词
- PyTorch: 一款开源机器学习库
- safetensors: 由Huggingface研发,安全保存张量的模型格式。
- sampling method: 采样方法
- sampling steps: 采样步数
- scheduler: 调度器
- seed: 种子码
- Stable Diffusion: 稳定扩散,一个文生图模型,2022年由CompVis发表,由U-Net、VAE、Text Encoder三者组成。
- text encoder: 文本编码
- text to image: 文本生成图片,文生图
- textual inversion: 文本倒置
- tiling: 平铺
- token: 词元
- tokenizer: 标记解析器
- Transformers: HuggingFace研发的一系列API,用于辅助PyTorch、TensorFlow、JAX机器学习,可下载最新预训练的模型。
- U-Net:用于影像分割的卷积神经网络
- unified predictor-corrector (UniPC): 统一预测校正,2023年发表的新采样方法。
- upscale: 升频,放大
- variational auto encoder (VAE): 变分自动编码器
- weights: 权重
- xFormers: 2022年由Meta发表,用于加速Transformers,并减少VRAM占用的技术。
23 人点赞过
此手册的中文贡献者: Ivon Huang
转载申明:本站所有文档均为非商业性转载,便于用户检索和使用。版权归原作者所有。