登录
首页 >  文章 >  python教程

使用稳定的扩散V上的笔记本电脑上的AI驱动图像处理 - 这比您想象的要容易!

来源:dev.to

时间:2025-01-31 12:42:54 443浏览 收藏

亲爱的编程学习爱好者,如果你点开了这篇文章,说明你对《使用稳定的扩散V上的笔记本电脑上的AI驱动图像处理 - 这比您想象的要容易!》很感兴趣。本篇文章就来给大家详细解析一下,主要介绍一下,希望所有认真读完的童鞋们,都有实质性的提高。

这个脚本利用稳定的扩散v1.5从拥抱面孔的扩散器库来基于给定文本提示符生成图像变化。通过使用火炬和pil,它处理输入图像,应用ai驱动的转换并保存结果。

您可以克隆此回购以获取代码

https://github.com/alexander-uspenskiy/image_variations>

源代码:

import torch
from diffusers import StableDiffusionImg2ImgPipeline
from PIL import Image
import requests
from io import BytesIO

def load_image(image_path, target_size=(768, 768)):
    """
    Load and preprocess the input image
    """
    if image_path.startswith('http'):
        response = requests.get(image_path)
        image = Image.open(BytesIO(response.content))
    else:
        image = Image.open(image_path)

    # Resize and preserve aspect ratio
    image = image.convert("RGB")
    image.thumbnail(target_size, Image.Resampling.LANCZOS)

    # Create new image with padding to reach target size
    new_image = Image.new("RGB", target_size, (255, 255, 255))
    new_image.paste(image, ((target_size[0] - image.size[0]) // 2,
                           (target_size[1] - image.size[1]) // 2))

    return new_image

def generate_image_variation(
    input_image_path,
    prompt,
    model_id="stable-diffusion-v1-5/stable-diffusion-v1-5",
    num_images=1,
    strength=0.75,
    guidance_scale=7.5,
    seed=None
):
    """
    Generate variations of an input image using a specified prompt

    Parameters:
    - input_image_path: Path or URL to the input image
    - prompt: Text prompt to guide the image generation
    - model_id: Hugging Face model ID
    - num_images: Number of variations to generate
    - strength: How much to transform the input image (0-1)
    - guidance_scale: How closely to follow the prompt
    - seed: Random seed for reproducibility

    Returns:
    - List of generated images
    """
    # Set random seed if provided
    if seed is not None:
        torch.manual_seed(seed)

    # Load the model
    device = "cuda" if torch.cuda.is_available() else "cpu"
    pipe = StableDiffusionImg2ImgPipeline.from_pretrained(
        model_id,
        torch_dtype=torch.float16 if device == "cuda" else torch.float32
    ).to(device)

    # Load and preprocess the input image
    init_image = load_image(input_image_path)

    # Generate images
    result = pipe(
        prompt=prompt,
        image=init_image,
        num_images_per_prompt=num_images,
        strength=strength,
        guidance_scale=guidance_scale
    )

    return result.images

def save_generated_images(images, output_prefix="generated"):
    """
    Save the generated images with sequential numbering
    """
    for i, image in enumerate(images):
        image.save(f"images-out/{output_prefix}_{i}.png")

# Example usage
if __name__ == "__main__":
    # Example parameters
    input_image = "images-in/Image_name.jpg"  # or URL
    prompt = "Draw the image in modern art style, photorealistic and detailed."

    # Generate variations
    generated_images = generate_image_variation(
        input_image,
        prompt,
        num_images=3,
        strength=0.75,
        seed=42  # Optional: for reproducibility
    )

    # Save the results
    save_generated_images(generated_images)

它的工作原理:

>加载和预处理输入图像

接受本地文件路径和url。

> 将图像转换为rgb格式,并将其调整为768×768,以维持纵横比。
添加填充以适合目标尺寸。
初始化稳定扩散v1.5

>将模型加载在cuda上(如果有)或落回cpu。 使用stablediffusionimg2imgpipeline处理输入映像。 生成ai修改的图像变化


添加文本提示来指导转换。
强度(0-1)和引导量表(更高=更严格的提示依从性)等参数允许自定义。

每个提示支持多个输出图像。

将结果保存到图像输出目录。

>输出带有顺序命名方案的生成图像(生成_0.png,生成_1.png等)。

示例用例

>您可以使用以下提示来将一个人的图像转换为中世纪的国王 提示=“在中世纪的环境中,将这个人当作强大的国王,逼真的和详细的。

初始图像:


结果:

image description

cons&pros

cons:image description

在某些硬件配置上可能会很慢。

小尺寸模型限制。

  • pros:
  • >在本地运行(不需要云服务)。
用于微调输出的可自定义参数。

可重现的可选随机种子。
  • 今天关于《使用稳定的扩散V上的笔记本电脑上的AI驱动图像处理 - 这比您想象的要容易!》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!

声明:本文转载于:dev.to 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>