当前位置: 首页 > news >正文

太仓建设局网站如何自己建设一个网站

太仓建设局网站,如何自己建设一个网站,官方网站建设平台,python基础教程网易前言 扩散器被设计成一个用户友好且灵活的工具箱#xff0c;用于构建适合您用例的扩散系统。工具箱的核心是模型和调度程序。然而 DiffusionPipeline 为方便起见将这些组件捆绑在一起#xff0c;但您也可以解包管道并分别使用模型和调度程序来创建新的扩散系统。 解构 Stab…前言 扩散器被设计成一个用户友好且灵活的工具箱用于构建适合您用例的扩散系统。工具箱的核心是模型和调度程序。然而 DiffusionPipeline 为方便起见将这些组件捆绑在一起但您也可以解包管道并分别使用模型和调度程序来创建新的扩散系统。 解构 Stable Diffusion 流水线 稳定扩散是一种文本到图像的潜在扩散模型。它被称为潜在扩散模型因为它使用图像的低维表示而不是实际的像素空间这使得它更节省内存。编码器将图像压缩为较小的表示形式解码器将压缩的表示形式转换回图像。对于文本到图像模型需要一个分词器和一个编码器来生成文本嵌入。从上一个的说明中您已经知道需要一个 UNet 模型和一个调度程序。 Stable Diffusion 模型有三个独立的预训练模型 VAE VAE包含两个部分一个encoder和一个decoder.encoder将图像转换到低维潜在空间作为U-Net的输入。decoder,相反的将潜在空间表示转换回图像。 在潜在扩散训练时encoder通常用于获取前向扩散过程的潜在图像表示该过程在每一步获得越来越多的噪声。在推理时由逆向扩散过程生成的潜在降噪空间会被decoder转换为图像。在推理阶段我们只需要VAE decoder. U-Net U-Net 有一个编码器部分和一个解码器部分两者都由 ResNet 模块组成。编码器将图像表示压缩为较低分辨率的图像表示解码器将较低分辨率的图像表示解码回原始的高分辨率图像表示该图像表示应该噪声较小。更具体地说U-Net 输出预测噪声残差可用于计算预测的去噪图像表示。 为了防止U-Net在下采样时丢失重要信息通常在编码器的下采样ResNet和解码器的上采样ResNet之间添加捷径连接。此外稳定的扩散 U-Net 能够通过交叉注意力层在文本嵌入上调节其输出。交叉注意力层被添加到U-Net的编码器和解码器部分通常在ResNet模块之间。 CLIP(Text Encoder) 文本编码器负责将输入提示例如“骑马的宇航员”转换为U-Net可以理解的嵌入空间。它通常是一个简单的基于 transformer 的编码器它将一系列输入标记映射到一系列潜在的文本嵌入。 受 Imagen 的启发Stable Diffusion 不会在训练期间训练文本编码器而只是使用 CLIP 已经训练好的文本编码器 CLIPTextModel。 推理过程中的稳定扩散 稳定扩散模型将潜在种子和文本提示作为输入。然后潜伏种子用于生成大小 64×6464×64 的随机潜在图像表示其中文本提示通过 CLIP 的文本编码器转换为大小 77×76877×768 的文本嵌入。  接下来U-Net 迭代地对随机的潜在图像表示进行降噪同时以文本嵌入为条件。U-Net 的输出是噪声残差用于通过调度器算法计算去噪的潜在图像表示。许多不同的调度器算法可用于此计算每种算法都有其优点和缺点。对于稳定扩散我们建议使用以下方法之一 PNDM scheduler (默认使用)DDIM schedulerK-LMS scheduler 它们从先前的噪声表示和预测的噪声残差中计算预测的去噪图像表示。 预训练模型包括设置完整扩散管道所需的所有组件。它们存储在以下文件夹中 text_encoder Stable Diffusion 使用 CLIP但其他扩散模型可能使用其他编码器例如 BERT .  tokenizer 。它必须与模型使用的 text_encoder 模型匹配。 scheduler 用于在训练期间逐步向图像添加噪点的调度算法。  unet 用于生成输入的潜在表示的模型。  vae 自动编码器模块我们将使用它来将潜在表示解码为真实图像。  我们可以通过引用保存组件的文件夹来加载组件使用 subfolder 参数 from_pretrained . from transformers import CLIPTextModel, CLIPTokenizer from diffusers import AutoencoderKL, UNet2DConditionModel, PNDMScheduler# 1. Load the autoencoder model which will be used to decode the latents into image space. vae AutoencoderKL.from_pretrained(CompVis/stable-diffusion-v1-4, subfoldervae)# 2. Load the tokenizer and text encoder to tokenize and encode the text. tokenizer CLIPTokenizer.from_pretrained(openai/clip-vit-large-patch14) text_encoder CLIPTextModel.from_pretrained(openai/clip-vit-large-patch14)# 3. The UNet model for generating the latents. unet UNet2DConditionModel.from_pretrained(CompVis/stable-diffusion-v1-4, subfolderunet)现在我们不再加载预定义的调度程序而是加载带有一些拟合参数的 K-LMS 调度程序。  from diffusers import LMSDiscreteSchedulerscheduler LMSDiscreteScheduler(beta_start0.00085, beta_end0.012, beta_schedulescaled_linear, num_train_timesteps1000)接下来让我们将模型移动到 GPU。 torch_device cuda vae.to(torch_device) text_encoder.to(torch_device) unet.to(torch_device)现在我们定义将用于生成图像的参数。 请注意 guidance_scale 该定义类似于 Imagen 论文中公式 2 的引导权重 w 。 guidance_scale 1 对应于不执行无分类器指导。在这里我们将其设置为 7.5就像之前所做的那样。 与前面的示例相比我们设置为 num_inference_steps 100 以获得更清晰的图像。  prompt [a photograph of an astronaut riding a horse]height 512 # default height of Stable Diffusion width 512 # default width of Stable Diffusionnum_inference_steps 100 # Number of denoising stepsguidance_scale 7.5 # Scale for classifier-free guidancegenerator torch.manual_seed(0) # Seed generator to create the inital latent noisebatch_size len(prompt)首先我们通过提示词得到 text_embeddings。这些嵌入将用于调节 UNet 模型并引导图像生成类似于输入提示的内容。 text_input tokenizer(prompt, paddingmax_length, max_lengthtokenizer.model_max_length, truncationTrue, return_tensorspt)text_embeddings text_encoder(text_input.input_ids.to(torch_device))[0]我们还将获得无分类器指南的无条件文本嵌入这些嵌入只是填充标记空文本的嵌入。它们需要具有与条件 text_embeddings  batch_size 和 seq_length  相同的形状 max_length text_input.input_ids.shape[-1] uncond_input tokenizer([] * batch_size, paddingmax_length, max_lengthmax_length, return_tensorspt ) uncond_embeddings text_encoder(uncond_input.input_ids.to(torch_device))[0]对于无分类器的指导我们需要进行两次前向传递一次使用条件输入  text_embeddings 另一次使用无条件嵌入  uncond_embeddings 。在实践中我们可以将两者连接成一个批次以避免进行两次前向传递。 text_embeddings torch.cat([uncond_embeddings, text_embeddings])接下来我们生成初始随机噪声。 latents torch.randn((batch_size, unet.in_channels, height // 8, width // 8),generatorgenerator, ) latents latents.to(torch_device) 如果我们在这个阶段检查它们 latents 我们会看到它们的形状 torch.Size([1, 4, 64, 64]) 比我们想要生成的图像小得多。该模型稍后会将这种潜在表示纯噪声转换为 512 × 512 图像。 接下来我们使用我们选择 num_inference_steps 的 .这将计算 sigmas 在去噪过程中使用的确切时间步长值。  scheduler.set_timesteps(num_inference_steps)K-LMS 调度器需要将 latents 乘以它 sigma 的值。让我们在这里执行此操作 latents latents * scheduler.init_noise_sigma我们已准备好编写去噪循环。 from tqdm.auto import tqdmscheduler.set_timesteps(num_inference_steps)for t in tqdm(scheduler.timesteps):# expand the latents if we are doing classifier-free guidance to avoid doing two forward passes.latent_model_input torch.cat([latents] * 2)latent_model_input scheduler.scale_model_input(latent_model_input, timestept)# predict the noise residualwith torch.no_grad():noise_pred unet(latent_model_input, t, encoder_hidden_statestext_embeddings).sample# perform guidancenoise_pred_uncond, noise_pred_text noise_pred.chunk(2)noise_pred noise_pred_uncond guidance_scale * (noise_pred_text - noise_pred_uncond)# compute the previous noisy sample x_t - x_t-1latents scheduler.step(noise_pred, t, latents).prev_sample我们现在使用 将 vae 生成的 latents 解码回图像。  # scale and decode the image latents with vae latents 1 / 0.18215 * latents with torch.no_grad():image vae.decode(latents).sample最后让我们将图像转换为 PIL以便我们可以显示或保存它。 image (image / 2 0.5).clamp(0, 1) image image.detach().cpu().permute(0, 2, 3, 1).numpy() images (image * 255).round().astype(uint8) pil_images [Image.fromarray(image) for image in images] pil_images[0]结果 参考链接 https://huggingface.co/docs/diffusers/main/en/using-diffusers/write_own_pipeline
http://www.zqtcl.cn/news/875029/

相关文章:

  • 广东工程建设监理协会网站哈尔滨网站建设服务
  • 房产网站建设方案项目书wordpress调用微博
  • 酒水销售网站模板世代网络高端企业网站建设设计功能公司
  • 怎样做网站赚钱网站建设公司fjfzwl
  • zeronet网站开发安徽建筑大学学工在线网站
  • wordpress文章自动更新关键词seo优化软件
  • 网站的备案流程图python是做网站的吗
  • 网站搭建合同怎么快速优化关键词排名
  • 什么网站可以做推广百度登录入口
  • 公司备案网站负责人是谁刷网站关键词工具
  • 比较好的建立站点网页美工设计从入门到精通
  • 新手做网站流程网店推广计划怎么写免费的
  • 怎么建造自己的网站朋友圈推广文案
  • 用什么程序做网站潍坊做电商的网站
  • 雅客网站建设网站如何挂马教程
  • 手机网站开发兼容性wordpress下载主题footer
  • 资讯网站模板带会员投稿功能怎么查网站开发的语言
  • 个人网站搭建平台wordpress免费还是收费
  • 网站优化协议嘉兴企业网站设计哪家好
  • 英文网站设计哪家好用php做的网站用什么数据库
  • 公司网站建设包括服装设计公司效果图
  • 做网站怎么购买主机下载安装百度一下
  • wordpress网站 搬家大型网站开发什么书籍好
  • 机关事业单位 网站建设方案书网站推送怎么做
  • php网站如何绑定一级域名到子目录做推广便宜的网站
  • 江苏省网站建设与管理历年自考试题商城网站 价格
  • 淘宝客网站建站源码icp备案查询官网入口
  • 环球资源网站网址微信管理中心
  • 青岛seo建站企业网址下载
  • 开发网站多少钱一个月做网站宽度