0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何开启Stable Diffusion WebUI模型推理部署

捷易物联 2024-12-11 20:13 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

自从模型广场上新后,有不少朋友来咨询小助手如何开启模型的推理部署,今天,小助手就以Stable Diffusion WebUI为例,教大家如何捷智算平台开启模型的推理部署。

Web UI模型详细部署教程

进入捷智算,在菜单栏找到【模型广场】就可以看到上新的模型~

44aa1dc8-b7b9-11ef-8084-92fbcf53809c.png

一、选择模型类型

根据自己兴趣的模型点击【推理部署】,我们找到StableDiffusionWebUI点击【推理部署】。

二、购买容器

选择需要的GPU卡及分区,然后点击【启动实例】

44ecf08a-b7b9-11ef-8084-92fbcf53809c.png

也可以在购买容器页面点击【模型镜像】,选择需要的模型镜像,进入部署好模型的容器。

450a7b50-b7b9-11ef-8084-92fbcf53809c.png

三、打开jupyter文档

创建实例运行成功后点击【更多操作】-【查看信息】,获取并复制jupyter密码

452c6986-b7b9-11ef-8084-92fbcf53809c.png45377ca4-b7b9-11ef-8084-92fbcf53809c.png

获取密码后点击jupyter,输入复制的密码

454fd290-b7b9-11ef-8084-92fbcf53809c.png455ffa44-b7b9-11ef-8084-92fbcf53809c.png

就可以进去到模型的jupyter文件页面啦~例如选的是Stable diffusion模型,则点击Stable Diffusion文件夹

456cc42c-b7b9-11ef-8084-92fbcf53809c.png

四、启动模型

点击模型启动ipynb格式文件,按教程点击点击上方 ▸▸ 按键直接运行

点击Restart,重启内核运行

看到显示URL链接就说明模型启动成功啦~

45aa78bc-b7b9-11ef-8084-92fbcf53809c.png

五、配置外网端口并外网打开

要留意一下哦!模型广场web的一般是链接是0.0.0.0:8801,但是只能在内网打开(也就是不能在您自己的电脑打开模型链接的意思),如果想外网分享链接,需要申请端口开放。返回控制台,点击【更多操作】-【设置端口】

45c95700-b7b9-11ef-8084-92fbcf53809c.png

内网端口输入8801,点击【确认】,就会生成一个外网端口

45e21c54-b7b9-11ef-8084-92fbcf53809c.png

再次点击设置端口,就可以看到生成的外网端口,比如20403

46054c1a-b7b9-11ef-8084-92fbcf53809c.png

这样就可以在外网打开

如果看到远程地址是183.47.51.183,那你就可以在自己的电脑浏览器输入【183.47.51.183:20403】打开Web UI使用界面。

461ee0a8-b7b9-11ef-8084-92fbcf53809c.png

打开后,大家就可以在SD的世界里畅玩啦~记得先去找小助手薅羊毛,再来推理部署

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    41101

    浏览量

    302576
  • 人工智能
    +关注

    关注

    1820

    文章

    50324

    浏览量

    266900
  • 模型
    +关注

    关注

    1

    文章

    3818

    浏览量

    52265
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【瑞萨AI挑战赛】手写数字识别模型在RA8P1 Titan Board上的部署

    手写数字识别模型在RA8P1 Titan Board上的部署 手写数字识别是计算机视觉领域的经典入门任务,而瑞萨RA8P1 Titan Board开发板凭借其搭载的双内核架构与专用NPU算力,成为
    发表于 03-15 20:42

    模型推理服务的弹性部署与GPU调度方案

    7B 模型 FP16 推理需要约 14GB 显存,70B 模型需要 140GB+,KV Cache 随并发数线性增长,显存碎片化导致实际利用率不足 60%。
    的头像 发表于 03-03 09:29 397次阅读

    LLM推理模型是如何推理的?

    这篇文章《(How)DoReasoningModelsReason?》对当前大型推理模型(LRM)进行了深刻的剖析,超越了表面的性能宣传,直指其技术本质和核心局限。以下是基于原文的详细技术原理、关键
    的头像 发表于 01-19 15:33 697次阅读
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    AI端侧部署开发(SC171开发套件V3)2026版

    AI端侧部署开发(SC171开发套件V3)2026版 序列 课程名称 视频课程时长 视频课程链接 课件链接 工程源码 1 Fibo AI Stack模型转化指南 27分19秒 https
    发表于 01-15 10:31

    Termux手机摄像头采集图像/视频流 部署 YOLO 模型推理

    Termux手机摄像头采集图像/视频流 部署 YOLO 模型推理
    的头像 发表于 12-14 07:26 3298次阅读

    本地部署Stable Diffusion实现AI文字生成高质量矢量图片应用于电子商务

    本地部署Stable Diffusion
    的头像 发表于 11-28 07:19 889次阅读

    什么是AI模型推理能力

    NVIDIA 的数据工厂团队为 NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的头像 发表于 09-23 15:19 1456次阅读

    本地部署openWebUI + ollama+DeepSeek 打造智能知识库并实现远程访问

    DeepSeek是一款由国内人工智能公司研发的大型语言模型,实现了媲美OpenAI-o1模型的效果,拥有强大的自然语言处理能力,还大幅降低了推理模型的成本,受到海内外用户的广泛吹捧
    的头像 发表于 09-10 16:41 5518次阅读
    本地<b class='flag-5'>部署</b>openWebUI + ollama+DeepSeek 打造智能知识库并实现远程访问

    【Sipeed MaixCAM Pro开发板试用体验】基于MaixCAM-Pro的AI生成图像鉴别系统

    1. 项目概述 本项目旨在开发并部署一个高精度的深度学习模型,用于自动鉴别一张图片是由AI生成(如Stable Diffusion, DALL-E, Midjourney等工具生成)还
    发表于 08-21 13:59

    基于米尔瑞芯微RK3576开发板部署运行TinyMaix:超轻量级推理框架

    本文将介绍基于米尔电子MYD-LR3576开发平台部署超轻量级推理框架方案:TinyMaix 摘自优秀创作者-短笛君 TinyMaix 是面向单片机的超轻量级的神经网络推理库,即 TinyML
    发表于 07-25 16:35

    【VisionFive 2单板计算机试用体验】3、开源大语言模型部署

    1、ollama平台搭建 ollama可以快速地部署开源大模型,网址为https://ollama.com, 试用该平台,可以在多平台上部署 Deepseek-R1, Qwen3, Llama
    发表于 07-19 15:45

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署
    的头像 发表于 07-04 14:38 2415次阅读

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文将探讨大模型
    发表于 07-03 19:43

    边缘计算中的机器学习:基于 Linux 系统的实时推理模型部署与工业集成!

    你好,旅行者!欢迎来到Medium的这一角落。在本文中,我们将把一个机器学习模型(神经网络)部署到边缘设备上,利用从ModbusTCP寄存器获取的实时数据来预测一台复古音频放大器的当前健康状况。你将
    的头像 发表于 06-11 17:22 1152次阅读
    边缘计算中的机器学习:基于 Linux 系统的实时<b class='flag-5'>推理模型</b><b class='flag-5'>部署</b>与工业集成!

    基于RK3576开发板的RKLLM大模型部署教程

    Runtime则负责加载转换后的模型,并在Rockchip NPU上进行推理,用户可以通过自定义回调函数实时获取推理结果。 开发流程分为模型转换和板端
    的头像 发表于 05-16 17:48 2585次阅读
    基于RK3576开发板的RKLLM大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>教程