<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[ReRoom AI 室內渲染]]></title><description><![CDATA[ReRoom AI 室內渲染]]></description><link>https://tw-blog.reroom.ai</link><generator>RSS for Node</generator><lastBuildDate>Fri, 10 Apr 2026 11:58:02 GMT</lastBuildDate><atom:link href="https://tw-blog.reroom.ai/rss.xml" rel="self" type="application/rss+xml"/><language><![CDATA[en]]></language><ttl>60</ttl><item><title><![CDATA[AI 室內設計工作流教學 （四）：Krita + ComfyUI使用教學。]]></title><description><![CDATA[本篇教學將介紹如何安裝與使用 Krita + ComfyUI ，真正實際結合Krita的圖層功能和ComfyUI的AI生成功能來實現對AI生圖工具最大的控制性。
這篇文章會提到：

安裝Krita / 安裝 Krita Diffusion AI 插件

ComfyUI 自訂節點安裝 ＆ 必要ＡＩ模型檔案下載

Krita 介面簡單介紹 / Diffusion AI 插件介面簡單介紹

使用Diffusion AI 插件的生成模式將拼貼圖渲染為真實圖片。


安裝Krita
關於Krita和 Co...]]></description><link>https://tw-blog.reroom.ai/ai-krita-comfyui</link><guid isPermaLink="true">https://tw-blog.reroom.ai/ai-krita-comfyui</guid><category><![CDATA[comfyui]]></category><dc:creator><![CDATA[Wayne Huang]]></dc:creator><pubDate>Fri, 21 Mar 2025 10:52:29 GMT</pubDate><content:encoded><![CDATA[<p>本篇教學將介紹如何安裝與使用 Krita + ComfyUI ，真正實際結合Krita的圖層功能和ComfyUI的AI生成功能來實現對AI生圖工具最大的控制性。</p>
<p>這篇文章會提到：</p>
<ol>
<li><p>安裝Krita / 安裝 Krita Diffusion AI 插件</p>
</li>
<li><p>ComfyUI 自訂節點安裝 ＆ 必要ＡＩ模型檔案下載</p>
</li>
<li><p>Krita 介面簡單介紹 / Diffusion AI 插件介面簡單介紹</p>
</li>
<li><p>使用Diffusion AI 插件的生成模式將拼貼圖渲染為真實圖片。</p>
</li>
</ol>
<h2 id="heading-krita">安裝Krita</h2>
<p>關於Krita和 ComfyUI的基本介紹，這個系列的第一篇文章已經介紹過，這邊就不再贅述：想了解為什麼選用Krita + comfyUI這個組合的讀者，請看這篇文章：</p>
<p><a target="_blank" href="https://tw-blog.reroom.ai/comfy-krita?source=more_series_bottom_blogs">https://tw-blog.reroom.ai/comfy-krita?source=more_series_bottom_blogs</a></p>
<p>我們總共需要安裝以下三項：</p>
<ul>
<li><p>Krita</p>
</li>
<li><p>ComfyUI</p>
</li>
<li><p>Krita Diffusion插件</p>
</li>
</ul>
<hr />
<h2 id="heading-krita-1">Krita 安裝：</h2>
<p>首先，我們先下載Krita這個軟體並安裝，下載地址如下，按照步驟一步步完成即可：</p>
<p><a target="_blank" href="https://krita.org/zh-tw/download/">https://krita.org/zh-tw/download/</a></p>
<p><img src="https://krita.org/images/pages/application-screenshot.webp" alt="Features | Krita" /></p>
<hr />
<h2 id="heading-comfyui">ComfyUI安裝：</h2>
<p>關於ComfyUI插件的安裝，我們上一篇教學文已經有大致上的介紹了，還沒有讀過的讀者可以到這篇文章一步步的來安裝：<a target="_blank" href="https://tw-blog.reroom.ai/ai-comfyui-installation">安裝ComfyUI</a>。</p>
<p>我們先打開ComfyUI等待後續使用。</p>
<hr />
<h2 id="heading-krita-diffusion">Krita Diffusion插件安裝：</h2>
<h3 id="heading-5a6j6kod5os5lu2">安裝插件</h3>
<p>先到這個網址：<a target="_blank" href="https://docs.interstice.cloud/installation/">https://docs.interstice.cloud/installation/</a></p>
<p>先到第二點：Latest Release下載最新版本的插件檔案：寫這篇文章的當下最新版本是<a target="_blank" href="https://github.com/Acly/krita-ai-diffusion/releases/tag/v1.31.2">Version 1.31.2</a>。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741251907117/85247f95-f76d-443c-b55f-25f8449fe994.png" alt class="image--center mx-auto" /></p>
<p>然後打開 Krita 中，點擊 <code>工具</code> &gt; <code>腳本</code> &gt; <code>從文件導入 Python 插件</code>。直接選擇<strong>匯入下載下來的ZIP(無需解壓縮)</strong>即可。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742520069126/939d9aa3-3ce9-461e-8ffb-570884c02009.png" alt /></p>
<p>接下來我們重新啟動Krita，並打開任意文件，接著點開<code>設定</code>\&gt;<code>工具面版</code>\&gt;<code>AI Image Generation</code>。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741252114880/b66eb6ea-4ab1-4ed7-bc1b-675190ba89c4.png" alt class="image--center mx-auto" /></p>
<p>插件會出現在右下角。介面預設是英文，但我們來更改一下語言。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741252695405/2ac8504e-d02e-4df0-87a2-9c19c0177be2.jpeg" alt class="image--center mx-auto" /></p>
<p>按下下方的Configure按鈕，到Interface這欄，在右方的Language選擇正體中文：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741252553646/1effe6cc-068d-4477-be25-94fab2a14352.png" alt class="image--center mx-auto" /></p>
<p>我們再重啟一次Krita，介面就會換成中文了:</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741252863166/4611264c-16f0-4838-b52b-227b502e51d9.jpeg" alt class="image--center mx-auto" /></p>
<h3 id="heading-comfyui-1">在ComfyUI設定連線</h3>
<p>接下來我們來設定連線。首先先打開你的<strong>ComfyUI</strong>，點擊左下角的 <code>Settings</code></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741253073929/78099f8b-7104-44ff-b985-c2971d6148b9.jpeg" alt class="image--center mx-auto" /></p>
<p>點擊左側 <code>Sever-Config</code> 欄，記住你ComfyUI的Host和Port ，這邊是127.0.0.1 和 8000</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741253339947/c5412583-85c9-4093-8bdf-218a2823413d.jpeg" alt class="image--center mx-auto" /></p>
<p>Okay，我們回到Krita，按下設定按鈕，在第一欄 <code>連線</code> 中，我們可以看到很多選項，這邊選擇<strong>自訂伺服器</strong> <strong>。</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741253615625/0dd3ba3d-75d0-4723-ac57-6d73b6cba063.jpeg" alt class="image--center mx-auto" /></p>
<p>伺服器網址中，我們對照之前紀錄的Host和Port，將Port改成8000，然後按下連線：</p>
<p>插件會提示缺少以下節點，我們接著來安裝這些節點：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741253714537/ea9e8121-b45b-48f4-af69-fc77dbce97ed.jpeg" alt class="image--center mx-auto" /></p>
<h3 id="heading-5a6j6kod5bf6kab56a6bue">安裝必要節點</h3>
<p>在開始使用之前有一些必要的<strong>自訂節點（Custom Node）需要安裝</strong>，在ComfyUI Manager中下載以下的節點：</p>
<ul>
<li><p>ControlNet preprocessors → <a target="_blank" href="https://github.com/Fannovel16/comfyui_controlnet_aux">Fannovel16/comfyui_controlnet_aux</a></p>
</li>
<li><p>IP-Adapter → <a target="_blank" href="https://github.com/cubiq/ComfyUI_IPAdapter_plus">cubiq/ComfyUI_IPAdapter_plus</a></p>
</li>
<li><p>Inpaint nodes → <a target="_blank" href="https://github.com/Acly/comfyui-inpaint-nodes">Acly/comfyui-inpaint-nodes</a></p>
</li>
<li><p>External tooling nodes → <a target="_blank" href="https://github.com/Acly/comfyui-tooling-nodes">Acly/comfyui-tooling-nodes</a></p>
</li>
</ul>
<p>不了解如何安裝的讀者，請再參考<a target="_blank" href="https://tw-blog.reroom.ai/ai-comfyui-installation">這篇文章</a>的使用ComfyUI Manager安裝自訂節點部分。這些節點如ControlNet、IP-Adapter先前都有介紹過，在ComfyUI Manager中搜尋並下載這些節點即可。</p>
<h3 id="heading-5lil6lyj5bf6kab5qqu5qgi">下載必要檔案</h3>
<p>接下來，我們需要確認我們使用的SD模型版本，針對不同的版本會需要下載不同的檔案，我們回到插件的安裝教學頁面，點擊左側的<code>ComfyUI Setup</code> 下滑到Required models（必要模型檔案）區塊，點擊下方最右側的按鈕 <a target="_blank" href="https://docs.interstice.cloud/models?arch-sdxl=false#downloading-models">Model list (minimal)</a>（最低模型需求表），這裡列出的是運行這個插件最低的需求，必須要針對我們使用的模型下載這些檔案才能使用這個插件。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741254402513/388c58dc-ccc8-4e2a-aea1-bf498a56522f.png" alt class="image--center mx-auto" /></p>
<p>這邊我選擇SDXL的Base model:</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741164266120/8f848375-4067-48f7-83ca-4a30d2cdbd55.png" alt class="image--center mx-auto" /></p>
<p>選擇你想使用的模型版本，並衡量一下顯卡的效能是否可以跑得動，之後的即時渲染會消耗不少的顯存：</p>
<ul>
<li><p>SD1.5 － 使用最少的顯卡效能，沒有中高效能的顯卡可以考慮下載</p>
</li>
<li><p>SDXL － 效果較好，但是會需要較好的顯卡效能</p>
</li>
<li><p>FLUX － 最新的模型，有興趣的朋友可以去查詢如何使用，這邊不多做介紹。</p>
</li>
</ul>
<p>這邊我選則使用SDXL的版本，把下述的模型下載（點擊連結可以直接下載）到<strong>指定的資料夾</strong>（參考下圖的路徑）就完成插件的設定了！</p>
<p>設定完成後，會顯示已連線，插件就可以使用了！</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741165747624/f69d0ecf-e5ff-4dc7-a9b5-412de2ff8e36.png" alt class="image--center mx-auto" /></p>
<hr />
<h2 id="heading-krita-diffusion-1">Krita Diffusion 插件介紹</h2>
<p>完成跟ComfyUI的連接之後，我們將插件放放到習慣的位置，我的配置如下。建議是給這個插件完整的一欄，之後比較好操作。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741664304692/a8127a70-e83e-4db9-8ff0-665f4f542684.png" alt class="image--center mx-auto" /></p>
<h2 id="heading-5os5lu25lul6z2i5lul57s5">插件介面介紹</h2>
<p>接下來來介紹一下插件的介面：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742461275080/31ab05b0-5a50-4f6e-a005-e8a07eb57350.png" alt /></p>
<h3 id="heading-77yh77yp55sf5oiq5qih5byp77ya">ＡＩ生成模式：</h3>
<p>使用AI渲染的方式，我們會著重介紹<strong>生成</strong>和<strong>即時</strong>這兩種方式。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742460350141/2cf88b6c-4283-43d0-bee8-d58e0be46e6d.png" alt /></p>
<h3 id="heading-5qih5z6l6yg45poh77ya">模型選擇：</h3>
<p>這邊可以選擇使用的模型，假如你安裝了和SDXL、FLUX模型相關的節點的話，這邊就可以選擇該模型預設，左邊的小ICON會顯示該模型是哪種版本的模型：例如XL、1.5。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742462019017/7f04306a-f72f-4f41-8c3b-6a779c7c4531.png" alt /></p>
<p>需要更改的話可以到<code>右上角設定</code>→<code>Styles</code>→<code>Style Prestets</code>欄位去設定，預設的設定如Cinematic Photo(XL)無法更改設定，但使用者可以自行增加預設，更進階的使用者可以在這個地方去設定自己常用的模型。關於模型可以參考<a target="_blank" href="https://tw-blog.reroom.ai/ai-comfyui-workflow?source=more_series_bottom_blogs">這篇文章</a>。</p>
<p>一般來說預設的模型就很夠用了（如下圖）之後我們會使用預設的Cinematic Photo（ＸＬ）設定來生成圖片。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742461764816/a39736df-7bbe-4dfb-af0d-8eb8d0f67aa3.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-6kit5a6a77ya">設定：</h3>
<p>需要設定的上述差不多已經有提到了，這邊就不贅述。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742462536031/055c507e-858c-4ef6-a6ec-cf67f2ad1e2d.png" alt /></p>
<h3 id="heading-strength">強度/步數調整（Strength）：</h3>
<p>關於強度和步數調整會影像生成時間和最終的生成品質，有興趣的讀者可以參考<a target="_blank" href="https://tw-blog.reroom.ai/ai-comfyui-workflow?source=more_series_bottom_blogs">這篇文章</a>。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742462445332/1bc4bf6a-12f8-42c8-afe5-1bd7c0e9eeaf.png" alt /></p>
<h3 id="heading-generate">生成按鈕（Generate）：</h3>
<p>生成按鈕會依照不同的操作而出現不同的選項，比如下方的圖面是當你選取一個範圍後出現的額外選項，之後實際應用時會再說明。生成按鈕下方會有一個進度條來顯示目前模型生成的進度。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742462380542/78b1c171-27dc-41aa-b767-1c4efbaafb9c.png" alt class="image--center mx-auto" /></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742462404884/39442037-5454-44da-8603-d6a1fc7da49f.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-55sf5oiq6kit5a6a77ya">生成設定：</h3>
<p>Batches : 一次生成圖片數量</p>
<p>Seed：將Fixed欄位打勾後會固定Seed值，生成同一張圖片，Fixed欄位打勾後如果要更動Seed值需按下旁邊的骰子按鈕</p>
<p>Enqueue可以決定生成的順序，預設是依序生成，也可以設定成晚送出先生成。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742519596534/7d8a94c8-0396-4f09-a454-d53c82ba8538.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-5oq56s66kme6ly45ywl77ya">提示詞輸入：</h3>
<p>黃色框選範圍就是提示詞區域，可以將你對畫面的想法、希望生成的東西輸入到這裡。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742462341702/af19c666-c1d4-4391-a594-920ccfd20830.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-5o6n5yi25zyw5bgk77ya">控制圖層：</h3>
<p>右下角粉色圈起來的圖示就是控制圖層，按下後會出現黃色圈選出來的控制圖層。</p>
<p>你可以在最左側選擇不同的控制類型，中間選擇<strong>要參考的圖層</strong>，最右側是<strong>參考強度</strong>。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742462299183/24018b09-6685-4c6d-b343-38fa24df7336.png" alt class="image--center mx-auto" /></p>
<p>以下是簡單的控制類型介紹，有興趣的話可以更深入研究，在這個工作流，我們會需要用到的會有<strong>Depth / Canny /Composition</strong> 控制。</p>
<p>用 <strong>Composition</strong> 來舉例的話，模型會參考你選擇圖層的結構來生成圖片，強度越高的話整體形狀會更接近原圖，同時也限縮了模型生成的自由度，通常需要花較多的時間在調整參考強度上。</p>
<p>在實務上可以用來<strong>提供房屋結構給模型，能夠更精準生成符合格局的圖面</strong>。</p>
<div class="hn-table">
<table>
<thead>
<tr>
<td><strong>控制類型</strong></td><td><strong>作用</strong></td><td><strong>應用場景</strong></td></tr>
</thead>
<tbody>
<tr>
<td><strong>Pose Control（OpenPose）</strong></td><td>控制人體姿勢</td><td>生成與參考照片相同動作的角色</td></tr>
<tr>
<td><strong>Canny Edge（邊緣線）</strong></td><td>控制輪廓結構</td><td>讓 AI 照著手繪線稿生成圖片</td></tr>
<tr>
<td><strong>Depth Map（深度圖）</strong></td><td>保持場景的立體感</td><td>讓 AI 生成與參考圖片相同視角的場景</td></tr>
<tr>
<td><strong>Scribble（塗鴉）</strong></td><td>依據簡單手繪創作</td><td>快速畫出大概構圖，讓 AI 自動填充細節</td></tr>
<tr>
<td><strong>MLSD（直線檢測）</strong></td><td>保持建築結構</td><td>適合繪製建築、機械場景</td></tr>
</tbody>
</table>
</div><h3 id="heading-5paw5ake5oq56s66kme5y2a5zf77ya">新增提示詞區域：</h3>
<p>按下綠色框起來的T圖示時，可以新增一個提示詞區域，該區域可以連結到圖層或者選取範圍。使用者可以描述該區域要生成什麼東西。</p>
<p>下方的黃色區域是所有區域共同使用的提示詞，可以用來描述整體畫面氛圍/構圖/畫質等等提示詞。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742463467632/158dea72-ee06-4546-bf62-8dd17d3f78fa.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-55sf5oiq5zyw54mh5bgv56s65zkm6yg45poh5y2a5zf77ya">生成圖片展示和選擇區域：</h3>
<p>如下圖所示，生成的圖片將會展示在下方可供選擇</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742464458727/05bf623f-c873-451d-9175-121d92b79615.png" alt class="image--center mx-auto" /></p>
<hr />
<h2 id="heading-5am6zqb5pon5l2c77ya">實際操作：</h2>
<p>Okay ，理解了整體的插件介面之後，其實整體也沒有那麼複雜，如果是根據教學一步步學習過來的應該會發現，這些控制和操作原理，其實跟ComfyUI大同小異，只是藉由Krita的圖面選取/圖層功能增加了更友善的控制介面。</p>
<hr />
<h2 id="heading-generate-1">生成模式（Generate）</h2>
<p>在左上角的模式選擇中，我們先選擇Generate 模式，藉由選取＆生成功能來一步步生成、完善圖片。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742527027231/c4fcde34-9b3f-422e-8bbb-ce2061f8ec72.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-55sf5oiq5zyw54mh">生成圖片</h3>
<p>我們先用ＡＩ生成一張室內設計圖片作為起始：輸入提示詞，直接點擊生成即可生成圖片</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742520069126/939d9aa3-3ce9-461e-8ffb-570884c02009.png" alt class="image--center mx-auto" /></p>
<p>點擊任何一張左下任一張生成出來的圖片時，右側會生成一個鎖上的圖層來存放生成的內容。</p>
<p>生成的圖片會顯示在插件的下方，起務必選擇套用來確定選擇圖片，之後在針對局部更變時才會將此結果讀入。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742520119295/c6d18811-7c2f-422d-a544-1964976aad29.png" alt class="image--center mx-auto" /></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742520175059/ffaaf3c7-597b-402e-b522-d32889ce9d98.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-6yg45yw56e5zyn5ps56k6k5bga6yoo55wr6z2i">選取範圍改變局部畫面</h3>
<p>可以選擇側邊的矩形選取(⌘+R)／橢圓選取／多邊形選取／手繪選取／磁性選取／貝茲曲線／魔術棒選取，來選擇需要改變的範圍。</p>
<p>當使用Krita的選取工具選取某個範圍的時候，<strong>插件的生成按鈕會改變</strong>，並且會出現以下的下拉選單：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742520318980/0f1b00f9-4b0e-4f42-8c3b-75a3ddd38ae4.png" alt class="image--center mx-auto" /></p>
<p>分別是：</p>
<p><strong>自動偵測 / 填充（Fill)）/ 擴充畫面（Expand） /增加物件 （Add Content） / 消除物件(Remove Content / 更換背景（Remove Background）/ 自定義 (Custom Generate)</strong></p>
<p>我們分別針對這些功能細說</p>
<hr />
<h3 id="heading-fill"><strong>填充（Fill)</strong></h3>
<p>填充的效果如下，將原本不自然的文字畫調整成油畫：Fill 會嘗試讀入選取範圍周圍的顏色，並將生成的東西融合到畫面之中，因此有可能會超出選取範圍一些。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742520759434/d5f4f4e5-244f-4bf3-8c83-28ca41645a3c.png" alt class="image--center mx-auto" /></p>
<hr />
<h3 id="heading-expand"><strong>擴充畫面（Expand）</strong></h3>
<p>先按下<code>C</code>鍵並點擊圖片，會出現控制點，之後往想增加的方向拖拉即可調整畫布大小，並按下<code>Enter</code>來確認更動。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742521629968/54b9ae14-8ae8-4395-87a9-a437496902cf.png" alt class="image--center mx-auto" /></p>
<p>用魔術棒選取範圍，並選擇Expand的生成模式：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742521720501/91b03e18-65c2-49bf-9296-f51b93a7e711.png" alt class="image--center mx-auto" /></p>
<p>按下Expand後AI模型就會自動幫你生成要延伸的部分</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742524084828/72f7f9d8-80dd-4e14-840e-e55187b5599f.png" alt class="image--center mx-auto" /></p>
<hr />
<h3 id="heading-remove-content">消除物件（Remove Content）</h3>
<p>選擇物件後，在下拉式選單選擇Remove Content。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742524546963/dc456038-dae5-4211-9259-4f4f579add18.png" alt class="image--center mx-auto" /></p>
<p>有時候不下Prompt的話，生成的結果可能不盡理想，盡量還是描述一下消除物件後希望呈現的效果。這邊我希望只呈現白牆。最後呈現的效果就如下圖：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742525050081/92904a8c-0d5c-4947-8846-5fbe584115c0.png" alt class="image--center mx-auto" /></p>
<hr />
<h3 id="heading-add-content">增加物件 （Add Content）</h3>
<p>增加物件功能和填充最大的差異就是他能夠不受圖面顏色限制，並提供差異更大的圖像生成。</p>
<p>接下來我要在剛剛的區域新增一個壁燈，使用這個功能需要<strong>新增一個Regional Text Prompt layer 或者 Control Layer。</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742525462561/47b2cdb3-1069-4a2a-87e0-74145f1c799c.png" alt class="image--center mx-auto" /></p>
<p>我們新增一個Regional Text prompt layer 然後描述我們想要加入的物件，在下方的General Prompt 中，也要描述我們想要加入的物件，最後生成的結果就如下圖：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742525709247/41f81344-d2f8-4558-af69-4d06eeb3eb88.png" alt class="image--center mx-auto" /></p>
<hr />
<h3 id="heading-remove-background"><strong>更換背景（Remove Background）</strong></h3>
<p>我們先選擇要保留的區域，然後描述新的背景，最後按下Remove Background：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742526554874/8033750a-b548-4ef4-9ab0-fdae66ca2297.png" alt class="image--center mx-auto" /></p>
<p>最後就替換完成了，但可以看到邊緣有些不自然，這是因為選取區域的關係，假如要更精確的替換，就必須更精準的選取需要保留的物件。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742526710808/61215b51-94d5-4acd-96d7-fc165cbc4edc.png" alt class="image--center mx-auto" /></p>
<hr />
<h3 id="heading-custom-generate">自定義生成（Custom Generate）</h3>
<p>不同於 <code>Fill 填充</code> / <code>Add增加</code> 功能，自訂義生成能夠讓你選擇生成圖片依據的Context，在自定義生成前，可以先選取想要參照的內容，並先按下右側虛線圓圈儲存。目前是不建議讀者使用這個功能，效果並不穩定，可以使用先前介紹的功能即可。</p>
<hr />
<h2 id="heading-57wq6kqe">結語</h2>
<p>用 ComfyUI 搭配 Krita 來進行室內設計圖的生成，的確可以讓你掌握更多細節、實現高度客製化。不過老實說，從理解整個流程到真正運用自如，中間還是需要投入不少時間。</p>
<p>以我自己在撰寫這篇教學的經驗來說，最花時間的其實不是圖片生成本身，而是在摸索 ComfyUI 和 Krita 的操作邏輯、各種參數怎麼影響畫面表現。這中間幾乎沒有捷徑，只能不斷試錯、反覆調整，才能漸漸做出自己理想中的結果。</p>
<p>如果是自己架設 ComfyUI，除了要有<strong>一定的電腦硬體投資，還無法支援多人同時使用</strong>，如果是需要團隊使用的情性，就需要多考慮。對於團隊來說，這可能意味著需要添購多台設備，成本壓力其實不小。而如果轉用雲端 GPU 來運算，長期下來在使用費用上也需要考量。</p>
<p>這樣的情況下，如果你只是想快速產出具有參考價值的室內設計視覺圖，又不希望把太多時間花在技術細節上，那麼像 <a target="_blank" href="https://tw.reroom.ai/">ReRoom</a> 這類專門為室內設計所打造的 AI 工具，其實是一個不錯的替代選擇。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742552745604/c4864f26-15a3-4b64-89b0-1706a9667262.png" alt class="image--center mx-auto" /></p>
<p>它的操作非常直覺，直接上傳空間照片或是 SketchUp 模型截圖、選擇風格，就能快速出圖。**而且它的功能也會根據設計師的實際需求持續更新，滿足不同工作場景。**這是台灣新創團隊自行研發的ＡＩ渲染工具，在使用上有什麼問題，都有方便的管道可以找到解答。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742553835273/ae8fcdd6-3679-47c3-a4ba-6d8391f08bcf.jpeg" alt class="image--center mx-auto" /></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742553360568/281bf44a-2772-42ce-a916-c0679191c9c1.png" alt class="image--center mx-auto" /></p>
<p>簡單來說，如果你希望把時間花在構思與設計，而不是技術調整上，那不妨把 ReRoom 當作另一種工具選項來嘗試看看，也許會是個讓流程變得更輕鬆的方式。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1742552791770/7b4f8c7d-6518-41f3-9cbc-73fa72d80207.png" alt class="image--center mx-auto" /></p>
<p><strong>點擊這個連結：</strong><a target="_blank" href="https://tw.reroom.ai/"><strong>https://tw.reroom.ai/</strong></a> <strong>或這直接搜尋ReRoom AI就可以找到我們。</strong></p>
<p>也歡迎追蹤我們的Threads，我們會將最新的功能和使用心得放到上面，分享一些有趣的使用經驗。</p>
<hr />
<p>再次感謝你看到最後，希望AI工具能幫助你更有效率的完成工作，再會！</p>
]]></content:encoded></item><item><title><![CDATA[AI 室內設計工作流教學 （三）：ComfyUI實際應用]]></title><description><![CDATA[生成第一張圖
安裝完ComfyUI、也下載完模型之後，應該會看到以下的畫面：

我們可以直接點擊下方的藍色按鈕Queue來生成我們的第一張圖片：

等待一段時間後，就會生成出圖片，但在這同時，我們可以先點擊左上角的時間按鈕，或者按下快捷鍵Ｑ來打開圖片生成隊列(下圖紅色框線部分)。

點下後就可以看到目前圖片處理的情況。如果按下多張圖，會依照先後順序一張張處理、生成。處理完後會顯示生成花費的時間（圖片左下綠色數字）。


生成一張ＡＩ圖片沒有想像中難吧，接下來會開始詳細介紹各個元件的功能。

重要...]]></description><link>https://tw-blog.reroom.ai/ai-comfyui-workflow</link><guid isPermaLink="true">https://tw-blog.reroom.ai/ai-comfyui-workflow</guid><category><![CDATA[comfyui]]></category><category><![CDATA[#ai-tools]]></category><dc:creator><![CDATA[Wayne Huang]]></dc:creator><pubDate>Thu, 27 Feb 2025 01:34:56 GMT</pubDate><enclosure url="https://cdn.hashnode.com/res/hashnode/image/upload/v1740619885018/421505f4-032b-4edf-83ab-63c5ca145b14.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<h2 id="heading-kirnljmijdnrkzkuidlvlxlnjyqkg"><strong>生成第一張圖</strong></h2>
<p>安裝完ComfyUI、也下載完模型之後，應該會看到以下的畫面：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740471604975/e6dfe04a-c8e6-4e05-9787-b0a76af5be18.png?auto=compress,format&amp;format=webp" alt /></p>
<p>我們可以直接點擊下方的<strong>藍色按鈕Queue</strong>來生成我們的第一張圖片：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740472006917/68f0a286-ec0c-467a-8678-b07ac6adb38a.png?auto=compress,format&amp;format=webp" alt /></p>
<p>等待一段時間後，就會生成出圖片，但在這同時，我們可以先點擊左上角的時間按鈕，或者按下快捷鍵Ｑ來打開圖片生成隊列(下圖紅色框線部分)。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740472998262/e35fa6b4-f0e0-45cc-a253-b355f8f7ebb4.png?auto=compress,format&amp;format=webp" alt /></p>
<p>點下後就可以看到目前圖片處理的情況。如果按下多張圖，會依照先後順序一張張處理、生成。處理完後會顯示生成花費的時間（圖片左下綠色數字）。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740473111694/1c329718-dc6f-489e-8d49-90b6eade77bb.png?auto=compress,format&amp;format=webp" alt /></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740472081955/22533fef-0651-4792-8035-8e753350c460.png?auto=compress,format&amp;format=webp" alt /></p>
<p>生成一張ＡＩ圖片沒有想像中難吧，接下來會開始詳細介紹各個元件的功能。</p>
<blockquote>
<p><strong><em>重要資訊：Ｍac版的ComfyUI如果遇到生成不出圖片只生成黑畫面，請依照下圖圈選的方式設定Ksampler：</em></strong></p>
<ul>
<li><p><strong><em>sampler_name : dpmpp_2m_sde</em></strong></p>
</li>
<li><p><strong><em>scheduler : beta</em></strong></p>
<p>  <img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740468310116/e46aaeed-ccd3-46e5-8405-5c3f93ddd57f.jpeg?auto=compress,format&amp;format=webp" alt /></p>
</li>
</ul>
</blockquote>
<hr />
<p>在剛剛生成第一張圖的過程中，我們在介面上能夠看到很多的方塊被連結起來，這些方塊被稱為節點（Node）</p>
<h2 id="heading-node"><strong>節點（Node）</strong></h2>
<p>ComfyUI就是一個節點式的工作流工具，在comfyUI裡節點是最基礎的單位，如下圖所示：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740383566420/80e4816d-6694-4755-b591-21712110d996.jpeg?auto=compress,format&amp;format=webp" alt /></p>
<p>黃色框起來的部分是一個<strong>節點（Node）</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740383710956/c5b773a9-472a-46e3-a9eb-b1623822b068.png?auto=compress,format&amp;format=webp" alt /></p>
<p>節點（Node）之間能夠連結起來，連結就代表著資料從節點到節點的傳輸，上圖的意思就是將<strong>Clip節點</strong>（文字節點）中的<strong>文字作為輸出</strong>，輸入到連結的<strong>KSampler節點</strong>的<strong>positive輸入</strong>中。</p>
<ul>
<li><p>在節點<strong>左側連接點</strong> : <strong>輸入（input)</strong>、例如：Ksampler節點的positive,negative輸入。</p>
</li>
<li><p>在節點<strong>右側連結點</strong> : <strong>輸出（Output）</strong>、例如：Ksampler節點的Latent輸出。</p>
</li>
</ul>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740540725447/3ded5ab0-3d8f-451a-ab7c-dbd5a65c0bbf.webp?auto=compress,format&amp;format=webp" alt class="image--center mx-auto" /></p>
<p>滑鼠移動到輸出點的上方時按下<strong>滑鼠左鍵拖曳</strong>即可拉出一條<strong>連結線</strong>，<strong>同顏色的輸出可以連結到同顏色的輸入</strong>，把連結線連到其他節點的輸入即可完成兩個節點的資料串接。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740474232603/a15278d8-f319-4651-b5fe-3a2229aaac38.png?auto=compress,format&amp;format=webp" alt /></p>
<p><strong>這個流程有防呆機制，只有可連接的點會被顯示，讓你可以簡單判斷可以連到哪裡。如果連到無效的輸入點就不會產生連結。</strong></p>
<h3 id="heading-custom-node">自訂節點 （Custom Node）</h3>
<p>除了一般內建的節點，想要使用更多功能，如Inpaint / controlnet的時候，就必須針對功能下載相應的自訂節點（Custom Node），關於Custom Node的詳細介紹，會在這篇教學文章的後半段提到。</p>
<hr />
<h1 id="heading-kirlt6xkvzzmtyeqkg"><strong>工作流</strong></h1>
<p>理解了節點之後，我們來說說工作流：藉由<strong>連接這些功能各異的節點</strong>，我們可以將這些節點依照我們想要的工作流程串接成一個<strong>工作流（workflow）</strong>。我們可以自行建立，也可以下載其他人建立的工作流。</p>
<h2 id="heading-workflow">文生圖workflow</h2>
<p>比如這個ComfyUI最基礎的<strong>文生圖工作流（Text-to-Image workflow）。</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740474762881/07f7c4ca-9938-4cf4-bbe6-b78f1dabdcda.webp?auto=compress,format&amp;format=webp" alt /></p>
<p>在一個文生圖的流程中，我們的目標是<strong>輸入一組提示詞來產出一張圖片</strong>。要達成這個目標，我們需要串接節點來達成這件事情。</p>
<h3 id="heading-5pah55sf5zyw5rwb56il6kej6kqq77ya">文生圖流程解說：</h3>
<p>在（<strong>1）Checkpoint Loader</strong>節點載入生成圖像的<strong>模型</strong>。</p>
<p>在**（2）CLIP Text Encode**節點中輸入 <strong>提示詞</strong>：</p>
<ul>
<li><p><strong>正向提示詞（Prompt）</strong>：描述希望在圖片中呈現的元素。</p>
</li>
<li><p><strong>負向提示詞（Negative Prompt）</strong>：排除不希望出現的元素。</p>
</li>
</ul>
<p>在 <strong>(5) Latent Image</strong> 節點中設定 <strong>圖片尺寸、 需要生成幾張</strong>。</p>
<p>這些參數會一同傳送到 <strong>（3）KSampler</strong> 節點進行處理。<strong>KSampler</strong> 節點負責 <strong>控制模型的生成過程</strong>，包括：</p>
<ul>
<li><p><strong>步數（Steps）</strong>：決定去噪的次數，影響細節與品質。</p>
</li>
<li><p><strong>提示詞影響程度（CFG Scale）</strong>：控制 AI 對提示詞的依從程度。</p>
</li>
<li><p><strong>採樣器（Sampler）</strong>：選擇不同的演算法影響風格與細節。</p>
</li>
</ul>
<p>經過 KSampler 節點運算後，會產生一張 <strong>潛在圖像（Latent Image）</strong>，這還不是最終人類可以理解的圖像。</p>
<p>需要透過 <strong>（4）VAE</strong>節點<strong>解碼</strong>，將其轉換為<strong>可見圖像</strong>。</p>
<p>最後，生成的圖片可以輸出至（<strong>5） Preview（預覽）</strong> 或 <strong>Save Image（儲存）</strong> 節點，以便查看或保存。</p>
<hr />
<h2 id="heading-node-introduction"><strong>節點詳細介紹（Node Introduction）：</strong></h2>
<ol>
<li><h3 id="heading-load-checkpoint"><strong>Load Checkpoint：</strong></h3>
<p> 這個節點的功能就是<strong>載入大模型，任何放在Checkpoint資料夾中的大模型都可以被這個節點讀取到</strong>。而最常見的就是ＳＤ模型，其他的還有Flux，模型本身會直接影響生成時間和生成影像的品質、VRAM使用量，這些模型可以從某些特定網站下載：常見的有Civitai、Github、Hugginface 等等，之後會再說明。</p>
<p> <img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740391357010/9f9a925c-74b5-492e-88eb-e84287eddf32.png?auto=compress,format&amp;format=webp" alt /></p>
 <div data-node-type="callout">
 <div data-node-type="callout-emoji">💡</div>
 <div data-node-type="callout-text"><strong>關於SD（Stable Diffusion）模型：</strong>SD模型是一種Diffusion 模型，這是一種深度學習模型，主要用於 <strong>圖像生成、修復、風格轉換等任務</strong>。它的基本概念是：1. 先將圖片逐步添加隨機雜訊（Forward Process），讓其變成完全無法辨識的雜訊圖。2. 再透過 AI 逐步去除雜訊（Reverse Process），讓圖片回到清晰的狀態。這種方式讓 Diffusion 模型 <strong>能夠學習如何從雜訊中恢復高品質的圖片</strong>，最終可以根據提示詞（Prompt）來生成圖像。</div>
 </div>

<p> <img src="https://blog.kakaocdn.net/dn/eNk6Em/btsJm4SnDxC/9OXmT0bgLE632QjbMVZP3K/img.png" alt="Diffusion Model" /></p>
 <div data-node-type="callout">
 <div data-node-type="callout-emoji">💡</div>
 <div data-node-type="callout-text">在ComfyUI中最常見的是<strong>SD模型</strong>，常見的SD模型版本有：SD 1.5, SD 3, SDXL，通常會標注在模型的名稱上，比如說圖中的<strong>Juggernaut XL</strong> 就是一種SDXL模型。</div>
 </div>
</li>
<li><h3 id="heading-clip"><strong>CLIP :</strong></h3>
<p> 上面在介紹節點的時候就有提過，Clip這個節點是讓使用者輸入提示詞的地方，為了要讓模型能夠更精確地理解人類的意思，除了我們想描述的<strong>正向提示詞</strong> **（Positive Prompt）**之外，我們也可以特別註明我們不想要模型生成的特質、東西、類型，也就是：<strong>負向提示詞（Negative Prompt）</strong>。</p>
<p> <img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740550563840/93c8924e-27f8-44ec-8bc1-c72e188763fb.png?auto=compress,format&amp;format=webp" alt /></p>
 <div data-node-type="callout">
 <div data-node-type="callout-emoji">💡</div>
 <div data-node-type="callout-text">通常正向提示詞的clip會用綠色標示、負向則用紅色標示。</div>
 </div>

<p> 這個節點會將人類的文字轉換成模型能夠理解的形式，再用這些參數來生成最終的圖像。</p>
</li>
<li><h3 id="heading-ksampler"><strong>KSampler：</strong></h3>
<p> KSampler 是 <strong>ComfyUI</strong> 內的一個 <strong>核心節點</strong>（Node），<strong>負責將 Prompt（提示詞）、模型、噪聲數據等資訊組合起來，生成最終的圖像。</strong></p>
<ul>
<li><p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740391484659/b4eeb7c3-5265-4a70-8ef9-62247e6579a4.png?auto=compress,format&amp;format=webp" alt /></p>
<p>  <strong>Seed</strong>：固定的Seed會產生相同的圖片</p>
</li>
<li><p><strong>Control_after_generate</strong> ：在生成後，隨機（Randomize）、增加（increment）、減少（decrement）、種子值，也有固定（fixed）選項可以生成同張圖像。</p>
</li>
<li><p><strong>步數（Steps）</strong>：決定去噪的次數，影響細節與品質和生成時間，一般會以20起始，依需求品質增減。</p>
</li>
<li><p><strong>提示詞影響程度（CFG Scale）</strong>：控制 AI 對提示詞的依從程度，<strong>越高越符合提示詞，但會影響畫面自然度</strong>，標準會設定在６－９。</p>
</li>
<li><p><strong>採樣器（Sampler）</strong>：影響風格與細節，<strong>依使用的模型調整</strong>，各種模型往往會有最佳的設定。</p>
</li>
<li><p><strong>降噪強度（Denoise)</strong>：用於控制圖生圖的改變幅度，越低越保持原圖細節，越高AI重繪幅度越大。</p>
</li>
</ul>
</li>
</ol>
<ol start="4">
<li><h3 id="heading-latent-image"><strong>Latent Image：</strong></h3>
<p> <img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740551729778/bc720d43-2210-4a88-bf78-e66aca559be3.png?auto=compress,format&amp;format=webp" alt /></p>
<p> <strong>Latent Image（潛在圖像）</strong> 是 AI 圖像生成過程中的中間數據表示，它不像一般的圖片由 RGB 像素點組成，而是由數學向量（Latent Space Representation） 來表示圖像的特徵。簡單來說，Latent Image 是 AI 理解的「隱藏圖像」，而不是人眼可見的圖片。這是 AI 在生成最終圖像前的一種壓縮表示形式。</p>
<p> 在文生圖流程中，這個節點能夠先生成一個空的laten Image，用來決定圖片的尺寸。<strong>Batch size則可決定一次生成圖片的數量。</strong></p>
</li>
<li><h3 id="heading-vae"><strong>VAE：</strong></h3>
<p> VAE（Variational Auto Encoder，變分自動編碼器） 是 Stable Diffusion 和 ComfyUI 中負責<strong>圖像壓縮與解碼 的節點</strong>。它的主要作用是<strong>將圖像轉換為潛在空間（Latent Space），並在 AI 生成後解碼回可見圖像</strong>。</p>
<ul>
<li><p>Decode - 將 AI 生成的潛在圖像（Latent Image）轉換為可見圖片。</p>
</li>
<li><p><strong>Encode - 將可見圖片轉換成潛在圖像（Latent Image），用在圖生圖的流程中。</strong></p>
<p>  <img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740391560535/ced6f683-c17a-44bb-9123-6f7139916cb8.png?auto=compress,format&amp;format=webp" alt /></p>
</li>
</ul>
</li>
</ol>
<ol start="6">
<li><h3 id="heading-preview-image"><strong>Preview Image</strong></h3>
<p> 轉換過後的圖片會出現在這個節點中。另外有<strong>Save Image節點</strong>會直接儲存影像。</p>
<p> <img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740551441990/9ec51d0a-765c-4773-8b00-817126c051b0.png?auto=compress,format&amp;format=webp" alt /></p>
</li>
</ol>
<hr />
<h2 id="heading-workflow-1">圖生圖workflow</h2>
<p>詳細介紹完節點和工作流之後，我們來實際練習更改工作流：</p>
<p>有時候我們需要使用一張圖片作為生成圖片的參考，這時候我們就會需要一個**圖生圖（image-to-image）**的工作流。這個工作流大部分都和文生圖工作流相同，只需多傳入一張參考圖片到模型中即可。</p>
<h3 id="heading-5yw36auu6kmy5oco6bq85yga5zgi77yf">具體該怎麼做呢？</h3>
<p>由於Ksampler只能接受latent Image作為輸入， 所以我們必須要先將傳入的圖片轉換成Latent Image：這時候就用到上面說的<strong>VAE Encode</strong>這個節點，他能將輸入的圖片轉換成Latent Image後傳入Ksampler。</p>
<p>輸入圖片的流程就如同下圖，是不是很容易？輸入的參考圖片經過VAE編碼後就可以傳入Ksampler中。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740551522117/bcfaf4d1-ae42-402a-856b-0e86649992ba.png?auto=compress,format&amp;format=webp" alt /></p>
<p>將原本輸入圖片尺寸的Empty Latent Image節點替換掉後，就形成的新的<strong>圖生圖工作流</strong>。新生成的圖片會依照輸入圖片的尺寸生成，調整<strong>Denoise數值則可以調整AI重繪的幅度</strong>。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740551874307/11f7342e-f832-4bee-a396-2176d5f1e4d4.png?auto=compress,format&amp;format=webp" alt /></p>
<p>接下來我們可以點擊<strong>Workflow → Save</strong>將做好的工作流命名儲存下來，儲存的工作流會顯示在側邊的工作流欄位（資料夾圖示）中。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740555564617/dec2f72c-c562-445e-a388-7d61dd64cba3.png?auto=compress,format&amp;format=webp" alt /></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740555433003/f37545cd-a239-48eb-a907-b0e27b87e91f.png?auto=compress,format&amp;format=webp" alt /></p>
<p>之後要重複使用工作流的時候，可以直接點擊叫出。</p>
<p>複雜的工作流都是由這樣一步步慢慢加上控制形成的。接下來會介紹一些實用<strong>控制生成圖片的方法</strong>。順便學習如何下載使用<strong>自訂節點（Custom Node）、模型（Model）</strong>。</p>
<hr />
<h2 id="heading-5o6n5yi255sf5oiq5zyw54mh">控制生成圖片</h2>
<p>AI生成圖片是一個強大的功能，但要實際應用到室內設計的領域中，就必須盡可能<strong>消除生成圖片的隨機性</strong>。藉由特殊的<strong>Custom Node節點和模型</strong>，我們就能夠控制AI生成我們需要的圖片。</p>
<h2 id="heading-5bi46kal55qe5o6n5yi25pa55byp">常見的控制方式</h2>
<h2 id="heading-loralow-rank-adaptation"><strong>LoRA（Low-Rank Adaptation） ：</strong></h2>
<p>是一種輕量AI 訓練方式，需搭配Checkpoint模型使用。加載後能夠特化Checkpoint模型，讓模型能夠精準產出指定的角色、特定物品、風格，而不需要重新訓練整個模型。</p>
<ul>
<li>EX：水墨風格、動漫風格、室內設計、商品拍攝圖、電影質感，等等LoRA</li>
</ul>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740556830431/f041b7ef-7324-417e-a813-3d6d39566737.png?auto=compress,format&amp;format=webp" alt /></p>
<h2 id="heading-controlnet"><strong>ControlNet :</strong></h2>
<p>可以讓 AI 根據一張參考圖的**「結構」**來控制生成的新圖</p>
<ul>
<li><strong>指定的形狀、人物姿勢、線稿圖、深度圖</strong> 等等</li>
</ul>
<p><img src="https://github.com/XLabs-AI/x-flux/blob/main/assets/readme/examples/canny_result1.png?raw=true" alt="Example Picture 1" /></p>
<h2 id="heading-ipadapter"><strong>IPAdapter :</strong></h2>
<p>可以讓 AI 模仿一張參考圖的<strong>風格、顏色、臉部特徵</strong>來控制生成的新圖，適合：</p>
<ul>
<li><p><strong>讓 AI 生成相似風格的圖</strong>（如某個插畫師的畫風）。</p>
</li>
<li><p><strong>根據某張臉生成相似的 AI 角色</strong>（但不會完全相同）。</p>
</li>
<li><p><strong>自動匹配顏色與光影</strong>，讓 AI 畫出更自然的效果。</p>
</li>
</ul>
<p><img src="https://www.comflowy.com/blog/IPAdapter-Plus/banner.png" alt="How to perform style transfer using IPAdapter Plus in ComfyUI? – Comflowy" /></p>
<p>礙於篇幅關係，我們用<strong>ControlNet</strong>來舉例，剩下的控制，我們可以透過Krita + ComfyUI的插件來實現，當然有興趣的話，讀者可以嘗試自行安裝，每個功能的頁面底下都有詳細的說明。</p>
<hr />
<h2 id="heading-sdxl"><strong>SDXL 模型下載</strong></h2>
<p>在開始使用ControlNet之前，我們先來下載SDXL模型，XL意思代表他能夠生成比SD 1.5更大的圖像。</p>
<h3 id="heading-civitai">Civitai</h3>
<p><strong>Civitai</strong>是一個專門用來<strong>分享、下載、交流 Stable Diffusion（SD）相關 AI 模型與資源</strong>的開放平台。在這裡，你可以找到各種風格的 Stable Diffusion 模型（Checkpoint）、LoRA（輕量風格微調模型）、ControlNet、Textual Inversion、VAE 等 AI 擴展，是一個AI 藝術家和開發者的交流社群。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740561897815/bd4f5823-acb3-4d06-9af5-65a02fae79c0.png?auto=compress,format&amp;format=webp" alt /></p>
<p>直接在搜尋欄搜尋<strong>Juggernaut XL</strong>，並點擊進去。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740562291874/086cfd90-0a3e-4c55-b3f2-6059e25dc96a.png?auto=compress,format&amp;format=webp" alt /></p>
<p>這邊我選擇下載 <strong>Jugg_X_byRunDiffusion 這個版本</strong>，你可以挑你喜歡的版本下載，每個版本有不同的特性，可以閱讀一下說明欄位。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740562364578/06e2b21a-dc81-4637-96ef-d456355d87a9.png?auto=compress,format&amp;format=webp" alt /></p>
<p>側邊欄有模型的細節，在About this vesion這個欄位中，我們可以看到模型的種類、上傳時間、建議的設定等等資訊，之後使用這個模型的時候就可以依照這些設定去生成模型。</p>
<p>按下載，並將模型儲存到：<strong>comfyUI（你的安裝位置）/ models / checkpoints 資料夾中</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740562620025/cb0f68c8-35d7-4ba5-9bed-cf60c52a53eb.png?auto=compress,format&amp;format=webp" alt /></p>
<p>其餘的模型也是以這樣的方式下載，再放入Checkpoints這個資料夾中就可以使用，在<strong>使用模型前可以先看一下建議的參數，來獲得最好的生成品質。</strong></p>
<h2 id="heading-controlnet-1">ControlNet 模型下載和安裝</h2>
<p>每個不同的生成模型，比如 SDXL, FLUX會有不同的ControlNet，在下載使用前需要注意一下模型版本。</p>
<h3 id="heading-hugging-face">Hugging Face</h3>
<p>Hugging Face是一個專門提供 AI、機器學習（ML）與自然語言處理（NLP）工具的開放平台。它不只是 AI 開發者社群，更是 全球最大的 AI 模型庫，讓使用者可以免費下載 AI 模型。我們要下載的Controlnet模型就分享在HugginFace上。</p>
<p>從 <a target="_blank" href="https://huggingface.co/xinsir/controlnet-union-sdxl-1.0/tree/main"><strong>https://huggingface.co/xinsir/controlnet-union-sdxl-1.0/tree/main</strong></a>這個網址</p>
<p>下載 diffusion_pytorch_model_promax.safetensors 這個檔案。</p>
<p>注意到這個頁面的sdxl這個名稱了嗎？這就代表這個<strong>controlnet模型是sdxl專用的controlnet</strong>。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740560947582/4ab508d6-0cfa-4db6-875c-b0f643b51849.png?auto=compress,format&amp;format=webp" alt /></p>
<p>將檔案儲存到： <strong>comfyUI（你的安裝位置）/ models / controlnet</strong> 裡面，這個資料夾專門在存放你下載下來的controlnet。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740561618131/b7bcabe4-7bc0-4cf6-b979-42fb762acf89.png?auto=compress,format&amp;format=webp" alt /></p>
<p>到這邊預備動作就做好了，現在可以開始安裝Custom nodes。</p>
<h2 id="heading-comfyui-manager-custom-nhttpshuggingfacecoxinsircontrolnet-union-sdxl-10blobmaindiffusionpytorchmodelpromaxsafetensorsode"><a target="_blank" href="https://huggingface.co/xinsir/controlnet-union-sdxl-1.0/blob/main/diffusion_pytorch_model_promax.safetensors"><strong>使用 ComfyUI Manager 安裝 Custom N</strong></a><strong>ode</strong></h2>
<p>要<strong>使用這些新的功能，我們必須要安裝新的、專門為這些功能製作的自訂節點（Custom Node）</strong>。如果是透過桌面版的安裝程式安裝ComfyUI的話，ComfyUI Manager已經預先安裝好了，使用portable版本或者手動下載版本的讀者則需要額外安裝，這邊就不贅述。</p>
<p>點擊右上角的<strong>Manager</strong>，就可以<strong>開啟ComfyUI Manager:</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740558570899/0a079175-03cd-4835-8076-8af77adc95a8.webp?auto=compress,format&amp;format=webp" alt /></p>
<p><strong>ComfyUI Manager</strong> 是一款 <strong>專為 ComfyUI 設計的擴展管理工具</strong>，可以讓使用者<strong>輕鬆安裝、更新、移除各種擴充功能（Custom Nodes）</strong>，無需手動下載或修改設定檔。</p>
<p>他的功能有：</p>
<ul>
<li><p><strong>一鍵安裝擴充插件（Custom Nodes）。</strong></p>
</li>
<li><p><strong>自動更新擴充功能，確保最新版本。</strong></p>
</li>
<li><p><strong>簡單管理所有安裝的插件，避免衝突。</strong></p>
</li>
</ul>
<p>我們點擊中間上方的<strong>Custom Node Manager</strong>:</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740559941279/a0fe0638-ddf5-48c2-9fb0-5ee346e43f0f.png?auto=compress,format&amp;format=webp" alt /></p>
<p>進到這個頁面後，我們直接搜尋並且安裝以下三個Custom Nodes：</p>
<ul>
<li><p><strong>ComfyUI ArtVenture</strong></p>
</li>
<li><p><strong>Comfyui_controlnet_aux</strong></p>
</li>
<li><p><strong>Comfyroll Studio</strong></p>
</li>
</ul>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740560523882/dacb62d0-264c-4900-9269-b9cd40a133a5.png?auto=compress,format&amp;format=webp" alt /></p>
<p>安裝完三個custom nodes 之後， 我們再按下Restart，重新啟動ComfyUI來完成安裝。</p>
<hr />
<h2 id="heading-controlnet-2">ControlNet 工作流</h2>
<p>ControlNet主要目的是讓 AI 生成圖片時可以「<strong>遵循特定的圖像結構</strong>」，而不是只靠文字提示詞（Prompt）。至於哪種controlNet提供怎麼樣的控制效果，可以<strong>參考這個表格</strong>：</p>
<div class="hn-table">
<table>
<thead>
<tr>
<td><strong>控制類型</strong></td><td><strong>作用</strong></td><td><strong>應用場景</strong></td></tr>
</thead>
<tbody>
<tr>
<td><strong>Pose Control（OpenPose）</strong></td><td>控制人體姿勢</td><td>生成與參考照片相同動作的角色</td></tr>
<tr>
<td><strong>Canny Edge（邊緣線）</strong></td><td>控制輪廓結構</td><td>讓 AI 照著手繪線稿生成圖片</td></tr>
<tr>
<td><strong>Depth Map（深度圖）</strong></td><td>保持場景的立體感</td><td>讓 AI 生成與參考圖片相同視角的場景</td></tr>
<tr>
<td><strong>Scribble（塗鴉）</strong></td><td>依據簡單手繪創作</td><td>快速畫出大概構圖，讓 AI 自動填充細節</td></tr>
<tr>
<td><strong>MLSD（直線檢測）</strong></td><td>保持建築結構</td><td>適合繪製建築、機械場景</td></tr>
</tbody>
</table>
</div><p>我們先來看controlNet的工作流：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740564183484/6a15ae38-dded-4344-ad61-bfd06ff65457.png?auto=compress,format&amp;format=webp" alt /></p>
<p>相較於圖生圖的工作流，Controlnet多了以下幾個節點。</p>
<ul>
<li><p><strong>Load ControlNet Model</strong> - 可以加載ControlNet模型，這邊選擇我們剛下載好的模型</p>
</li>
<li><p><strong>ControlNet Preprocessor</strong> － 參考上方表格，選擇控制的方式</p>
</li>
<li><p><strong>Apply ControlNet</strong> － 連接各ControlNet節點到工作流中</p>
</li>
</ul>
<p>要新增節點，請<strong>滑鼠左鍵連點空白處，可以叫出搜索欄</strong>：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740564548541/14535bef-54e7-4746-bc32-29feb760ef4e.png?auto=compress,format&amp;format=webp" alt /></p>
<p>剩下來的就是簡單的連連看，將同名、同顏色的輸出連到輸入</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740564320493/23da0135-f142-49eb-82a8-2296d5e7f6c0.png?auto=compress,format&amp;format=webp" alt /></p>
<p>連接Checkpoint模型的VAE，連接正負向提示詞、連結control_net、連接IMAGE</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740564756428/523f3827-7450-46ed-86d8-0cd3d76a8518.png?auto=compress,format&amp;format=webp" alt /></p>
<p>將Apply ControlNet的輸出連結到Ksampler，就完成工作流的編輯。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740564996261/0fccb49f-c689-42e3-bb44-888fb056e997.png?auto=compress,format&amp;format=webp" alt /></p>
<p>Ksampler 的 latent Image 輸入要傳入空白的 Latent Image或者參考圖都可隨意調整</p>
<p>但要記得denoise的程度會影響原圖的控制力度，可以多嘗試幾次，看看不同的參數會對整個工作流造成什麼影響。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740565255737/d5fa5f6f-9e93-48fa-80f1-a9842144eb91.png?auto=compress,format&amp;format=webp" alt /></p>
<p>我們通過控制，將魔法瓶生成出了房屋的形狀，這個就是controlnet的控制效果。ComfyUI的有趣之處就在於，只要符合基本的遊戲規則，就有無限的可能性 。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740566573927/831201f6-e13c-4425-ab0d-11136d5d458e.webp?auto=compress,format&amp;format=webp" alt /></p>
<p>關於控制圖片生成就說明到這邊，其餘像IPadapter其實也是很有趣的控制手段，有興趣的朋友可以去找其他的教程或者自行研究github、hugginface頁面上的說明。</p>
<hr />
<h2 id="heading-57wq6kqe">結語</h2>
<p>在這篇文章中，我們入門了ComfyUI的節點、工作流、自訂節點、並使用了進階的控制手段，相信經過這個教程，有了一點基礎之後，讀者就可以自行去探索ComfyUI的各種有趣應用。接下來我們就可以連結ComfyUI到繪圖軟體Krita上去做實際的應用了。</p>
<p><strong>點擊這個連結：</strong><a target="_blank" href="https://tw.reroom.ai/"><strong>https://tw.reroom.ai/</strong></a> <strong>或者直接搜尋ReRoom AI就可以找到我們。</strong></p>
<p>也歡迎追蹤我們的Threads，我們會將最新的功能和使用心得放到上面，分享一些有趣的使用經驗。</p>
<h3 id="heading-5lml5b6m55qe5pwz5a245pah56ug5bch5pyd5b6i5br5pu05paw77ym5q2h6lo6kic6zax5oir5ycr55qe6yoo6jc95qc844cc">之後的教學文章將會很快更新，歡迎訂閱我們的部落格。</h3>
]]></content:encoded></item><item><title><![CDATA[AI 室內設計工作流教學（二）：安裝ComfyUI]]></title><description><![CDATA[大致上暸解了ComfyUI和Krtia是什麼了之後、能做什麼之後，我們就可以開始ComfyUI的安裝。讀者可以再次確認以下ComfyUI的硬體需求：

ComfyUI 硬體需求
要跑動ComfyUI最重要的一個零組件就是GPU，也就是顯卡。
從ComfyUI官方推薦的頁面來看，近10年內的Nvidia顯卡都可以跑（10系～最新的50系），但用低階顯卡跑的話單張圖的生成時間會變的很長。官方建議是Nvidia 30系顯卡的中高階顯卡以上、VRAM越高越好。AMD和Intel顯卡的話會有額外的限制和安...]]></description><link>https://tw-blog.reroom.ai/ai-comfyui-installation</link><guid isPermaLink="true">https://tw-blog.reroom.ai/ai-comfyui-installation</guid><category><![CDATA[comfyui]]></category><category><![CDATA[#ai-tools]]></category><dc:creator><![CDATA[Wayne Huang]]></dc:creator><pubDate>Wed, 26 Feb 2025 16:00:00 GMT</pubDate><enclosure url="https://cdn.hashnode.com/res/hashnode/image/upload/v1740617871506/48b2dc2b-92ea-4571-9ae4-a2b8f022f5c0.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>大致上暸解了ComfyUI和Krtia是什麼了之後、能做什麼之後，我們就可以開始ComfyUI的安裝。讀者可以再次確認以下ComfyUI的硬體需求：</p>
<hr />
<h3 id="heading-comfyui"><strong>ComfyUI 硬體需求</strong></h3>
<p>要跑動ComfyUI最重要的一個零組件就是<strong>GPU，也就是顯卡。</strong></p>
<p>從ComfyUI官方推薦的頁面來看，近10年內的Nvidia顯卡都可以跑（10系～最新的50系），但用低階顯卡跑的話單張圖的生成時間會變的很長。官方建議是<mark>Nvidia 30系顯卡的中高階顯卡以上、VRAM越高越好</mark>。AMD和Intel顯卡的話會有額外的限制和安裝方式，在這邊筆者並不推薦。</p>
<p>關於更詳細的資訊，請參考官方的顯卡天梯：</p>
<p><a target="_blank" href="https://github.com/comfyanonymous/ComfyUI/wiki/Which-GPU-should-I-buy-for-ComfyUI"><strong>https://github.com/comfyanonymous/ComfyUI/wiki/Which-GPU-should-I-buy-for-ComfyUI</strong></a></p>
<hr />
<h1 id="heading-5a6j6kod5rwb56il">安裝流程</h1>
<h2 id="heading-git">Git 安裝</h2>
<h3 id="heading-windowgit">Window中安裝git</h3>
<p>首先，我們先安裝git，Windows 使用者請到以下網址下載最新版本 : <a target="_blank" href="https://git-scm.com/downloads/win">https://git-scm.com/downloads/win</a>，下載後開啟下載檔案，一路點擊下一步即可。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741251547796/2a8c302a-4a44-4cfd-bb21-4500e95b5a2d.jpeg" alt class="image--center mx-auto" /></p>
<h3 id="heading-mac-git">Mac 中安裝Git</h3>
<p>可以參考 <a target="_blank" href="https://git-scm.com/downloads/mac">https://git-scm.com/downloads/mac</a> 的安裝方式，以下做簡單說明：</p>
<p>Ｍac使用者請先安裝 Homebrew，請先到 <a target="_blank" href="https://brew.sh/">https://brew.sh/</a></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741248314804/006cb39b-fa69-4362-9fba-7ef430d32536.png" alt class="image--center mx-auto" /></p>
<p>複製Install Homebrew 下方的這一行程式碼（按下右側的文件圖標複製）</p>
<p>並貼到Terminal / 終端機，按下Enter執行</p>
<pre><code class="lang-bash">/bin/bash -c <span class="hljs-string">"<span class="hljs-subst">$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)</span>"</span>
</code></pre>
<p>在過程中會提示輸入密碼</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1741251090051/45a0193f-31c5-408a-895e-de4942561567.png" alt class="image--center mx-auto" /></p>
<p>請輸入mac的密碼（登入時使用的密碼），輸入時候密碼不會顯示，輸入完按下Enter鍵即可，在過程中，需要確認的話就按下enter鍵，耐心等待安裝完成（跳出install complete）。</p>
<p>接下來會跳出這一段訊息：</p>
<pre><code class="lang-bash">==&gt; Next steps:
- Run these two commands <span class="hljs-keyword">in</span> your terminal to add Homebrew to your `<span class="hljs-variable">$PATH</span>`:
    (<span class="hljs-built_in">echo</span>; <span class="hljs-built_in">echo</span> <span class="hljs-string">'eval "$(/opt/homebrew/bin/brew shellenv)"'</span>) &gt;&gt; ~/.zprofile
    <span class="hljs-built_in">eval</span> <span class="hljs-string">"<span class="hljs-subst">$(/opt/homebrew/bin/brew shellenv)</span>"</span>
</code></pre>
<p>直接複製這兩行執行(這邊的 ～ 會被你電腦的路徑取代，這邊只是示意)</p>
<pre><code class="lang-bash">(<span class="hljs-built_in">echo</span>; <span class="hljs-built_in">echo</span> <span class="hljs-string">'eval "$(/opt/homebrew/bin/brew shellenv)"'</span>) &gt;&gt; ~/.zprofile
<span class="hljs-built_in">eval</span> <span class="hljs-string">"<span class="hljs-subst">$(/opt/homebrew/bin/brew shellenv)</span>"</span>
</code></pre>
<p>執行完後用以下程式碼確認，應該會顯示你的版本。</p>
<pre><code class="lang-bash">brew --version
</code></pre>
<p>安裝完後，請在Terminal/終端機中輸入<code>brew install git</code> ，按下enter確認，即可成功安裝git。</p>
<pre><code class="lang-bash">brew install git
</code></pre>
<hr />
<h3 id="heading-comfyui-1">安裝ComfyUI</h3>
<p>現在的ComfyUI有很多種的安裝方式，但這邊推薦直接使用最新也最簡單的安裝方法。</p>
<p><strong>首先我們先到官方的github主頁：</strong><a target="_blank" href="https://github.com/comfyanonymous/ComfyUI#installing"><strong>https://github.com/comfyanonymous/ComfyUI#installing</strong></a><strong>。</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740380475253/5e035c91-4c47-4c00-aff2-db84f9e3f580.png" alt class="image--center mx-auto" /></p>
<p>Github 簡單來說就是一個儲存程式碼的空間，許多工程師都會利用這個網站管理存放他們的程式碼，同時也有很多開源的專案會分享到github上，這些含有程式碼的空間被稱為Repo（儲存庫）。</p>
<p>每個Repo底下的說明欄通常都會說明安裝方式，我們可以下滑到Get Started欄位來看一下安裝方式：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740366947238/af88df4d-33a1-49a1-a08a-c0b9812c20f3.png" alt class="image--center mx-auto" /></p>
<p>在Get Started 這欄，我們可以看到很多的安裝方式：</p>
<ul>
<li><p><strong>桌面版 - 一般的安裝程式，使用者只需要依照流程操作即可完成安裝，最方便安裝的版本。</strong></p>
</li>
<li><p>Portable 版 - 便攜版，也就是不用安裝的方式，但需要自行設定環境。</p>
</li>
<li><p>手動安裝 - 有一些基礎的朋友可以直接手動安裝，直接透過指令下載。</p>
</li>
</ul>
<p><strong>這邊選擇最簡單的方式，直接點擊Desktop Application，這個連結會連到：</strong><a target="_blank" href="https://www.comfy.org/download">ComfyUI主頁</a>。其他的安裝方式，因為牽涉的步驟較多，所以不另外說明，網路上有其他的教學影片可以參考。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740367173136/48f4ac40-0126-4299-8ba7-3b4d8e34d219.png" alt class="image--center mx-auto" /></p>
<p>在主頁面直接依據你的作業系統選擇相應的下載，並且依照步驟安裝：</p>
<ul>
<li><p>Windows - 需要Nvidia顯卡</p>
</li>
<li><p>Mac - 需要Apple silicon，也就是M系列的CPU</p>
</li>
</ul>
<h3 id="heading-mac">Mac 安裝步驟</h3>
<p>筆者手邊的電腦是M4 Macbook pro，因此會拿Mac的版本來做說明，windows版本的安裝程序也基本相同：</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740449793732/3267d8e1-d666-43a0-875f-ee8398118dbc.png" alt class="image--center mx-auto" /></p>
<p>點開下載的.dmg，後熟悉的Mac安裝介面，拖拉ComfyUI到你的應用程式即可，接著直接點擊Icon開啟ComfyUI。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740449169138/0a5b2b16-b50b-4982-86cf-bdfd3d597fd6.png" alt class="image--center mx-auto" /></p>
<p>首次點擊會進入歡迎頁面、安裝頁面，直接按Get Started開始。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740449192691/59ad6ed6-392a-495c-bae8-f43291617f94.png" alt class="image--center mx-auto" /></p>
<p>這邊是選擇GPU的部分，就按照你有的GPU下去選擇即可，這邊用的是Mac，如果是windows的話通常就選擇Nvidia顯卡，這邊筆者就按照安裝程式的預設選擇。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740449360959/6c63b824-76ac-4f41-b2cd-7bd0ffcab33f.png" alt class="image--center mx-auto" /></p>
<p>安裝路徑：選擇好你要的安裝路徑即可。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740449403241/9cd8a2dd-f605-49d5-b2b8-03454ce19b52.png" alt class="image--center mx-auto" /></p>
<p>這頁問的是之前是否有安裝過ComfyUI，有的話可以設定好路徑，就可以使用先前下載過的檔案、資料。本篇教學面向的是新手，因此直接按Next跳過即可。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740449560227/5cbcb4b1-b9a0-489c-b866-508d540d622c.png" alt class="image--center mx-auto" /></p>
<p>Automatic Updates - 自動安裝 ／ Usage Metrics - 提供使用資訊給ComfyUI來改進產品</p>
<p>這兩個選項是預設選取的，如果不想自動更新、提供的話就直接關掉即可。Mirror Settings裡面是安裝過程中會安裝的其他相關程式的下載路徑，如果有偏好的來源可以自行設定，這邊我們使用預設的設定即可。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740450123536/b50958c5-1131-492c-8080-999540e56d09.png" alt class="image--center mx-auto" /></p>
<p>ComfyUI的安裝程式會幫你設定好需要的環境。</p>
<p>安裝完後會直接開啟ComfyUI的介面（如下圖），這時候應該會跳出錯誤訊息，提示你Ｍissing Models（找不到模型），這時候必須先下載缺少的模型。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740449067763/6d4269c2-b130-41e5-97d3-4b46313209e3.png" alt class="image--center mx-auto" /></p>
<h3 id="heading-5pah55sf5zyw6iih5asn5qih5z6l">文生圖與大模型</h3>
<p>以首次安裝的使用者來說，要運行最基本的<strong>文生圖功能</strong>，會需要下載一個<strong>大模型</strong>。ComfyUI預設下載的是一個SD1.5的模型，這個大模型的下載不是強制性的，也可以自行下載你需要的模型，之後會介紹如何下載並使用模型。目前就直接下載這個ComfyUI預設使用的模型即可。</p>
<h3 id="heading-5a6j6kod5zwp6agm">安裝問題</h3>
<p>目前新主頁的內容還很少，所以如果在安裝的途中、之後的使用上遇到任何問題的話，ComfyUI的<strong>Github Repo的Issues分頁</strong>是一個很好搜尋解答的地方，當然有問題也可以直接發問。</p>
<p><a target="_blank" href="https://github.com/comfyanonymous/ComfyUI/issues">https://github.com/comfyanonymous/ComfyUI/issues</a></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1740367272078/4bb3d49f-53d5-4456-b2ee-8cd0b24f747e.png" alt class="image--center mx-auto" /></p>
<hr />
<p>ComfyUI的安裝完成後，我們就可以開始ComfyUI的介面和更細緻的介紹了，礙於篇幅問題，ComfyUI的其他內容會擺到下一篇教學。在下一篇教學，我們將會學習ComfyUI的<strong>介面、節點、各種模型的知識，並開始利用提示詞生成圖片。</strong></p>
<p><strong>請點擊下方連結到AI 室內設計工作流（三）：</strong></p>
<p><a target="_blank" href="https://tw-blog.reroom.ai/ai-comfyui-workflow">https://tw-blog.reroom.ai/ai-comfyui-workflow</a></p>
<hr />
<p><strong>點擊這個連結：</strong><a target="_blank" href="https://tw.reroom.ai/"><strong>https://tw.reroom.ai/</strong></a> <strong>或者直接搜尋ReRoom AI就可以找到我們。</strong></p>
<p>也歡迎追蹤我們的Threads，我們會將最新的功能和使用心得放到上面，分享一些有趣的使用經驗。</p>
<hr />
]]></content:encoded></item><item><title><![CDATA[Ai 室內設計工作流教學 （一）： Ai 室內設計工作流介紹]]></title><description><![CDATA[這篇文章是寫給：


室內設計師：想了解AI目前運用在室內設計應用程度和可能性，並且想嘗試新的工作流程的人。

自宅、租屋改造者：想自行做室內改造，想規劃風格卻苦無使用3D渲染軟體或者平面設計軟體經驗的人。


為什麼要學習這個工作流：

隨著人工智慧技術的飛速發展，AI 繪圖工具在設計產業中越來越受到重視。特別是在室內設計領域，AI 工具正成為創作者實現快速構思與高效製圖的重要助手。

設計師 Tim Fu 所生成的AI圖像 / 來源： ig-post
主流的文生圖工具只能藉由文字生成渲染圖，...]]></description><link>https://tw-blog.reroom.ai/comfy-krita</link><guid isPermaLink="true">https://tw-blog.reroom.ai/comfy-krita</guid><category><![CDATA[Krita]]></category><category><![CDATA[comfyui]]></category><category><![CDATA[室內設計]]></category><dc:creator><![CDATA[Wayne Huang]]></dc:creator><pubDate>Tue, 18 Feb 2025 06:47:42 GMT</pubDate><enclosure url="https://cdn.hashnode.com/res/hashnode/image/upload/v1739861402625/5d0c50a9-f9f0-450c-b35e-8ddf69ea4010.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1739849279669/d94bd577-a9b2-4ac1-8057-83da454d996f.png" alt class="image--center mx-auto" /></p>
<h2 id="heading-6ycz56h5pah56ug5piv5ar57wm77ya">這篇文章是寫給：</h2>
<hr />
<ul>
<li><p><strong>室內設計師</strong>：想了解AI目前運用在室內設計應用程度和可能性，並且想嘗試新的工作流程的人。</p>
</li>
<li><p><strong>自宅、租屋改造者</strong>：想自行做室內改造，想規劃風格卻苦無使用3D渲染軟體或者平面設計軟體經驗的人。</p>
</li>
</ul>
<h2 id="heading-54k65lua6bq86kab5a2457s6ycz5ycl5bel5l2c5rwb77ya">為什麼要學習這個工作流：</h2>
<hr />
<p>隨著人工智慧技術的飛速發展，AI 繪圖工具在設計產業中越來越受到重視。特別是在室內設計領域，AI 工具正成為創作者實現快速構思與高效製圖的重要助手。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1739856765249/fc6dac4e-acaf-4c55-ae82-31a53dea24cb.webp" alt class="image--center mx-auto" /></p>
<p><em>設計師 Tim Fu 所生成的AI圖像 / 來源：</em> <a target="_blank" href="https://www.instagram.com/p/DEw-z5sMDtq/?utm_source=ig_web_copy_link&amp;igsh=MzRlODBiNWFlZA=="><em>ig-post</em></a></p>
<p>主流的文生圖工具只能藉由文字生成渲染圖，無法控制圖片整體結構。對於室內設計而言，這類工具的效用並不大，設計師更需要的是能精準重繪空間的生成工具。</p>
<p>本系列文將介紹的這一個工作流能夠讓設計師從輸入案場圖片或者模型圖作為起始，快速的達到以下功能：<strong><mark>維持生成圖片的空間結構比例</mark></strong><mark>、</mark><strong><mark>利用範例圖生成類似風格</mark></strong><mark>並能依需求</mark><strong><mark>增減畫面上的物件</mark></strong><mark>。</mark></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1739848235488/354412b6-92a0-4f9b-b8b0-cdf007672235.webp" alt class="image--center mx-auto" /></p>
<p><em>工作流示意圖：此工作流可以保留房間的結構並自由添加家具物件</em></p>
<h2 id="heading-krtia-comfyui">Krtia 及 ComfyUI簡介</h2>
<hr />
<p>簡單介紹一下這個工作流將會運用到的兩個應用軟體：Krita和ComfyUI。</p>
<h3 id="heading-krita">Krita</h3>
<p><strong>Krita</strong> 是一款<strong>免費使用</strong>的<strong>開源繪圖軟體</strong>，擁有類似Photoshop的功能。Krita將會是我們主要的操作介面，之後的文章會介紹簡單的Krita功能，並運用Krita的生成式AI插件(Generative AI Plugin)來將生成式圖像工作流(ComfyUI)加入Krita中。</p>
<p><img src="https://krita.org/images/pages/application-screenshot.webp" alt="Features | Krita" /></p>
<h3 id="heading-comfyui">ComfyUI</h3>
<p><strong>ComfyUI</strong> 就像一個拼裝積木的AI圖像創作工具。它不是像一般的繪圖軟體，直接用筆在畫布上畫圖，而是透過組合多種「積木」（小工具）來生成AI圖像，這些積木有不同的功能，可以選擇風格、設定顏色、改變細節，甚至創造全新影像。</p>
<p><img src="https://preview.redd.it/comfyui-sdxl-my-2-stage-workflows-v0-mdb012l64lfb1.png?width=2486&amp;format=png&amp;auto=webp&amp;s=e72a2bed93c8fd3d9049ea3a0969aa8ad80f3158" alt="r/StableDiffusion - MoonRide workflow v1.2" /></p>
<p>結合Krita的圖層功能和ComfyUI的模組化影像處理，設計師得以運用最新的開源AI模型，快速生成精準的室內設計效果圖，從草圖構思到最終渲染，都能大幅提升效率。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1739857707693/cc50f94c-7666-4d2a-961d-fd8616e9d184.png" alt class="image--center mx-auto" /></p>
<p><em>結合Krita和ComfyUI的工作流：能夠完整掌握生成圖片中的每個元素</em></p>
<p>AI 繪圖產業的崛起，即將改變傳統設計的生態，更為設計師提供全新創作模式。這一波技術革新不僅降低了設計門檻，也讓更多人能夠參與到創作中。</p>
<p>AI 的使用能將設計者從視覺化概念的繁瑣步驟中解放出來，投入更大的心力在真正的設計內容上面。</p>
<h2 id="heading-krita-comfyui">Krita 和 ComfyUI的硬體需求：</h2>
<hr />
<h3 id="heading-comfyui-1">ComfyUI 硬體需求</h3>
<ul>
<li><ul>
<li><p>關於ComfyUI的硬體需求 : 從ComfyUI官方推薦的頁面來看，近10年內的Nvidia顯卡都可以跑（10系～最新的50系），但用低階顯卡跑的話單張圖的生成時間會變的很長。</p>
<p>    * 官方建議是**<mark>Nvidia 30系顯卡的中高階顯卡以上、VRAM越高越好</mark>**。AMD和Intel顯卡的話會有額外的限制和安裝方式，在這邊筆者並不推薦。</p>
<p>    * 關於更詳細的資訊，請參考官方的顯卡天梯：<a target="_blank" href="https://github.com/comfyanonymous/ComfyUI/wiki/Which-GPU-should-I-buy-for-ComfyUI">https://github.com/comfyanonymous/ComfyUI/wiki/Which-GPU-should-I-buy-for-ComfyUI</a></p>
</li>
</ul>
</li>
</ul>
<h3 id="heading-krita-1">Krita配置需求</h3>
<ul>
<li><ul>
<li><p>Krita繪圖軟體本身的話沒有特殊的硬體需求，目前的電腦應該都能夠運行。</p>
<p>    * 至於Krita AI插件的硬體最低推薦配置是6GB VRAM的顯卡，同樣也是運行ComfyUI，想較為流暢運行可以參考上方ComfyUI配置。</p>
</li>
</ul>
</li>
</ul>
<h2 id="heading-5pys57o75yix5pah56ug5ywn5a6577ya">本系列文章內容：</h2>
<hr />
<p>透過上面間單的介紹，讀者應該能夠理解Krita + ComfyUI 的靈活和強大之處。</p>
<p>以下是這系列上線教學文章的內容預告：</p>
<ol>
<li><h3 id="heading-krita-amp-comfyui"><strong>Krita教學 &amp; ComfyUI部署教學</strong> ：</h3>
</li>
</ol>
<ul>
<li><p>安裝方式</p>
</li>
<li><p>Krita基本工具</p>
</li>
<li><p>ComfyUI介紹</p>
</li>
<li><p>文生圖/圖生圖的基本概念和應用</p>
</li>
<li><p>Custom Node / Checkpoint / LoRA/ Clip / VAE / ControlNet 等等模組、模型的基本介紹</p>
</li>
<li><p>如何找到、下載、運用這些基本模型和工作流</p>
</li>
</ul>
<ol start="2">
<li><h3 id="heading-kritacomfyui"><strong>如何使用Krita和ComfyUI：</strong></h3>
</li>
</ol>
<ul>
<li><p>以Sketchup模型和參考圖來快速生成概念</p>
</li>
<li><p>對快速生成的概念進行修改</p>
</li>
</ul>
<hr />
<p>謝謝你看到最後，以上就是此篇介紹文章的全部內容，讀者應該能對Krita和ComfyUI有初步的了解。</p>
<h3 id="heading-5lml5b6m55qe5pwz5a245pah56ug5bch5pyd5b6i5br5pu05paw77ym5q2h6lo6kic6zax5oir5ycr55qe6yoo6jc95qc844cc">之後的教學文章將會很快更新，歡迎訂閱我們的部落格。</h3>
<hr />
<p><strong>點擊這個連結：</strong><a target="_blank" href="https://tw.reroom.ai/"><strong>https://tw.reroom.ai/</strong></a> <strong>或者直接搜尋ReRoom AI就可以找到我們。</strong></p>
<p>也歡迎追蹤我們的Threads，我們會將最新的功能和使用心得放到上面，分享一些有趣的使用經驗。</p>
]]></content:encoded></item><item><title><![CDATA[【ReRoom AI 實測】房仲業的新利器，一鍵打造吸引買家的室內渲染與 3D 變裝效果]]></title><description><![CDATA[前情提要
在房地產行業，房源的展示效果往往是影響成交的關鍵因素。無論是在線廣告中吸引點擊，還是實地看房時打動買家，如何高效地展現房源潛力，始終是房仲業者的一大挑戰。傳統的房屋拍攝與現場布置（staging）不僅耗費時間與成本，還可能受到房屋現狀的限制，無端增加運營成本。
ReRoom AI 作為一款專為房仲業設計的智能工具，能將普通房屋照片一鍵轉換為不同風格的渲染效果，例如現代、北歐、工業等，甚至可針對房屋空間的不足之處進行改造與修飾。不僅能夠快速生成專業級的室內渲染圖，還引入了 3D 變裝功能...]]></description><link>https://tw-blog.reroom.ai/rendering</link><guid isPermaLink="true">https://tw-blog.reroom.ai/rendering</guid><category><![CDATA[Real Estate]]></category><category><![CDATA[Design]]></category><category><![CDATA[AI]]></category><category><![CDATA[#ai-tools]]></category><category><![CDATA[Virtual Reality]]></category><category><![CDATA[virtual machine]]></category><category><![CDATA[3d rendering]]></category><category><![CDATA[marketing]]></category><category><![CDATA[business]]></category><category><![CDATA[architecture]]></category><category><![CDATA[Rendering]]></category><dc:creator><![CDATA[Willy Jhong]]></dc:creator><pubDate>Wed, 08 Jan 2025 11:33:01 GMT</pubDate><enclosure url="https://cdn.hashnode.com/res/hashnode/image/upload/v1736393614767/f4035ba7-628f-4a99-a747-7a9ddd943480.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<h2 id="heading-5ymn5oof5oq6kab">前情提要</h2>
<p>在房地產行業，房源的展示效果往往是影響成交的關鍵因素。無論是在線廣告中吸引點擊，還是實地看房時打動買家，如何高效地展現房源潛力，始終是房仲業者的一大挑戰。傳統的房屋拍攝與現場布置（staging）不僅耗費時間與成本，還可能受到房屋現狀的限制，無端增加運營成本。</p>
<p><a target="_blank" href="https://reroom.ai/?hello=hashnode"><strong>ReRoom AI</strong></a> 作為一款專為房仲業設計的智能工具，能將普通房屋照片一鍵轉換為不同風格的渲染效果，例如現代、北歐、工業等，甚至可針對房屋空間的不足之處進行改造與修飾。不僅能夠快速生成專業級的室內渲染圖，還引入了 <strong>3D 變裝功能</strong>，讓房源照片瞬間擁有多種風格選擇。從快速虛擬布置到空間改造，甚至模擬整體風格變化，這款工具正在重塑房仲業的展示方式。此外，<a target="_blank" href="https://reroom.ai/?hello=hashnode"><strong>ReRoom AI</strong></a> 提供 <strong>API 和企業版軟體服務</strong>，方便與房仲行業的內部系統無縫整合；未來更計畫引入<strong>測距（ LiDAR 技術）</strong>，帶來更精準的空間測量與渲染效果。</p>
<h2 id="heading-kirlr6bmukwqkg"><strong>實測</strong></h2>
<p><strong>我們今天會拿三個在房仲領域的應用，<mark>3D 變裝</mark>：多樣化風格展示；<mark>虛擬布置</mark>（Virtual Staging）：快速吸引買家；<mark>空間改造</mark>：提升房源價值。</strong></p>
<p><strong>一、3D 變裝：多樣化風格展示：</strong></p>
<p>ReRoom AI 的 3D 變裝功能，讓房仲業者能將單一空間轉換為多種設計風格，實現「一房多變」。買家可以在同一空間內瀏覽不同的設計風格，根據自己的喜好選擇最適合的樣貌，大幅提升購買意願。</p>
<p>功能特色：</p>
<ul>
<li><p>支援快速切換多種設計風格（如北歐風、工業風等、賽博風）。</p>
</li>
<li><p>提供視覺效果圖，讓買家能全方位了解空間的設計效果。</p>
</li>
<li><p>模擬不同材質（如地板、牆面）的變化，幫助買家更直觀地感受房源的改造潛力。</p>
</li>
<li><p>模擬多樣化光影效果（如日夜變化或四季氛圍），讓買家更直觀地體驗房源在不同環境下的魅力。</p>
</li>
</ul>
<p><strong>案例：上傳一張客廳照片後，ReRoom AI 展現了三種不同設計：柔和的「北歐風」、大膽的「工業風」和新潮的「賽博風」。</strong></p>
<p><strong>A. 柔和的「北歐風」</strong></p>
<ul>
<li><p>整體設計以淺色木質地板和家具為基調，搭配柔和的中性色牆面，如白色或淺灰色，營造簡約又溫馨的氛圍。</p>
</li>
<li><p>空間中點綴著幾何圖案的地毯和抱枕，增添了一絲活力。</p>
</li>
<li><p>大量自然採光通過簡潔的窗簾滲透進來，讓客廳顯得格外明亮通透。</p>
</li>
<li><p>裝飾方面以簡約的掛畫和盆栽為主，營造出自然舒適的生活感。</p>
</li>
</ul>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736332586994/4b0d4958-fd28-4ae8-af5b-5a8be52ec749.png" alt class="image--center mx-auto" /></p>
<p><strong>B. 大膽的「工業風」</strong></p>
<ul>
<li><p>牆面採用裸露的紅磚紋設計，或深灰色水泥質感，展現出粗獷的工業魅力。</p>
</li>
<li><p>家具選擇以金屬材質與深色木材為主，沙發以皮革或深色布料包裹，帶來一種沉穩大氣的感覺。</p>
</li>
<li><p>吊燈則以仿舊金屬材質為主，線條簡潔，營造出明暗分明的光影效果。</p>
</li>
<li><p>裝飾上加入了金屬框架書架、復古地球儀和粗線條地毯，增強了空間的個性化表現。</p>
</li>
</ul>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736333037073/86ccfead-1f6e-4087-aef1-a5bee82ae12a.png" alt class="image--center mx-auto" /></p>
<p><strong>C. 新潮的「賽博風」</strong></p>
<ul>
<li><p>牆面和天花板採用深色霧面背景，搭配鮮明的霓虹燈條，呈現出未來感十足的氛圍。</p>
</li>
<li><p>家具線條銳利，以金屬與玻璃為主要材質，搭配黑色與高光白的色調形成強烈對比。</p>
</li>
<li><p>地板設計有著金屬光澤的質感，反射燈光，讓空間更加科技感十足。</p>
</li>
<li><p>裝飾元素包括流線型的燈具、未來感的數字畫框，以及點綴的LED燈管，仿佛讓人置身於未來的居住空間。</p>
</li>
</ul>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736333181012/fabee6ea-7897-45d0-9246-28113f607307.png" alt class="image--center mx-auto" /></p>
<p><strong>二、虛擬布置（Virtual Staging）：快速吸引買家：</strong></p>
<p>空房間常因缺乏生活氣息而無法引起買家的共鳴。ReRoom AI 的虛擬布置功能，可以根據房源照片快速添加家具、裝飾品及燈光設計，打造一個栩栩如生的家居環境。同時，業者還可以根據買家的偏好自由切換風格。</p>
<p><strong>案例：上傳一張空臥室照片，選擇「現代優雅風格」，ReRoom AI 自動加入植栽和藝術掛畫，營造出溫馨的會客氛圍，瞬間讓買家感受到房子的潛力。</strong></p>
<p>A. 家具布局：AI 自動加入了一張低調奢華的淺灰色布藝床，搭配高背設計，增添了舒適感。床頭擺放著兩個對稱的深色木質床頭櫃，搭配金屬邊框的桌燈，突顯了現代風格的簡約與精緻。</p>
<p>B. 植栽與自然元素：AI 在角落放置了一盆大型綠植，例如龜背竹或橡膠樹，為空間注入生機與活力。窗邊的盆栽也為光線充足的區域增添了自然的清新感。</p>
<p>C. 牆面設計與藝術掛畫：牆面以淺灰色或奶油白作為基調，打造出沉穩而高雅的背景。床頭牆掛上了一幅抽象藝術畫，色彩以金屬金、深藍與奶油白為主，帶來了高級感與視覺焦點。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736333994630/c54df5dd-5905-4901-a66e-4e399eea088e.png" alt class="image--center mx-auto" /></p>
<p><strong>三、空間改造：提升房源價值：</strong></p>
<p>許多老舊房屋因為設計陳舊或空間使用不合理而難以吸引買家。ReRoom AI 提供了空間改造功能，能夠將普通照片轉換為符合現代審美的渲染圖。例如，將過時的廚房改造成「工業風格」，或將昏暗的臥室改造成「溫馨北歐風」，讓潛在買家更容易想像房屋的潛力。</p>
<p><strong>案例：一張老舊廚房照片，經由 ReRoom AI 的智能渲染，原本陳舊的廚房搖身一變，煥發出現代與時尚的魅力，完美詮釋了「夢想廚房」的概念。</strong></p>
<p>A. 牆面改造：原本暗黃色的老舊牆面被替換為深灰色的仿磚紋設計，立體感十足，展現出經典工業風的粗獷美感。</p>
<p>B. 櫥櫃與台面更新：原先木質櫥櫃的褪色表面被替換為高級深色金屬材質，搭配不鏽鋼邊緣處理，給人一種極具現代感的結構化設計。台面則選用了黑色石英材質，質地細膩且易於清潔，提升了實用性和美觀性。</p>
<p>C. 整體氛圍營造：這次改造的亮點在於細膩的光影處理和材質選擇，深色的基調搭配精緻的金屬與暖光效果，既有實用性，又兼具美觀，讓廚房成為一個烹飪與交流的完美空間。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736334609437/392a8993-8ed4-401a-989d-675a88cf71b2.png" alt class="image--center mx-auto" /></p>
<h2 id="heading-kirmiodoozpmni3li5nkuq7pu54qkg"><strong>技術服務亮點</strong></h2>
<h5 id="heading-1-api"><strong>1. API 與企業版軟體服務</strong></h5>
<p>ReRoom AI 不僅是一款工具，更是一個靈活的解決方案：</p>
<ul>
<li><p><strong>API 支持</strong>：房仲企業可以將 ReRoom AI 的功能整合至內部系統或房源管理平台，實現自動化渲染與批量處理。</p>
</li>
<li><p><strong>企業版軟體</strong>：專為大型房仲公司設計，提供更高的處理能力、定制化服務及團隊協作功能，滿足企業的高效運營需求。</p>
</li>
</ul>
<h5 id="heading-2-lidar"><strong>2. 引入 LiDAR 技術（未來規劃）</strong></h5>
<p>ReRoom AI 正在開發與 <strong>LiDAR（光檢測與測距）技術</strong> 的整合，將帶來以下優勢：</p>
<ul>
<li><p><strong>高精度空間建模</strong>：透過 LiDAR 設備快速掃描房屋，生成準確的 3D 模型，提升渲染效果的真實感。</p>
</li>
<li><p><strong>節省測量與建模時間</strong>：大幅減少人工測量的需求，讓業者能更專注於房源展示與銷售。</p>
</li>
<li><p><strong>自動生成最佳設計建議</strong>：結合 AI 演算法，根據空間結構自動推薦適合的設計風格與布置方案。</p>
</li>
</ul>
<h2 id="heading-kirlhkrli6lliibmnpaqkg"><strong>優勢分析</strong></h2>
<h5 id="heading-1"><strong>1. 提升房源吸引力</strong></h5>
<p>專業級的虛擬布置、3D 變裝與未來的 LiDAR 支持，讓房源展示效果更加豐富直觀。</p>
<h5 id="heading-2"><strong>2. 降低時間與成本</strong></h5>
<p>通過自動化工具替代傳統布置與拍攝，大幅節省人力與資源。</p>
<h5 id="heading-3"><strong>3. 提升系統化效率</strong></h5>
<p>透過 API 與企業版軟體服務，實現內部運營流程的無縫整合，助力房仲企業規模化發展。</p>
<h5 id="heading-4"><strong>4. 未來技術保障</strong></h5>
<p>LiDAR 技術的加入，將進一步提高房源展示的精準性與沉浸感，讓業者在競爭中保持技術領先。</p>
<h2 id="heading-57wq6kqe">結語</h2>
<p><strong>ReRoom AI 的虛擬布置、3D 變裝以及即將引入的 LiDAR 技術，正逐步改變房仲業的房源展示方式。不僅提升了房源的吸引力，還通過高效的技術工具降低了展示成本，為業者和買家創造了雙贏局面。</strong></p>
<p>如果你是一位房仲專業人士，正尋求提升展示效率、優化房源效果的方法，不妨試試 ReRoom AI。透過 API 與企業版軟體服務，實現與內部系統的無縫整合；搭配未來的 LiDAR 技術，更能突破傳統展示模式，開啟房地產行業展示的新篇章！</p>
]]></content:encoded></item><item><title><![CDATA[【ReRoom AI系列】一秒打造客戶愛的渲染風格？室內設計實測分享]]></title><description><![CDATA[前情提要
室內設計的流程中，渲染一直是讓人又愛又恨的一環。愛的是，渲染可以將設計構想完美地展現出來，讓客戶在最短時間內看到成果；恨的是，傳統渲染通常費時費力，還需要高效能的硬體支持和精細的技術操作。尤其對於小型設計公司或自由設計師而言，時間和資源往往更為有限。
最近，市場場掀起一款熱潮的AI室內設計神器－ReRoom AI，專為小型設計公司、自由設計師以及渲染需求的非專業用戶量身打造的設計工具，聲稱能輕鬆將草圖、模型或照片轉化為專業級的室內渲染效果，並提供多種風格選擇和智能化操作支持，幾乎無需繁...]]></description><link>https://tw-blog.reroom.ai/reroom-ai</link><guid isPermaLink="true">https://tw-blog.reroom.ai/reroom-ai</guid><category><![CDATA[AI]]></category><category><![CDATA[Design]]></category><category><![CDATA[business]]></category><category><![CDATA[Interior Design]]></category><category><![CDATA[Productivity]]></category><category><![CDATA[Artificial Intelligence]]></category><category><![CDATA[architecture]]></category><category><![CDATA[Freelancing]]></category><category><![CDATA[Real Estate]]></category><dc:creator><![CDATA[Willy Jhong]]></dc:creator><pubDate>Mon, 06 Jan 2025 02:47:05 GMT</pubDate><enclosure url="https://cdn.hashnode.com/res/hashnode/image/upload/v1735868674423/101d22d6-8101-4286-a21a-abd32f13cd1d.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<h2 id="heading-5ymn5oof5oq6kab">前情提要</h2>
<p>室內設計的流程中，渲染一直是讓人又愛又恨的一環。愛的是，渲染可以將設計構想完美地展現出來，讓客戶在最短時間內看到成果；恨的是，傳統渲染通常費時費力，還需要高效能的硬體支持和精細的技術操作。尤其對於小型設計公司或自由設計師而言，時間和資源往往更為有限。</p>
<p><strong>最近，市場場掀起一款熱潮的AI室內設計神器－</strong><a target="_blank" href="https://tw.reroom.ai/?hello=hashnode"><strong>ReRoom AI</strong></a><strong>，專為小型設計公司、自由設計師以及渲染需求的非專業用戶量身打造的設計工具，聲稱能輕鬆將草圖、模型或照片轉化為專業級的室內渲染效果，並提供多種風格選擇和智能化操作支持，幾乎無需繁瑣的操作。這聽起來對於「小而美」的設計團隊簡直太有吸引力了！</strong></p>
<h2 id="heading-5am5ris">實測</h2>
<p><strong>我們今天會拿三個實際應用場景來實測，客廳設計案例、廚房設計案例、臥室改造案例。<mark>如果是自由設計師</mark></strong>，基本上跟客戶接洽完後，會開始按照空間發想室內設計，並著手開始繪製2D 平面圖，但平面圖只能充分展示格局，無法讓客戶實際感受設計結果，也就是常說的空間視覺效果，如果這時候有款可以快速渲染的工具該有多好。<strong><mark>如果是小型設計公司</mark></strong>，基本上囊括客戶所有的設計專案，在碰到專案的尾聲，一定需要為設計好的 3D 模型進行渲染，無論是委託專業渲染公司或是使用專業版的渲染器都相當昂貴，渲染的結果一來一回不僅時間長，效果也不一定是客戶想要的，對時間和公司資源都是種高負荷。<strong><mark>如果是非專業用戶</mark></strong>，很常遇到想要對自家的某個空間角落進行改造，卻苦於不知道如何設計或不知道怎跟設計師溝通，此時如果有一種工具可以幫助你只需要上傳手機拍攝的實景照片，然後搖身一變成你想要的風格，像是工業風、北歐風等，如果還能將原先單調的牆壁加入仿磚紋的細節，不就為生活開啟幾分美妙，整個空間瞬間煥然一新，設計師都會被你驚訝到。</p>
<p><strong>一、客廳設計案例：</strong></p>
<p><strong>自由設計師，現在只需要上傳2D手繪草圖</strong>，選擇類型「客廳」、風格「現代優雅」。<strong>ReRoom AI</strong> 僅用幾秒鐘生成了一張客廳的完整渲染圖。整體光影表現逼真，家具、裝飾以及室外景色的比例恰到好處，甚至還自動加入了幾個裝飾性物件，讓空間更加真實且生活化。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1735875974433/a369ef5a-5f16-403b-9307-4e1f003b1951.png" alt class="image--center mx-auto" /></p>
<p><strong>二、廚房設計案例：</strong></p>
<p><strong>小型設計公司，我們使用一個 3D 模型進行渲染</strong>，並選擇了「工業風格」。生成的效果以金屬材質和深色系的櫥櫃為主，搭配局部暖光源和簡約的結構設計，營造出冷酷又實用的現代廚房氛圍。更令人驚喜的是，AI 還根據廚房的功能性配置，自動添加了符合風格的細節，例如仿舊金屬吊燈、不鏽鋼廚具和木質砧板，讓整體效果更具專業水準與實用感。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1735876706800/7b93a43c-a42c-4122-afcb-5ed43b1f6877.png" alt class="image--center mx-auto" /></p>
<p><strong>三、臥室改造案例：</strong></p>
<p><strong>有渲然需求的非專業用戶，我們使用了一張臥室的實景照片</strong>，測試將其改造成「北歐風格」。渲染結果令人驚喜：原本雜亂且過於沉悶的空間，被賦予了清新的淺色木質地板和家具，牆面則改為純白或柔和的淺灰色調。AI 還巧妙地加入了符合北歐風的細節，如簡約的床頭燈、柔軟的地毯和幾何圖案的抱枕。整體氛圍變得溫暖且舒適，充滿了自然與簡約的設計美感，完全達到了專業設計師的效果水準。</p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1735888303078/9e51f70d-ab0c-4121-8c93-34025631dfec.png" alt class="image--center mx-auto" /></p>
<p>既然稱之為改造，就代表可以對室內設計增刪改，<strong>ReRoom AI 還有兩個強大的功能：虛擬擺設(Virtual staging)、AI繪圖(Sketch)。</strong></p>
<p><strong>虛擬擺設(Virtual staging)：可以對所選區域進行移除、取代、添加的功能。</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1735888955603/498b3cb0-a472-40a5-9ec8-899f53ca6e55.png" alt class="image--center mx-auto" /></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736126973065/0d21e65a-4088-4aec-8d5f-820fa2644ec2.png" alt class="image--center mx-auto" /></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736127163161/77f2fc7e-dd3e-4c6f-a115-379363fe5b92.png" alt class="image--center mx-auto" /></p>
<p>除此之外，我們並不滿足可以進行移除、取代、添加的功能，還提供了強大的<strong>AI繪圖(Sketch)</strong>能力，將原先<strong>上傳的室內照片圖先轉換為素描稿，可以在素描稿上直接進行手繪</strong>，達到任何你想要的室內模樣<strong>。</strong></p>
<p><img src="https://cdn.hashnode.com/res/hashnode/image/upload/v1736128842843/d165be28-d9ce-4370-bc3e-f20004b58b44.png" alt class="image--center mx-auto" /></p>
<p>以上就是今天的實測分享！希望透過針對不同用戶需求的實際案例，展現出各種應用場景與風格效果，讓設計不再只是專業人士的專利，也能為日常工作和生活帶來更多便利和靈感。同時，這樣的工具也讓我們能更輕鬆地與客戶或消費者進行溝通，把創意變得更具說服力，讓科技為藝術增添更多迷人的色彩！</p>
<h2 id="heading-57i957wq">總結</h2>
<h3 id="heading-reroom-ai">ReRoom AI 的核心特點</h3>
<p>可以看到 ReRoom AI 聚焦於解決設計與渲染中的三大痛點：時間、成本和技術門檻。它的主要功能包括：</p>
<ol>
<li><p><strong>快速生成渲染</strong>：從 2D 草圖、3D 模型或室內照片到渲染成品僅需數分鐘。</p>
</li>
<li><p><strong>多樣化風格選擇</strong>：支持現代、北歐、工業、美式等多種設計風格，滿足不同客戶與個人需求。</p>
</li>
<li><p><strong>自動優化材質與光影</strong>：智能調整空間光線、材質質感和物件比例，提升設計的真實感。</p>
</li>
<li><p><strong>友好的操作介面</strong>：專為非專業人士設計，無需學習專業渲染工具即可輕鬆上手。</p>
</li>
</ol>
<h3 id="heading-5pyq5l6g5bgv5pyb6iih5oyr5oiw">未來展望與挑戰</h3>
<p>對於專業設計師而言，AI 自動化處理的效果雖好，但在一些特殊需求上，如果 ReRoom AI 能進一步完善細節控制功能，並引入更多個性化設計風格，同時加強與主流設計軟體（如 SketchUp 或 Revit）的兼容性，勢必成為市場中的一大亮點。此外，針對非專業用戶，若能推出專屬教程或快速入門指南，將進一步擴大其影響力。</p>
<p>ReRoom AI 是一款讓設計師夢寐以求的工具，特別是在快速生成提案和展示設計理念的應用場景中，極大地縮短了設計流程，並提高了與客戶的溝通效率。對於小型設計公司和自由設計師而言，這款工具無疑是一個高性價比的選擇，對於渲染經驗不足的非專業用戶，也提供了一個友好且實用的工具。快速上手、操作直觀，讓更多人能輕鬆實現自己的設計夢想。</p>
<p><strong>結語：設計自由的新時代 ReRoom AI 讓室內設計變得更快、更簡單，並降低了專業設計的門檻。如果你是一位設計師，希望提升渲染效率，或者你是一位對室內設計充滿興趣的非專業用戶，這款工具都值得一試！讓我們一起期待 AI 在設計領域更多的可能性與創新！</strong></p>
]]></content:encoded></item></channel></rss>