我們嘗試讓繪畫AI成為負責插圖的新同事


我們嘗試讓繪畫AI成為負責插圖的新同事

文章插圖

我們嘗試讓繪畫AI成為負責插圖的新同事

文章插圖
隨著討論熱度逐漸褪去 , “AI繪畫”的話題在這段時間似乎已經漸漸不再掀起波瀾,卻已有不少游戲公司悄無聲息地將AI繪畫加入了自己的工作流程中 。在探索AI繪畫工具化的浪潮中,作為一群繪畫方面的外行人,觸樂也踏出了自己的第一步——在祝佳音老師的指示下,我們正在嘗試使用AI繪畫工具生成文章所需的插圖 。
文章插圖的版權問題對大部分使用者而言都是個不小的隱患,要想在開源或有版權的圖片網站上為文章找到切合主題的插圖也不是件容易的事 。AI繪畫似乎成了一個不錯的選擇——在我們的想象中,只要為AI提供幾段描述或是關鍵詞,AI就能“讀懂并畫出”我們想要的圖片 。事實真的如此簡單嗎?為了實現“讓AI幫我們畫插圖”的目標,最大程度上解放勞動力,我們做出了一些嘗試 。

畫風、付費、本地化?

要想生成對應風格的插圖,第一步當然是挑選一個合適的模型 。AI繪畫的模型演化進度在最近短短半年間可謂突飛猛進,光是國內外主流模型便已有五六個,各類風格化模型更是百花齊放 。不過,要找到一個適合生成文章插圖的模型并不容易 。有些模型是開源的,有些需要付費才能使用,有些游走于法律的灰色地帶,被人破解后偷偷下載……
無論是哪種,總要上手試試才行 。我們在最后選擇了4種模型作為備選方案:開源后支持本地部署 , 曾經一度號稱“最強繪畫AI”的Stable Diffusion;老牌AI研究團隊OpenAI旗下最早的幾個圖像生成AI之一DALL·E;架設在Discord頻道中 , 持續更新模型的Midjourney;以及最后,支持日式畫風的NovelAI本地部署版本 。
首先必須聲明的是,盡管目前的AI繪畫版權問題仍不明朗,但“本地部署版NovelAI”一定是其中最不靠譜的一個——不提圖片庫的版權問題,模型的來源本身便游走在法律的灰色地帶 。相比起來 , 本地部署的Stable Diffusion則“名正言順”得多 。自Stable Diffusion宣布開源之后,在GitHub上即可下載Stable Diffusion的新舊版本,在本地架設后,借助WebUI工具便可以直觀地調整生成圖片的各項參數與圖片預覽 。
不過 , 天下沒有免費的午餐——雖然開源的行為接近于“將午餐送到你的嘴里”,但運行程序同樣需要有足夠的算力 。幾年前還算得上配置不錯的GeForce RTX 2060顯卡如今多少有些力不從心 。有人曾統計過不同的顯卡利用Stable Diffusion模型生成512×512大小圖像時所耗費的時間,2060顯卡需要17秒,3080只需要7秒——不一定足夠精準 , 但也有參考價值 。
我們嘗試讓繪畫AI成為負責插圖的新同事

文章插圖


3080的用時還不到2060的二分之一
當然 , 實際使用過程中,你會意識到17秒只是一種理想狀況 。隨著迭代步數的增加、畫幅的調整與生成數量的增多,生成圖片所需的時間幾乎呈指數式上漲 。最合理的方式 , 還是先生成512大小的圖片,再通過圖片擴大算法將其放大 。即便如此,當你把迭代步數不斷調高,也可能面臨內存溢出的風險 。更直觀的感受是,在圖片生成過程中 , 電腦的風扇聲幾乎沒有停過 。
相比起來,另外兩家付費的繪畫AI——DALL·E與Midjourney就對電腦顯卡友善得多 。它們的圖片生成并不需要你緊張地監控顯卡溫度,防止燒壞 , 只需要向它們的服務器發送對應描述詞,服務器便會吐出一組圖片以供用戶選擇 。只是與此相應,每次占用服務器資源生成圖片需要消耗用戶一定量的積分,開始你可以免費試用,試用完每個賬號的免費額度之后,必須得為賬號充值積分才能繼續生成 。

相關經驗推薦