註:AI技術日新月異,本文所談的內容幾個月後可能就會被推翻。本文所述的AI創作皆為自用,並非用於傷害他人用途。請遵守CreativeML Open RAIL-M協定再使用Stable Diffusion。
自從2022年AI繪圖興起,就有許多厲害的作品出現。Stable Diffusion是學習過許多知名畫家的模型,只需要靠幾個提示詞就能生出大師級的作品。
經過幾個月的發展,至少AI生圖已經從這樣品質
進階到這樣了
AI生圖能不能算電繪這還有很大爭議。並且因為生圖的門檻降低,Stable Diffusion可以自己架、自己訓練緣故,使得AI繪圖的作品品質競爭變得是越來越激烈。
為此,要搞清楚一件事:畫圖的目的是為了什麼?貼到社群網路炫耀?還是生色圖給自己爽而已?如果是後者目的,那麼我大可不必吹毛求疵與他人競爭,只要自己生的開心就可以了。
一個比喻:叔本華年輕的時候,喜歡每晚跟好友來場「香豔刺激的冒險」。找新色圖來看是樂趣,但是自己畫呢?不見得會有驚喜感的!
誠然AI帶有隨機性可以讓人期待,但填提示詞讓AI繪圖仍是受自己的想法控制著,所以不會有太大驚喜感。並且還要考慮花費力氣,精心構築一個場景,加上微調不完美手部所花的時間成本。如果折騰一小時才畫出滿意的圖,那麼畫完都累到陽痿了。
即使如此,AI技術的進步,仍是能產出不錯的圖。我試過的玩法如下。
繪製喜歡角色的二創色圖#
文生圖就能繪製喜歡角色的各種色圖了,前提是該角色還是要有點知名度。每天看Gelbooru下來提示詞都掌握得差不多了。
從現有畫作去改也可以,例如Stable Diffusion的圖生圖。不過單純圖生圖效果不好
搭配ControlNet按照線條換頭是更好的作法,它可以更精確的偵測線條、景深、動作。下面這張將櫻轉換加賀。
搭配PoseX和Latent Couple就可以任意排列圖中人物的姿勢、位置。AI繪圖有很多工具可以用,就算一次沒生好,也有各種修補手段。
如果某個角色怎樣都畫不好,自行訓練LoRA改善之。
剝衣服,去馬賽克#
什麼是剥ぎコラ?。這類圖片給官方版權繪圖剝衣服的形式現在也很容易做到了。
有了Stable Diffusion Inpaint,DeepFake三小的都不用了。以前還要花時間修圖,現在用內補繪製,AI直接剝給你。過程參考這裡
之前我也有討論過去馬賽克的DeepCreamPy。不過幹嘛嘗試「去」掉馬賽克呢?用內補繪製不就好了,搞不好比原作漂亮。
輝老嗨最愛的幼女#
Stable Diffusion可以利用真人模型生成以假亂真、會被FBI抓走的幼女圖片,加上flat chest、collarbonebone的提示詞效果更好。
啊嘿嘿,我要生偽娘(trap)的時候AI好像很難理解我要什麼,所以跑出一些怪圖。果然還是扶他比較好理解嗎…
但現在雲端連放動漫蘿莉圖都會被懷疑了,建議不要沒加密就把繪圖成果放雲端,也不要笨到在雲端訓練蘿的模型。
尻得動嗎?#
No,頂多當開胃菜。
現在懂得下提示詞,已經很少出克蘇魯的圖,但總會有缺陷。如同開頭說的,過度追求完美,導致一直修自己的圖,會到最後興致全無。這跟我以前手繪色圖是不一樣的感受,我感覺好像在建模還寫程式似的,要產出漂亮的圖得動腦排版和修復細節。儘管有成就感,但看向成品卻無太大興致。
所以對我而言,研究Stable Diffusion恐怕僅對科技的興趣罷了,生養眼圖只是順便。或者我應該早一點動歪腦筋,生一堆圖,簡單包裝一下,丟到社群媒體騙讚,或是Pixiv賺贊助,將技術變現割韭菜。
現在我還是比較喜歡看真人製作的作品。畢竟Pixiv等地,每日新鮮出爐的手工藝品還是很多,劇情也比較有趣,有時候還會有各種奇怪的性癖好湧現。
羅伯特.麥基在他的《故事》一書中,說:
從這個意義上而言,故事本質上是非理性的。它並不是通過枯燥的訴諸理性的論文來表達思想。但這並不是說故事是反理性的。我們祈望作家們都具有意味深長、飽含見識的思想。更確切地說,藝術家和觀眾之間的交流是直接通過感覺和知覺、直覺和情感來表達思想。它不需要仲裁者和評論者來將這一交流理性化,用解釋和抽象來取代那種不可名狀的感覺和知覺。學者的敏銳固然可以強化趣味和判斷,但我們決不可以將批評誤認為藝術。理智的分析無論多麼清醒,都不可能滋養人們的靈魂。
AI生圖沒有靈魂這點,道德上可能還是無法接受。不幸的是,市面上已經有AI生圖的作品試圖與畫家辛苦創作的作品魚目混珠,未來的共識仍有待人們立法解決。未來可能得順應潮流,將AI生圖變成人們創作的便利工具。