第2章 人工智慧對設計的影響
每個時代的設計都有不同的定義,農業和工業時代的設計更多是指設計師透過手工製作的方式闡釋自己對美感和藝術的理解;資訊時代的設計除了要考慮美感,還要考慮是否實用和好用。設計對象開始從真實世界轉向數位世界;設計思想開始考慮以使用者為中心的設計;設計方向也增加了很多領域,包括多媒體藝術、軟體設計、遊戲設計、網頁設計、行動應用設計等;設計工具不再只有紙和筆,各種設計軟體為設計師帶來更多靈感和便利。
2.1 人工智慧如何影響設計
在人工智慧時代下,AR設計、智慧硬體設計逐漸發展,設計的改革更多考慮的是如何將真實世界和數位世界進行融合,如何在自己產品上更好地闡釋藝術、美感和實用性。可能大家覺得人工智慧離我們還很遙遠,但其實我們已經很早就在使用各種AI技術,例如郵件過濾、個性化推薦、語音轉變成文字、蘋果Siri和Google Assistant、Bing搜尋、機器翻譯等。所以隨著AI技術的成熟,設計必定會發生新一輪的變化。在未來如何做設計?我們可以透過這幾年的設計案例來推測未來AI技術對設計產生的影響。
2.1.1 深度學習降低設計門檻
相信大家對Adobe的Photoshop、After Effects並不陌生,它是設計師手中的利器,但由於軟體的學習成本很高,使用並不容易,所以有不少設計新人望而卻步。2016年,Adobe發布了基於深度學習的Adobe Sensei平臺,它能夠利用Adobe長期累積的大量資料和內容,從圖片到影像幫助設計師解決在媒體素材創意過程中面臨的一系列問題,將重複工作變得自動化。
Photoshop CC 2018增加了一鍵去背功能,解決了需要耐心、極度枯燥的去背工作。使用者只需兩步驟操作就能將主體選取出來:第一步按下工具列上的「選擇主體」按鈕,第二步選中想要的主體,Sensei就會主動分析影像中的主體與背景的關係,並且直接將主體選取出來。
在Adobe MAX 2018大會上,Adobe發布了一項名為Fontphoria的功能。在演示中,演示人員只需要設計一個字母,Fontphoria就能透過深度學習技術把該藝術字體的風格複製到其他25個字母上,節省了字體設計師的大量時間。
此外,要從一張照片裡取出某個元素,再把它「神不知鬼不覺」地混入另一張圖片裡,也是一件很有難度的事情。2021年獲得康乃爾大學博士學位的欒福軍和同事共同研發了一種名叫Deep Painterly Harmonization的算法,它透過局部風格遷移的方式把各種物體融合進畫作裡,而且是真的「毫無PS痕跡」。大量藝術家的心血,甚至藝術家自己,都慘遭它的「毒手」。
如果說圖片編輯工具Prisma風靡了整個2016年,這裡還有一個更驚豔的例子。FastPhotoStyle是英偉達的圖片風格轉換工具,其中包含了將照片變為各種藝術風格的算法。只要提供風格照片和目標照片,該工具就能將風格照片上的風格特點遷移至目標照片上,效果簡直是以假亂真。
2.1.2 深度學習減輕畫師的工作量
每一部動畫角色在形象確認之前可能需要畫師畫上百張圖來定型,在製作二維動畫時每一幀畫面的變化也需要畫師一筆一筆畫出來。每一幅畫的背後,經歷了從草稿到線稿再到上色稿以及後期修正等各個階段,這些環節會耗費畫師大量的心血和精力。有些時候由於檔期的限制,我們會看到動畫由於製作時間緊張而出現畫面崩壞的情況,其實不是製作公司和畫師不想畫好,而是畫師真的太辛苦了。
2016年日本早稻田大學公開了一個自動描線的技術,這項技術能夠自動辨識圖像並確定圖像的具體輪廓而完成描線的工作,即便是衣物線條這類很複雜的草稿也可以完美地一口氣轉化成為線稿。目前這項自動描線技術僅作為早稻田內部的研究計畫,不過隨著技術的成熟早晚會有一天針對畫師開放。
對很多沒有繪畫經驗的人來說,繪畫是非常困難的,更困難的是為繪畫選擇和諧的色彩,即使是相似的顏色,其中的差異也會對繪畫結果產生巨大的影響。有家名叫Preferred Networks的日本AI創業公司把超越Google當作自己奮鬥的目標。在漫畫線稿上色AI這個領域,他們研發的PaintsChainer幾乎可以算是標竿。PaintsChainer操作非常簡單,使用者選好線稿上傳,自行選擇顏色並塗在相應區域,PaintsChainer會根據圖像和提示的顏色即時自動為新圖像上色。
Google I/O 2018大會上,Google Photos發布了一系列的功能改進,包括給黑白老照片自動上色的AI修圖功能。使用者只需要將黑白照片上傳到Google Photos,就能一鍵看到上色效果,而且效果非常自然。Google除了研發出給黑白照片上色的AI機器人,同時也在研發一款為黑白影片上色的AI機器人。研究人員可以從彩色影片裡截取某一幀作為參考,然後把該影片轉換成黑白影片,再利用他們開發的AI機器人,依據參考幀的顏色,將剛才的黑白影片還原為彩色影片。
日本有位名叫Hiroshiba的開發者搭建了一個網站Girl Friend Factory,它能設置不同的人物屬性,例如五官、髮型、髮色、眼睛的顏色、表情甚至是服裝、裝飾物,透過GAN(generative adversarial network,生成對抗網路)生成不同的二次元頭像。雖然該技術還不是很成熟,有些頭像會有明顯的扭曲,但相信隨著技術的完善,它可以使畫師的繪畫製作成本進一步降低。
在區塊鏈(blockchain)領域,有個名叫Crypko的區塊鏈遊戲震撼了整個二次元圈,其遊戲玩法跟之前流行的「謎戀貓」(CryptoKitties)非常類似:Crypko在前期透過收集網路上的不同插畫作品,利用GAN神經網路將兩張不同風格的插畫作品的特點進行融合,自動生成一張新的插畫作品。後期使用者可以透過租賃或者購買的方式獲取想要的插畫,再與自己已有的插畫進行融合,生成新的插畫。
2.1.3 AI自動生成高品質逼真場景
你可能不相信,下面這張高解析度、逼真的圖像是AI合成的。CG要達到這樣真實的效果,需要建模、定材質、貼圖、上燈光和渲染,工作量極大。這張逼真的圖像來自香港中文大學聯合英特爾視覺計算實驗室的最新成果,他們共同研究出了一種半參數模型,簡稱為SIMS,相關工作論文〈Semi-parametric Image Synthesis〉已被CVPR 2018收錄。這項技術主要思考方向是先用大型真實圖像資料庫訓練非參數模型獲得一個合成素材庫;然後利用語義布局分析虛構場景裡有什麼,再把這些素材填充進去;最後在接縫的地方,深度神經網路會計算好不同素材之間的空間關係,給予適當的光影關係,合成一幅逼真的圖片。
在電影裡,雖然空間和場景設計都不算是核心,但每一個細節都可能影響整部電影的品質;同理,沉浸感很強的VR也會面臨這個問題。隨著AI渲染環境技術的成熟,高品質、低成本創造真正模擬現實世界的遊戲場景將成為可能。SIMS的第二作者陳啟峰已經開始嘗試利用這套算法來替換《俠盜獵車手V》(Grand Theft Auto V)裡的遊戲場景。
來自英偉達和MIT的研究團隊,在2018年8月發布了迄今最強的AI高解析度影片生成網路——vid2vid。它不僅能做到自動合成街景的效果,而且能透過一個簡單的素描草圖,生成細節豐富、動作流暢的高解析度人臉。你只需要勾勒出人臉輪廓,系統就能自動生成一張張正在說話的人臉。你不僅可以定製人物的臉色和髮色,甚至可以更換人物身後的背景。除了自動合成與人臉相關的影片,vid2vid還能合成與人體動作相關的影片。只需要對下圖左側的人體模型進行調整,無論是姿勢還是身高、胖瘦,右側都能生成一個真人影片。在未來,AI除了能幫我們簡化場景設計,還能為我們簡化各種配角設計。
為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。
若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。