<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          谷歌奪回AI畫語權(quán),機(jī)器的想象力達(dá)到全新高度,網(wǎng)友:DALL·E 2誕生一個(gè)月就過時(shí)了?

          共 2551字,需瀏覽 6分鐘

           ·

          2022-06-08 08:32


          本文經(jīng)AI新媒體量子位(公眾號(hào) ID: QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處

          本文約2000字,建議閱讀5分鐘

          本文介紹了谷歌派出名為Imagen的選手在DALL·E 2上打擂臺(tái)的進(jìn)展。


          在讓AI搞創(chuàng)作這件事上,谷歌和OpenAI正面剛起來了。

          這不,震驚全網(wǎng)的DALL·E 2才新鮮出爐一個(gè)月,谷歌就派出名為Imagen的選手來打擂臺(tái)。


          直接上圖對(duì)比,左邊是谷歌Imagen選手眼中的“貓貓絆倒人類雕像”,右邊則是DALL·E 2選手的同題創(chuàng)作。


          你覺得哪一位選手的作品更符合題意?

          而讓網(wǎng)友們直呼“DALL·E 2這就過時(shí)了?”的,還不只是這種正面PK的刺激。

          看到這么一張照片,如果不說是AI生成的,是不是要先感嘆一句兩腳獸的擺拍技術(shù)越來越高超了?


          輸入“折紙作品:一只狐貍和一只獨(dú)角獸在飄雪的森林里”,Imagen創(chuàng)作出的畫面則是醬嬸的:


          還可以試試把文字寫得長一點(diǎn)。

          比如《一只非??鞓返拿仔茇埓虬绯闪嗽趶N房里做面團(tuán)的廚師的高對(duì)比度畫像,他身后的墻上還有一幅畫了鮮花的畫》…(啊先讓我喘口氣)

          Imagen也輕松拿下,要素齊全:


          看到這,機(jī)器學(xué)習(xí)圈的網(wǎng)友反應(yīng)是這樣的:


          不是吧,這才一個(gè)月就又更新?lián)Q代了?


          求求別再震驚我了。


          這事兒熱度一起,很快就破了圈。

          吃瓜群眾們立刻就想到一塊去了。

          以后可能沒圖庫網(wǎng)站什么事兒了。


          那么這個(gè)來自谷歌的新AI,又掌握了什么獨(dú)家秘技?

          具體詳情,我們一起接著往下看。

          增強(qiáng)「理解」比優(yōu)化「生成」更重要


          文本到圖像生成我們之前介紹過不少,基本都是一個(gè)套路:

          CLIP負(fù)責(zé)從文本特征映射到圖像特征,然后指導(dǎo)一個(gè)GAN或擴(kuò)散模型生成圖像。

          但谷歌Imagen這次有個(gè)顛覆性的改變——

          使用純語言模型只負(fù)責(zé)編碼文本特征,把文本到圖像轉(zhuǎn)換的工作丟給了圖像生成模型。

          語言模型部分使用的是谷歌自家的T5-XXL,訓(xùn)練好后凍結(jié)住文本編碼器。

          圖像生成部分則是一系列擴(kuò)散模型,先生成低分辨率圖像,再逐級(jí)超采樣。


          這樣做最大的好處,是純文本訓(xùn)練數(shù)據(jù)要比高質(zhì)量圖文對(duì)數(shù)據(jù)容易獲取的多。

          T5-XXL的C4訓(xùn)練集包含800GB的純文本語料,在文本理解能力上會(huì)比用有限圖文對(duì)訓(xùn)練的CLIP要強(qiáng)。

          這一點(diǎn)也有著實(shí)驗(yàn)數(shù)據(jù)做支撐,人類評(píng)估上,T5-XXL在保真度和語義對(duì)齊方面表現(xiàn)都比CLIP要好。


          在實(shí)驗(yàn)中谷歌還發(fā)現(xiàn),擴(kuò)大語言模型的規(guī)模對(duì)最后效果影響更大,超過擴(kuò)大圖像生成模型的影響。


          看到這有網(wǎng)友指出,谷歌最后采用的T5-XXL參數(shù)規(guī)模還不到最新PaLM語言模型5400億參數(shù)的1%,如果用上PaLM,又會(huì)是啥樣?


          除了語言模型部分的發(fā)現(xiàn),谷歌通過Imagen的研究對(duì)擴(kuò)算模型作出不少優(yōu)化。

          首先,增加無分類器引導(dǎo)(classifier-free guidance)的權(quán)重可以改善圖文對(duì)齊,但會(huì)損害圖像保真度。

          解決的辦法是每一步采樣時(shí)使用動(dòng)態(tài)閾值,能夠防止過飽和。


          第二,使用高引導(dǎo)權(quán)重的同時(shí)在低分辨率圖像上增加噪聲,可以改善擴(kuò)散模型多樣性不足的問題。

          第三,對(duì)擴(kuò)散模型的經(jīng)典結(jié)構(gòu)U-Net做了改進(jìn),新的Efficient U-Net改善了內(nèi)存使用效率、收斂速度和推理時(shí)間。

          對(duì)語言理解和圖像生成都做出改進(jìn)之后,Imagen模型作為一個(gè)整體在評(píng)估中也取得了很好的成績。

          比如在COCO基準(zhǔn)測試上達(dá)到新SOTA,卻根本沒用COCO數(shù)據(jù)集訓(xùn)練。


          在COCO測試的人類評(píng)估部分也發(fā)現(xiàn)了Imagen的一個(gè)缺點(diǎn),不擅長生成人類圖像。

          具體表現(xiàn)是,無人類圖像在寫實(shí)度上獲得更高的人類偏好度。


          同時(shí),谷歌推出了比COCO更有挑戰(zhàn)性的測試基準(zhǔn)DrawBench,包含各種刁鉆的提示詞。

          實(shí)驗(yàn)發(fā)現(xiàn),DALL·E 2難以準(zhǔn)確理解同時(shí)出現(xiàn)兩個(gè)顏色要求的情況,而Imagen就沒問題。


          反常識(shí)情況,比如“馬騎著宇航員”兩者表現(xiàn)都不佳,只能畫出“宇航員騎著馬”。

          但是Imagen對(duì)“一只熊貓?jiān)谧隹Х壤ā崩斫飧鼫?zhǔn)確,只錯(cuò)了一次。DALL·E 2則全都把熊貓畫進(jìn)了拉花圖案里。

          大概“馬騎著宇航員”有點(diǎn)反常識(shí)(狗頭)

          對(duì)于要求圖像中出現(xiàn)文字的,也是Imagen做得更好。

          除了最基本的把文字寫對(duì)以外,還可以正確給文字加上煙花效果。


          AI畫畫越來越出圈


          說起來,AI作畫這件事,最早便源起于谷歌。

          2015年,谷歌推出DeepDream,開創(chuàng)了AI根據(jù)文本生成圖像的先河。

          △DeepDream作品

          但要說相關(guān)技術(shù)真正開“卷”、出圈,標(biāo)志性事件還得數(shù)2021年OpenAI的DALL·E橫空出世。

          當(dāng)時(shí),吳恩達(dá)、Keras之父等一眾大佬都紛紛轉(zhuǎn)發(fā)、點(diǎn)贊,DALL·E甚至被稱為2021年第一個(gè)令人興奮的AI技術(shù)突破。

          隨后,語言理解模型和圖像生成模型多年來的技術(shù)進(jìn)展,便在“AI作畫”這件事上集中爆發(fā),一系列CLIP+GAN、CLIP+擴(kuò)散模型的研究和應(yīng)用,頻頻在網(wǎng)絡(luò)上掀起熱潮。


          從此一發(fā)不可收拾,技術(shù)更新迭代越來越快。

          DALL·E 2剛發(fā)布的時(shí)候就有網(wǎng)友發(fā)起一個(gè)投票,問多長時(shí)間會(huì)出現(xiàn)新的SOTA。

          當(dāng)時(shí)大多數(shù)人選了幾個(gè)月或1年以上。


          但現(xiàn)在,Imagen的出現(xiàn)只用了6周。

          隨著AI畫畫效果越來越強(qiáng)大,受眾范圍也不斷擴(kuò)大,突破技術(shù)圈進(jìn)入大眾視野。

          前一陣,就有AI畫畫應(yīng)用登上蘋果App Store圖形與設(shè)計(jì)排行榜榜首。


          現(xiàn)在最新的潮流,是各路設(shè)計(jì)師排隊(duì)申請(qǐng)Midjourney、Tiamat等商業(yè)化產(chǎn)品的內(nèi)測,刷爆社交網(wǎng)絡(luò)。


          如此出圈,也給OpenAI和谷歌這樣的大公司帶來很大壓力。

          出于AI倫理、公平性等方面考慮,DALL·E 2和Imagen都沒有直接開源或開放API。

          各自也都在論文里有大篇幅涉及風(fēng)險(xiǎn)、社會(huì)影響力的內(nèi)容。


          OpenAI選擇了內(nèi)測模式,而谷歌還在做進(jìn)一步研究和規(guī)范,等到確保AI不被濫用之后再擇機(jī)公開。

          現(xiàn)在想體驗(yàn)Imagen的話,有一個(gè)在線Demo演示。

          可以從給定的幾個(gè)提示詞中自由組合出不同場景。


          快來試試吧~

          Demo地址:
          https://gweb-research-imagen.appspot.com

          論文地址:
          https://gweb-research-imagen.appspot.com/paper.pdf

          參考鏈接:
          https://twitter.com/ak92501/status/1528861980702146560


          編輯:王菁
          校對(duì):林亦霖




          瀏覽 33
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  欧美做爱网站 | 新中文字幕亚洲 | 色婷婷AV无码久久精品 | 91精品视频xxx... | 操B在线播放AV |