<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          涉嫌抄襲十篇,這個論文作者膽子太大了

          共 2045字,需瀏覽 5分鐘

           ·

          2022-06-30 02:21

          編輯:機(jī)器之心
          大家好,我是DASOU。

          這兩天我也是在知乎吃 CVPR Oral 一篇論文被指責(zé)大面積抄襲的瓜,目前作者已經(jīng)是退稿了。

          人工智能頂會 CVPR 2022 的最后一天,一篇重點論文意外火了,但不是以正經(jīng)的方式。

          這天,YouTube 上出現(xiàn)了一個新的賬號,它的目的非常單純,就是為了指證一篇 CVPR 2022 Oral 論文涉嫌抄襲。

          2022 年的 CVPR 大會的投稿量達(dá)到 8161 份,共有 2064 篇論文被接收,接收率為 25.28%,在被接收的論文中,有 342 份被選為 Oral(口頭報告)論文。



          這篇被指抄襲的 Oral 論文題為「E2V-SDE: From Asynchronous Events to Fast and Continuous Video Reconstruction via Neural Stochastic Differential Equations」,由來自首爾大學(xué)和韓國科學(xué)技術(shù)研究院的作者合作完成。


          論文地址:https://arxiv.org/abs/2206.07578

          論文提出了一種應(yīng)用于事件相機(jī)的新模型。

          事件相機(jī)對場景中每個像素的亮度變化進(jìn)行異步且獨立的響應(yīng)。這些相機(jī)具有鮮明的特點:高動態(tài)范圍 (HDR)、高時間分辨率和低功耗。事件相機(jī)的結(jié)果應(yīng)該被處理成計算機(jī)視覺任務(wù)的替代表征。然而,事件相機(jī)容易受噪音影響,并且在事件很少的區(qū)域內(nèi)性能不佳。近年來,許多研究人員試圖從事件中重建視頻。然而,由于缺乏來自不規(guī)則和不連續(xù)數(shù)據(jù)的時間信息,很多工作都不能提供高質(zhì)量的視頻。

          在這篇論文中,作者提出了一種稱為 E2V-SDE 的新模型,其動力學(xué)由隨機(jī)微分方程 (SDE) 在潛在空間中控制。E2V-SDE 可以在任意時間步長上快速重建圖像,并對看不見的數(shù)據(jù)做出實際預(yù)測。


          此外,該研究聲稱成功地采用了多種圖像合成技術(shù)來提高圖像清晰度和時間一致性。通過對模擬和真實場景數(shù)據(jù)集進(jìn)行廣泛的實驗,研究者驗證了 E2V-SDE 模型在各種視頻重建設(shè)置下都優(yōu)于 SOTA 方法。在圖像質(zhì)量方面,LPIPS 分?jǐn)?shù)提升高達(dá) 12%,重建速度比 ET-Net 快 87%。


          在一段 7 分 16 秒的視頻里,爆料者列舉了十幾篇疑似被抄襲的論文,并標(biāo)出了疑似抄襲的具體段落。


          這些段落廣泛分布在 Introduction、Preliminaries、Method 等不同章節(jié)。

          E2V-SDE 論文段落(來自 Introduction 章節(jié))。

          疑似被抄襲論文《Latent ODEs for Irregularly-Sampled Time Series》段落。

          E2V-SDE 論文段落(來自 Preliminaries 章節(jié))。

          疑似被抄襲論文《Continuous Latent Process Flows》段落。

          E2V-SDE 論文段落(來自 Preliminaries 章節(jié))。

          疑似被抄襲論文《Continuous Latent Process Flows》段落。


          E2V-SDE 論文段落(來自 Method 章節(jié))。

          疑似被抄襲論文《Vid-ODE: Continuous-time Video Generation with Neural Ordinary Differential Equation》段落。

          疑似被抄襲的論文包括但不限于視頻列表中提到的這些(列表有重復(fù)):


          論文「抄襲」得如此明顯,人們除了聲討作者以外,也紛紛吐槽了 CVPR 作為計算機(jī)視覺頂會審稿的嚴(yán)謹(jǐn)程度。

          當(dāng)然,開盒視頻走諷刺路線,網(wǎng)友們的評論也充滿了快樂的氣氛:


          圖源:知乎回答 https://www.zhihu.com/question/539378810/answer/2543500074

          據(jù) reddit 網(wǎng)友透露,論文的第一作者曾就該事件給出過回應(yīng)(后來可能刪除了),表示自己的研究其實和之前的文章在很多方面還是有區(qū)別的,視頻中提到的一些段落其實是引用,他需要時間去核實事實。


          但很快,這個第一作者就被自己的隊友「賣」了。在一份道歉的帖子中,合著者之一表示,自己很抱歉沒有盡到檢查、核實的義務(wù),沒有提前發(fā)現(xiàn)第一作者的剽竊行為,目前,他們的導(dǎo)師正在聯(lián)系 CVPR 主席撤回該論文。


          隨后第一作者證實文章已撤稿。


          除了文章本身造成的惡劣影響,合著者把責(zé)任都推給第一作者的行為也引來了大家的批評。

          「只分享榮耀,不承擔(dān)責(zé)任,還有這么好的事兒?」


          由此可見,很多合著者可能根本都沒有看過論文。


          希望在大會方核實之后,事件能得到應(yīng)有的處理。

          參考內(nèi)容:
          https://www.zhihu.com/question/539378810
          https://www.reddit.com/r/MachineLearning/comments/vjkssf/d_how_to_copy_text_from_more_than_10_previously/
          瀏覽 49
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  丁香婷婷五月激情 | 蜜桃91精品 | 男女操逼视频在线观看 | 亚洲精品视频在线观看免费 | AⅤ在线|