
來自明尼蘇達(dá)大學(xué)等機(jī)構(gòu)的研究者在論文中提出了一種基于嵌入式深度學(xué)習(xí)控制的神經(jīng)假肢實(shí)現(xiàn)。該研究中的神經(jīng)解碼器基于 RNN 架構(gòu)設(shè)計(jì),部署在 NVIDIA Jetson Nano 上。NVIDIA Jetson Nano 擁有不錯(cuò)的 AI 算力,但體格非常小巧,這使得假肢安裝者可以實(shí)時(shí)控制每一根手指,同時(shí)還能自由移動(dòng)。
研究者利用外周神經(jīng)信號(hào)在橈骨截肢的志愿者身上評估所提出的系統(tǒng)。實(shí)驗(yàn)結(jié)果顯示,無論是在實(shí)驗(yàn)室還是真實(shí)環(huán)境下,該系統(tǒng)都能提供魯棒、準(zhǔn)確(95-99%)、低延遲(50-120 毫秒)的單個(gè)手指控制。研究者表示,據(jù)他們所知,該系統(tǒng)是第一個(gè)在臨床神經(jīng)假肢應(yīng)用的便攜式平臺(tái)上有效實(shí)現(xiàn)深度學(xué)習(xí)神經(jīng)解碼器的系統(tǒng)。馬斯克的 Neuralink 又搞大動(dòng)作今日,Neuralink 在 YouTube 上發(fā)布了一段新的視頻,視頻中一只獼猴僅用其大腦就能控制光標(biāo)在屏幕上移動(dòng)。據(jù)報(bào)道,視頻中的獼猴名叫 Pager,今年 9 歲。在視頻拍攝的 6 周前植入了腦機(jī)接口。最初,研究團(tuán)隊(duì)教 Pager 使用游戲手柄玩電子游戲,并通過金屬吸管喂香蕉奶昔獎(jiǎng)勵(lì)它。
在這一階段,Neuralink 的設(shè)備會(huì)記錄哪些神經(jīng)元被激活。從本質(zhì)上來說,這是通過記錄神經(jīng)系統(tǒng)中的激活區(qū)域來學(xué)習(xí),以進(jìn)行手部動(dòng)作的預(yù)測。學(xué)習(xí)了這種模式之后,Pager 使用的手柄就與計(jì)算機(jī)斷開了連接,只用它的大腦就能控制光標(biāo),繼續(xù)玩電子游戲。4月13日,百度AI 全面賦能羅技合作啟動(dòng)儀式暨羅技 VOICE M380 語音鼠標(biāo)上市發(fā)布會(huì)在京舉行。會(huì)上,百度正式發(fā)布“語音輸入服務(wù)”并宣布百度大腦和羅技達(dá)成合作,將領(lǐng)先的 AI 技術(shù)全面賦能羅技外設(shè)硬件,以“智能鼠標(biāo)”為起點(diǎn),助力智能時(shí)代人機(jī)交互體驗(yàn)的加速升級。
基于百度大腦語音識(shí)別和機(jī)器翻譯,用戶在辦公場景下可實(shí)現(xiàn)所說即所得。百度大腦語音識(shí)別賦能下的語音鼠標(biāo)可支持中文、英文、日文3種語言語音輸入,中英混合輸入,以及粵語、四川話、東北話、河南話、山東話、西安話、合肥話等7種方言語音輸入,尤其在長篇內(nèi)容輸入時(shí)方便用戶獲得輕松暢快的輸入體驗(yàn)。CPU 比 GPU 訓(xùn)練神經(jīng)網(wǎng)絡(luò)快十幾倍在深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)領(lǐng)域,研究人員通常離不開 GPU。這是因?yàn)槔?GPU 極高的內(nèi)存帶寬和較多核心數(shù),研究人員可以更快地獲得模型訓(xùn)練的結(jié)果。與此同時(shí),CPU 受限于自身較少的核心數(shù),計(jì)算運(yùn)行需要較長的時(shí)間,因而不適用于深度學(xué)習(xí)模型以及神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。
但近日,萊斯大學(xué)和英特爾等機(jī)構(gòu)的研究者發(fā)表了一篇論文,表明了在消費(fèi)級 CPU 上運(yùn)行的 AI 軟件,其訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的速度是 GPU 的15倍。這篇論文已被 MLSys 2021 會(huì)議接收。IEEE 將2021年 IEEE Richard W. Hamming 獎(jiǎng)?lì)C給了網(wǎng)絡(luò)編碼創(chuàng)始人楊偉豪教授。頒獎(jiǎng)詞這樣寫道:表彰其對信息理論的基礎(chǔ)性貢獻(xiàn)和網(wǎng)絡(luò)編碼及其應(yīng)用的開創(chuàng)性工作。在信息時(shí)代,數(shù)據(jù)流就是一切,楊偉豪教授致力于尋找改善網(wǎng)絡(luò)編碼和數(shù)據(jù)傳輸?shù)男路椒?,他的工作為我們帶來了更好的流媒體視頻、云存儲(chǔ)和移動(dòng)網(wǎng)絡(luò)。
IEEE Richard W. Hamming Medal(理查德·衛(wèi)斯里·漢明獎(jiǎng)?wù)拢┦?IEEE 一項(xiàng)年度頒發(fā)獎(jiǎng)項(xiàng),最多頒給三個(gè)人,表彰獲獎(jiǎng)?wù)咴谛畔⒖茖W(xué)、信息系統(tǒng)和信息技術(shù)方面取得的杰出成就。從稀疏的靜態(tài)圖像合成任意 3D 視角物體和場景新視圖是很多 VR 和 AR 應(yīng)用的基礎(chǔ)。近年來神經(jīng)輻射場(Neural Radiance Fields, NeRF)的神經(jīng)網(wǎng)絡(luò)渲染研究通過神經(jīng)網(wǎng)絡(luò)編碼實(shí)現(xiàn)了真實(shí)的 3D 視角場景渲染。但是 NeRF 需要極端的采樣要求和大量的神經(jīng)網(wǎng)絡(luò)運(yùn)算,導(dǎo)致其渲染速度十分緩慢,嚴(yán)重制約了其在實(shí)際場景,尤其是實(shí)時(shí)交互場景中的應(yīng)用。
近日,來自 UC 伯克利等機(jī)構(gòu)的研究者使用一種名為 PlenOctrees 的數(shù)據(jù)結(jié)構(gòu)為 NeRF 引入了一種新的數(shù)據(jù)表示,實(shí)現(xiàn)了實(shí)時(shí)的 NeRF 渲染。其渲染速度比原始的 NeRF 提高了3000多倍,并且圖像質(zhì)量可以與 NeRF 媲美。此外,采用 PlenOctrees 結(jié)構(gòu)還能有效減少 NeRF 的訓(xùn)練時(shí)間。
本文轉(zhuǎn)載自網(wǎng)易號(hào)【教室里那臺(tái)風(fēng)琴】,更多內(nèi)容請點(diǎn)擊“閱讀原文”