應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

人工智能或許在不久的將來能夠直接解讀人腦電波

2019-02-12 09:53 新浪科技

導(dǎo)讀:在近期發(fā)表于bioRxiv的3篇論文中,3個研究團隊各自展示了他們?nèi)绾螌⑸窠?jīng)活動記錄解碼成語音。

在近期發(fā)表于bioRxiv的3篇論文中,3個研究團隊各自展示了他們?nèi)绾螌⑸窠?jīng)活動記錄解碼成語音。

北京時間2月12日消息,據(jù)國外媒體報道,神經(jīng)科學家正在教導(dǎo)計算機直接從人腦中讀出單詞。近日,《科學》(Science)雜志的專職撰稿人凱利·塞維克(Kelly Servick)報道了預(yù)印本網(wǎng)站bioRxiv發(fā)表的3篇論文。在論文中,3個研究團隊各自展示了他們?nèi)绾螌⑸窠?jīng)活動記錄解碼成語音。在這3個研究中,研究人員在進行腦外科手術(shù)的患者大腦上直接放置了電極,當他們聽取語音或者大聲朗讀文字時,這些電極就記錄神經(jīng)元的活動。接著,研究人員嘗試解讀患者聽到或說出的內(nèi)容,患者大腦的電活動都轉(zhuǎn)化成了某種程度上能夠理解的聲音文件。

第一篇論文發(fā)表在bioRxiv上,描述了研究人員向正在進行腦外科手術(shù)的癲癇患者播放語音的實驗。需要指出的是,實驗中采集的神經(jīng)活動記錄必須非常詳細,才能用于解讀。而且這種詳細的程度必須在十分罕見的條件(比如腦外科手術(shù))下才能達到,此時大腦暴露在空氣中,電極直接放在上面。

當患者聽取聲音文件時,研究人員記錄了患者大腦中處理聲音部分的神經(jīng)元活動。他們嘗試了多種方法將神經(jīng)元活動數(shù)據(jù)轉(zhuǎn)化成語音,發(fā)現(xiàn)“深度學習”的效果最佳。深度學習是機器學習的分支,計算機可以在無人管理的情況下,通過深度學習來解決問題。當研究人員通過一個合成人類聲音的聲碼器播放轉(zhuǎn)化結(jié)果時,由11個聽眾組成的小組解讀這些詞的準確率是75%。

第二篇論文采用的是正在進行切除腦腫瘤手術(shù)的患者的神經(jīng)元記錄。當患者大聲朗讀單音節(jié)詞時,研究人員記錄了他們嘴里發(fā)出的聲音,以及他們大腦中發(fā)音區(qū)域的神經(jīng)元活動。研究人員沒有訓(xùn)練計算機深度學習每一位患者的語音,而是教導(dǎo)人工神經(jīng)網(wǎng)絡(luò)將神經(jīng)記錄轉(zhuǎn)化成音頻文件。結(jié)果顯示,這些音頻文件至少在相當程度上是可以理解的,并且類似麥克風錄音的效果。以上這兩項研究的聲音文件都可以在網(wǎng)上下載。

第三篇論文采用的神經(jīng)元活動記錄來自大腦中將決定說出的特定單詞轉(zhuǎn)化為肌肉運動的區(qū)域。盡管目前該實驗的記錄還沒有在網(wǎng)上公布,但研究人員報道稱,他們成功重建了整個語句(也是在癲癇患者進行腦外科手術(shù)時記錄的),而且聽到這些語句的人在多項選擇測試(共有10個選項)中準確進行解釋的成功率是83%。該實驗的方法依賴于識別出生成單個音節(jié)(而非整個單詞)所涉及的模式。

所有這些實驗的目標都是相同的,即有朝一日使失去說話能力(由于肌萎縮側(cè)索硬化癥或類似疾病)的人通過腦機界面來說話。不過,目前這些應(yīng)用的科學基礎(chǔ)還未達到。

據(jù)《科學》雜志的報道,解讀一個人只在頭腦里想象說話的神經(jīng)元活動模式,要比解讀一個人聆聽或發(fā)出語音的神經(jīng)模式復(fù)雜得多。不過,第二篇論文的作者表示,解讀一個人想象話說時的大腦活動也許是可能的。

必須說明的是,這些都還只是很小型的研究。第一篇論文采用的只是來自5名患者的數(shù)據(jù),而第二篇論文采用數(shù)據(jù)來自6名患者,第三篇則只有3名患者。這些研究中記錄的神經(jīng)元活動都沒有持續(xù)超過1個小時。盡管如此,科學仍然在向前發(fā)展。直接連接到大腦的人工語音設(shè)備似乎已經(jīng)有了真正的可能性,也許不遠的將來我們就將見證它的誕生。