黄网站免费人口观看,亚洲天堂国产,日本在线视频精品,a黄视频,黄色福利午夜视频,亚洲免费综合色在线视频,嫩草视频一区二区三区在线观看

中國西藏網(wǎng) > 即時(shí)新聞 > 國內(nèi)

AI可以讀取人心了 心中的小秘密還能藏多久?

發(fā)布時(shí)間:2023-08-28 15:29:00來源: 北京青年報(bào)

  ◎數(shù)字北京科學(xué)中心

  不知道大家還記不記得在電影《蟻人2》中,當(dāng)反派想問出主人公的下落時(shí),給他的朋友路易斯注射了一劑“吐真劑”。這針?biāo)幬镏苯幼屄芬姿故裁炊纪庹f,把主人公的情感生活都快抖摟干凈了。

  而就在近日的《自然——神經(jīng)科學(xué)》上,來自得克薩斯大學(xué)的科學(xué)家們發(fā)表了一篇論文,文中提到他們?cè)诖笮驼Z言模型的助力下,開發(fā)出了一種現(xiàn)代“讀心機(jī)”,雖然它不能讓你直接“說真話”,但是可以將你的大腦活動(dòng)轉(zhuǎn)換成清晰的圖像或語言直接表述出來。

  原本電影不過是電影,但現(xiàn)代“讀心機(jī)”卻打破了人們的認(rèn)知。在這種“讀心機(jī)”誕生之前,最接近“吐真劑”的設(shè)備應(yīng)該是測(cè)謊儀,然而它也是通過心跳和腦電波等情緒上的起伏來間接反映人到底有沒有撒謊。那么這款“讀心機(jī)”到底是如何做到的呢?

  AI如何直接讀取思維?

  直接讀取思維,或者說是“思維解碼”,是指能夠直接從大腦中提取和解析思維的過程。這個(gè)過程涉及諸如神經(jīng)元活動(dòng)模式的識(shí)別,以及將這些模式與特定的思維或感知相關(guān)聯(lián)。

  2023年5月1日,美國得克薩斯大學(xué)奧斯汀分校的研究人員在《自然——神經(jīng)科學(xué)》期刊發(fā)表了研究論文。該研究開發(fā)了一種名為語義解碼器的新型人工智能系統(tǒng),只需要分析功能磁共振成像(fMRI)數(shù)據(jù),就可以以非侵入性的方式,將參與者大腦中所想的故事甚至圖像翻譯成連續(xù)的文本流。這一系統(tǒng)可能會(huì)幫助那些有精神意識(shí)但無法說話的人(例如,中風(fēng)患者、聾啞人)進(jìn)行清晰的交流。

  有意思的是,這項(xiàng)研究工作部分依賴于大語言模型(LLM),而大語言模型正是最近爆火的人工智能聊天軟件 ChatGPT 的基礎(chǔ)。

  在訓(xùn)練系統(tǒng)階段,科學(xué)家們讓志愿者躺在fMRI機(jī)器中,在接受fMRI掃描的同時(shí),從耳機(jī)中聽取播客故事。在訓(xùn)練階段,研究人員利用基于GPT-1的大型語言模型,將參與者fMRI數(shù)據(jù)顯示的大腦活動(dòng),與播客故事里的語言特征聯(lián)系起來。

  志愿者接收幾十個(gè)小時(shí)播客故事后,研究人員會(huì)讓志愿者聽一個(gè)全新的故事。這一次,他們要求解碼器根據(jù)志愿者的大腦活動(dòng),輸出語言來描述志愿者聽到的故事。

  實(shí)驗(yàn)結(jié)果顯示,這一系統(tǒng)能夠根據(jù)志愿者的fMRI數(shù)據(jù),描述出志愿者聽到的故事,雖然達(dá)不到100%的準(zhǔn)確度,但是它能夠讀出志愿者大腦中想到的故事的大意。

  除了可以將文字故事解讀出來外,這個(gè)系統(tǒng)還能解碼圖像內(nèi)容。在實(shí)驗(yàn)中,研究人員讓參與者觀看一小段沒有語音或文字的動(dòng)畫視頻,然后解碼器可以根據(jù)參與者的大腦活動(dòng),輸出語言描述視頻中發(fā)生的事件。但這項(xiàng)研究也帶來了一個(gè)全新的隱私問題——一些不懷好意的人是否可以通過語義解碼器竊取他人大腦中的想法呢?

  論文通訊作者 Alexander Huth 教授表示,語義解碼器是量身定做的,在使用前需要經(jīng)過十幾個(gè)小時(shí)的訓(xùn)練,志愿受試者需要保持完全靜止,并將精神集中在他們正在聽的故事,該系統(tǒng)才能真正發(fā)揮作用。研究團(tuán)隊(duì)也在沒有接受過培訓(xùn)的人身上測(cè)試了該系統(tǒng),其解碼結(jié)果與實(shí)際相差甚遠(yuǎn)。

  目前的進(jìn)展

  盡管目前還遠(yuǎn)未能完全解碼人類思維,但研究人員還是取得了一些關(guān)鍵的進(jìn)步。

  例如,在今年3月份,來自日本京都大學(xué)的科學(xué)家們已經(jīng)成功地使用AI解碼出了人們看到或在大腦中想象的圖像,甚至是他們正在聽的或想象的語言。

  該研究論文發(fā)表在《生物雜志》網(wǎng)絡(luò)版上。作者說:“在這里,我們提出了一種新的圖像重建方法,在這個(gè)方法中,圖像的像素值被優(yōu)化,以使其深層的神經(jīng)網(wǎng)絡(luò)特征與人類大腦活動(dòng)的多個(gè)層面的解碼相似?!薄半m然我們的模型只接受自然圖像的訓(xùn)練,但我們的方法成功地將重建過程推廣到人工形狀,這表明我們的模型確實(shí)‘重構(gòu)’或‘生成’大腦活動(dòng)的圖像,而不是簡單地匹配樣本?!?/p>

  該項(xiàng)技術(shù)的核心在于當(dāng)人在觀察一幅圖像時(shí),會(huì)在腦海中復(fù)刻這張圖像,AI通過特定的算法將志愿者的fMRI信號(hào)和圖片的DNN(Deep Neural Networks深度神經(jīng)網(wǎng)絡(luò))特征關(guān)聯(lián),繼而訓(xùn)練可以讀取你思維的AI。

  不過需要強(qiáng)調(diào)的是,目前的研究大多依賴于粗糙的大腦成像技術(shù)和有限的數(shù)據(jù)。因此能解碼的思維種類和精度都還有限。

  除了準(zhǔn)確度,延時(shí)也是一個(gè)有待解決的問題。儀器與人類的交互讀取處理信息等都需要時(shí)間,且不同的人大腦的活動(dòng)方式也有差異,這對(duì)于系統(tǒng)的處理性能也是一個(gè)不小的挑戰(zhàn)。

  此外,fMRI需要參與者躺在特定的機(jī)器里才能收集到可靠的數(shù)據(jù),這種苛刻的條件要求會(huì)對(duì)未來的推廣帶來不小的阻礙。

  未來的可能

  未來,隨著大腦成像技術(shù)的進(jìn)步和更多的數(shù)據(jù)可用,我們將有可能訓(xùn)練出能夠解碼更復(fù)雜、更精細(xì)的思維的AI。

  這不僅可能使我們能夠更深入地理解大腦和思維,也可能開啟全新的交流方式,如幫助行動(dòng)困難的人群直接用思維控制界面,或者可以理解語言障礙人群的思維。

  然而,能讀取思維的AI也帶來了一系列道德和倫理問題。例如,誰有權(quán)訪問我們的私人思維?我們應(yīng)該如何保護(hù)思維隱私?這些都是在開發(fā)這項(xiàng)技術(shù)時(shí)必須面對(duì)和解決的問題。

  目前,我們還暫時(shí)不用擔(dān)心該項(xiàng)技術(shù)會(huì)對(duì)人類隱私帶來什么威脅,因?yàn)槊總€(gè)實(shí)驗(yàn)的成功進(jìn)行都需要志愿者的高度配合。如果你不想被機(jī)器讀取到你的思維,可以通過走神來樹立無懈可擊的屏障。

  總的來說,AI直接讀取人類思維是一個(gè)充滿挑戰(zhàn)和機(jī)遇的領(lǐng)域。它和其他所有的革新科技一樣,是一把雙刃劍,它可以為人類提供福祉,也可能剝奪人類的隱私,引起巨大的倫理問題。如何發(fā)展它,如何利用它,都是值得我們深入思考和探討的。

  (文章源自微信公眾號(hào)數(shù)字北京科學(xué)中心)

(責(zé)編:陳濛濛)

版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。