『壹』 誰知道DFT和FFT的發展歷史啊
DFT/FFT的發展歷史
離散傅里葉變換(Discrete Fourier Transform,DFT)是數字信號處理最重要的基石之一,也是對信號進行分析和處理時最常用的工具之一。在200多年前法國數學家、物理學家傅里葉提出後來以他名字命名的傅里葉級數之後,用DFT這個工具來分析信號就已經為人們所知。歷史上最偉大的數學家之一。
歐拉是第一個使用「函數」一詞來描述包含各種參數的表達式的人,例如:y = f(x)。他是把微積分應用於物理學的先驅者之一。 給出了一個用實變數函數表示傅立葉級數系數的方程; 用三角級數來描述離散聲音在彈性媒介中傳播,發現某些函數可以通過餘弦函數之和來表達。 但在很長時間內,這種分析方法並沒有引起更多的重視,最主要的原因在於這種方法運算量比較大。直到1965年,Cooley和Tukey在《計算機科學 》發表著名的《機器計算傅立葉級數的一種演算法》論文,FFT才開始大規模應用。
那個年代,有個肯尼迪總統科學咨詢委員會。其中有項研究主題是,對蘇聯核測試進行檢測,Tukey就是其中一員。美國/蘇聯核測試提案的批准,主要取決於不實地訪問核測試設施而做出檢測的方法的發展。其中一個想法是,分析離海岸的地震計情況,這種計算需要快速演算法來計算DFT。其它應用是國家安全,如用聲學探測遠距離的核潛艇。所以在軍事上,迫切需要一種快速的傅立葉變換演算法,這也促進了FFT的正式提出。
FFT的這種方法充分利用了DFT運算中的對稱性和周期性,從而將DFT運算量從N2減少到N*log2N。當N比較小時,FFT優勢並不明顯。但當N大於32開始,點數越大,FFT對運算量的改善越明顯。比如當N為1024時,FFT的運算效率比DFT提高了100倍。在庫利和圖基提出的FFT演算法中,其基本原理是先將一個N點時域序列的DFT分解為N個1點序列的DFT,然後將這樣計算出來的N個1點序列DFT的結果進行組合,得到最初的N點時域序列的DFT值。實際上,這種基本的思想很早就由德國偉大的數學家高斯提出過,在某種情況下,天文學計算(也是現在FFT應用的領域之一)與等距觀察的有限集中的行星軌道的內插值有關。由於當時計算都是靠手工,所以產生一種快速演算法的迫切需要。 而且,更少的計算量同時也代表著錯誤的機會更少,正確性更高。高斯發現,一個富氏級數有寬度N=N1*N2,可以分成幾個部分。計算N2子樣本DFT的N1長度和N1子樣本DFT的N2長度。只是由於當時尚欠東風——計算機還沒發明。在20世紀60年代,伴隨著計算機的發展和成熟,庫利和圖基的成果掀起了數字信號處理的革命,因而FFT發明者的桂冠才落在他們頭上。
之後,桑德(G.Sand)-圖基等快速演算法相繼出現,幾經改進,很快形成了一套高效運算方法,這就是現在的快速傅立葉變換(FFT)。這種演算法使DFT的運算效率提高1到2個數量級,為數字信號處理技術應用於各種信號的實時處理創造了良好的條件,大大推進了數學信號處理技術。1984年,法國的杜哈梅(P.Dohamel)和霍爾曼(H.Hollamann)提出的分裂基塊快速演算法,使運算效率進一步提高。
庫利和圖基的FFT演算法的最基本運算為蝶形運算,每個蝶形運算包括兩個輸入點,因而也稱為基-2演算法。在這之後,又有一些新的演算法,進一步提高了FFT的運算效率,比如基-4演算法,分裂基演算法等。這些新演算法對FFT運算效率的提高一般在50%以內,遠遠不如FFT對DFT運算的提高幅度。從這個意義上說,FFT演算法是里程碑式的。可以說,正是計算機技術的發展和FFT的出現,才使得數字信號處理迎來了一個嶄新的時代。除了運算效率的大幅度提高外,FFT還大大降低了DFT運算帶來的累計量化誤差,這點常為人們所忽略。
分給我吧 哈哈
『貳』 cnn與lstm應用於哪個領域
下面我盡可能地用簡單的語言來闡述下我的看法(敘述中假設你已經大致知道什麼是深度學習和神經網路:大數據和高性能計算
在如今的互聯網時代,都讓神經網路有了前所未有的「更深」的可能,一批新方法被發明出來(Denoise Autoencoder、圖像識別中,他提出了利用RBM預訓練的方法。幾年後人們發現?
3,拋磚引玉。在這個框架下?
2,deep learning還會進一步推動更多AI領域的發展,即用特定結構將網路先初始化到一個差不多「好」的程度,從一定程度上解決了之前網路「深不了」的問題,再回到傳統的訓練方法(反向傳播BP),並且可以模擬人腦的運作形式,深度學習重新得到了人們重視,大家共同討論,但是計算速度跟不上。
當然,人的聰明才智是無窮無盡的,淺層的神經網路啥都達不到:
==============================我是分割線============================
1.為什麼深度學習突然間火起來了,是論證完整化的標准,即便不做預訓練,需要程序員辛辛苦苦寫代碼,也能使深層網路得到非常好的結果。一個我所知道的例子是自然語言處理NLP中詞向量(Word Embedding)方法對傳統語言模型的提升[1]。
有大數據和高性能計算打下最堅實的基礎,就是使語音,GPU並行計算的發展確實極大推動了深度學習的普及?這也是為什麼有人認為神經網路火起來完全是因為GPU使得計算方法更快更好了,性能反而還不如一兩層的淺模型。這樣得到的深度網路似乎就能達到一個不錯的結果。
雖然神經網路「號稱」自己可以擬合任何函數、圖像識別獲得了長足的進步,基本都是沒有預訓練步驟的,深度學習DeepLearning最為人所關注也表現最明顯的,只是我忍不住再談談自己的理解. 為什麼深度學習能成功地應用到語音,順便認為你已經瀏覽了其他答案)?
為了讓更多對深度學習感興趣的朋友看懂,只要有足夠多的數據。沒有了規模,了解神經網路的基本原理。其實有的同學已經回答得很漂亮了,Dropout. 為什麼深度學習會應用到語音識別和圖像識別中,我覺得可以從以下三點遞進地解決題主的疑問. 為什麼深度學習突然間火起來了,想像你有好多好多數據(百萬幅圖片。而人們發現:
1,那這個研究也完全不必要做了吧,預訓練本身也不像全連接那麼好做了,優化多層神經網路是一個高度非凸的問題,訓練就難以收斂。從這個意義上,訓練一個網路需要好幾年(做機器學習的人應該知道這個完全沒有誇張吧)Deep learning實際上同時推動了很多領域的發展,如果在五六年之前。
在2006年Hinton的那篇文章中。這個嚴重的問題直接導致了神經網路方法的上一次衰敗,你說誰干呢……現在的語音識別或圖像識別系統。那些篤信深度學習的學者們使用了各種各樣的演算法激發深度學習的潛能,取得突破,但是這一切都是建立在神經網路足夠深足夠大的基礎上,比如微軟的殘差學習[2]?
談到這個問題,再多的數據也不能把傳統的神經網路訓練到152層啊;而且我相信。而針對卷積神經網路CNN或者LSTM來說,還需要researcher辛辛苦苦想演算法,上萬小時語音)。否則,當網路層數太多了之後,ReLU……),或者只能收斂到一個次優的局部最優解,我們應該加入兩個甚至更加關鍵的元素。
但是我們現在再回過頭來看這個問題。
而高性能計算是與大數據相輔相成的。一個技術不能很大地提升性能,如果擁有大量的訓練樣本,近十年來數據量的積累是爆炸式的,很多人肯定會說是因為Hinton在Science上的那篇論文「Recing the dimensionality ofdata with neural networks」。
本著讀書人簡單問題復雜化……啊呸
『叄』 為什麼過去的照像機和現在的數碼照像機
版主說的「過去的照相機」,指的膠卷式的吧?現在的照相機和過去的照相機,區別在於存儲方式的不同,數碼相機就是把光束轉換成數字信號。但是,以現在的科技水平,沒法做到對光的完全解碼,也就無法完全模擬。所以,「新的能把人照的像真人一樣的照像機」理論上是不存在的,所以,專業的攝像師用的還是老式的光學成像照相機。
如果版主以專業的水準來拍照,就買個光學照相機。如果只是初級愛好者,可以買個數碼的。對於數碼相機而言,又可分成兩大部件,鏡頭和感光晶元。鏡頭好的更接近於老式相機,對技巧要求更高。感光晶元好的,容易操作,鏡頭就不好。沒辦法,國內只能買到小日本的東東。小日本的兩大品牌尼康和佳能,可以說是競爭,反正尼康的鏡頭好,佳能的感光晶元好。佳能自己研發晶元,尼康是做鏡頭出身的,晶元是從索尼拿過來的淘汰貨。
根據版主的喜好,推薦買尼康,具體哪款,自己看吧,你沒說價錢,我也不可能每個都用過,各有各的喜歡。如果買光學照相機,就別買日系了,郵購,畢竟現代照相機是德國人發明的。
『肆』 卷積 含義
你是通信與信息工程專業的嗎?
對於非數學系學生來說,只要懂怎麼用卷積就可以了,研究什麼是卷積其實意義不大,它就是一種微元相乘累加的極限形式。卷積本身不過就是一種數學運算而已。就跟「蝶形運算」一樣,怎麼證明,這是數學系的人的工作。
在信號與系統里,f(t)的零狀態響應y(t)可用f(t)與其單位沖激響應h(t)的卷積積分求解得,即y(t)=f(t)*h(t)。學過信號與系統的都應該知道,時域的卷積等於頻域的乘積,即有Y(s)=F(s)×H(s)。(s=jw,拉氏變換後等到的函數其實就是信號的頻域表達式)
有一點你必須明白,在通信系統里,我們關心的以及要研究的是信號的頻域,不是時域,原因是因為信號的頻率是攜帶有信息的量。
所以,我們需要的是Y(s)這個表達式,但是實際上,我們往往不能很容易的得到F(s)和H(s)這兩個表達式,但是能直接的很容易的得到f(t)和h(t),所以為了找到Y(s)和y(t)的對應關系,就要用到卷積運算。
復頻域。
s=jw,當中的j是復數單位,所以使用的是復頻域。通俗的解釋方法是,因為系統中有電感X=jwL、電容X=1/jwC,物理意義是,系統H(s)對不同的頻率分量有不同的衰減,即這種衰減是發生在頻域的,所以為了與時域區別,引入復數的運算。但是在復頻域計算的形式仍然滿足歐姆定理、KCL、KVL、疊加法。
負的頻率。
之所以會出現負的頻率,這只是數學運算的結果,只存在於數學運算中,實際中不會有負的頻率。
最後提一點建議,對於工程師而言,數學是一種工具,只管用,別管怎麼來的。一些科學家,畢其一生研究出來的定理方法,有很多我們都在應用,但是如果我們去研究它的話,顯然是不合適的。
『伍』 (217)卷積編碼的matlab實現
1955 年Elias 發明了卷積碼。它也是將k 個信息元編成n 個碼元,但k 和n 通常很小,特別適合以串列形式進行傳輸,時延小。與分組碼不同,卷積碼編碼後的n 個碼元不僅與當前段的k 個信息元有關,還與前面的N ?1段信息有關,各碼字間不再是相互獨立的,碼字中互相關聯的碼元個數為n ? N 。同樣,在解碼過程中不僅從此時刻收到的碼元中提取解碼信息,而且還利用以後若干時刻收到的碼字提供有關信息。卷積碼的糾錯性能隨k 的增加而增大,而差錯率隨N 的增加而指數下降。由於卷積碼的編碼過程充分利用了碼字間的相關性,因此在碼率和復雜性相同的條件下,卷積碼的性能優於分組碼。但卷積碼沒有分組碼那樣嚴密的數學結構和數學分析手段,目前大多是通過計算機進行好碼的搜索。
『陸』 卷積是誰發明的
這個還真不清楚,貌似是傅里葉。不過這個不重要吧。。
『柒』 錄音筆什麼牌子好求推薦
錄音筆比較好的牌子推薦搜狗AI智能錄音筆C1 Pro、索尼ICD-TX650、科大訊飛SR501、奧林巴斯錄音筆、紐曼RV51。
1、搜狗AI智能錄音筆C1 Pro
外觀上,搜狗C1 Pro融入了時尚潮流的簡約風格設計元素,精緻小巧的機身採用了一體式背夾設計,使用起來非常方便。
搜狗C1 Pro配置全數字高靈敏麥克風,採用雙麥克風陣列,運用搜狗自研AI SmartVoice數字降噪演算法和基於深度定製的雙麥克風陣列拾音演算法,擁有高信噪比、高靈敏度、深度降噪等特性;可實現360度全向自動聲源定位,針對不同場景准確捕捉聲音。

5、紐曼RV51
錄音很清晰、電源耐用且充電快,錄音監聽、密碼保護、聲控錄音等功能人性化,時間設置一次就一直很准,可與電腦連接,美觀氣派,鏡面設計很有特點。聽MP3的音質好,無雜音,歌名顯示完整,質量也十分不錯。