其實我想到最簡單的方式,先不管real time的部分, 去找那種Embedded Linux的實驗版,自己再寫演算法,設計個簡單的UI介面,就可以了. 音訊的部分,Linux Kernel driver都幫你處理好了.利用kernel那邊取得音訊的資料,輸入你的演算法,再吐出資料,輸出至音效device. iPhone或是Android其實跟Embedded Linux大同小異,像iRig那種東西,只是把電腦上面的source code精簡轉移成A4/A5 CPU可以執行的程式而已. iPhone應該也沒有特別加一顆專門處理iRig的DSP chip在上面吧,應該只是利用A4/A5 CPU進行運算. Android就是由Arm CPU作處理. 這樣其實可以先專心在演算法的部分. IO部分就可以先不理他,完全交給kernel處理.