0 引言
隨著多媒體技術(shù)及寬帶網(wǎng)絡(luò)傳輸技術(shù)的發(fā)展,,視頻采集及傳輸系統(tǒng)作為遠程視頻監(jiān)控、可視電話會議和工業(yè)自動控制領(lǐng)域的一項核心關(guān)鍵技術(shù),,近年來也得到了飛速的發(fā)展,。本文所提出的系統(tǒng)是在新一代基于ARM926EJ-S微處理核的嵌入式開發(fā)平臺上進行的,并將國際上流行的MPEG-4壓縮編解碼技術(shù)和流媒體傳輸技術(shù)相結(jié)合,。該系統(tǒng)具有較強的實時性,、可交互性及便攜性。
1 系統(tǒng)開發(fā)硬件平臺
本設(shè)計采用的開發(fā)平臺是Freescale i.MX家族的MC9328MX21,,作為整個系統(tǒng)的核心微處理器,,其ARM926EJ-S核提供了加速的Java支持和高度整合的系統(tǒng)功能模塊,如片上模塊包括圖像加速模塊,、LCD控制器,、USB控制模塊、CMOS傳感器接口及同步串口等,,為開發(fā)者進行多媒體應(yīng)用開發(fā)提供了豐富的外圍接口,。核心板上集成了64MB SDRAM以及16MBFlash存儲器,底板資源包括4個四線RS-232串口,、1個10 Mbit·s-1/100 Mbit·s-1自適應(yīng)以太網(wǎng)接口及音視頻采集設(shè)備,,為系統(tǒng)設(shè)計時的交叉編譯及多媒體數(shù)據(jù)的處理提供了方便。
系統(tǒng)的關(guān)鍵外圍設(shè)備,、視頻數(shù)據(jù)的采集所使用的CMOS圖像傳感器OV9640,,與傳統(tǒng)的CCD圖像傳感器相比,具有功耗低,、體積小,、集成度高等優(yōu)點,并且OV9640支持VGA,、QVGA,、CIF等多種解析度,支持的數(shù)據(jù)格式包括YCrCb 4:2:2,、GRB 4:2:2和RGB:RawData這3種,,圖像幀傳輸速率達30幀/s。傳感器通過CSI模塊進行圖像數(shù)據(jù)的采集,,然后通過專用總線傳輸至PRP(eMMA Pre-processor),在PRP中調(diào)整圖像大小并轉(zhuǎn)換成合適的顏色空間,。PRP的輸出分成2個通道,,通道1輸出RGB565格式數(shù)據(jù)作為LCD的顯示,通道2輸出YUV420格式數(shù)據(jù)進行MPEG或者JPEG編碼,。圖1是圖像傳感器和MC9328MX21的連接原理圖,。
在兩者連接中,,各模塊端口的作用分別是:CSI端口為傳輸圖像數(shù)據(jù);I2C端口為配置傳感器,;GPIO為控制傳感器,。
MC9328MX21的CSI模塊有一個8位輸入端口,如果傳感器的傳輸超過8位數(shù)據(jù),,圖像傳感器通常作為從設(shè)備通過I2C端口控制,。底層的協(xié)議是I2C,高層的協(xié)議則由傳感器確定,。在這里,,圖像傳感器的主時鐘由MC9328MX21提供。
2 系統(tǒng)的軟件系統(tǒng)設(shè)計
2.1 搭建交叉編譯環(huán)境
由于嵌入式系統(tǒng)選用的是開源的基于ARM微處理器的系統(tǒng)內(nèi)核ARM-Linux,,而在開發(fā)板上沒有足夠的資源運行開發(fā)調(diào)試工具,,所以必須首先搭建好交叉編譯調(diào)試環(huán)境。首先,,需要通過在編譯時指定target=arm-linux生成適合ARM平臺的binutils,,它包括了ld、ar和as等一些生成和處理二進制文件的工具,。然后,,編譯生成GCC(GNU Compiler Collection),它能夠支持多種高級語言,,如C,,C++等,需要注意的是,,在編譯GCC時需要ARM-linux內(nèi)核頭文件的支持,,所以首先需要配置內(nèi)核#make menuconfig ARCH=ARM來生成對應(yīng)ARM內(nèi)核的頭文件,這樣就可以在配置編譯GCC時通過with-headers選項指定編譯所需頭文件,。最后,,還需要編譯生成許多用戶層應(yīng)用都要用到的函數(shù)庫glibc,所有動態(tài)鏈接的程序都要用到它,,在編譯時需要注意的是打開--enable-add-ons選項,,這個開關(guān)將打開glibc的附加包,因為我們需要用到linu-xthreads,。這樣,,一個嵌入式ARM-linux下的交叉編譯環(huán)境就已搭建成功。
2.2 編譯制作內(nèi)核及文件系統(tǒng)
通過make menuconfig配置內(nèi)核選項,,其中的一些關(guān)鍵設(shè)置包括指定System Type時打開ARM926T CPUidle,、I-Cache 0n和D-Cache,并且由于在進行應(yīng)用軟件開發(fā)時需要ARM-linux內(nèi)核支持frame buffer技術(shù),,所以還需要打開Console drivers中的Frame-buffer sup-port,。然后,,make boot就可以編譯生成定制好的內(nèi)核映像文件Image,將制作好的系統(tǒng)內(nèi)核和文件系統(tǒng)通過宿主機的TFTP服務(wù)燒寫進開發(fā)板的Flash存儲器,。這樣就完成了板上可獨立運行的操作系統(tǒng)的設(shè)計,。
2.3 視頻數(shù)據(jù)的采集、編碼和傳輸?shù)膶崿F(xiàn)
這部分的工作是整個設(shè)計的核心,。MPEG-4在1999年初正式成為國際標(biāo)準,,與之前的標(biāo)準相比,它更加重視多媒體系統(tǒng)的交互性和靈活性,,主要針對視頻會議,、可視電話的超低比特率編碼等多媒體應(yīng)用。目前在嵌入式系統(tǒng)中,,MPEG-4編解碼主要都是通過專用芯片實現(xiàn)的,,其實現(xiàn)方法與MPEG-1、MPEG-2的硬件實現(xiàn)方法類似,,將編碼算法固化在芯片的硬件電路中,,所以導(dǎo)致它在使用中存在以下缺點:
a) 性價比不高。由于現(xiàn)在MPEG-4編碼技術(shù)還在不斷發(fā)展中,,還沒有一個真正成熟的算法支持,,所以市場上推出的MPEG-4編碼芯片都是在標(biāo)準基礎(chǔ)上進行了修改和簡化,在性能上與H.263等編碼芯片上沒有明顯的優(yōu)勢,,所以其性價比不高,。
b) 可移植性差。由于各廠商所生產(chǎn)的編碼芯片都在固化時加入了自己對編碼算法的改進和優(yōu)化,,所以在解碼端必須使用對應(yīng)的專用解碼器,,這就導(dǎo)致出現(xiàn)了兼容性的問題。
c) 無可擴展性,。隨著對MPEG-4編解碼標(biāo)準的研究,,必然提出許多新的算法及對原有算法的改進,但是現(xiàn)有的MPEG-4編碼芯片已將已有的算法固定在了芯片硬件電路中,,所以無法方便地在芯片上進行算法的修改及擴展,。
所以在設(shè)計該系統(tǒng)時,主要采用了軟件實現(xiàn)其編解碼,,在嵌入式系統(tǒng)中采用軟件實現(xiàn)編解碼,,可以彌補硬件編解碼上的諸多不足,而且便于對算法本身進行研究和改進,。但是,,也需要考慮幾個問題:首先,由于MPEG-4編碼算法運算量復(fù)雜,而嵌入式系統(tǒng)的資源有限,,所以必須考慮所選平臺微處理器的運算能力;其次,,在編碼軟件及數(shù)據(jù)采集硬件的接口部分,,由于需要針對不同的采集硬件,所以需要做許多匯編級的優(yōu)化,。
FFMPEG是一個音視頻數(shù)據(jù)的采集記錄,、編碼及流式傳輸?shù)耐耆鉀Q方案。該項目包括下面組件:
a) FFMPEG是音視頻文件格式轉(zhuǎn)換的命令行方式的工具,,同時支持實時的采集編碼TV card數(shù)據(jù),。
b) FFserver可以通過HTTP/RTSP方式進行多媒體數(shù)據(jù)的流式播放。
c) FFplayer是基于FFMPEG庫和SDL的播放器,。
d) libavcodec包括了全部FFMPEG音視頻的編解碼庫,,libavformat包括了全部支持的音視頻格式的語法和生成庫。
FFMPEG庫支持的編解碼支持格式非常豐富,,而且編解碼速度很快,;支持指定音視頻捕捉設(shè)備實時處理數(shù)據(jù)源并將其存;FFMEPG能夠通過命令行參數(shù)指定視頻編解碼,、格式轉(zhuǎn)換的幀頻,、幀大小及比特率、碼率控制緩沖區(qū)的大??;并且,F(xiàn)FMPEG可以通過激活視頻的高級選項來對編解碼的方式進行控制,,包括設(shè)置幀內(nèi)編碼,、視頻量化標(biāo)度的設(shè)置、設(shè)定p幀以及b與i幀間的qp因子和偏差,、運動估計及DCT/IDCT算法的選擇,,b幀和運動矢量以及交織編碼方式的使用。對于視頻捕捉設(shè)備的選擇也可以通過參數(shù)來選定,,如/dex/video0或DV1394專用通道等,。
FFMPEG庫能夠在多種平臺上運行,包括Linux,、Windows和Mac OS等系統(tǒng),,在嵌入式系統(tǒng)中,由于嵌入式Linux具有源代碼完全開放,、可移植性強和對網(wǎng)絡(luò)的支持好等特點,,所以選用了ARM-Linux系統(tǒng),該系統(tǒng)支持這次選用的ARM9架構(gòu)的CPU,而FFMPEG是針對通用PC的X86架構(gòu)的CPU設(shè)計的,,因此要將FFMPEG移植到ARM9架構(gòu)的系統(tǒng)上,。首先需要通過將其交叉編譯成可在ARM-linux上運行的庫。具體步驟如下,。
將下載的最新的FFMPEG源代碼包解壓縮再生成FFMPEG目錄,,然后針對所開發(fā)系統(tǒng)的交叉編譯鏈,通過修改configure文件來生成Makefile文件,, 然后用make命令通過讀取生成的Makefile文件來自動編譯生成所需要的FFMPEG庫文件和可以在ARM開發(fā)板上運行的二進制可執(zhí)行文件,。編譯成功以后就可以通過宿主機的NFS服務(wù)將宿主機安裝到開發(fā)板上,這樣就可以到相關(guān)目錄下測試所編譯的FFMPEG能否正常地工作:
即將對音頻文件cat.wav和原始的yuv視頻文件編碼生成cat.mpg,,如果沒有輸入數(shù)據(jù)文件,,則音視頻捕捉設(shè)備就將起作用,說明所需要的交叉編譯生成的FFM-PEG庫可以正確地運行,。
2.4 視頻采集編碼程序的關(guān)鍵技術(shù)
在設(shè)計視頻采集程序時主要使用FFMPEG的libavformat和libavcodec這兩個函數(shù)庫,,許多視頻文件格式一般只是定義如何將音視頻流編碼進一個獨立的文件,而不明確指出其使用的編碼工具,,libavformat庫的功能主要是分析視頻文件的語法格式,,并將它從流中分離出原始的音視頻流,libavcodec庫的功能則是按照流格式處理原始的音視頻流編解碼,。
在使用libavformat/libavcodec庫函數(shù)對視頻文件進行處理時,,首先通過調(diào)用av_register_all()函數(shù)對其初始化,這個函數(shù)中定義了所有庫所能支持的文件格式和編碼器,,因此當(dāng)讀取一個文件時,,通過調(diào)用此函數(shù)來自動使用所對應(yīng)的格式或者編碼庫。視頻文件打開則通過av_open_input_file函數(shù)來實現(xiàn):
這個函數(shù)的最后3個參數(shù)分別定義了文件的格式,、緩沖區(qū)的大小和格式的參數(shù),;在這里賦值NULL和0來指定libavformat庫函數(shù)自動檢測格式和使用默認的緩沖區(qū)的大小。然后就可以讀取文件的流信息:
來填充AVFormatContext中關(guān)于流區(qū)域的內(nèi)容,,接著通過一個循環(huán)尋找到第1段視頻流:
這樣就可以讀取視頻流的內(nèi)容來指定選用的編解碼器并將編解碼器打開:
這里的定義CODEC_CAP_TRUNCATED是指當(dāng)視頻流被分割成小的數(shù)據(jù)包以后,,由于每一幀視頻的數(shù)據(jù)量會發(fā)生變化,這就需要兩個視頻幀的邊緣與數(shù)據(jù)包的邊緣匹配,,因此在這里定義這個宏來告訴編碼器該如何處理它,。最后調(diào)用avcodec_alloc_frame()函數(shù)來分配幀緩沖。
在編碼端需要使用libavformat庫函數(shù)來讀取這些數(shù)據(jù)包,,濾除掉不需要的非視頻流數(shù)據(jù),,然后循環(huán)調(diào)用libavcodec庫函數(shù)GetNextFrame(AVFormatContext *pFormatCtx,AVCodecContext * pCodecCtx,,int video-Stream,,AVFrame * pFrame)來處理每幀數(shù)據(jù)進行編解碼。
視頻采集端采用從Video4Linux視頻設(shè)備源中捕捉視頻幀,Video4Linux是Linux下用于獲取音頻和視頻的API接口,,現(xiàn)有的Video4Linux有v41和v412兩個版本,,我們采用v4l進行編程,在Linux下,,將所有外沒都看做一種特殊的文件,,稱之為設(shè)備文件,因此利用v4l API獲取視頻圖像可以通過調(diào)用open,、ioctl等函數(shù),像對普通文件一樣對硬件進行初始化,、設(shè)置硬件屬性和調(diào)用硬件中斷等操作,。在打開視頻采集設(shè)備后,分別通過ioctl(vd->fd,,VIDIOCGCAP,,&(vd->ca-pability))函數(shù)的VIDIOCGCAP控制命令,來獲取關(guān)于視頻采集設(shè)備所能顯示的最大圖像大小,,信號源的通道數(shù)和通過ioctl(vd->fd,,VIDIOCGPICT,&(vd->picture))的VIDIOCGPICT來獲取一些關(guān)于圖像的亮度,、對比度等信息,。Video4Linux方式獲取視頻圖像的方式有overlay和mmap兩種,在這里采用了MMAP方式,,MMAP方式允許直接將設(shè)備內(nèi)存映射到用戶進程的地址空間中,,這樣就可以直接在進程中讀寫內(nèi)存來控制設(shè)備。在使用libavformat/libavcodec庫從Vide-o4Linux視頻設(shè)備源中捕捉視頻幀時需要調(diào)用av_open_input_file()函數(shù),,因此,,最后還需要修改此函數(shù)中的設(shè)備屬性配置,使之與我們所選用的沒備相對應(yīng),。
3 測試結(jié)果及展望
在這里使用了ffserver流媒體服務(wù)端組件來實現(xiàn)流媒體傳輸,,首先需要配置ffserver.conf文件中關(guān)于服務(wù)端主機的端口號、傳輸帶寬,、延遲,,流媒體文件屬性等信息。然后啟動ffserver讀取配置文件,,就可以在接收端通過WMP(Windows Media Player)輸入服務(wù)端URL看到實時采集的視頻圖像,。經(jīng)測試,目前該嵌入式流媒體服務(wù)器在傳輸MPEG-4視頻時的幀率可以達到20幀/s,,接收端觀察圖像流暢,,畫面清晰。
本文提出了一種基于ARM9架構(gòu)MC9328MX21的嵌入式系統(tǒng)上實現(xiàn)MPEG-4流媒體視頻采集傳輸系統(tǒng),通過在ARM-Linux操作系統(tǒng)下移植libavformat/libavcode庫,,利用該函數(shù)庫良好的可移植性和Video4Linux完成了本地視頻圖像的采集,、編碼等功能,并向網(wǎng)絡(luò)發(fā)送流媒體打包數(shù)據(jù),。該系統(tǒng)具有實時性好,、可移植性強、低功耗和可遠程移動控制嵌入式系統(tǒng)的特點,,并且采用軟件實現(xiàn)其主要功能,,有利于系統(tǒng)的二次開發(fā)及升級,其應(yīng)用范圍和前景將非常廣闊,。