許多人都會(huì)對(duì)無人機(jī)監(jiān)控這種方式感到不舒服,,但這并不能阻止監(jiān)管機(jī)構(gòu)通過無人機(jī)開發(fā)出更有效的監(jiān)管方式研究。最近國(guó)外科學(xué)家們開發(fā)出了一種新的試驗(yàn)性無人機(jī)系統(tǒng),,該系統(tǒng)可以利用人工智能技術(shù)探測(cè)人群中的暴力行為,。
該團(tuán)隊(duì)利用機(jī)器學(xué)習(xí)算法識(shí)別人類一些典型的暴力動(dòng)作,比如拳打腳踢,、射擊和刺傷等,。當(dāng)這些動(dòng)作出現(xiàn)在無人機(jī)監(jiān)控的畫面中后,就會(huì)立刻被自動(dòng)標(biāo)記出來。從理論上來說,,這種技術(shù)可以檢測(cè)沖突現(xiàn)場(chǎng)的斗毆或者查明非法槍支來源,。
不過目前這項(xiàng)技術(shù)還沒有做好被實(shí)際應(yīng)用的準(zhǔn)備。研究人員在一個(gè)相對(duì)理想的條件下,,在開闊的產(chǎn)地下通過志愿者做出各種劇烈的動(dòng)作用來試驗(yàn),。
人工智能技術(shù)的識(shí)別率達(dá)到了94%。但是如果測(cè)試人員增加到10人,,那么這一比例就下降到79%,,有些無法讓人接受。
因此目前這套系統(tǒng)暫時(shí)還無法在熙熙攘攘的街道上立刻找到暴力沖突的發(fā)起者,,并且很容易提供錯(cuò)誤的結(jié)論,。研究人員希望能夠在印度的節(jié)日中投放自己的無人機(jī)系統(tǒng)對(duì)自己的成果進(jìn)行實(shí)地測(cè)試,但不會(huì)作為評(píng)判的具體依據(jù),。
另外這項(xiàng)技術(shù)還有另外一個(gè)關(guān)于倫理的問題,,那就是面部識(shí)別系統(tǒng)的濫用以及對(duì)可靠性的存疑。因此它必須要與相關(guān)的法律和使用規(guī)范結(jié)合起來才具有更大的使用價(jià)值,。