管控措施相繼發(fā)布,AI是否已經(jīng)觸及“邊界”
科技是把雙刃劍,當(dāng)人工智能技術(shù)大規(guī)模應(yīng)用于社會時,我們必須考慮它所帶來的負(fù)面效果。
身處文明社會當(dāng)中,大眾除了道德限制還有法律對自身行為進行約束,但開發(fā)者進行應(yīng)用開發(fā)時,是否考慮到“喂”給機器的數(shù)據(jù)是否符合“法規(guī)”,特別是近年來人機交互的數(shù)量急劇增加,從而使得AI監(jiān)管問題的討論變得更為熱烈。
感官的欺騙
視覺與聽覺是我們對外界感知的重要窗口,大眾的觀念中普遍認(rèn)為“人的第一印象很重要”“眼見為實,耳聽為虛”。
但面對信息錯綜復(fù)雜的世界,如今眼見也不一定為實,聽到的則可能更為虛假。曾經(jīng)被議論的Deepfake換臉技術(shù)就屬于罪魁禍?zhǔn)字,其利用了AI深度學(xué)習(xí)功能,通過數(shù)以億計的自我學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)訓(xùn)練,AI能夠識別出畫面中那些和周圍場景格格不入的部分,同時將其移走和生成缺失的像素,最后重繪出部分像素進行畫面填補。
谷歌公司也曾推出WaveNet軟件,可以利用其神經(jīng)網(wǎng)絡(luò)系統(tǒng)對原始音頻波形進行建模,生成帶有不同語氣音節(jié)和情感表達的人類自然語言的音頻。
外媒曾報道過一例案件,不法分子就利用了類似的AI技術(shù),成功模仿了英國某能源公司CEO的聲音,詐騙了220,000歐元,執(zhí)法當(dāng)局認(rèn)為此種類案件的調(diào)查取證更為困難。
AI道德準(zhǔn)則
2019年,我國首次將AI造假音視頻列入法規(guī),國家網(wǎng)信辦出臺《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》。
對于利用基于深度學(xué)習(xí)、虛擬現(xiàn)實等新技術(shù)新應(yīng)用制作、發(fā)布、傳播非真實音視頻信息的網(wǎng)絡(luò)音視頻:,應(yīng)當(dāng)以顯著方式予以標(biāo)識,不得利用其制作、發(fā)布、傳播虛假新聞信息;網(wǎng)絡(luò)音視頻信息服務(wù)提供者應(yīng)當(dāng)部署應(yīng)用違法違規(guī)音視頻以及非真實音視頻鑒別技術(shù),應(yīng)當(dāng)建立健全辟謠機制。
日前,歐盟也相繼出臺《人工智能白皮書》,對人工智能領(lǐng)域的投資監(jiān)管路徑設(shè)立雙重目標(biāo),旨在推動道德和可信賴人工智能的發(fā)展。并通過建設(shè)“卓越生態(tài)系統(tǒng)”和“信任生態(tài)系統(tǒng)”雙重系統(tǒng),構(gòu)建一個卓越的、可信賴的人工智能體系框架。
近日,面對人工智能的倫理 “紅線”,博世在“博世互聯(lián)世界大會”上發(fā)布人工智能技術(shù)的指導(dǎo)方針《AI道德準(zhǔn)則》,博世認(rèn)為人工智能是服務(wù)于人類的工具,任何可能對人造成影響的人工智能決策都需要人類的監(jiān)管。
準(zhǔn)則中包含了三種機制,它們遵守著一個共同的原則,即博世開發(fā)的人工智能產(chǎn)品中,人類必須保留對人工智能所做決策的最終控制權(quán)。
第一種機制為人工控制(human-in-command),它適用于人工智能只作為支持工具出現(xiàn)的情況。例如,在決策支持系統(tǒng)中,人工智能幫助人們對物體或生物進行分類。
第二種機制為使用階段的人為干預(yù)(human-in-the-loop),適用于人工智能系統(tǒng)可以自主決策,但人類可以隨時干預(yù)的情況。例如,駕駛輔助系統(tǒng),駛員可以直接介入停車輔助系統(tǒng)的決策等。
第三種機制為設(shè)計階段的人為干預(yù)(human-on-the-loop),適用于緊急制動系統(tǒng)等應(yīng)用。開發(fā)此類智能產(chǎn)品時,專家將定義參數(shù)作為人工智能決策的基礎(chǔ),而人類不參與決策,由人工智能進行。
但是工程師可以隨時追溯檢查機器是否遵守所設(shè)定的參數(shù)進行決策,必要情況下可以修改參數(shù)。
面臨的困難
人工智能在應(yīng)用層面有逐漸完善的法律法規(guī)進行約束,但在實際的技術(shù)開發(fā)中仍面臨著許多難以確定的細(xì)則。
數(shù)據(jù)標(biāo)定沒有統(tǒng)一標(biāo)準(zhǔn):在機器學(xué)習(xí)中訓(xùn)練數(shù)據(jù)前都會對數(shù)據(jù)進行清洗和標(biāo)定。有時為了滿足業(yè)務(wù)進度的要求,不會進行全量全分類的處理。
準(zhǔn)確的說,無法對數(shù)據(jù)進行嚴(yán)格而準(zhǔn)確的分類。這也是有監(jiān)督學(xué)習(xí)類算法的缺點,就是針對特殊業(yè)務(wù)往往要進行專門的數(shù)據(jù)標(biāo)定,同時算法設(shè)計者自身存在價值偏見也會導(dǎo)致人工智能系統(tǒng)無法正常運行。
數(shù)據(jù)分析難全面:在準(zhǔn)備訓(xùn)練數(shù)據(jù)時應(yīng)容擴各類發(fā)生的情況,AI在數(shù)據(jù)錯誤的情況勢必會造成BUG,除了掌握各類情況,仍要調(diào)整好處理各種情況的參數(shù)或系數(shù),包括算法模型存在的技術(shù)性缺陷可能導(dǎo)致人工智能系統(tǒng)無法正常運行。
模型成長環(huán)境差異:AI算法模型的訓(xùn)練環(huán)境對算法結(jié)果有重大影響,假設(shè)機器訓(xùn)練環(huán)境變得沒有邊界,各類數(shù)據(jù)都被機器學(xué)習(xí),這將很難保證機器會往著人類預(yù)想的方向發(fā)展,以及因為算法日趨“黑箱化”可能導(dǎo)致技術(shù)失控等問題。
無論在技術(shù)或應(yīng)用方向,都應(yīng)該通過政策和法律引導(dǎo),開展人工智能算法安全的評估檢測;推動技術(shù)倫理的算法導(dǎo)入,要求人工智能開發(fā)者設(shè)計高可解釋性的智能系統(tǒng);同時,加強智能算法的透明監(jiān)督,人工智能企業(yè)、行業(yè)應(yīng)建立相應(yīng)的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預(yù)約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
-
8月5日立即報名>> 【在線會議】CAE優(yōu)化設(shè)計:醫(yī)療器械設(shè)計的應(yīng)用案例與方案解析
推薦專題