? 少妇被粗大的猛烈进出小说 ,少妇把腿扒开让我添,四虎成人精品一区二区免费网站

亚洲 a v无 码免 费 成 人 a v,性欧美videofree高清精品,新国产三级在线观看播放,少妇人妻偷人精品一区二区,天干天干天啪啪夜爽爽av

人工智能的道德,誰(shuí)來(lái)塑造?|對(duì)話

2022/01/28
導(dǎo)讀
 1.28
知識(shí)分子
The Intellectual


微信圖片_20220128114652
人工智能倫理的下一步是什么?| 圖源:pixabay.com


  導(dǎo)  讀
?

2021年11月,經(jīng)過(guò)兩年時(shí)間的準(zhǔn)備,聯(lián)合國(guó)教科文組織(UNESCO)發(fā)布關(guān)于人工智能倫理的建議書,這是首個(gè)全球性的人工智能倫理標(biāo)準(zhǔn),參與國(guó)家多達(dá)193個(gè)。

建議書呼吁各國(guó)采取數(shù)據(jù)保護(hù)行動(dòng),提出人工智能系統(tǒng)不得用于社會(huì)評(píng)分或大規(guī)模監(jiān)控目的。

《知識(shí)分子》就該建議書的內(nèi)容對(duì)話UNESCO專家組成員曾毅,他認(rèn)為:

 人工智能曾經(jīng)是一個(gè)科學(xué)暢想,但在當(dāng)下是一個(gè)“傘概念”,包括各種涉及算法的技術(shù);

 “相稱性”應(yīng)當(dāng)是人工智能應(yīng)用時(shí)的重要原則;

 人工智能原則上不應(yīng)應(yīng)用于大規(guī)模監(jiān)控和社會(huì)評(píng)分,但也應(yīng)有例外情況;

 倫理規(guī)則不應(yīng)只在人工智能產(chǎn)品的設(shè)計(jì)階段起作用,只有在全生命周期真正做技術(shù)落地,才有可能真正實(shí)現(xiàn)治理;

 人工智能在研究過(guò)程中不需要太多限制的說(shuō)法是誤區(qū),學(xué)界應(yīng)當(dāng)在人工智能技術(shù)發(fā)展和倫理治理中發(fā)揮引領(lǐng)作用;

 只有人工智能的發(fā)展和治理的深度協(xié)同,才能最終實(shí)現(xiàn)人工智能的可持續(xù)穩(wěn)健發(fā)展;

 未來(lái)人工智能特別應(yīng)當(dāng)在推進(jìn)生物多樣性與生態(tài)發(fā)展、氣候治理、文化交互等領(lǐng)域發(fā)揮賦能作用,助力全球可持續(xù)發(fā)展目標(biāo)的實(shí)現(xiàn)。




撰文 | 王一葦

責(zé)編 | 陳曉雪




 ●                   ●                    


全球化進(jìn)程中,人工智能在每個(gè)國(guó)家的發(fā)展并不相同,一些國(guó)家是技術(shù)的引領(lǐng)者,而另一些是技術(shù)的被動(dòng)接受者。此前,美國(guó)、中國(guó)等國(guó)家地區(qū)及歐盟、經(jīng)濟(jì)合作與發(fā)展組織(OECD)、G20等組織也發(fā)布過(guò)有關(guān)人工智能倫理的相關(guān)文件,但這些文件主要是回應(yīng)本地區(qū)的問(wèn)題,而缺少對(duì)全球其他地區(qū)的關(guān)注。

 

“歐盟在制定相關(guān)標(biāo)準(zhǔn)時(shí),不會(huì)考慮亞洲的關(guān)切…… 不同國(guó)家的文化背景使得他們對(duì)于技術(shù)陣痛的觀察視角不同。” 中國(guó)科學(xué)院自動(dòng)化研究所人工智能倫理與治理中心主任、國(guó)家新一代人工智能治理專委會(huì)委員曾毅說(shuō),“而UNESCO包含了幾乎所有的主權(quán)國(guó)家和相關(guān)地區(qū),應(yīng)當(dāng)說(shuō)是最廣泛的共識(shí)。”

 

他指出,沒有任何一個(gè)國(guó)家能預(yù)知到所有可能的潛在風(fēng)險(xiǎn),各個(gè)國(guó)家根據(jù)自己國(guó)家的價(jià)值觀、社會(huì)倫理和技術(shù)發(fā)展階段來(lái)考量。這就需要大家同步互補(bǔ)的觀點(diǎn),互相學(xué)習(xí)和交流。

 

UNESCO的建議書以尊重、保護(hù)和促進(jìn)人的尊嚴(yán)、人權(quán)和基本自由,環(huán)境和生態(tài)系統(tǒng)的蓬勃發(fā)展,確保多樣性和包容性和和諧與和平共處為價(jià)值觀,提倡公平非歧視、可持續(xù)、隱私等原則。

 

建議書認(rèn)為,“人工智能” 這一概念隨發(fā)展而變化,因此不給出唯一定義,只將其視為 “有能力以類似于智能行為的方式處理信息的技術(shù)系統(tǒng)”,其中,包含模型和算法是其主要特征。

 

曾毅在中國(guó)科學(xué)院大學(xué)和清華大學(xué)任職,既是類腦智能模型的研究者,也 “跨界” 鉆研人工智能倫理與治理。他是起草教科文組織建議書的24位全球?qū)<抑?,同時(shí)也是中國(guó)參與協(xié)商該建議書的代表。多個(gè)國(guó)家討論出一個(gè)共同的倫理標(biāo)準(zhǔn)并非易事,他坦陳 “這是一個(gè)求最大公約數(shù)的過(guò)程”。

 

第一版草稿形成后,聯(lián)合國(guó)自2020年開始組織區(qū)域性的對(duì)話,同時(shí)教科文組織也把第一版草稿發(fā)到各個(gè)會(huì)員國(guó),正式征求國(guó)家建議。2021年6月份左右,193個(gè)會(huì)員國(guó)派出代表,進(jìn)行政府間磋商,對(duì)文本當(dāng)中的每一個(gè)段落做逐字逐句的修改。

 

針對(duì)這份建議書,《知識(shí)分子》與曾毅聊了聊他參與起草的過(guò)程和對(duì)人工智能倫理現(xiàn)狀的觀察。


為了表述的簡(jiǎn)潔和清晰,訪談稿略有編輯。



 


圖片




知識(shí)分子:

建議書稱 “無(wú)意對(duì)人工智能作出唯一的定義”,只探討 “人工智能系統(tǒng)中具有核心倫理意義并且在國(guó)際上已形成廣泛共識(shí)的特征”,為什么?我們現(xiàn)在說(shuō)的 “人工智能” 到底指的是什么?



曾毅:每個(gè)機(jī)構(gòu)、國(guó)家,在人工智能戰(zhàn)略里對(duì)人工智能的定義都不一樣,在這上面達(dá)成一個(gè)全球共識(shí)并不必要。它本身就是一個(gè)與時(shí)俱進(jìn)的概念,是快速迭代的。人工智能的定義本身也需要適應(yīng)時(shí)代發(fā)展。

 

一開始,人工智能是一個(gè)科學(xué)暢想。1956年的達(dá)特茅斯會(huì)議(作者注:普遍認(rèn)為是人工智能領(lǐng)域的發(fā)起會(huì)議)上,發(fā)起人 John McCarthy 說(shuō),這個(gè)會(huì)議的目的是 “從一個(gè)猜想出發(fā),即原則上,智能每個(gè)方面的學(xué)習(xí)方式和特征都能被精確描述,使得機(jī)器能夠模擬它們”。[1] 即在計(jì)算機(jī)系統(tǒng)上重現(xiàn)人類的心智。這種重現(xiàn)不僅僅是行為上的,更是機(jī)制上的。

 

人工智能最開始的目標(biāo)是推進(jìn)科學(xué)進(jìn)展,使人們生活得更好,從很多領(lǐng)域內(nèi),尤其是體力勞動(dòng)中,把人解脫出來(lái)。現(xiàn)在人工智能的應(yīng)用在替代勞力的方面確實(shí)比較相關(guān)。

 

但幾十年后,人工智能變成了一個(gè) umbrella term(傘概念,指概括性的術(shù)語(yǔ)),特別是面向產(chǎn)業(yè)的時(shí)候,不管是自然語(yǔ)言處理、數(shù)據(jù)挖掘、機(jī)器視覺等,都叫人工智能。

 


現(xiàn)在的人工智能已經(jīng)不僅僅是一個(gè)科學(xué)探索的領(lǐng)域?,F(xiàn)在一個(gè)學(xué)生做了一個(gè)新算法,比如用戶上傳圖片,人工智能就畫一個(gè)類似的鉛筆畫出來(lái),誰(shuí)都可以用。這個(gè)圖像可能就存在一個(gè)大學(xué)實(shí)驗(yàn)室的機(jī)器上,機(jī)器獲取了你的數(shù)據(jù),卻不一定有人仔細(xì)思考如何去保護(hù)你的數(shù)據(jù)。但個(gè)人信息一次的丟失就意味著終身的風(fēng)險(xiǎn),你甚至都不知道這樣的信息丟失在10年20年后對(duì)你來(lái)說(shuō)意味著什么。你沒有想過(guò),做應(yīng)用的人也沒有想過(guò)。別有用心的人就有可能通過(guò)各種途徑收集數(shù)據(jù),對(duì)我們產(chǎn)生負(fù)面影響。


 

盡管我非常不喜歡,但現(xiàn)在大家把這些東西叫做人工智能,它的服務(wù)出現(xiàn)在我們生活中。而創(chuàng)造程序的人幾乎沒有經(jīng)過(guò)任何倫理學(xué)培訓(xùn)。

 

2016、2017年的時(shí)候,特別在中國(guó),學(xué)界和業(yè)界對(duì)人工智能倫理的關(guān)注非常少,甚至有反對(duì)聲音認(rèn)為人工智能倫理會(huì)阻礙發(fā)展,很多人問(wèn)我。我說(shuō),人工智能治理的目的就是保證人工智能穩(wěn)健、健康的發(fā)展。它阻礙的是野蠻生長(zhǎng)。

 

2018年開始,我在中國(guó)科學(xué)院大學(xué)開設(shè)了一門人工智能哲學(xué)與倫理的課。當(dāng)時(shí)開課很困難,大家說(shuō)你又不是倫理學(xué)者,憑什么講這樣的課?諾貝爾獎(jiǎng)和圖靈獎(jiǎng)獲得者、卡耐基梅隆大學(xué)的司馬賀(Herbert Simon)寫文章 [2] 討論過(guò)一個(gè)觀點(diǎn),好的交叉學(xué)科研究,一定是領(lǐng)域A的專家變成半個(gè)領(lǐng)域B的專家。人工智能倫理也是這樣的。

 

80%來(lái)上我的課的學(xué)生都是工學(xué)相關(guān)專業(yè),20%來(lái)自人文學(xué)院。對(duì)于技術(shù)研究者,人工智能創(chuàng)新幾乎每走一步,都可能涉及社會(huì)關(guān)懷、社會(huì)倫理,他們需要知道注意哪些社會(huì)倫理問(wèn)題,需要了解未來(lái)二三十年人工智能作為一個(gè)道德主體可能對(duì)社會(huì)造成的挑戰(zhàn);而從事科學(xué)技術(shù)哲學(xué)研究的學(xué)生,未來(lái)將會(huì)是中國(guó)人工智能社會(huì)相關(guān)領(lǐng)域重要的意見領(lǐng)袖,他們需要知道人工智能真正的進(jìn)展。

 


知識(shí)分子:

怎么看待建議書中 “人工智能不能用于大規(guī)模監(jiān)控和社會(huì)信用評(píng)分” 的表述?



曾毅:人工智能不能用于大規(guī)模社會(huì)監(jiān)控和社會(huì)信用評(píng)分,是政府間磋商時(shí)德國(guó)的學(xué)者提出、列進(jìn)去的。

 

說(shuō)到這個(gè),就要提及我們討論的一個(gè)概念叫proportionality(相稱原則),意思是,不是什么時(shí)候人工智能都好,不需要的時(shí)候就不要用?,F(xiàn)在很多技術(shù)創(chuàng)新者會(huì)提出 making AI everywhere(讓人工智能無(wú)處不在),我看到的時(shí)候就覺得,有必要嗎?

 

以城市治理為例。舒可文先生的著作《城里:關(guān)于城市夢(mèng)想的敘述》指出,城市的規(guī)劃,一半是野蠻生長(zhǎng),一半是規(guī)劃,這才叫做城市。因?yàn)槌鞘兄谐思夹g(shù)還有人際關(guān)系,它的形成方式是多樣的。人工智能也不是什么地方都要去介入,應(yīng)當(dāng)適度使用。

 

不過(guò)我有一點(diǎn)保留意見,即使在歐盟的人工智能法中,大規(guī)模社會(huì)監(jiān)控這件事也是有例外的。比如抓逃犯、尋找丟失的小孩、威脅國(guó)家和社會(huì)安全的特殊情況,是可以去應(yīng)用相關(guān)的技術(shù)的。中國(guó)也在這些領(lǐng)域應(yīng)用了這些技術(shù),如尋親打拐,效果也很好。但在教科文組織的規(guī)范中,并沒有明確給出例外情況,我覺得不是特別合適。

 

社會(huì)評(píng)分當(dāng)中是否要使用人工智能,我覺得確實(shí)需要慎重思考。

 

社會(huì)信用系統(tǒng)現(xiàn)在是一個(gè)精確匹配的自動(dòng)控制系統(tǒng),不是人工智能,沒有學(xué)習(xí)能力。很多規(guī)則都是清晰的、人類定義的規(guī)則,比如違反交規(guī)的扣分和罰款你不交,但有錢去買機(jī)票,這個(gè)就說(shuō)不過(guò)去。但如果基于大規(guī)模的數(shù)據(jù)去學(xué),學(xué)到規(guī)則后應(yīng)用到社會(huì)信用評(píng)分中,我作為普通公民也會(huì)比較擔(dān)憂,因?yàn)閷W(xué)到的這個(gè)規(guī)則里,很可能有人類的偏見,如果沒有人類來(lái)辨別,直接應(yīng)用很可能有潛在風(fēng)險(xiǎn)。

 

例如,推薦工作的人工智能系統(tǒng),給40多歲的男性推薦高管職位,給28歲的女性推薦服務(wù)員職位,這就是系統(tǒng)學(xué)到了社會(huì)的偏見。誰(shuí)說(shuō)28歲的女性不能當(dāng)高管呢?人工智能現(xiàn)在沒有真正理解的能力,它甚至不知道什么是男女,不知道什么是不公平,也不知道什么是身體和心理的傷害,那么怎么可能對(duì)這種偏見去做處理?

 


微信圖片_20220128114800


曾毅在看一本講全球公平的圖書,他說(shuō),“未來(lái)使機(jī)器人真正理解公平”是AI倫理的核心 | 圖片由曾毅提供




有些人說(shuō),技術(shù)是中立的,我不同意這個(gè)說(shuō)法。我覺得說(shuō)技術(shù)中立是一個(gè)借口。技術(shù)學(xué)到了偏見,但沒有去處理,它還是中立的嗎?推薦算法沒有加入干預(yù)的過(guò)程,而推說(shuō)這些都是社會(huì)的問(wèn)題,這都是在找借口,社會(huì)的問(wèn)題不代表你沒有解決的辦法。

 

正是因?yàn)橛羞@樣潛在的問(wèn)題,在沒有人為篩選和有意監(jiān)督的情況下,把人工智能應(yīng)用到社會(huì)評(píng)分領(lǐng)域,可能會(huì)造成巨大的負(fù)面效應(yīng)。目前我還沒有看到這樣的例子,希望在哪里都不要發(fā)生。

 


知識(shí)分子:

由于新冠疫情,各個(gè)國(guó)家都開展了不同規(guī)模的社會(huì)監(jiān)控和信用評(píng)分,這和上述原則不是背道而馳嗎?



曾毅:2020年3月份,MIT Technology Review 做了一個(gè)工作,分析了各個(gè)國(guó)家 contact tracing(密接追蹤)的軟件 [3],評(píng)價(jià)上,如果強(qiáng)制收集信息就很糟糕,不強(qiáng)制就好一點(diǎn);國(guó)家運(yùn)營(yíng)的話也很糟糕,私營(yíng)的就好一點(diǎn)??梢钥吹剑袊?guó)的評(píng)分很糟糕。我認(rèn)為它的評(píng)分很不客觀,它只考慮了倫理方面。


選擇性地向用戶要求信息,實(shí)際上降低了這個(gè)系統(tǒng)的有效性。如果系統(tǒng)使用過(guò)程中采取并非強(qiáng)制而是完全自愿的原則,有可能導(dǎo)致密切接觸網(wǎng)絡(luò)的關(guān)鍵數(shù)據(jù)缺失,使得系統(tǒng)的數(shù)據(jù)分析無(wú)效,或者效果很差,那么我們?yōu)槭裁匆盟??去用一個(gè)倫理設(shè)計(jì)上更道德、但應(yīng)用層面效果很差的系統(tǒng),還不如不用。Wired雜志后來(lái)有個(gè)報(bào)道 [4],說(shuō)西方國(guó)家的 contact tracing 似乎沒有亞洲國(guó)家那么有效。有效性到很后期的時(shí)候才被西方國(guó)家提上日程討論。

 

在這個(gè)過(guò)程中,我們要學(xué)到的是如何平衡。這種平衡不是妥協(xié)。接受為了疫情而采集溫度和人臉信息的數(shù)據(jù),不意味著讓渡隱私。2020年底,在健康碼上輸入身份證就可以獲取到明星的素顏照,這就是開發(fā)健康碼系統(tǒng)的機(jī)構(gòu)沒有很好地保護(hù)個(gè)人數(shù)據(jù)。(作者注:2020年12月29日,對(duì)于北京健康寶“代查他人健康狀態(tài)功能,有時(shí)不需要進(jìn)行人臉識(shí)別”的情況,開發(fā)北京健康寶的單位北京市經(jīng)濟(jì)和信息化局大數(shù)據(jù)建設(shè)處(智慧城市建設(shè)處)回復(fù)稱:“此問(wèn)題已解決?!?事件中未見問(wèn)責(zé)。)

 

如果相關(guān)的機(jī)構(gòu)不能有效保護(hù)這些數(shù)據(jù),是應(yīng)當(dāng)負(fù)責(zé)任的。2021年11月1日起施行的《中華人民共和國(guó)個(gè)人信息保護(hù)法》,規(guī)定個(gè)人信息處理者應(yīng)制定內(nèi)部管理制度和操作規(guī)程,加密,安全培訓(xùn),制定安全事件預(yù)案等方式確保其收集的個(gè)人信息的安全,而如果違規(guī)違法,則將面臨從警告、罰款、停業(yè)到刑事處罰的懲罰。此外,2019年起施行的《兒童個(gè)人信息網(wǎng)絡(luò)保護(hù)規(guī)定》專門針對(duì)不滿14歲的未成年人信息保護(hù)作出規(guī)定,違反者由網(wǎng)信部門和其他有關(guān)部門依據(jù)職責(zé),根據(jù)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等相關(guān)法律法規(guī)規(guī)定處理;構(gòu)成犯罪的,依法追究刑事責(zé)任。此外,國(guó)家互聯(lián)網(wǎng)信息辦公室近期剛結(jié)束征求意見的《移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序信息服務(wù)管理規(guī)定》修訂版規(guī)定,應(yīng)用程序的發(fā)行者和發(fā)布平臺(tái)應(yīng)接受社會(huì)監(jiān)督、設(shè)立舉報(bào)機(jī)制,對(duì)于存在數(shù)據(jù)安全風(fēng)險(xiǎn)隱患、違法違規(guī)收集使用個(gè)人信息行為的,或者損害個(gè)人、組織合法權(quán)益的應(yīng)用程序,應(yīng)當(dāng)停止提供服務(wù)。

 

即使這樣的系統(tǒng)是必要的,這不代表用戶以任何形式讓渡了隱私。它其實(shí)提出了更嚴(yán)格的要求,在滿足隱私保護(hù)約束的前提下,才可以采集信息。

 

政府對(duì)于技術(shù)發(fā)展的管理和治理有一個(gè)學(xué)習(xí)的過(guò)程,而基礎(chǔ)設(shè)施研發(fā)團(tuán)隊(duì)如果倫理意識(shí)淡薄、安全意識(shí)缺位,就會(huì)使得購(gòu)買了服務(wù)的政府要為可能出現(xiàn)的紕漏背書。政府一定開展了質(zhì)量評(píng)估,但是由于AI倫理專家的缺位或者設(shè)計(jì)的缺陷,并不是所有的倫理問(wèn)題能夠在評(píng)估階段發(fā)現(xiàn)。政府應(yīng)該為此負(fù)責(zé),但是由于部分信息不透明,有時(shí)候我們可能無(wú)法了解后續(xù)處理情況。在這種情況下,在社會(huì)輿論監(jiān)督的影響和政府的督促下及時(shí)調(diào)整系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn),是底線。

 


知識(shí)分子:

紙面上的倫理規(guī)則,如何落到現(xiàn)實(shí)中?



曾毅:倫理原則即使在設(shè)計(jì)階段發(fā)揮了一些作用,但在算法實(shí)現(xiàn)、產(chǎn)品服務(wù)和產(chǎn)品部署的過(guò)程中如果不注意,都可能帶來(lái)各種各樣的問(wèn)題。只有在人工智能產(chǎn)品的全生命周期(包括它的上下游客戶)真正做技術(shù)落地,才有可能真正實(shí)現(xiàn)治理。

 

舉個(gè)例子,2019年杭州野生動(dòng)物世界的案子(作者注:杭州市民郭兵于2019年購(gòu)買杭州野生動(dòng)物世界雙人年卡,并確定指紋識(shí)別入園方式,但野生動(dòng)物世界此后強(qiáng)制要求激活人臉識(shí)別,否則無(wú)法入園,郭兵因此提起訴訟,該案以郭兵勝訴告終,被稱為 “全國(guó)人臉識(shí)別第一案”),其實(shí)就包括使用和部署環(huán)節(jié)的問(wèn)題,知情同意沒有做好。此外,采集的數(shù)據(jù)到底是保存在動(dòng)物園還是相關(guān)企業(yè),企業(yè)的保密和數(shù)據(jù)加密資質(zhì)是什么樣的?這一切都不清晰。

 

而在倫理原則還未落地、還不是法律的時(shí)候,如何實(shí)施?換臉軟件ZAO和教室表情識(shí)別看學(xué)生是否認(rèn)真聽講,是兩個(gè)具體的例子。ZAO在上線后三四天下線,被工信部約談;而教室表情識(shí)別的事發(fā)生后,教育科技司表態(tài),在不必要的場(chǎng)合就不需要引入人工智能,建議不要使用,那時(shí)就基本上叫停了相關(guān)服務(wù)的發(fā)展。當(dāng)時(shí)絕大多數(shù)人臉識(shí)別企業(yè)都有做類似嘗試,有些可能已經(jīng)形成應(yīng)用,甚至規(guī)?;瘧?yīng)用。據(jù)我所知,很多企業(yè)的這條產(chǎn)品線基本也都停掉了。

 

法律講的是底線,紅線??萍及l(fā)展過(guò)程中法律的守護(hù)底線紅線作用永遠(yuǎn)不可替代。而科技倫理問(wèn)題是法律之上的科技發(fā)展與社會(huì)之間的軟性約束和契約。不觸犯法律并不代表沒有道德倫理問(wèn)題。倫理道德對(duì)科技發(fā)展的考量和反思是確保科技健康發(fā)展不可或缺的要素??萍及l(fā)展與科技倫理形成雙螺旋結(jié)構(gòu),才能穩(wěn)健地助力人類文明的繁榮。

 

企業(yè)創(chuàng)新者要做全生命周期的倫理落地,要自律自治。有些企業(yè)有專門的倫理委員會(huì)和倫理研究組,但有一些小企業(yè)或者初創(chuàng)企業(yè)沒有這個(gè)能力,學(xué)術(shù)界和政府應(yīng)該給他們提供倫理相關(guān)的服務(wù),以公共服務(wù)的方式,避免這個(gè)問(wèn)題,后面的監(jiān)管會(huì)省很大力氣。

 

我們現(xiàn)在也在和政府相關(guān)部門合作推進(jìn)人工智能治理的公共服務(wù)平臺(tái)。 [5]

 


知識(shí)分子:

人工智能是不是安全和人工智能是不是道德,有關(guān)系嗎?



曾毅:人工智能安全和人工智能倫理是兩回事,但它們不是不相關(guān)的事。安全是AI倫理的一個(gè)必要屬性。

 

技術(shù)風(fēng)險(xiǎn)會(huì)引起社會(huì)問(wèn)題。舉例來(lái)說(shuō),現(xiàn)在的深度神經(jīng)網(wǎng)絡(luò)做看似智能的信息處理,但經(jīng)常會(huì)犯人不會(huì)犯的錯(cuò)誤。去年11月,世界公眾科學(xué)素質(zhì)促進(jìn)大會(huì)在北京舉辦的時(shí)候,一個(gè)做新冠病毒感染肺炎篩查的企業(yè)說(shuō)他們的準(zhǔn)確率已經(jīng)超過(guò)了醫(yī)生,完全可以替代醫(yī)生。那時(shí)候還沒輪到我發(fā)言,但我當(dāng)時(shí)不得不打斷,我說(shuō)畢竟這是一個(gè)科學(xué)素養(yǎng)大會(huì),做的是公眾科普(傳達(dá)的信息要準(zhǔn)確)。人工智能永遠(yuǎn)不應(yīng)該代替人類決策,說(shuō)完全替代醫(yī)生,這是完全錯(cuò)誤的。因?yàn)楝F(xiàn)在的人工智能系統(tǒng)很容易造成誤診。比如一個(gè)皮膚癌篩查的系統(tǒng),一個(gè)角度照手上的小包就是99.99%的可能性,換一個(gè)角度就檢測(cè)不到。這種錯(cuò)誤醫(yī)生是不會(huì)犯的。人工智能說(shuō)是99.99%的準(zhǔn)確率,但一張圖像加一點(diǎn)噪聲,就可能被識(shí)別為其他東西。

 

有人說(shuō),識(shí)別錯(cuò)了又怎么樣呢?我舉一個(gè)例子,谷歌的3D物體識(shí)別系統(tǒng),有80%的概率將一個(gè)3D打印的烏龜識(shí)別為一把來(lái)福槍,20%的概率識(shí)別為其他東西,但沒有一次識(shí)別為烏龜。設(shè)想這樣一個(gè)場(chǎng)景,10歲的小孩拿著一個(gè)3D打印的烏龜站在馬路邊上,但監(jiān)控系統(tǒng)把它識(shí)別為10歲的小孩拿著一把來(lái)福槍站在馬路邊。如果有人刻意制造這樣的事件,對(duì)于社會(huì)的治安將是很大的挑戰(zhàn)。

 

又例如未來(lái)的自動(dòng)駕駛無(wú)人車,如果被黑客操控了,如果(被威脅方)不交錢就直接開到懸崖下,甚至用于攻擊社會(huì),這種風(fēng)險(xiǎn)都是技術(shù)本身的風(fēng)險(xiǎn)。

 

人工智能的風(fēng)險(xiǎn)要分等級(jí),應(yīng)當(dāng)對(duì)應(yīng)用緊迫、高風(fēng)險(xiǎn)的領(lǐng)域做合理的分級(jí)管理。例如自動(dòng)駕駛的風(fēng)險(xiǎn)不僅僅在全自動(dòng)駕駛的時(shí)候有,輔助駕駛時(shí),如果視覺系統(tǒng)被攻擊,檢測(cè)不到圖像,前面一片白,它就沖過(guò)去了。

 

最麻煩的事情不是技術(shù)解決不了這些問(wèn)題,而是倫理意識(shí)的缺失。本來(lái)容易解決、可以防患于未然的事情沒有人重視,在產(chǎn)品研發(fā)過(guò)程中沒有解決,這才是現(xiàn)階段我們最大的風(fēng)險(xiǎn)。所以為什么說(shuō)號(hào)召大家把倫理原則嵌入整個(gè)產(chǎn)品的生命周期,就是這個(gè)意思。


 

知識(shí)分子:

企業(yè)對(duì)于這份建議書有什么樣的反饋?



曾毅:有一些企業(yè)會(huì)說(shuō),它似乎符合其中70-80%的原則,非常自豪。我就說(shuō),其實(shí)后面的20-30%才是最關(guān)鍵的。如果其中70-80%都不符合,可想而知你做的是一個(gè)什么樣的產(chǎn)品。

 

如何去解決后20-30%的問(wèn)題,我覺得是一個(gè)共同挑戰(zhàn)。企業(yè)與學(xué)術(shù)界有距離,很可能不知道如何落地,或者有些問(wèn)題現(xiàn)在大家考慮都比較少,就需要學(xué)界和業(yè)界共同努力。比如,大家都談?dòng)脩綦[私,用戶授權(quán)后,不滿意了要撤銷,不想用這個(gè)服務(wù)了,那么你得把我的數(shù)據(jù)刪掉。在數(shù)據(jù)庫(kù)里刪掉用戶數(shù)據(jù)很容易做到,但人工智能模型中,把用戶的特征數(shù)據(jù)刪掉,對(duì)于每個(gè)模型都很難。除非你重新訓(xùn)練人工智能模型。但對(duì)很多企業(yè),重新訓(xùn)練要兩個(gè)禮拜、一個(gè)月甚至半年才做一次,很難做到真正意義上的實(shí)時(shí)用戶授權(quán)撤銷。

 

這個(gè)問(wèn)題很多人都知道,但學(xué)界和業(yè)界都沒有做太多的努力,是因?yàn)樗鼪]有直接幫助你去獲得經(jīng)濟(jì)利益,所以大家都不太積極。這是個(gè)非常糟糕的狀況。我們說(shuō)人工智能賦能可持續(xù)發(fā)展,(聯(lián)合國(guó)所有會(huì)員國(guó)通過(guò)的)17個(gè)可持續(xù)發(fā)展領(lǐng)域里,大家都在集中做教育和醫(yī)療,因?yàn)樽钯嶅X,但其他的領(lǐng)域像性別平等就少有人關(guān)注。以前沒人重視氣候行動(dòng),因?yàn)闆]有找到賺錢的方式,現(xiàn)在似乎又找到商機(jī)了。

 

真正可持續(xù)的發(fā)展,責(zé)任不光在政府,很多時(shí)候是一個(gè)生態(tài)共同體。按聯(lián)合國(guó)規(guī)劃,我們總共有不到十年時(shí)間實(shí)現(xiàn)這些可持續(xù)(發(fā)展)目標(biāo)。如果僅僅是政府在推動(dòng),這個(gè)目標(biāo)很難在十年內(nèi)實(shí)現(xiàn)。


 

知識(shí)分子:

學(xué)界在開展人工智能研發(fā)活動(dòng)時(shí),需要注意什么?



曾毅:一方面,我想糾正一個(gè)錯(cuò)誤觀念,認(rèn)為在研究階段不需要太多的限制。我覺得這是不對(duì)的。

 

例如做人臉識(shí)別算法,就算沒有提供服務(wù),收集了人臉來(lái)提升性能,是不是就不會(huì)有倫理問(wèn)題?如果在研究階段沒有倫理考量,很容易因?yàn)槔嬉T,成果或者副產(chǎn)品作用到社會(huì),產(chǎn)生負(fù)面影響。

 

另一方面,倫理的前瞻性研究,學(xué)術(shù)界一定要發(fā)揮引領(lǐng)作用。一方面是在人工智能服務(wù)中加入道德約束,使得它更符合倫理道德規(guī)范;另一方面,未來(lái)是否能開發(fā)真正能自主學(xué)習(xí)、理解人類倫理道德的人工智能,是非常重要的學(xué)術(shù)挑戰(zhàn)。

 

僅有產(chǎn)業(yè)界的努力是完全不夠的,甚至幾乎沒有產(chǎn)業(yè)在做這樣的事情。

 

可持續(xù)發(fā)展和治理是深度協(xié)同的關(guān)系,既不是競(jìng)爭(zhēng),也不是平衡,就像DNA的雙鏈結(jié)構(gòu),互為支撐,使結(jié)構(gòu)相對(duì)穩(wěn)定。實(shí)現(xiàn)發(fā)展和治理的深度協(xié)同,最終才能實(shí)現(xiàn)穩(wěn)健的發(fā)展。學(xué)術(shù)界應(yīng)當(dāng)前瞻性地作出引領(lǐng)工作。中國(guó)和阿聯(lián)酋的人工智能規(guī)范中比較強(qiáng)調(diào)可持續(xù),其他國(guó)家的可能沒有那么明顯。

 

以前人工智能研究考慮不多,但未來(lái)非常值得推進(jìn)的方面有兩個(gè)。一個(gè)是利用人工智能促進(jìn)生態(tài)的可持續(xù)發(fā)展。2019到2020年澳大利亞大火,很多物種在這場(chǎng)大火中滅絕了,但你很少看到人工智能發(fā)揮什么作用,解決問(wèn)題。(我們還是可以主動(dòng)思考人工智能如何發(fā)揮作用)例如,人工智能技術(shù)可以用于監(jiān)測(cè)和預(yù)測(cè)火勢(shì),無(wú)人車和無(wú)人機(jī)可以用于拯救火災(zāi)中的動(dòng)物,甚至可以用于提前驅(qū)逐動(dòng)物到相對(duì)安全的區(qū)域去。我國(guó)的大興安嶺也會(huì)遇到類似的挑戰(zhàn),但這方面的考慮和實(shí)踐非常少。在教科文組織的指南成文過(guò)程中,各個(gè)國(guó)家都很關(guān)注生物多樣性保護(hù),大家對(duì)人工智能推進(jìn)生態(tài)保護(hù)和可持續(xù)發(fā)展都很有共識(shí)。

 

人工智能在實(shí)現(xiàn)過(guò)程中也會(huì)帶來(lái)碳排放?,F(xiàn)在人工智能在向大模型方向發(fā)展,能耗是非常高的。而產(chǎn)業(yè)在推進(jìn)大模型研發(fā)的過(guò)程中,基本沒有考慮碳排放的問(wèn)題。人工智能本身的目的是去替代一些體力勞動(dòng),但如果替代過(guò)程中碳排放的成本還高于人力,負(fù)面作用很大,是否值得就是個(gè)問(wèn)題。我們自己做了一個(gè)研究,叫做AI Carbon Efficiency Observatory [6],人工智能碳能效的觀測(cè)站。把所有人工智能大模型的碳排放情況列出來(lái),讓大家去看一看。

 

此外,指南中提到的另一個(gè)要點(diǎn)是人工智能應(yīng)該促進(jìn)文化傳承。當(dāng)時(shí)其他的代表提出人工智能促進(jìn)文化傳承,我說(shuō),傳承是保護(hù),沒有交互,它可以更進(jìn)一步,不僅保護(hù)文化,還可以找到文化之間的聯(lián)系,通過(guò)人工智能賦能文化交互。比如你對(duì)法隆寺這個(gè)傳統(tǒng)的佛教寺廟比較熟悉,但不熟悉故宮,它們之間的關(guān)聯(lián)實(shí)際上非常多。你喜歡敦煌,而敦煌的文化其實(shí)和來(lái)自世界其他國(guó)家的文化是非常相關(guān)的。文化交互引擎(Cultural Interactions Engine) [7]就是通過(guò)人工智能技術(shù)自動(dòng)發(fā)現(xiàn)不同文化的景點(diǎn)和自然資源間存在著的關(guān)聯(lián)。

 

現(xiàn)在,很多文化的問(wèn)題是由于文化割裂引起的,而我覺得這是人工智能能夠賦能的地方。很多人運(yùn)用人工智能去制造隔閡,制造信息繭房,但人工智能真正應(yīng)該做的是建立一座橋,幫助構(gòu)筑不同文化相連的網(wǎng)絡(luò)。







圖片 參考資料:下滑動(dòng)可瀏覽)

[1]https://250.dartmouth.edu/highlights/artificial-intelligence-ai-coined-dartmouth

[2]https://www.psychspace.com/psych/viewnews-7830

[3]https://www.technologyreview.com/tag/covid-tracing-tracker/

[4]https://www.wired.com/story/why-contact-tracing-apps-not-slowed-covid-us/

[5]https://www.ai-governance.online/cn

[6]http://ai-carbon-efficiency-observatory.ai-for-sdgs.academy/

[7]http://cultural-interactions-engine.ai-for-sdgs.academy/


制版編輯 | 盧卡斯



參與討論
0 條評(píng)論
評(píng)論
暫無(wú)評(píng)論內(nèi)容