人工智能的道德,誰(shuí)來(lái)塑造?|對(duì)話

建議書呼吁各國(guó)采取數(shù)據(jù)保護(hù)行動(dòng),提出人工智能系統(tǒng)不得用于社會(huì)評(píng)分或大規(guī)模監(jiān)控目的。
《知識(shí)分子》就該建議書的內(nèi)容對(duì)話UNESCO專家組成員曾毅,他認(rèn)為:
● 人工智能曾經(jīng)是一個(gè)科學(xué)暢想,但在當(dāng)下是一個(gè)“傘概念”,包括各種涉及算法的技術(shù);
● “相稱性”應(yīng)當(dāng)是人工智能應(yīng)用時(shí)的重要原則;
● 倫理規(guī)則不應(yīng)只在人工智能產(chǎn)品的設(shè)計(jì)階段起作用,只有在全生命周期真正做技術(shù)落地,才有可能真正實(shí)現(xiàn)治理;
● 人工智能在研究過(guò)程中不需要太多限制的說(shuō)法是誤區(qū),學(xué)界應(yīng)當(dāng)在人工智能技術(shù)發(fā)展和倫理治理中發(fā)揮引領(lǐng)作用;
● 只有人工智能的發(fā)展和治理的深度協(xié)同,才能最終實(shí)現(xiàn)人工智能的可持續(xù)穩(wěn)健發(fā)展;
● 未來(lái)人工智能特別應(yīng)當(dāng)在推進(jìn)生物多樣性與生態(tài)發(fā)展、氣候治理、文化交互等領(lǐng)域發(fā)揮賦能作用,助力全球可持續(xù)發(fā)展目標(biāo)的實(shí)現(xiàn)。
撰文 | 王一葦
責(zé)編 | 陳曉雪
● ● ●
全球化進(jìn)程中,人工智能在每個(gè)國(guó)家的發(fā)展并不相同,一些國(guó)家是技術(shù)的引領(lǐng)者,而另一些是技術(shù)的被動(dòng)接受者。此前,美國(guó)、中國(guó)等國(guó)家地區(qū)及歐盟、經(jīng)濟(jì)合作與發(fā)展組織(OECD)、G20等組織也發(fā)布過(guò)有關(guān)人工智能倫理的相關(guān)文件,但這些文件主要是回應(yīng)本地區(qū)的問(wèn)題,而缺少對(duì)全球其他地區(qū)的關(guān)注。
“歐盟在制定相關(guān)標(biāo)準(zhǔn)時(shí),不會(huì)考慮亞洲的關(guān)切…… 不同國(guó)家的文化背景使得他們對(duì)于技術(shù)陣痛的觀察視角不同。” 中國(guó)科學(xué)院自動(dòng)化研究所人工智能倫理與治理中心主任、國(guó)家新一代人工智能治理專委會(huì)委員曾毅說(shuō),“而UNESCO包含了幾乎所有的主權(quán)國(guó)家和相關(guān)地區(qū),應(yīng)當(dāng)說(shuō)是最廣泛的共識(shí)。”
他指出,沒有任何一個(gè)國(guó)家能預(yù)知到所有可能的潛在風(fēng)險(xiǎn),各個(gè)國(guó)家根據(jù)自己國(guó)家的價(jià)值觀、社會(huì)倫理和技術(shù)發(fā)展階段來(lái)考量。這就需要大家同步互補(bǔ)的觀點(diǎn),互相學(xué)習(xí)和交流。
UNESCO的建議書以尊重、保護(hù)和促進(jìn)人的尊嚴(yán)、人權(quán)和基本自由,環(huán)境和生態(tài)系統(tǒng)的蓬勃發(fā)展,確保多樣性和包容性和和諧與和平共處為價(jià)值觀,提倡公平非歧視、可持續(xù)、隱私等原則。
建議書認(rèn)為,“人工智能” 這一概念隨發(fā)展而變化,因此不給出唯一定義,只將其視為 “有能力以類似于智能行為的方式處理信息的技術(shù)系統(tǒng)”,其中,包含模型和算法是其主要特征。
曾毅在中國(guó)科學(xué)院大學(xué)和清華大學(xué)任職,既是類腦智能模型的研究者,也 “跨界” 鉆研人工智能倫理與治理。他是起草教科文組織建議書的24位全球?qū)<抑?,同時(shí)也是中國(guó)參與協(xié)商該建議書的代表。多個(gè)國(guó)家討論出一個(gè)共同的倫理標(biāo)準(zhǔn)并非易事,他坦陳 “這是一個(gè)求最大公約數(shù)的過(guò)程”。
第一版草稿形成后,聯(lián)合國(guó)自2020年開始組織區(qū)域性的對(duì)話,同時(shí)教科文組織也把第一版草稿發(fā)到各個(gè)會(huì)員國(guó),正式征求國(guó)家建議。2021年6月份左右,193個(gè)會(huì)員國(guó)派出代表,進(jìn)行政府間磋商,對(duì)文本當(dāng)中的每一個(gè)段落做逐字逐句的修改。
針對(duì)這份建議書,《知識(shí)分子》與曾毅聊了聊他參與起草的過(guò)程和對(duì)人工智能倫理現(xiàn)狀的觀察。
為了表述的簡(jiǎn)潔和清晰,訪談稿略有編輯。
知識(shí)分子:
建議書稱 “無(wú)意對(duì)人工智能作出唯一的定義”,只探討 “人工智能系統(tǒng)中具有核心倫理意義并且在國(guó)際上已形成廣泛共識(shí)的特征”,為什么?我們現(xiàn)在說(shuō)的 “人工智能” 到底指的是什么?
曾毅:每個(gè)機(jī)構(gòu)、國(guó)家,在人工智能戰(zhàn)略里對(duì)人工智能的定義都不一樣,在這上面達(dá)成一個(gè)全球共識(shí)并不必要。它本身就是一個(gè)與時(shí)俱進(jìn)的概念,是快速迭代的。人工智能的定義本身也需要適應(yīng)時(shí)代發(fā)展。
一開始,人工智能是一個(gè)科學(xué)暢想。1956年的達(dá)特茅斯會(huì)議(作者注:普遍認(rèn)為是人工智能領(lǐng)域的發(fā)起會(huì)議)上,發(fā)起人 John McCarthy 說(shuō),這個(gè)會(huì)議的目的是 “從一個(gè)猜想出發(fā),即原則上,智能每個(gè)方面的學(xué)習(xí)方式和特征都能被精確描述,使得機(jī)器能夠模擬它們”。[1] 即在計(jì)算機(jī)系統(tǒng)上重現(xiàn)人類的心智。這種重現(xiàn)不僅僅是行為上的,更是機(jī)制上的。
人工智能最開始的目標(biāo)是推進(jìn)科學(xué)進(jìn)展,使人們生活得更好,從很多領(lǐng)域內(nèi),尤其是體力勞動(dòng)中,把人解脫出來(lái)。現(xiàn)在人工智能的應(yīng)用在替代勞力的方面確實(shí)比較相關(guān)。
但幾十年后,人工智能變成了一個(gè) umbrella term(傘概念,指概括性的術(shù)語(yǔ)),特別是面向產(chǎn)業(yè)的時(shí)候,不管是自然語(yǔ)言處理、數(shù)據(jù)挖掘、機(jī)器視覺等,都叫人工智能。
盡管我非常不喜歡,但現(xiàn)在大家把這些東西叫做人工智能,它的服務(wù)出現(xiàn)在我們生活中。而創(chuàng)造程序的人幾乎沒有經(jīng)過(guò)任何倫理學(xué)培訓(xùn)。
2016、2017年的時(shí)候,特別在中國(guó),學(xué)界和業(yè)界對(duì)人工智能倫理的關(guān)注非常少,甚至有反對(duì)聲音認(rèn)為人工智能倫理會(huì)阻礙發(fā)展,很多人問(wèn)我。我說(shuō),人工智能治理的目的就是保證人工智能穩(wěn)健、健康的發(fā)展。它阻礙的是野蠻生長(zhǎng)。
2018年開始,我在中國(guó)科學(xué)院大學(xué)開設(shè)了一門人工智能哲學(xué)與倫理的課。當(dāng)時(shí)開課很困難,大家說(shuō)你又不是倫理學(xué)者,憑什么講這樣的課?諾貝爾獎(jiǎng)和圖靈獎(jiǎng)獲得者、卡耐基梅隆大學(xué)的司馬賀(Herbert Simon)寫文章 [2] 討論過(guò)一個(gè)觀點(diǎn),好的交叉學(xué)科研究,一定是領(lǐng)域A的專家變成半個(gè)領(lǐng)域B的專家。人工智能倫理也是這樣的。
80%來(lái)上我的課的學(xué)生都是工學(xué)相關(guān)專業(yè),20%來(lái)自人文學(xué)院。對(duì)于技術(shù)研究者,人工智能創(chuàng)新幾乎每走一步,都可能涉及社會(huì)關(guān)懷、社會(huì)倫理,他們需要知道注意哪些社會(huì)倫理問(wèn)題,需要了解未來(lái)二三十年人工智能作為一個(gè)道德主體可能對(duì)社會(huì)造成的挑戰(zhàn);而從事科學(xué)技術(shù)哲學(xué)研究的學(xué)生,未來(lái)將會(huì)是中國(guó)人工智能社會(huì)相關(guān)領(lǐng)域重要的意見領(lǐng)袖,他們需要知道人工智能真正的進(jìn)展。
知識(shí)分子:
怎么看待建議書中 “人工智能不能用于大規(guī)模監(jiān)控和社會(huì)信用評(píng)分” 的表述?
曾毅:人工智能不能用于大規(guī)模社會(huì)監(jiān)控和社會(huì)信用評(píng)分,是政府間磋商時(shí)德國(guó)的學(xué)者提出、列進(jìn)去的。
說(shuō)到這個(gè),就要提及我們討論的一個(gè)概念叫proportionality(相稱原則),意思是,不是什么時(shí)候人工智能都好,不需要的時(shí)候就不要用?,F(xiàn)在很多技術(shù)創(chuàng)新者會(huì)提出 making AI everywhere(讓人工智能無(wú)處不在),我看到的時(shí)候就覺得,有必要嗎?
以城市治理為例。舒可文先生的著作《城里:關(guān)于城市夢(mèng)想的敘述》指出,城市的規(guī)劃,一半是野蠻生長(zhǎng),一半是規(guī)劃,這才叫做城市。因?yàn)槌鞘兄谐思夹g(shù)還有人際關(guān)系,它的形成方式是多樣的。人工智能也不是什么地方都要去介入,應(yīng)當(dāng)適度使用。
不過(guò)我有一點(diǎn)保留意見,即使在歐盟的人工智能法中,大規(guī)模社會(huì)監(jiān)控這件事也是有例外的。比如抓逃犯、尋找丟失的小孩、威脅國(guó)家和社會(huì)安全的特殊情況,是可以去應(yīng)用相關(guān)的技術(shù)的。中國(guó)也在這些領(lǐng)域應(yīng)用了這些技術(shù),如尋親打拐,效果也很好。但在教科文組織的規(guī)范中,并沒有明確給出例外情況,我覺得不是特別合適。
社會(huì)評(píng)分當(dāng)中是否要使用人工智能,我覺得確實(shí)需要慎重思考。
社會(huì)信用系統(tǒng)現(xiàn)在是一個(gè)精確匹配的自動(dòng)控制系統(tǒng),不是人工智能,沒有學(xué)習(xí)能力。很多規(guī)則都是清晰的、人類定義的規(guī)則,比如違反交規(guī)的扣分和罰款你不交,但有錢去買機(jī)票,這個(gè)就說(shuō)不過(guò)去。但如果基于大規(guī)模的數(shù)據(jù)去學(xué),學(xué)到規(guī)則后應(yīng)用到社會(huì)信用評(píng)分中,我作為普通公民也會(huì)比較擔(dān)憂,因?yàn)閷W(xué)到的這個(gè)規(guī)則里,很可能有人類的偏見,如果沒有人類來(lái)辨別,直接應(yīng)用很可能有潛在風(fēng)險(xiǎn)。
例如,推薦工作的人工智能系統(tǒng),給40多歲的男性推薦高管職位,給28歲的女性推薦服務(wù)員職位,這就是系統(tǒng)學(xué)到了社會(huì)的偏見。誰(shuí)說(shuō)28歲的女性不能當(dāng)高管呢?人工智能現(xiàn)在沒有真正理解的能力,它甚至不知道什么是男女,不知道什么是不公平,也不知道什么是身體和心理的傷害,那么怎么可能對(duì)這種偏見去做處理?

曾毅在看一本講全球公平的圖書,他說(shuō),“未來(lái)使機(jī)器人真正理解公平”是AI倫理的核心 | 圖片由曾毅提供
有些人說(shuō),技術(shù)是中立的,我不同意這個(gè)說(shuō)法。我覺得說(shuō)技術(shù)中立是一個(gè)借口。技術(shù)學(xué)到了偏見,但沒有去處理,它還是中立的嗎?推薦算法沒有加入干預(yù)的過(guò)程,而推說(shuō)這些都是社會(huì)的問(wèn)題,這都是在找借口,社會(huì)的問(wèn)題不代表你沒有解決的辦法。
正是因?yàn)橛羞@樣潛在的問(wèn)題,在沒有人為篩選和有意監(jiān)督的情況下,把人工智能應(yīng)用到社會(huì)評(píng)分領(lǐng)域,可能會(huì)造成巨大的負(fù)面效應(yīng)。目前我還沒有看到這樣的例子,希望在哪里都不要發(fā)生。
知識(shí)分子:
由于新冠疫情,各個(gè)國(guó)家都開展了不同規(guī)模的社會(huì)監(jiān)控和信用評(píng)分,這和上述原則不是背道而馳嗎?
曾毅:2020年3月份,MIT Technology Review 做了一個(gè)工作,分析了各個(gè)國(guó)家 contact tracing(密接追蹤)的軟件 [3],評(píng)價(jià)上,如果強(qiáng)制收集信息就很糟糕,不強(qiáng)制就好一點(diǎn);國(guó)家運(yùn)營(yíng)的話也很糟糕,私營(yíng)的就好一點(diǎn)??梢钥吹剑袊?guó)的評(píng)分很糟糕。我認(rèn)為它的評(píng)分很不客觀,它只考慮了倫理方面。
選擇性地向用戶要求信息,實(shí)際上降低了這個(gè)系統(tǒng)的有效性。如果系統(tǒng)使用過(guò)程中采取并非強(qiáng)制而是完全自愿的原則,有可能導(dǎo)致密切接觸網(wǎng)絡(luò)的關(guān)鍵數(shù)據(jù)缺失,使得系統(tǒng)的數(shù)據(jù)分析無(wú)效,或者效果很差,那么我們?yōu)槭裁匆盟??去用一個(gè)倫理設(shè)計(jì)上更道德、但應(yīng)用層面效果很差的系統(tǒng),還不如不用。Wired雜志后來(lái)有個(gè)報(bào)道 [4],說(shuō)西方國(guó)家的 contact tracing 似乎沒有亞洲國(guó)家那么有效。有效性到很后期的時(shí)候才被西方國(guó)家提上日程討論。
在這個(gè)過(guò)程中,我們要學(xué)到的是如何平衡。這種平衡不是妥協(xié)。接受為了疫情而采集溫度和人臉信息的數(shù)據(jù),不意味著讓渡隱私。2020年底,在健康碼上輸入身份證就可以獲取到明星的素顏照,這就是開發(fā)健康碼系統(tǒng)的機(jī)構(gòu)沒有很好地保護(hù)個(gè)人數(shù)據(jù)。(作者注:2020年12月29日,對(duì)于北京健康寶“代查他人健康狀態(tài)功能,有時(shí)不需要進(jìn)行人臉識(shí)別”的情況,開發(fā)北京健康寶的單位北京市經(jīng)濟(jì)和信息化局大數(shù)據(jù)建設(shè)處(智慧城市建設(shè)處)回復(fù)稱:“此問(wèn)題已解決?!?事件中未見問(wèn)責(zé)。)
如果相關(guān)的機(jī)構(gòu)不能有效保護(hù)這些數(shù)據(jù),是應(yīng)當(dāng)負(fù)責(zé)任的。2021年11月1日起施行的《中華人民共和國(guó)個(gè)人信息保護(hù)法》,規(guī)定個(gè)人信息處理者應(yīng)制定內(nèi)部管理制度和操作規(guī)程,加密,安全培訓(xùn),制定安全事件預(yù)案等方式確保其收集的個(gè)人信息的安全,而如果違規(guī)違法,則將面臨從警告、罰款、停業(yè)到刑事處罰的懲罰。此外,2019年起施行的《兒童個(gè)人信息網(wǎng)絡(luò)保護(hù)規(guī)定》專門針對(duì)不滿14歲的未成年人信息保護(hù)作出規(guī)定,違反者由網(wǎng)信部門和其他有關(guān)部門依據(jù)職責(zé),根據(jù)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等相關(guān)法律法規(guī)規(guī)定處理;構(gòu)成犯罪的,依法追究刑事責(zé)任。此外,國(guó)家互聯(lián)網(wǎng)信息辦公室近期剛結(jié)束征求意見的《移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序信息服務(wù)管理規(guī)定》修訂版規(guī)定,應(yīng)用程序的發(fā)行者和發(fā)布平臺(tái)應(yīng)接受社會(huì)監(jiān)督、設(shè)立舉報(bào)機(jī)制,對(duì)于存在數(shù)據(jù)安全風(fēng)險(xiǎn)隱患、違法違規(guī)收集使用個(gè)人信息行為的,或者損害個(gè)人、組織合法權(quán)益的應(yīng)用程序,應(yīng)當(dāng)停止提供服務(wù)。
即使這樣的系統(tǒng)是必要的,這不代表用戶以任何形式讓渡了隱私。它其實(shí)提出了更嚴(yán)格的要求,在滿足隱私保護(hù)約束的前提下,才可以采集信息。
政府對(duì)于技術(shù)發(fā)展的管理和治理有一個(gè)學(xué)習(xí)的過(guò)程,而基礎(chǔ)設(shè)施研發(fā)團(tuán)隊(duì)如果倫理意識(shí)淡薄、安全意識(shí)缺位,就會(huì)使得購(gòu)買了服務(wù)的政府要為可能出現(xiàn)的紕漏背書。政府一定開展了質(zhì)量評(píng)估,但是由于AI倫理專家的缺位或者設(shè)計(jì)的缺陷,并不是所有的倫理問(wèn)題能夠在評(píng)估階段發(fā)現(xiàn)。政府應(yīng)該為此負(fù)責(zé),但是由于部分信息不透明,有時(shí)候我們可能無(wú)法了解后續(xù)處理情況。在這種情況下,在社會(huì)輿論監(jiān)督的影響和政府的督促下及時(shí)調(diào)整系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn),是底線。
知識(shí)分子:
紙面上的倫理規(guī)則,如何落到現(xiàn)實(shí)中?
曾毅:倫理原則即使在設(shè)計(jì)階段發(fā)揮了一些作用,但在算法實(shí)現(xiàn)、產(chǎn)品服務(wù)和產(chǎn)品部署的過(guò)程中如果不注意,都可能帶來(lái)各種各樣的問(wèn)題。只有在人工智能產(chǎn)品的全生命周期(包括它的上下游客戶)真正做技術(shù)落地,才有可能真正實(shí)現(xiàn)治理。
舉個(gè)例子,2019年杭州野生動(dòng)物世界的案子(作者注:杭州市民郭兵于2019年購(gòu)買杭州野生動(dòng)物世界雙人年卡,并確定指紋識(shí)別入園方式,但野生動(dòng)物世界此后強(qiáng)制要求激活人臉識(shí)別,否則無(wú)法入園,郭兵因此提起訴訟,該案以郭兵勝訴告終,被稱為 “全國(guó)人臉識(shí)別第一案”),其實(shí)就包括使用和部署環(huán)節(jié)的問(wèn)題,知情同意沒有做好。此外,采集的數(shù)據(jù)到底是保存在動(dòng)物園還是相關(guān)企業(yè),企業(yè)的保密和數(shù)據(jù)加密資質(zhì)是什么樣的?這一切都不清晰。
而在倫理原則還未落地、還不是法律的時(shí)候,如何實(shí)施?換臉軟件ZAO和教室表情識(shí)別看學(xué)生是否認(rèn)真聽講,是兩個(gè)具體的例子。ZAO在上線后三四天下線,被工信部約談;而教室表情識(shí)別的事發(fā)生后,教育科技司表態(tài),在不必要的場(chǎng)合就不需要引入人工智能,建議不要使用,那時(shí)就基本上叫停了相關(guān)服務(wù)的發(fā)展。當(dāng)時(shí)絕大多數(shù)人臉識(shí)別企業(yè)都有做類似嘗試,有些可能已經(jīng)形成應(yīng)用,甚至規(guī)?;瘧?yīng)用。據(jù)我所知,很多企業(yè)的這條產(chǎn)品線基本也都停掉了。
法律講的是底線,紅線??萍及l(fā)展過(guò)程中法律的守護(hù)底線紅線作用永遠(yuǎn)不可替代。而科技倫理問(wèn)題是法律之上的科技發(fā)展與社會(huì)之間的軟性約束和契約。不觸犯法律并不代表沒有道德倫理問(wèn)題。倫理道德對(duì)科技發(fā)展的考量和反思是確保科技健康發(fā)展不可或缺的要素??萍及l(fā)展與科技倫理形成雙螺旋結(jié)構(gòu),科技才能穩(wěn)健地助力人類文明的繁榮。
企業(yè)創(chuàng)新者要做全生命周期的倫理落地,要自律自治。有些企業(yè)有專門的倫理委員會(huì)和倫理研究組,但有一些小企業(yè)或者初創(chuàng)企業(yè)沒有這個(gè)能力,學(xué)術(shù)界和政府應(yīng)該給他們提供倫理相關(guān)的服務(wù),以公共服務(wù)的方式,避免這個(gè)問(wèn)題,后面的監(jiān)管會(huì)省很大力氣。
我們現(xiàn)在也在和政府相關(guān)部門合作推進(jìn)人工智能治理的公共服務(wù)平臺(tái)。 [5]
知識(shí)分子:
人工智能是不是安全和人工智能是不是道德,有關(guān)系嗎?
曾毅:人工智能安全和人工智能倫理是兩回事,但它們不是不相關(guān)的事。安全是AI倫理的一個(gè)必要屬性。
技術(shù)風(fēng)險(xiǎn)會(huì)引起社會(huì)問(wèn)題。舉例來(lái)說(shuō),現(xiàn)在的深度神經(jīng)網(wǎng)絡(luò)做看似智能的信息處理,但經(jīng)常會(huì)犯人不會(huì)犯的錯(cuò)誤。去年11月,世界公眾科學(xué)素質(zhì)促進(jìn)大會(huì)在北京舉辦的時(shí)候,一個(gè)做新冠病毒感染肺炎篩查的企業(yè)說(shuō)他們的準(zhǔn)確率已經(jīng)超過(guò)了醫(yī)生,完全可以替代醫(yī)生。那時(shí)候還沒輪到我發(fā)言,但我當(dāng)時(shí)不得不打斷,我說(shuō)畢竟這是一個(gè)科學(xué)素養(yǎng)大會(huì),做的是公眾科普(傳達(dá)的信息要準(zhǔn)確)。人工智能永遠(yuǎn)不應(yīng)該代替人類決策,說(shuō)完全替代醫(yī)生,這是完全錯(cuò)誤的。因?yàn)楝F(xiàn)在的人工智能系統(tǒng)很容易造成誤診。比如一個(gè)皮膚癌篩查的系統(tǒng),一個(gè)角度照手上的小包就是99.99%的可能性,換一個(gè)角度就檢測(cè)不到。這種錯(cuò)誤醫(yī)生是不會(huì)犯的。人工智能說(shuō)是99.99%的準(zhǔn)確率,但一張圖像加一點(diǎn)噪聲,就可能被識(shí)別為其他東西。
有人說(shuō),識(shí)別錯(cuò)了又怎么樣呢?我舉一個(gè)例子,谷歌的3D物體識(shí)別系統(tǒng),有80%的概率將一個(gè)3D打印的烏龜識(shí)別為一把來(lái)福槍,20%的概率識(shí)別為其他東西,但沒有一次識(shí)別為烏龜。設(shè)想這樣一個(gè)場(chǎng)景,10歲的小孩拿著一個(gè)3D打印的烏龜站在馬路邊上,但監(jiān)控系統(tǒng)把它識(shí)別為10歲的小孩拿著一把來(lái)福槍站在馬路邊。如果有人刻意制造這樣的事件,對(duì)于社會(huì)的治安將是很大的挑戰(zhàn)。
又例如未來(lái)的自動(dòng)駕駛無(wú)人車,如果被黑客操控了,如果(被威脅方)不交錢就直接開到懸崖下,甚至用于攻擊社會(huì),這種風(fēng)險(xiǎn)都是技術(shù)本身的風(fēng)險(xiǎn)。
人工智能的風(fēng)險(xiǎn)要分等級(jí),應(yīng)當(dāng)對(duì)應(yīng)用緊迫、高風(fēng)險(xiǎn)的領(lǐng)域做合理的分級(jí)管理。例如自動(dòng)駕駛的風(fēng)險(xiǎn)不僅僅在全自動(dòng)駕駛的時(shí)候有,輔助駕駛時(shí),如果視覺系統(tǒng)被攻擊,檢測(cè)不到圖像,前面一片白,它就沖過(guò)去了。
最麻煩的事情不是技術(shù)解決不了這些問(wèn)題,而是倫理意識(shí)的缺失。本來(lái)容易解決、可以防患于未然的事情沒有人重視,在產(chǎn)品研發(fā)過(guò)程中沒有解決,這才是現(xiàn)階段我們最大的風(fēng)險(xiǎn)。所以為什么說(shuō)號(hào)召大家把倫理原則嵌入整個(gè)產(chǎn)品的生命周期,就是這個(gè)意思。
知識(shí)分子:
企業(yè)對(duì)于這份建議書有什么樣的反饋?
曾毅:有一些企業(yè)會(huì)說(shuō),它似乎符合其中70-80%的原則,非常自豪。我就說(shuō),其實(shí)后面的20-30%才是最關(guān)鍵的。如果其中70-80%都不符合,可想而知你做的是一個(gè)什么樣的產(chǎn)品。
如何去解決后20-30%的問(wèn)題,我覺得是一個(gè)共同挑戰(zhàn)。企業(yè)與學(xué)術(shù)界有距離,很可能不知道如何落地,或者有些問(wèn)題現(xiàn)在大家考慮都比較少,就需要學(xué)界和業(yè)界共同努力。比如,大家都談?dòng)脩綦[私,用戶授權(quán)后,不滿意了要撤銷,不想用這個(gè)服務(wù)了,那么你得把我的數(shù)據(jù)刪掉。在數(shù)據(jù)庫(kù)里刪掉用戶數(shù)據(jù)很容易做到,但人工智能模型中,把用戶的特征數(shù)據(jù)刪掉,對(duì)于每個(gè)模型都很難。除非你重新訓(xùn)練人工智能模型。但對(duì)很多企業(yè),重新訓(xùn)練要兩個(gè)禮拜、一個(gè)月甚至半年才做一次,很難做到真正意義上的實(shí)時(shí)用戶授權(quán)撤銷。
這個(gè)問(wèn)題很多人都知道,但學(xué)界和業(yè)界都沒有做太多的努力,是因?yàn)樗鼪]有直接幫助你去獲得經(jīng)濟(jì)利益,所以大家都不太積極。這是個(gè)非常糟糕的狀況。我們說(shuō)人工智能賦能可持續(xù)發(fā)展,(聯(lián)合國(guó)所有會(huì)員國(guó)通過(guò)的)17個(gè)可持續(xù)發(fā)展領(lǐng)域里,大家都在集中做教育和醫(yī)療,因?yàn)樽钯嶅X,但其他的領(lǐng)域像性別平等就少有人關(guān)注。以前沒人重視氣候行動(dòng),因?yàn)闆]有找到賺錢的方式,現(xiàn)在似乎又找到商機(jī)了。
真正可持續(xù)的發(fā)展,責(zé)任不光在政府,很多時(shí)候是一個(gè)生態(tài)共同體。按聯(lián)合國(guó)規(guī)劃,我們總共有不到十年時(shí)間實(shí)現(xiàn)這些可持續(xù)(發(fā)展)目標(biāo)。如果僅僅是政府在推動(dòng),這個(gè)目標(biāo)很難在十年內(nèi)實(shí)現(xiàn)。
知識(shí)分子:
學(xué)界在開展人工智能研發(fā)活動(dòng)時(shí),需要注意什么?
曾毅:一方面,我想糾正一個(gè)錯(cuò)誤觀念,認(rèn)為在研究階段不需要太多的限制。我覺得這是不對(duì)的。
例如做人臉識(shí)別算法,就算沒有提供服務(wù),收集了人臉來(lái)提升性能,是不是就不會(huì)有倫理問(wèn)題?如果在研究階段沒有倫理考量,很容易因?yàn)槔嬉T,成果或者副產(chǎn)品作用到社會(huì),產(chǎn)生負(fù)面影響。
另一方面,倫理的前瞻性研究,學(xué)術(shù)界一定要發(fā)揮引領(lǐng)作用。一方面是在人工智能服務(wù)中加入道德約束,使得它更符合倫理道德規(guī)范;另一方面,未來(lái)是否能開發(fā)真正能自主學(xué)習(xí)、理解人類倫理道德的人工智能,是非常重要的學(xué)術(shù)挑戰(zhàn)。
僅有產(chǎn)業(yè)界的努力是完全不夠的,甚至幾乎沒有產(chǎn)業(yè)在做這樣的事情。
可持續(xù)發(fā)展和治理是深度協(xié)同的關(guān)系,既不是競(jìng)爭(zhēng),也不是平衡,就像DNA的雙鏈結(jié)構(gòu),互為支撐,使結(jié)構(gòu)相對(duì)穩(wěn)定。實(shí)現(xiàn)發(fā)展和治理的深度協(xié)同,最終才能實(shí)現(xiàn)穩(wěn)健的發(fā)展。學(xué)術(shù)界應(yīng)當(dāng)前瞻性地作出引領(lǐng)工作。中國(guó)和阿聯(lián)酋的人工智能規(guī)范中比較強(qiáng)調(diào)可持續(xù),其他國(guó)家的可能沒有那么明顯。
以前人工智能研究考慮不多,但未來(lái)非常值得推進(jìn)的方面有兩個(gè)。一個(gè)是利用人工智能促進(jìn)生態(tài)的可持續(xù)發(fā)展。2019到2020年澳大利亞大火,很多物種在這場(chǎng)大火中滅絕了,但你很少看到人工智能發(fā)揮什么作用,解決問(wèn)題。(我們還是可以主動(dòng)思考人工智能如何發(fā)揮作用)例如,人工智能技術(shù)可以用于監(jiān)測(cè)和預(yù)測(cè)火勢(shì),無(wú)人車和無(wú)人機(jī)可以用于拯救火災(zāi)中的動(dòng)物,甚至可以用于提前驅(qū)逐動(dòng)物到相對(duì)安全的區(qū)域去。我國(guó)的大興安嶺也會(huì)遇到類似的挑戰(zhàn),但這方面的考慮和實(shí)踐非常少。在教科文組織的指南成文過(guò)程中,各個(gè)國(guó)家都很關(guān)注生物多樣性保護(hù),大家對(duì)人工智能推進(jìn)生態(tài)保護(hù)和可持續(xù)發(fā)展都很有共識(shí)。
人工智能在實(shí)現(xiàn)過(guò)程中也會(huì)帶來(lái)碳排放?,F(xiàn)在人工智能在向大模型方向發(fā)展,能耗是非常高的。而產(chǎn)業(yè)在推進(jìn)大模型研發(fā)的過(guò)程中,基本沒有考慮碳排放的問(wèn)題。人工智能本身的目的是去替代一些體力勞動(dòng),但如果替代過(guò)程中碳排放的成本還高于人力,負(fù)面作用很大,是否值得就是個(gè)問(wèn)題。我們自己做了一個(gè)研究,叫做AI Carbon Efficiency Observatory [6],人工智能碳能效的觀測(cè)站。把所有人工智能大模型的碳排放情況列出來(lái),讓大家去看一看。
此外,指南中提到的另一個(gè)要點(diǎn)是人工智能應(yīng)該促進(jìn)文化傳承。當(dāng)時(shí)其他的代表提出人工智能促進(jìn)文化傳承,我說(shuō),傳承是保護(hù),沒有交互,它可以更進(jìn)一步,不僅保護(hù)文化,還可以找到文化之間的聯(lián)系,通過(guò)人工智能賦能文化交互。比如你對(duì)法隆寺這個(gè)傳統(tǒng)的佛教寺廟比較熟悉,但不熟悉故宮,它們之間的關(guān)聯(lián)實(shí)際上非常多。你喜歡敦煌,而敦煌的文化其實(shí)和來(lái)自世界其他國(guó)家的文化是非常相關(guān)的。文化交互引擎(Cultural Interactions Engine) [7]就是通過(guò)人工智能技術(shù)自動(dòng)發(fā)現(xiàn)不同文化的景點(diǎn)和自然資源間存在著的關(guān)聯(lián)。
現(xiàn)在,很多文化的問(wèn)題是由于文化割裂引起的,而我覺得這是人工智能能夠賦能的地方。很多人運(yùn)用人工智能去制造隔閡,制造信息繭房,但人工智能真正應(yīng)該做的是建立一座橋,幫助構(gòu)筑不同文化相連的網(wǎng)絡(luò)。
制版編輯 | 盧卡斯