本文作者:Christina Montgomery,IBM首席隱私誠(chéng)信官;Francesca Rossi,IBM研究院AI倫理全球負(fù)責(zé)人
北京2023年5月9日 /美通社/ -- 隨著生成式 AI 系統(tǒng)進(jìn)入公共領(lǐng)域,讓世界各地的人們接觸到新的技術(shù)可能性、影響,甚至是此前尚未考慮的后果。得益于 ChatGPT和其他類似的系統(tǒng),現(xiàn)在幾乎任何人都可以使用高級(jí) AI 模型,這些模型不僅能夠具有早期版本的檢測(cè)模式、挖掘數(shù)據(jù)和提出建議等能力,還能創(chuàng)造新內(nèi)容、在對(duì)話中生成原創(chuàng)的回復(fù)等。
AI 發(fā)展的轉(zhuǎn)折點(diǎn)
當(dāng)生成式 AI 功能的設(shè)計(jì)合乎倫理、并以負(fù)責(zé)任的方式推向市場(chǎng)時(shí),它將為企業(yè)和社會(huì)帶來(lái)前所未有的機(jī)遇,包括:提供更好的客戶服務(wù),改善醫(yī)療系統(tǒng)和法律服務(wù);以及支持和增強(qiáng)人類的創(chuàng)造力,加快科學(xué)研發(fā),并調(diào)動(dòng)更有效的方法來(lái)應(yīng)對(duì)氣候挑戰(zhàn)。
關(guān)于AI 的開(kāi)發(fā)、部署和使用及其加速人類進(jìn)步的潛力,我們正處于一個(gè)關(guān)鍵節(jié)點(diǎn)。然而,這種巨大的潛力也伴隨著風(fēng)險(xiǎn),例如產(chǎn)生虛假內(nèi)容和有害文本、泄露隱私,偏見(jiàn)被放大,同時(shí),這些系統(tǒng)的運(yùn)行也缺乏透明度。因此,合理質(zhì)疑 AI 對(duì)于勞動(dòng)力、創(chuàng)造力以及人類整體福祉意味著什么,這至關(guān)重要。
行業(yè)需要新的 AI 倫理標(biāo)準(zhǔn)
最近,一些科技行業(yè)的意見(jiàn)領(lǐng)袖聯(lián)名呼吁,將大型AI 模式的訓(xùn)練暫停 6 個(gè)月,以留出時(shí)間制定新的AI倫理標(biāo)準(zhǔn)。其意圖和動(dòng)機(jī)無(wú)疑是好的,但它忽略了一個(gè)基本事實(shí):這些系統(tǒng)目前仍在我們的控制范圍內(nèi),基于它們構(gòu)建的解決方案也是如此。
負(fù)責(zé)任的訓(xùn)練,以及基于多方合作、將AI倫理貫穿始終的開(kāi)發(fā)路徑,可以使這些系統(tǒng)變得更好而不是更糟。AI技術(shù)無(wú)時(shí)不刻都在演進(jìn)和迭代。因此,不論是正在使用或是等待上線的AI系統(tǒng),其訓(xùn)練必須與構(gòu)建負(fù)責(zé)任的AI這一目標(biāo)保持一致。以負(fù)責(zé)任的AI為先不意味著要暫停AI開(kāi)發(fā)。
持續(xù)采用和完善AI 倫理標(biāo)準(zhǔn)和規(guī)范,這項(xiàng)工作事關(guān)人人。IBM 在多年前就建立了行業(yè)最早的 AI 倫理委員會(huì)之一,以及全公司范圍內(nèi)的 AI 倫理框架。通過(guò)評(píng)估當(dāng)前和未來(lái)的技術(shù)格局,包括我們的行業(yè)定位以及與利益相關(guān)方的協(xié)作,我們不斷加強(qiáng)和完善這一框架。
IBM的AI倫理委員會(huì)打造了一個(gè)負(fù)責(zé)任的集中式治理結(jié)構(gòu),它覆蓋AI的全生命周期,在制定明確政策、推動(dòng)問(wèn)責(zé)制的同時(shí),也能靈活且敏捷地支持IBM的業(yè)務(wù)需求。在傳統(tǒng)的和更先進(jìn)的 AI 系統(tǒng)開(kāi)發(fā)中,IBM一直踐行著這一重要治理結(jié)構(gòu)。我們不能只關(guān)注未來(lái)的風(fēng)險(xiǎn),而忽視眼前的治理需要,比如價(jià)值對(duì)齊(value alignment,即AI在執(zhí)行任務(wù)中實(shí)現(xiàn)的價(jià)值和用戶所希望的價(jià)值是一致的)和 AI 倫理;后者也會(huì)隨著 AI 的發(fā)展而不斷演進(jìn)。
除了協(xié)作和監(jiān)督,打造這些AI系統(tǒng)的技術(shù)路徑應(yīng)該從一開(kāi)始就考慮倫理因素。例如,我們對(duì) AI 的擔(dān)憂往往源于對(duì)"黑匣子"內(nèi)部發(fā)生的情況缺乏了解。因此,IBM 開(kāi)發(fā)了一個(gè)監(jiān)管平臺(tái),用于監(jiān)控模型的公平性和偏見(jiàn)與否,獲取數(shù)據(jù)來(lái)源,最終形成更透明、可解釋且可靠的 AI 管理流程。此外,IBM的企業(yè)級(jí)AI戰(zhàn)略將信任嵌入整個(gè)AI生命周期中,從創(chuàng)建模型、訓(xùn)練系統(tǒng)所使用的數(shù)據(jù),到這些模型在特定業(yè)務(wù)領(lǐng)域的應(yīng)用。
接下來(lái)需要做什么?
首先,我們倡導(dǎo)企業(yè)將倫理和責(zé)任置于其 AI 議程的首位。全面暫停 AI 訓(xùn)練或是降低AI 倫理的行業(yè)優(yōu)先級(jí),最終將事與愿違。
其次,政府應(yīng)避免在技術(shù)層面對(duì) AI 進(jìn)行過(guò)度監(jiān)管。否則,這將成為一場(chǎng)"打地鼠"游戲,阻礙真正有益的、面向未來(lái)的創(chuàng)新。我們呼吁世界各地的立法者采取更加高效且精準(zhǔn)的監(jiān)管模式,對(duì)高風(fēng)險(xiǎn)的 AI 用例實(shí)施嚴(yán)格監(jiān)管。
最后,在企業(yè)如何保護(hù)與 AI 系統(tǒng)交互的數(shù)據(jù)隱私方面,仍然缺乏足夠的透明度。 我們需要為用戶提供一致的、可落地的個(gè)人隱私保護(hù)。
最近社會(huì)對(duì) AI 的廣泛關(guān)注,正應(yīng)了這句話:權(quán)力越大,責(zé)任越大。與其全面暫停 AI 系統(tǒng)的開(kāi)發(fā),不如打破協(xié)作壁壘,共同打造負(fù)責(zé)任的AI。
【關(guān)于IBM】
IBM 是全球領(lǐng)先的混合云、人工智能及企業(yè)服務(wù)提供商,幫助超過(guò) 175 個(gè)國(guó)家和地區(qū)的客戶,從其擁有的數(shù)據(jù)中獲取商業(yè)洞察,簡(jiǎn)化業(yè)務(wù)流程,降低成本,并獲得行業(yè)競(jìng)爭(zhēng)優(yōu)勢(shì)。金融服務(wù)、電信和醫(yī)療健康等關(guān)鍵基礎(chǔ)設(shè)施領(lǐng)域的超過(guò) 4000家政府和企業(yè)實(shí)體依靠 IBM 混合云平臺(tái)和 Red Hat OpenShift 快速、高效、安全地實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型。IBM 在人工智能、量子計(jì)算、行業(yè)云解決方案和企業(yè)服務(wù)方面的突破性創(chuàng)新為我們的客戶提供了開(kāi)放和靈活的選擇。對(duì)企業(yè)誠(chéng)信、透明治理、社會(huì)責(zé)任、包容文化和服務(wù)精神的長(zhǎng)期承諾是 IBM 業(yè)務(wù)發(fā)展的基石。了解更多信息,請(qǐng)?jiān)L問(wèn):https://www.ibm.com/cn-zh
媒體聯(lián)絡(luò)人:
崔守峰 shou.feng.cui@ibm.com