正文共:700字-5圖
預(yù)計(jì)閱讀時(shí)間:2分鐘

人工智能商業(yè)時(shí)代即將來臨。新冠大流行加速了許多公司對(duì)快速數(shù)字化和利用人工智能增強(qiáng)其業(yè)務(wù)流程的需求。但是,新技術(shù)也帶來了新的責(zé)任。這項(xiàng)針對(duì)100位C級(jí)數(shù)據(jù)和分析高管的全球調(diào)查揭示了專注于人工智能的高管們正在考慮和解決的復(fù)雜問題,以幫助他們的組織能夠以道德的方式實(shí)現(xiàn)人工智能。調(diào)查發(fā)現(xiàn)強(qiáng)調(diào)了人工智能道德問題的真實(shí)程度。專注于人工智能的高管們可能會(huì)更加關(guān)注人工智能道德方面的問題。但對(duì)于企業(yè)在使用人工智能時(shí)所應(yīng)承擔(dān)的責(zé)任方面,目前還沒有達(dá)成共識(shí)。報(bào)告還探討了企業(yè)在開發(fā)過程中如何有效地克服人工智能模型偏差。很少有企業(yè)有這樣的“設(shè)計(jì)倫理”方法,可以確保他們糾正人工智能定期測(cè)試中的偏差。報(bào)告建議那些希望確保企業(yè)負(fù)責(zé)任地使用人工智能的高管們:了解與人工智能相關(guān)的風(fēng)險(xiǎn)
開發(fā)更好的實(shí)踐以確保合規(guī)性
更加重視持續(xù)的模型監(jiān)控和維護(hù)
65%的公司無法解釋具體的 AI 模型決策或預(yù)測(cè)是如何實(shí)現(xiàn)的。只有 35% 的受訪者以透明的方式使用AI并真正負(fù)起責(zé)任。22% 的受訪者表示,他們的企業(yè)設(shè)有 AI 道德委員會(huì)。78% 的企業(yè)無法確保正確考慮使用新 AI 系統(tǒng)的道德影響。78% 的受訪者發(fā)現(xiàn)優(yōu)先考慮負(fù)責(zé)人的AI實(shí)踐很難獲得高管的支持。這表明對(duì)不負(fù)責(zé)任的AI使用所帶來的風(fēng)險(xiǎn)缺乏認(rèn)識(shí)。77% 的受訪者認(rèn)為 AutoML 技術(shù)可能會(huì)被濫用。90% 的高管同意模型監(jiān)控的低效流程是其企業(yè)采用 AI 的障礙。

如果您想下載本文的報(bào)告,可以在水木人工智能學(xué)堂(公眾號(hào):smaiedu)回復(fù)關(guān)鍵詞“ai205”獲取。來源 | 費(fèi)埃哲
版權(quán)聲明:本號(hào)內(nèi)容部分來自互聯(lián)網(wǎng),轉(zhuǎn)載請(qǐng)注明原文鏈接和作者,如有侵權(quán)或出處有誤請(qǐng)和我們聯(lián)系。