“計算機永遠不能承擔責任,因此計算機永遠不能做出管理決策。”
– IBM 培訓手冊,1979 年
人工智能 (AI) 的采用正在不斷增加。根據IBM 2023 年全球 AI 采用指數,42% 的企業已積極部署 AI,40% 的企業正在試驗該技術。在使用或探索 AI 的企業中,59% 的企業在過去兩年中加快了投資和推廣速度。結果是利用智能工具得出(據稱)準確答案的 AI 決策能力有所提升。
然而,快速采用也引發了一個問題:如果人工智能做出錯誤選擇,誰該負責?錯在 IT 團隊?高管?人工智能模型構建者?還是設備制造商?
在本文中,我們將探索不斷發展的人工智能世界,并根據當前用例重新審視上述引言:公司是否仍然需要人類參與,還是可以由人工智能來做出決定?
正確做法:人工智能在哪些方面改善了業務成果
DEGI 首席顧問兼 ISACA 工作趨勢小組成員 Guy Pearce 從事人工智能研究已有 30 多年。“起初,人工智能是象征性的,”他說,“現在它是統計性的。人工智能是算法和模型,可以處理數據并隨著時間的推移提高業務績效。”
IBM 最新發布的《AI 在行動》報告中的數據顯示了這一轉變的影響。三分之二的領導者表示,AI 推動了收入增長率超過 25%,72% 的領導者表示,高管層與 IT 領導層在 AI 成熟道路上的下一步行動上意見完全一致。
隨著人們對人工智能的信心不斷增長,企業正在實施智能工具來改善業務成果。例如,財富管理公司Consult Venture Partners 部署了 AIda AI,這是一款對話式數字人工智能禮賓服務,它使用 IBM Watsonx 助手技術來回答潛在客戶的問題,而無需人工代理。
結果不言而喻:Alda AI 正確回答了 92% 的查詢,47% 的查詢促成了網絡研討會注冊,39% 的查詢轉化為潛在客戶。
偏離目標:如果人工智能犯了錯誤會發生什么?
92% 對于 Alda AI 來說是一個令人印象深刻的成就。但要注意的是,它仍然有 8% 的時間是錯誤的。那么,當 AI 犯錯時會發生什么呢?
對于皮爾斯來說,這取決于賭注。
他以一家金融公司利用人工智能評估信用評分并發放貸款為例。這些決策的結果風險相對較低。在最好的情況下,人工智能會批準按時全額償還的貸款。在最壞的情況下,借款人違約,公司需要采取法律行動。雖然不方便,但負面結果遠遠超過了潛在的積極影響。
“說到高風險,”皮爾斯說,“看看醫療行業。假設我們使用人工智能來解決等待時間的問題。我們是否有足夠的數據來確保患者按照正確的順序就診?如果我們做錯了怎么辦?結果可能是死亡。”
因此,人工智能如何用于決策,很大程度上取決于它所做出的決策是什么,以及這些決策如何影響做出決策的公司和受決策影響的人。
在某些情況下,即使是最壞的情況也只會帶來一點不便。但在另一些情況下,其結果可能會造成重大損害。
承擔責任:如果人工智能犯了錯誤,誰該負責?
2024 年 4 月,一輛處于“全自動駕駛”模式的特斯拉汽車撞死了一名摩托車手。盡管需要駕駛員主動監督,但該車司機承認在事故發生前一直在看手機。
那么誰該承擔責任?司機顯然是最佳人選,他因交通殺人罪被捕。
但這并不是追究責任的唯一途徑。特斯拉也應該承擔一定責任,因為該公司的人工智能算法未能發現受害者。責任也可以歸咎于國家公路交通安全管理局 (NHTSA) 等管理機構。也許他們的測試不夠嚴格或完整。
甚至有人認為,特斯拉人工智能的創造者應該為發布可能致命的代碼承擔責任。
這就是人工智能決策的悖論:是某個人犯了錯,還是所有人都犯了錯?“如果你把所有應該承擔責任的利益相關者聚集在一起,那么責任在哪里?”皮爾斯問道。“是高管層?還是整個團隊?如果責任遍布整個組織,那么每個人都不會坐牢。最終,共同承擔責任往往會導致沒有責任。”
劃清界限:人工智能的終點在哪里?
那么,組織應該在哪里劃定界限呢?人工智能洞察力何時讓位于人類決策?
有三個考慮因素至關重要:道德、風險和信任。
“當涉及到道德困境時,”皮爾斯說,“人工智能無法解決。”這是因為智能工具自然會尋求最有效的途徑,而不是最道德的途徑。因此,任何涉及道德問題或擔憂的決定都應包括人類的監督。
與此同時,風險是人工智能的專長。“人工智能擅長風險,”皮爾斯說。“統計模型會給你一個標準誤差,讓你知道人工智能的建議是具有高還是低的潛在變異性。”這使得人工智能非常適合基于風險的決策,比如金融或保險領域的決策。
最后,企業需要優先考慮信任。“人們對機構的信任度正在下降,”皮爾斯說。“許多公民不相信他們分享的數據被以值得信賴的方式使用。”
例如,根據《GDPR》,公司需要對數據收集和處理保持透明,并讓公民有機會選擇退出。為了增強人們對使用人工智能的信任,組織應該清楚地說明他們使用人工智能的方式和原因,并(在可能的情況下)允許客戶和客戶選擇退出人工智能驅動的流程。
決策,決策
人工智能應該用于管理決策嗎?也許吧。它會被用來做出一些決策嗎?幾乎可以肯定。人工智能的吸引力——它能夠捕獲、關聯和分析多個數據集并提供新的見解——使其成為企業簡化運營和降低成本的有力工具。
不太清楚的是,向管理層決策的轉變將如何影響問責制。皮爾斯表示,目前的情況造成了這一領域的“界限模糊”;立法還沒有跟上人工智能使用率的提高。
為了確保符合道德原則、降低錯誤選擇的風險并贏得利益相關者和客戶的信任,企業最好讓人類參與其中。也許這意味著在人工智能采取行動之前需要得到員工的直接批準。也許這意味著偶爾要審查和評估人工智能的決策結果。
但無論企業選擇哪種方法,核心信息始終不變:在人工智能驅動的決策方面,沒有固定的界限。這是一個不斷變化的目標,由可能的風險、潛在的回報和可能的結果決定。