人工智能應用上的九大障礙
領(lǐng)導目標的錯位
不幸的是,高管的價值往往取決于其預算規(guī)模和下屬人數(shù)。德勤公司的Katyal表示,首席信息官工作是否成功不需要按其下屬人數(shù)或預算來衡量,而需要通過其業(yè)務優(yōu)勢來衡量。
首席信息官是否幫助公司降低成本或提高收入·首席信息官是否幫助公司提高了自身所持有數(shù)據(jù)的價值?他說,這些工作很難衡量,但這種轉(zhuǎn)變正在開始。 “首席信息官的獎勵機制正在發(fā)生變化,盡管速度還不夠快!
Vic Bhagat親眼目睹了這一變化。他曾在通用電氣(GE)多家機構(gòu)擔任了20年的首席信息官,之后在易安信公司(EMC)擔任首席信息官,在該公司時其下屬有26,000人。他的下一個首席信息官工作是在威瑞森公司(Verizon),在這里他管理3500人。
他說,當他在更換工作時,人們一直在問他一些錯誤的問題。
“當獵頭公司給我們打電話時,第一個問題是你的團隊有多少人,你的預算是多少,你管理的應用程序有多少?”他說!斑@些都是錯誤的衡量指標。這些指標會將錯誤的行為推向錯誤的結(jié)果!
他說,使用人工智能來將業(yè)務流程自動化,降低成本,簡化IT運營工作,這些都是對公司有利的結(jié)果。
他說,如果做得好,這實際上可以保護就業(yè)。“如果我可以將日,嵥楣ぷ髯詣踊蛿(shù)字化——人工智能可以做這些工作——我可以讓那些被這一工作解放出來的人員去處理客戶流程工作,將那些工作數(shù)字化,然后創(chuàng)造出優(yōu)異的客戶體驗!
現(xiàn)在,這些人是創(chuàng)收周期的一部分,而不是業(yè)務支出。這可以在預算談判過程中產(chǎn)生重大影響。
“如果我可以將這些人員部署在對業(yè)務至關(guān)重要的工作上,那么業(yè)務人員就會站起來說,你最好不要碰這些人,因為這對我們現(xiàn)在正在做的事情至關(guān)重要,”他說。
衡量并證明商業(yè)價值
要證明人工智能計劃的商業(yè)價值可能具有挑戰(zhàn)性,在德勤公司的調(diào)查中,30%的受訪者認為這個商業(yè)價值問題是人工智能應用的三大障礙之一。
一個問題是公司通常是先實施該技術(shù),然后尋找其可以解決的問題,而不是從業(yè)務需求入手。
“許多組織認為他們需要聘請數(shù)據(jù)科學家,讓他們來處理數(shù)據(jù)方面的工作,”位于亞利桑那州坦佩(Tempe)的技術(shù)咨詢和系統(tǒng)集成公司Insight的數(shù)字創(chuàng)新副總裁馬特·杰克遜(Matt Jackson)說。“但你看不到這對組織產(chǎn)生任何直接影響!
高德納公司分析師惠特·安德魯斯(Whit Andrews)表示,對于組織來說,基于項目內(nèi)在性質(zhì)而不是所使用的技術(shù)來衡量商業(yè)價值,這是非常重要的。
“你會想說,它改善了客戶體驗,而這就是我們所知道的,”他說。“或者它虛報了我們在維護方面所做的開支,這就是證據(jù)!
法律及監(jiān)管風險
對于那些關(guān)注人工智能的企業(yè)來說,法律和監(jiān)管風險是一個重要問題,特別是那些處于受監(jiān)管行業(yè)的企業(yè)。Raghav Nyapati說,一個問題是人工智能算法缺乏透明度,他最近在一家全球十大銀行負責AI項目,現(xiàn)在正在啟動一家金融科技創(chuàng)業(yè)公司。
“這個模型是一個黑盒子,”他說。“算法已經(jīng)改進,但該模型的可解釋性和透明度仍然值得懷疑!
這使得公司很難向監(jiān)管機構(gòu)、客戶、董事會成員和其他利益相關(guān)者解釋其決策過程。
“如果出現(xiàn)任何問題,銀行必須支付巨額罰款,”Nyapati說。
網(wǎng)絡(luò)安全
根據(jù)德勤公司的調(diào)查,網(wǎng)絡(luò)安全是使用人工智能技術(shù)的最大風險。并且企業(yè)為了支持其AI計劃而收集信息,而目前已出現(xiàn)許多與信息相關(guān)的數(shù)據(jù)泄露事件。但是,在大多數(shù)情況下,這些數(shù)據(jù)無論如何都會被收集,并且AI應用程序本身并沒有導致黑客攻擊的漏洞。
事實上,AI越來越多地被用來保護企業(yè)免受網(wǎng)絡(luò)威脅。但是,任何新的軟件或平臺都會帶來新的安全挑戰(zhàn),而且這些問題通常最初并不明顯。然而,Katyal指出,攻擊者有更容易、更直接的方式來破壞企業(yè)安全。
“我不認為人工智能技術(shù)會帶來更多風險,”他說!叭藗冎皇歉y理解、審查、審計和評估風險是什么,以及風險是如何得到解決!
但隨著技術(shù)變得越來越普遍,惡意的內(nèi)部人員(或者能夠精確使訓練數(shù)據(jù)中毒的聰明攻擊者)有可能創(chuàng)建幾乎無法檢測到的且有危險缺陷的算法。
“例如,AI被用于檢測欺詐行為,”國際信息系統(tǒng)審計協(xié)會(ISACA) 董事會安全顧問兼主席羅伯·克萊德(Rob Clyde)說!皺C器學習技術(shù)的欺詐檢測算法已被許多大型信用卡公司使用。但如果我存在惡意,并且可以訓練這一算法,讓它認為在每個月的第13日,所有能被13整除的交易金額都不是欺詐行為,那么我就可以利用這一特點來獲利!
他說,或者考慮一下自動駕駛汽車。“如果算法被惡意訓練的話,當司機是某個特定的人,它就會撞車——但是對于其他人來說,車輛就能正常運行,那該怎么辦呢?你怎么發(fā)現(xiàn)這一情況呢?”
此外,許多AI應用程序都是使用開源庫構(gòu)建的。
“已經(jīng)有過在開源軟件中植入惡意代碼的例子,”他說。
道德標準
企業(yè)還擔心過早使用人工智能技術(shù)會帶來更大的風險。根據(jù)德勤公司的調(diào)查,32%的受訪者表示道德風險是他們最擔心的三大問題之一,33%的受訪者表示人工智能故障可能導致信任受到損害,39%的受訪者表示人工智能系統(tǒng)在關(guān)鍵任務甚至生死攸關(guān)的情況下出現(xiàn)故障的可能性。
例如,自動駕駛汽車的一個經(jīng)典哲學困境,必須決定是直行并撞上一個人,或是轉(zhuǎn)向并撞上多個人。
“我并沒有解決這一困境,”國際信息系統(tǒng)審計協(xié)會的克萊德說。“我聽說制造商提出了這個問題。這是他們正在努力解決的問題,特別是對于在城市駕駛而言。”
這可能是董事會或道德委員會可能需要解決的問題,但首席信息官在這方面可以發(fā)揮重要作用。實施人工智能技術(shù)的技術(shù)人員通常能夠在早期就發(fā)現(xiàn)潛在的風險,并需要讓他們可以放心地將這些風險告知首席信息官,以引起他的注意,然后首席信息官可以將這一情況報告給董事會。
“你需要擁有一種人們可以談論道德問題的組織文化,”他說。
他說,首席信息官可能會較多參與高管層或董事會層面對這些問題的討論!斑@不僅僅是首席信息官的工作內(nèi)容!

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-9.1立即下載>> 【限時下載】ADI中國三十周年感恩回饋助力企業(yè)升級!
-
即日-9.16點擊進入 >> 【限時福利】TE 2025國際物聯(lián)網(wǎng)展·深圳站
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術(shù)在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題
- 1 阿里首位程序員,“掃地僧”多隆已離職
- 2 先進算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 3 宇樹機器人撞人事件的深度剖析:六維力傳感器如何成為人機安全的關(guān)鍵屏障
- 4 清華跑出具身智能獨角獸:給機器人安上眼睛和大腦,融資近20億
- 5 特朗普要求英特爾首位華人 CEO 辭職
- 6 踢館大廠和微軟,剖析WPS靈犀的AI實用主義
- 7 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 8 谷歌吹響AI沖鋒號,AI還有哪些機會
- 9 蘋果把身家押在Siri上:一場輸不起的自我革命
- 10 共探合作新機遇!江門市新會區(qū)(深圳)“AI + 機器人” 產(chǎn)業(yè)對接會成功舉辦