人工智能技術開發(fā)人員應遵循的7條道德準則
3、可靠性
如上所述,人工智能系統(tǒng)應盡可能減少與之相關的風險。開發(fā)人員應致力于創(chuàng)建高度可靠的AI解決方案。解決方案應在其整個生命周期內(nèi)按預期工作。它包括確保解決方案在每個階段都是高度準確、可靠和可預測的。它們不應給可能受到這些系統(tǒng)影響的用戶帶來風險。
因此,開發(fā)人員應確保定期監(jiān)視和測試系統(tǒng),以檢查AI解決方案是否正常運行。如果發(fā)現(xiàn)任何缺點,則應立即解決。最重要的是,開發(fā)人員必須在整個生命周期中確保AI系統(tǒng)的穩(wěn)定性和安全性。
4、問責制
無論自主和自力更生的人工智能技術如何發(fā)展,人工監(jiān)督和監(jiān)控仍然絕對必要。無論AI系統(tǒng)多么可靠或先進,都應啟用人工監(jiān)督功能。負責開發(fā)各個階段的個人必須是可識別的,并且應對AI系統(tǒng)導致的結果負責。必須建立確保責任和責任的機制。它包括監(jiān)視所有涉及的過程,從概念到開發(fā),再到部署到運營階段。如果發(fā)現(xiàn)個人對AI系統(tǒng)的不正確使用負責,則應采取適當?shù)拇胧?/p>
5、合規(guī)性
人工智能系統(tǒng)的設計應足夠靈活,以適應新的政府法規(guī),反之亦然。 AI系統(tǒng)的開發(fā)方式應使其無需進行許多更改即可符合新法規(guī)。同樣,政府應以不嚴重影響AI系統(tǒng)的方式起草新的法律和法規(guī)。在創(chuàng)造新的AI技術的自由與政府的規(guī)則,法規(guī)和合規(guī)性之間需要保持平衡。這可以通過相關各方之間的相互理解,伙伴關系和溝通來實現(xiàn)。
此外,當AI系統(tǒng)對個人、企業(yè)、社區(qū)或環(huán)境產(chǎn)生重大影響時,應制定相關規(guī)定,使人們可以質(zhì)疑相關AI系統(tǒng)的采用,可用性和結果。
6、隱私權
至少可以說,可用于開發(fā)AI系統(tǒng)的公共和私有數(shù)據(jù)量令人擔憂。開發(fā)人員在使用AI系統(tǒng)時必須確保尊重隱私和數(shù)據(jù)保護。它包括確保適當?shù)毓芾砗凸芾鞟I系統(tǒng)在其生命周期中生成和使用的數(shù)據(jù)。開發(fā)人員必須確保保持數(shù)據(jù)和信息的自主權,以免被黑客或詐騙者濫用。因此,應該有適當?shù)臄?shù)據(jù)安全措施來保護用戶數(shù)據(jù)并確保隱私。
7、成本效益
開發(fā)的AI系統(tǒng)應為企業(yè)和最終用戶負擔得起。開發(fā)人員應確保AI系統(tǒng)價格合理,即使該技術是專有技術也可以使很多人受益。開發(fā)人員甚至可以免費提供該技術,或者在開源平臺上共享源代碼,以供其他用戶改進和利用。 AI系統(tǒng)的維護成本也應該是最低的。
近年來,關于AI的倫理學提出了一些問題。是的,在某些情況下,人工智能技術被濫用或自行做出可疑的決定。不僅是普通人,而且包括領導人和科學家,如斯蒂芬·霍金,比爾·蓋茨和埃隆·馬斯克,都對AI技術表示了擔憂。
因此,需要檢查AI系統(tǒng)。作為朝這個方向邁出的一步,白宮提出了自己的一套AI原則,需要遵循。這些措施包括鼓勵公眾參與,確?茖W完整性和信息質(zhì)量,透明度和許多其他原則。開發(fā)人員必須確保AI系統(tǒng)遵守白宮概述的道德和原則,并遵守上述規(guī)定,以確保其解決方案在道德上合理。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 阿里首位程序員,“掃地僧”多隆已離職
- 2 先進算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 3 宇樹機器人撞人事件的深度剖析:六維力傳感器如何成為人機安全的關鍵屏障
- 4 清華跑出具身智能獨角獸:給機器人安上眼睛和大腦,融資近20億
- 5 特朗普要求英特爾首位華人 CEO 辭職
- 6 踢館大廠和微軟,剖析WPS靈犀的AI實用主義
- 7 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 8 谷歌吹響AI沖鋒號,AI還有哪些機會
- 9 蘋果把身家押在Siri上:一場輸不起的自我革命
- 10 共探合作新機遇!江門市新會區(qū)(深圳)“AI + 機器人” 產(chǎn)業(yè)對接會成功舉辦