首頁電子資訊資訊軟體

可信任AI發展趨勢

免費
字數 1787
頁數 4
出版作者 郭唐帷
出版單位 資策會MIC
出版日期 2023/12/25
出版類型 產業評析
所屬領域 資訊軟體
瀏覽次數 1240
加入購物車 直接下載 直接下載 加入最愛
摘要

隨著AI藉由大量學習人類行為的數據,生成式AI技術與應用普及,雖然大幅提升了生產效率,但由資料、演算法所出現的偏差(Bias),開始導致機器採取了錯誤決策,反映出AI在不知不覺中也學會了人類的歧視與偏見。而演算法黑箱的問題,使得開發者也無法理解做出機器進行決策的脈絡,進而無從進行校正甚至究責。此外,人們也再一次意識到AI可能產生隱私洩漏、惡意濫用等潛在危害的嚴重性。讓「信任」逐漸成為全球重視的議題,進而催生對可信任AI(Trustworthy AI)的需求。如何讓AI能保護數據隱私,且更具有公平性、透明性與可解釋性、穩健性與安全性,以及最重要的可問責性,成為探討可信任AI的核心精神。

全球各國如OECD、歐盟、美國NIST等也紛紛推出可信任AI倫理準則。2023年12月更針了蓬勃發展的生成式AI批准了相對應的法案。可見AI潛在危害不論對於個人層級,甚至對國家層級的影響都相當深遠,不得不謹而慎之。以下分析全球可信任AI監管規範與產業發展現況歸納出三大趨勢。

內文標題/圖標題

一、前言

二、全球AI治理監管框架漸趨具體

三、對於可信任原則差異化需求將成產業發展契機

四、DevOps未來將朝TrustAIOps發展

五、未來展望

圖1 全球AI治理監管框架漸趨具體化

圖2 對於可信任差異化需求將成產業發展契機

圖3 MLOps結合可信任原則轉化為TrustAIOps

上一篇AI代理之發展與影響
下一篇2023年重要產業技術-智慧服...
熱門點閱
推薦閱讀
推薦新聞

若有任何問題,可使用下方檢索互動介面找解答,或是寫信到客服信箱。

itismembers@iii.org.tw

星期一~五
9:00-12:30/13:30-18:00