iPAS AI應用規劃師 經典題庫

L21203 AI風險管理
出題方向
1
AI 風險管理基本概念與框架
2
AI 風險識別與評估
3
資料安全與隱私風險
4
模型偏見與公平性風險
5
AI 倫理與社會衝擊
6
合規性與法律風險
7
AI 風險緩解與控制措施
8
負責任 AI 原則與實踐
#1
★★★★
AI 系統生命週期中,AI 風險管理的主要目標是?
A
最大化 AI 模型的準確率
B
識別、評估、監控和緩解AI 系統相關的潛在危害或負面後果
C
確保 AI 系統的開發速度最快
D
降低 AI 系統的開發成本
答案解析
AI 風險管理是一個貫穿 AI 系統設計、開發、部署和維護整個生命週期的過程。其核心目標是主動識別和管理可能由 AI 系統引發的各種風險,包括技術風險(如模型失效、不穩定)、資料風險(如隱私洩露、偏見)、倫理風險(如歧視、不透明)、合規風險(如違反法規)以及社會風險(如失業、不平等)等,以確保 AI 的開發和應用是安全、可靠、公平和負責任的。最大化準確率、開發速度或降低成本雖然也是考量因素,但並非風險管理本身的主要目標。
#2
★★★★★
在進行 AI 風險識別時,下列何者不是常見的風險類別?
A
模型偏見與公平性風險
B
資料隱私與安全風險
C
模型可解釋性與透明度風險
D
演算法開源授權風險
答案解析
AI 風險識別旨在找出可能對個人、組織或社會造成危害的潛在問題。常見的 AI 風險類別包括:(A) 模型偏見與公平性(導致歧視)、(B) 資料隱私與安全(個資外洩、濫用)、(C) 可解釋性與透明度黑盒子問題導致無法信任或除錯)、模型穩健性與安全性(易受攻擊或在特定情況下失效)、倫理與社會衝擊(失業、監控疑慮)以及合規性風險(違反法律法規)。(D) 演算法的開源授權(如 MIT, Apache, GPL)本身是軟體授權管理的議題,雖然選擇不當可能引發法律問題,但通常不被直接歸類為 AI 系統本身運作的核心風險類別,除非其限制了必要的修改或審計,間接引發其他風險。
#3
★★★★★
處理涉及個人敏感資訊的 AI 應用時,下列哪項措施對於降低隱私風險至關重要?
A
最大化收集使用者數據的種類與數量
B
採用資料最小化原則Data Minimization)和去識別化De-identification)技術
C
將所有原始數據儲存在公開的雲端平台上
D
與盡可能多的第三方共享數據以提升模型效能
答案解析
保護個人隱私是 AI 風險管理的關鍵一環,尤其在處理敏感資訊時。資料最小化原則意指僅收集和處理達成特定目的所必需的最少量數據。去識別化技術(如匿名化、假名化)旨在移除或修改數據中的個人識別符Personally Identifiable Information, PII),降低數據與特定個人關聯的可能性。這兩者都是重要的隱私保護工程Privacy-Enhancing Technologies, PETs)手段。選項 A、C、D 的做法反而會顯著增加隱私洩露的風險。
#4
★★★★★
AI 模型產生偏見Bias)的主要來源通常不包括
A
訓練數據中存在的歷史性或系統性偏見
B
數據抽樣不具代表性,或某些群體數據量不足
C
模型設計或演算法本身可能強化或引入偏見
D
模型訓練過程中使用的圖形處理器GPU)品牌
答案解析
AI 模型偏見可能導致不公平或歧視性的結果。其來源主要有三個層面:(A) 數據偏見:訓練數據反映了現實世界中存在的偏見(如性別、種族歧視),或數據標註過程引入主觀偏見。(B) 抽樣偏見/代表性不足:數據收集未能涵蓋所有相關群體,或某些群體的樣本量過少,導致模型對這些群體的預測不準確或不公平。(C) 演算法/模型偏見:模型本身的設計(如特徵選擇、目標函數設定)可能無意中放大或產生新的偏見。例如,僅優化整體準確率可能犧牲少數群體的表現。(D) 使用的硬體(如 GPU 品牌)與模型訓練的數學計算和最終產生的偏見沒有直接關係,硬體主要影響訓練速度和效率。
#5
★★★★
關於 AI 倫理AI Ethics)的敘述,何者最為恰當?
A
AI 倫理僅涉及確保 AI 不會產生技術錯誤
B
AI 倫理是一套全球統一且具有法律強制力的規範
C
AI 倫理探討 AI 技術發展與應用中涉及的道德原則、價值觀與社會影響
D
遵守 AI 倫理必然會降低 AI 系統的效能與商業價值
答案解析
AI 倫理是一個跨學科領域,關注 AI 設計、開發、部署和使用過程中的道德問題。它不僅關心技術的正確性,更關心技術可能帶來的影響是否符合人類的價值觀和社會福祉,例如公平性問責性透明度隱私保護、避免傷害等。AI 倫理原則通常以指南、框架或建議的形式出現,雖然可能影響法律制定,但本身大多不具備直接的法律強制力,且內容可能因文化和地區而異(選項B錯誤)。遵守倫理原則有助於建立信任、降低風險、促進永續發展,長遠來看可能提升而非降低商業價值(選項D錯誤)。選項A則過於狹隘,忽略了倫理的核心關懷。
#6
★★★★★
歐盟的《通用資料保護規則》(General Data Protection Regulation, GDPR)對 AI 應用產生了重要影響,尤其在哪方面提出了要求?
A
強制所有 AI 模型必須開源
B
個人資料的處理使用者權利(如被遺忘權、存取權)及自動化決策的透明度
C
規定 AI 模型的預測準確率必須達到 99% 以上
D
限制 AI 技術只能應用於非商業用途
答案解析
GDPR 是關於個人資料保護和隱私的法規,對任何處理歐盟居民個人資料的組織(包括使用 AI 進行處理)都適用。它確立了嚴格的個資處理原則(如合法性、公平性、透明性、目的限制、資料最小化、準確性、儲存限制、完整性與機密性),賦予個人多項權利(如存取、更正、刪除/被遺忘、限制處理、資料可攜性、反對權),並對完全基於自動化處理(包括剖析)做出的、對個人產生法律效力或類似重大影響的決策,提出了提供有意義資訊(關於所涉邏輯、決策重要性與預期後果)的要求,以及保障個人獲得人工介入、表達意見及質疑決策的權利。GDPR 不強制開源、不規定準確率下限,也不限制商業應用。
#7
★★★★
針對 AI 模型可能存在的偏見問題,下列何者是一種常見的「緩解」(Mitigation)策略?
A
完全避免使用任何可能產生偏見的數據
B
僅在模型部署後監控其輸出結果
C
數據預處理、模型訓練中或模型輸出後應用公平性干預技術
D
聲明模型可能存在偏見,但不採取任何修正措施
答案解析
緩解 AI 偏見需要在系統生命週期的不同階段採取措施。常見策略分為三類:(1) 預處理Pre-processing):在模型訓練前修改數據,例如重抽樣(re-sampling)、重加權(re-weighting)或學習公平的數據表示。(2) 處理中In-processing):在模型訓練過程中加入公平性約束或正則化項,直接優化模型的公平性指標。(3) 後處理Post-processing):在模型做出預測後,調整其輸出結果以滿足公平性標準。選項 A 通常不切實際。選項 B 僅監控不足以緩解。選項 D 是不負責任的做法。選項 C 涵蓋了主要的技術性緩解方法。
#8
★★★★★
負責任 AI」(Responsible AI)的核心原則通常包含以下哪些要素?
A
速度、成本、可擴展性
B
公平性、可靠性與安全性、隱私與資安、包容性、透明度、問責性
C
開源、雲端原生、微服務化
D
盈利能力、市場佔有率、品牌形象
答案解析
負責任 AI 是一個綜合性概念,旨在確保 AI 系統的開發和部署是以符合倫理、法律和社會價值的方式進行。雖然不同組織提出的原則略有差異,但核心要素通常圍繞著:公平性 (Fairness,避免偏見和歧視)、可靠性與安全性 (Reliability and Safety,模型穩健、不易被攻擊、結果可信)、隱私與資安 (Privacy and Security,保護數據、防範威脅)、包容性 (Inclusiveness,惠及多元群體、易於使用)、透明度 (Transparency,可解釋性、決策過程可理解)、問責性 (Accountability,明確責任歸屬、建立治理機制)。選項 A 和 C 偏向技術或架構特性,選項 D 偏向商業目標,而選項 B 則直接反映了負責任 AI 的核心價值關懷。
#9
★★★
AI 風險管理整合到組織的整體風險管理框架中,其主要好處是?
A
可以完全消除所有 AI 風險
B
確保 AI 風險得到與其他業務風險同等的重視、治理和資源投入
C
使 AI 開發團隊可以獨立運作,不受其他部門干擾
D
會顯著增加 AI 專案的交付時間
答案解析
AI 風險並非獨立存在,往往與組織的業務目標、營運流程、法規遵循、聲譽等其他風險相互關聯。將 AI 風險納入整體的企業風險管理Enterprise Risk Management, ERM)框架,有助於:(1) 提升 AI 風險的能見度,使其受到高階管理層的關注;(2) 統一風險評估標準和語言,便於跨部門溝通協調;(3) 確保分配足夠的資源進行風險管理活動;(4) 建立清晰的治理結構和責任歸屬;(5) 將 AI 風險管理與組織的策略目標對齊。選項 A 不切實際,風險管理是持續的過程,目標是管理而非消除。選項 C 與整合的精神相反。選項 D 可能初期需要投入,但長遠看有助於避免更大損失,未必顯著增加總時間。
#10
★★★★
在評估 AI 風險時,通常會考慮哪兩個主要維度?
A
模型準確率與訓練時間
B
風險發生的可能性Likelihood)與衝擊程度Impact
C
演算法複雜度與數據集大小
D
開發人員經驗與使用的程式語言
答案解析
風險評估的標準方法是分析風險事件發生的可能性(或稱機率、頻率)以及一旦發生可能造成的後果或衝擊程度(通常考量財務、營運、聲譽、法律、人員安全等多方面影響)。將這兩個維度結合(例如繪製風險矩陣),可以判斷風險的嚴重性,排定處理的優先順序。高可能性且高衝擊的風險通常需要優先處理。其他選項如準確率、訓練時間、複雜度、數據大小、開發經驗等,可能是影響風險發生可能性或衝擊程度的因素,但不是評估風險本身的核心維度。
#11
★★★★
差分隱私」(Differential Privacy)是一種用於保護數據隱私的技術,其主要原理是?
A
將數據完全加密,只有授權者能解密
B
在查詢或分析結果中加入隨機雜訊,使得單一個體的資訊無法被精確推斷
C
刪除數據中所有的個人識別符
D
限制只有特定 IP 位址可以存取數據庫
答案解析
差分隱私提供了一種嚴謹的數學定義來量化隱私保護的程度。其核心思想是,對數據庫進行查詢或統計分析時,在結果中加入經過仔細計算的隨機雜訊,使得包含或不包含某一個特定個體的數據所產生的分析結果,其分佈非常相似。這樣一來,攻擊者即使獲得分析結果,也無法確定某個特定個體是否在原始數據集中,從而保護了個體隱私。選項 A 是加密。選項 C 是匿名化的一種方法,但可能不足以抵抗連結攻擊。選項 D 是存取控制。
#12
★★★★
在評估 AI 模型的公平性時,下列哪項指標關注的是模型對於不同群體是否給出相似比例的「正面」預測結果?(例如,不同族裔獲得貸款批准的比例)
A
準確率均等Accuracy Equality
B
人口統計均等Demographic Parity)或統計均等Statistical Parity
C
機會均等Equal Opportunity
D
預測均等Predictive Parity
答案解析
公平性有多種定義和衡量指標,關注點不同:(B) 人口統計均等/統計均等 要求模型對於受保護群體(如不同性別、種族)給出正面預測結果的比例應該相等,不論其真實情況如何。(C) 機會均等 要求對於真實情況為「正面」的個體,模型將其預測為「正面」的機率(真陽率)在不同群體間應該相等。(D) 預測均等 要求當模型預測為「正面」時,其預測準確性(精確率)在不同群體間應該相等。(A) 準確率均等則要求整體預測準確率在不同群體間相等。題目描述的是不同群體獲得正面預測的比例相似,符合人口統計均等的定義。
#13
★★★
AI 的「黑盒子」(Black Box)問題主要指的是 AI 系統的哪個特性所帶來的挑戰?
A
模型運算速度不夠快
B
模型需要大量的訓練數據
C
模型內部的決策過程難以被人類理解或解釋
D
模型容易受到外部環境雜訊干擾
答案解析
許多先進的 AI 模型,特別是深度學習模型,其內部結構非常複雜,包含大量的參數和非線性轉換。這使得人們很難理解模型是如何根據輸入數據得出特定輸出或決策的,其決策過程就像一個不透明的「黑盒子」。這種缺乏可解釋性Explainability)或透明度Transparency)會帶來多重風險,例如:難以信任模型的結果、無法有效除錯、不易發現潛在偏見、在需要問責的場景下難以提供依據等。因此,發展可解釋 AIExplainable AI, XAI)技術成為重要的研究方向。
#14
★★★★
在台灣,若 AI 系統涉及處理個人資料,主要需要遵循下列哪部法律的規範?
A
著作權法
B
個人資料保護法個資法
C
公平交易法
D
勞動基準法
答案解析
台灣的《個人資料保護法》是規範個人資料蒐集、處理及利用的主要法律。任何公務機關或非公務機關(包括企業)使用 AI 系統處理可直接或間接識別個人的資料時,都必須遵守個資法的規定,例如:告知義務取得當事人同意(除非有其他法定事由)、資料安全維護義務當事人權利行使(查詢、閱覽、複製、補充、更正、停止處理利用、刪除)等。違反個資法可能面臨行政處罰甚至民事、刑事責任。其他法律可能在特定情境下相關(如 AI 生成內容的著作權、AI 應用於市場競爭的公平性、AI 對勞雇關係的影響),但個資法是處理個人資料時最直接且基礎的法律遵循要求。
#15
★★★★
對抗性攻擊」(Adversarial Attack)是指對 AI 模型輸入進行微小、人眼難以察覺的擾動,卻能導致模型產生錯誤輸出的情況。這主要暴露了 AI 模型的哪方面風險?
A
模型偏見風險
B
資料隱私風險
C
模型穩健性Robustness)與安全性風險
D
模型可解釋性風險
答案解析
對抗性攻擊顯示了許多 AI 模型(尤其是深度學習模型)在面對刻意設計的惡意輸入時可能非常脆弱。即使輸入的擾動非常微小,人類可能根本無法分辨其與正常輸入的差異,但模型卻可能做出完全錯誤的判斷(例如,將停止標誌誤判為速限標誌)。這暴露了模型在面對非預期或惡意輸入時的不穩定性(缺乏穩健性),以及可能被惡意利用的安全漏洞。這對於需要高可靠性和安全性的應用(如自動駕駛醫療診斷、金融風控)構成了嚴重威脅。
#16
★★★★
負責任 AI 的框架下,「問責性」(Accountability)原則強調的是?
A
AI 模型必須能夠解釋其每一個決策步驟
B
應建立清晰的治理機制,明確 AI 系統開發、部署和運作相關方的責任歸屬
C
AI 系統的開發者必須對所有可能的錯誤輸出負擔無限賠償責任
D
所有 AI 系統都必須經過政府單位的審核批准才能上線
答案解析
問責性是指當 AI 系統產生非預期或有害的結果時,能夠追溯原因並確定責任方。為了實現問責性,組織需要建立完善的治理框架,包括:明確界定開發者、部署者、營運者、使用者等各方的角色與責任;制定內部政策和流程來規範 AI 的開發與使用;建立有效的監督、稽核和回饋機制;確保決策過程有適當的人工監督或介入;提供使用者申訴和救濟的管道。選項 A 更接近透明度/可解釋性要求。選項 C 的無限賠償責任不切實際。選項 D 的政府強制事前審核並非普遍要求,且問責性更側重於事中和事後的機制。
#17
★★★
下列何者是國際上常見的 AI 風險管理倫理治理框架的例子?
A
敏捷開發Agile Development)宣言
B
美國國家標準暨技術研究院NISTAI 風險管理框架AI RMF
C
國際標準化組織(ISO)9001 品質管理系統標準
D
CMMI 成熟度模型整合(Capability Maturity Model Integration
答案解析
隨著 AI 技術的發展,許多國際組織和政府機構開始制定相關的風險管理倫理治理框架,以指導負責任的 AI 開發與應用。(B) NIST AI RMF 是一個廣受關注的自願性框架,旨在幫助組織識別、評估、管理和溝通 AI 風險。(A) 敏捷開發是一種軟體開發方法論。(C) ISO 9001 是通用的品質管理標準。(D) CMMI 是評估軟體開發過程成熟度的模型。雖然這些可能與 AI 專案管理相關,但它們本身並非專門針對 AI 風險或倫理治理的框架。其他例子還包括歐盟的 AI 法案草案(EU AI Act)、OECD AI 原則等。
#18
★★★
在進行 AI 風險識別工作坊(Workshop)時,邀請來自不同背景(如技術、法律、業務、倫理)的利害關係人參與的主要目的是?
A
減少會議的次數
B
多元視角全面地識別潛在風險及其影響
C
讓技術團隊可以將責任轉移給其他部門
D
符合公司內部會議的標準流程要求
答案解析
AI 風險往往是多面向的,單一部門或單一專業背景的人可能無法完全看清所有潛在問題。例如,技術人員可能關注模型效能和穩定性,法務人員關注合規性,業務人員關注市場接受度和營運衝擊,倫理專家關注公平性和社會影響。邀請來自不同領域的利害關係人共同參與風險識別,可以匯集不同的知識、經驗和觀點,有助於更全面、更深入地發掘 AI 系統可能帶來的各種潛在風險和影響,避免遺漏重要的風險面向。
#19
★★★
聯合學習」(Federated Learning)技術允許在不將原始數據移出本地裝置(如手機)的情況下訓練 AI 模型,這有助於緩解哪一類風險?
A
模型偏見風險
B
資料隱私風險
C
模型可解釋性風險
D
模型遭受對抗性攻擊的風險
答案解析
傳統的集中式模型訓練需要將所有數據匯集到一個中央伺服器。聯合學習則是一種分散式的機器學習方法,模型訓練在數據所在的本地裝置上進行,只有模型更新的參數(通常是梯度或權重)被傳送到中央伺服器進行聚合,原始數據保留在本地。這種「數據不動模型動」的方式,顯著降低了原始數據在傳輸和集中儲存過程中被洩露或濫用的風險,是一種重要的隱私保護技術。雖然聯合學習本身不直接解決偏見可解釋性對抗攻擊問題(甚至可能引入新的挑戰),但其主要優勢在於增強資料隱私
#20
★★★
如果一個用於審核貸款申請的 AI 模型,對某個特定族裔群體的拒絕率顯著高於其他群體,即使該群體內部的信用風險分佈與其他群體相似,這可能反映了哪種風險?
A
模型偏見導致的歧視風險
B
模型被駭客植入後門的安全性風險
C
模型預測結果不穩定的穩健性風險
D
訓練數據量不足導致的泛化能力風險
答案解析
AI 模型對具有相似實際條件(如信用風險)的不同受保護群體(如基於族裔、性別)做出系統性不同的預測或決策時,就可能存在偏見和歧視風險。這種差異化的對待可能源於訓練數據中潛藏的歷史偏見,或是模型設計未能充分考慮公平性。這種結果不僅不公平,也可能違反反歧視相關法律法規,損害企業聲譽。選項 B、C、D 描述的是其他類型的風險,雖然也可能發生,但題目描述的現象最直接地指向了偏見與歧視問題。
#21
★★
AI 在監控和預測個人行為方面的應用,引發的主要倫理擔憂是?
A
模型計算效率低下
B
侵犯個人隱私與潛在的社會控制
C
演算法專利保護不足
D
數據儲存成本過高
答案解析
利用 AI 分析大量數據(如網路行為、影像監控)來預測甚至影響個人行為,雖然可能有其應用價值(如精準行銷、犯罪預防),但也引發了嚴重的倫理擔憂。最主要的擔憂在於對個人隱私的侵犯,以及這種技術可能被濫用於不當的社會監控或控制,限制個人自由和自主性。例如,基於預測的差別待遇、無所不在的監視感等,都可能對個人尊嚴和社會結構產生負面影響。效率、專利、成本問題相對次要。
#22
★★★
AI合規性風險管理中,「法規遵循設計」(Compliance by Design)的概念是指?
A
等到產品上市後再檢查是否符合法規
B
AI 系統的設計和開發初期就將法規要求納入考量
C
聘請外部律師事務所全權負責合規事務
D
只遵守最低限度的法律要求
答案解析
法規遵循設計(或稱設計融入合規)是一種主動的合規策略。它強調不應將合規視為事後的檢查或補救措施,而應在 AI 系統的規劃、設計和開發階段,就積極地將相關的法律法規要求(如個資保護、反歧視、特定行業規範等)整合到系統的功能、架構和流程中。這樣做有助於從源頭預防違規風險,降低後續修改的成本和困難,確保產品或服務能順利落地並符合監管期待。
#23
★★★
對於需要高度可靠性的 AI 應用(如醫療診斷輔助),哪種風險緩解措施特別重要?
A
盡量簡化模型以降低複雜度
B
進行嚴格的測試、驗證與確效Testing, Validation, and Verification),並建立人工覆核機制
C
頻繁更新模型以納入最新數據
D
使用最新的深度學習框架
答案解析
在高風險、高影響的應用場景,確保 AI 系統的可靠性、安全性和準確性至關重要。緩解措施應包括:(1) 嚴謹的測試與驗證:在各種條件下(包括邊緣案例、壓力測試)充分測試模型的性能、穩健性和安全性。(2) 確效Validation):確認系統符合預期的使用目的和要求。(3) 人工監督/覆核Human Oversight/Review):在關鍵決策點引入人類專家進行審核、確認或否決 AI 的建議,作為最後一道防線,降低自動化錯誤帶來的風險。簡化模型可能犧牲性能,頻繁更新需謹慎評估風險,使用新框架不保證可靠性。
#24
★★★
負責任 AI 中的「透明度」(Transparency)原則,主要是為了達到什麼目的?
A
向競爭對手展示模型的內部結構
B
利害關係人(如開發者、使用者、監管者)能夠理解 AI 系統的運作方式、能力與限制
C
增加模型的訓練數據量
D
降低模型的部署成本
答案解析
透明度原則要求 AI 系統的資訊應對外公開且易於理解。這包括但不限於:系統的設計目標、使用的數據類型、模型的基本運作邏輯(可解釋性)、模型的性能表現及其局限性、潛在的風險等。提高透明度的目的是:(1) 建立信任:讓使用者和受影響者了解系統如何運作,減少疑慮。(2) 促進問責:便於追溯問題來源。(3) 輔助除錯與改進:開發者更容易發現和修正錯誤。(4) 支持監管:監管機構能更好地評估合規性。透明度不等於完全公開所有技術細節(選項A),而是提供與不同利害關係人相關且必要的資訊。
#25
★★
AI 風險管理生命週期通常包含識別、評估、處理、監控等階段。哪個階段的活動是持續進行的?
A
風險識別
B
風險評估
C
風險處理
D
風險監控
答案解析
AI 風險管理是一個動態且迭代的過程,而非一次性的活動。雖然風險識別風險評估風險處理(制定緩解措施)是關鍵步驟,但 AI 系統本身、其運行的環境、相關法規以及社會期待都可能隨時間變化,產生新的風險或使原有風險的性質改變。因此,持續的「風險監控」至關重要,需要定期審視風險狀況、評估緩解措施的有效性、偵測新的威脅或漏洞,並根據監控結果回頭調整風險識別風險評估風險處理策略。
#26
★★★★
模型漂移」(Model Drift)是指模型在部署後,由於真實世界數據分佈的變化,導致其性能隨時間下降的現象。這屬於 AI 風險中的哪一類?
A
倫理風險
B
技術或性能風險
C
法律合規風險
D
供應鏈風險
答案解析
模型漂移(也稱概念漂移 Concept Drift數據漂移 Data Drift)是 AI 系統部署後常見的技術挑戰。它指的是由於現實世界的模式、使用者行為、數據產生機制等發生變化,導致模型賴以訓練的數據分佈與實際應用中的數據分佈不再一致,從而使得模型的預測準確性、可靠性下降。這直接影響了模型的技術性能和有效性,屬於技術風險或性能風險的範疇。若不及時監控和處理(如重新訓練模型),可能間接引發其他風險(如錯誤決策導致的業務或倫理風險)。
#27
★★★★
AI 系統開發中,進行「資料來源稽核」(Data Provenance Audit)的主要目的是?
A
增加數據的多樣性
B
追溯和驗證數據的來源、收集方式及處理過程,以確保其品質、合法性與可靠性
C
對數據進行匿名化處理
D
將數據轉換為模型可用的格式
答案解析
資料來源稽核(或稱數據溯源)是指記錄和追蹤數據從產生、收集、儲存、處理到使用的整個生命週期的過程。在 AI 風險管理中,這項工作非常重要,因為它可以幫助:(1) 驗證數據來源的可靠性和權威性;(2) 確認數據收集是否符合法規要求(如取得必要同意);(3) 了解數據經過了哪些處理步驟,是否可能引入偏見或錯誤;(4) 在模型出現問題時,追溯到可能的數據根源;(5) 提高數據處理過程的透明度和可信度。這對於確保數據品質、降低隱私合規風險至關重要。
#28
★★★★
演算法放大效應」(Algorithmic Amplification)是指 AI 演算法可能將數據中微小的偏見或不平衡不成比例地放大,導致更嚴重的歧視性後果。這現象強調了哪個風險管理環節的重要性?
A
模型部署後的性能監控
B
數據品質把關模型設計階段的公平性考量
C
使用者介面(UI)的易用性設計
D
雲端服務供應商的選擇
答案解析
演算法放大效應意味著即使原始數據中的偏見看似輕微,AI 模型在學習過程中也可能將其強化和放大,導致輸出結果呈現出更嚴重的系統性偏差。這凸顯了僅僅依賴「垃圾進,垃圾出」(Garbage In, Garbage Out)的觀點可能不足夠,演算法本身也可能扮演了放大器的角色。因此,在風險管理的早期階段,即數據收集與處理(確保數據品質、代表性和公平性)以及模型設計與選擇(選擇不易放大偏見的演算法、加入公平性約束)就必須積極介入,以預防或減輕這種放大效應。
#29
★★★
AI 技術可能加劇「數位落差」(Digital Divide),這主要是指 AI 可能帶來哪方面的社會衝擊?
A
不同群體在取得、使用 AI 技術及其帶來惠益方面的差距擴大
B
AI 模型輸出的準確率下降
C
AI 系統的耗電量增加
D
AI 開發人員的工作壓力增大
答案解析
數位落差是指不同社會經濟背景、地區、年齡、教育程度或身心障礙的群體,在接觸和使用資訊通訊技術(包括 AI)方面存在的不平等現象。AI 的發展可能加劇這種落差,例如:(1) 資源不均AI 開發和應用需要大量資源(數據、算力、人才),可能集中在富裕國家或大型企業;(2) 使用門檻:部分群體可能缺乏必要的數位素養或設備來使用 AI 服務;(3) 效益分配不均AI 帶來的好處(如效率提升、新的就業機會)可能不成比例地流向已具備優勢的群體,而技能不足或處於弱勢的群體可能面臨失業或被邊緣化的風險。這是 AI 發展需要關注的重要社會倫理議題。
#30
★★★★
歐盟提出的《人工智慧法案》(AI Act)草案,根據 AI 應用的風險等級進行分類規管。下列哪一類風險被視為「不可接受風險」(Unacceptable Risk),原則上應被禁止?
A
用於教育領域的評分系統
B
聊天機器人Chatbot
C
用於操控人類行為以造成傷害或進行社會評分Social Scoring)的系統
D
用於過濾垃圾郵件的系統
答案解析
歐盟 AI 法案草案採取風險分級的規管方法,將 AI 系統分為四級:不可接受風險高風險有限風險最小風險。(C) 被歸類為「不可接受風險」的 AI 應用,因其對基本權利構成明顯威脅,原則上將被禁止。這包括:利用潛意識技術或利用特定群體的脆弱性(如年齡、身心障礙)來扭曲個人行為,使其或他人遭受身心傷害的系統;由公共機構進行的通用性社會評分系統;以及(除特定執法豁免外)在公共場所進行的即時遠端生物識別系統(如人臉辨識)。選項 A(若影響升學就業)和 D(垃圾郵件過濾)通常被視為高風險有限/最小風險聊天機器人(B)則屬於有限風險,需履行透明度義務(告知使用者正在與 AI 互動)。
#31
★★★
AI 風險處理策略中,「風險轉移」(Risk Transfer)是指?
A
採取措施降低風險發生的可能性或衝擊
B
決定不進行可能引發該風險的活動
C
透過合約、保險或其他方式將風險的財務後果轉嫁給第三方
D
接受風險存在,不採取任何行動
答案解析
風險處理(或稱風險應對)通常有四種基本策略:(1) 風險規避Risk Avoidance):決定不從事或停止引發風險的活動。(2) 風險降低/緩解Risk Reduction/Mitigation):採取措施降低風險發生的可能性或衝擊程度。(3) 風險轉移Risk Transfer):將風險的部分或全部財務損失透過契約(如外包合約中的責任條款)、保險或其他金融工具轉移給第三方承擔。(4) 風險接受Risk Acceptance):了解風險後,決定不採取行動(通常適用於低風險或處理成本過高的情況),並準備承擔可能的後果。題目描述的是將財務後果轉嫁給第三方,符合風險轉移的定義。
#32
★★★★
人在迴路中」(Human-in-the-loop, HITL)的設計方法,如何體現負責任 AI 的原則?
A
完全取代人類決策以提高效率
B
AI 系統的關鍵決策點或處理不確定情況時引入人工判斷與監督,以增強可靠性問責性
C
讓人們可以自由修改 AI 模型的原始碼
D
利用人類的互動數據來訓練更大規模的 AI 模型
答案解析
Human-in-the-loop (HITL) 是一種結合人類智慧和 AI 能力的設計模式。它並非要完全自動化,而是在 AI 系統可能出錯、遇到邊緣案例、需要價值判斷或需要高度問責的環節,保留或引入人工的介入點。人類可以扮演監督者(審核 AI 結果)、訓練者(標註困難數據)、仲裁者(解決衝突)等角色。這種設計有助於:(1) 提高系統的整體可靠性穩健性(利用人類的常識和判斷力);(2) 增強問責性(關鍵決策有人類負責);(3) 處理 AI 難以應對的模糊或倫理困境;(4) 持續改進模型(利用人工回饋)。這體現了對 AI 局限性的認知以及對人類監督價值的重視,是負責任 AI 實踐的重要方式。
#33
★★
AI 風險管理框架通常建議組織建立何種機制來處理 AI 倫理相關的爭議或疑慮?
A
技術支援熱線
B
內部倫理委員會或審查流程
C
產品行銷部門
D
軟體更新自動通知
答案解析
處理複雜的 AI 倫理問題往往需要跨領域的專業知識和價值判斷。許多 AI 風險管理治理框架建議組織設立專門的機制,如內部倫理委員會倫理審查委員會Ethics Review Board, ERB)或指定倫理長Chief Ethics Officer),負責:(1) 制定和更新組織的 AI 倫理政策與指南;(2) 審查高風險 AI 專案的倫理影響;(3) 提供倫理諮詢和培訓;(4) 調查和處理內外部提出的倫理申訴或疑慮;(5) 向管理層提供建議。這種機制有助於確保倫理考量被系統性地納入決策過程。
#34
★★★
為了提高 AI 系統的透明度可解釋性,可以使用下列哪種技術方法?
A
增加模型的隱藏層數量
B
使用 LIMESHAP模型事後解釋Post-hoc Explanation)工具
C
對訓練數據進行加密
D
將模型部署在邊緣裝置上
答案解析
提高 AI 透明度可解釋性的方法主要有兩類:(1) 內在可解釋模型Intrinsically Interpretable Models):選用本身結構相對簡單、決策過程容易理解的模型,如線性模型、決策樹。(2) 事後解釋技術Post-hoc Explanation Techniques):對於複雜的黑盒子模型(如深度學習),在其訓練完成後,使用額外的工具來解釋其特定預測的原因。LIMELocal Interpretable Model-agnostic Explanations)和 SHAPSHapley Additive exPlanations)是兩種常用的事後解釋技術,它們可以分析特定輸入特徵對於模型預測結果的貢獻程度,提供局部的或全局的解釋。增加隱藏層(A)通常會降低可解釋性。加密數據(C)和邊緣部署(D)與模型解釋性無直接關係。
#35
★★★
紅隊演練」(Red Teaming)在 AI 安全風險管理中扮演的角色是?
A
負責撰寫 AI 模型的技術文件
B
模擬攻擊者的思維和方法主動尋找並測試 AI 系統的漏洞與弱點
C
負責採購 AI 開發所需的硬體設備
D
負責訓練 AI 模型的基礎演算法
答案解析
紅隊演練是一種主動性的安全測試方法,常用於網路安全領域,也逐漸應用於 AI 安全。紅隊Red Team)扮演攻擊者的角色,利用各種已知或潛在的攻擊手法(如對抗性攻擊模型竊取數據投毒、旁路攻擊等)來測試 AI 系統的防禦能力、穩健性安全性。目標是發現系統中可能被惡意利用的漏洞、弱點或設計缺陷,以便藍隊Blue Team,防守方)能夠及時修補和加強防禦。這是一種有效的壓力測試和風險評估手段。
#36
★★★
AI 系統的採購或委外開發合約中,加入關於數據所有權使用權、以及模型失效或產生損害時的責任歸屬條款,主要是為了管理哪類風險?
A
技術過時風險
B
法律、合約與供應鏈風險
C
市場競爭風險
D
使用者體驗不佳風險
答案解析
當企業使用第三方提供的 AI 服務或委託外部廠商開發 AI 系統時,會引入供應鏈風險合約是管理這些風險的重要工具。在合約中明確約定:(1) 數據的所有權和使用權限,確保符合隱私法規且不侵犯智慧財產權;(2) 服務水準協議Service Level Agreement, SLA),定義性能、可用性等標準;(3) 安全要求與稽核權利;(4) 模型更新與維護責任;(5) 以及最重要的,當系統出錯、造成損害或違反法規時,各方的責任分攤機制(如賠償上限、免責條款)。這些條款有助於釐清法律責任,降低因供應商問題引發的合規和財務風險。
#37
★★★
負責任 AI 實踐中,提供使用者清晰易懂的說明文件或介面提示,告知 AI 系統的能力、限制以及如何正確使用,這有助於實現哪個原則?
A
公平性
B
安全性
C
透明度包容性
D
問責性
答案解析
提供清晰的說明有助於提高系統的透明度,讓使用者了解他們正在與什麼樣的系統互動,系統能做什麼、不能做什麼,以及可能的風險。同時,易懂的說明和提示也體現了包容性原則,確保不同背景和能力的使用者都能理解和有效使用該系統,避免因誤解或誤用而產生問題。雖然這也可能間接影響安全性(正確使用可避免危險)和問責性(使用者了解自身責任),但其最直接的目的是促進理解(透明度)和易用性(包容性)。
#38
★★★★★
關於 AI 公平性風險,下列敘述何者錯誤
A
即使訓練數據本身沒有明顯偏見,模型也可能產生不公平的結果
B
不同的公平性定義之間可能存在衝突,難以同時滿足
C
只要模型對所有群體的整體預測準確率相同,就代表模型是公平
D
評估和緩解公平性風險需要在 AI 生命週期的多個階段進行
答案解析
(A) 正確,模型設計或目標函數的選擇也可能引入或放大偏見。(B) 正確,例如,同時滿足人口統計均等機會均等往往很困難,需要在不同價值間取捨。(D) 正確,從數據收集、模型開發到部署監控都需要關注公平性。(C) 錯誤。整體準確率相同(Accuracy Equality並不能保證公平性。模型可能在某個群體上的偽陽性率False Positive Rate)很高,在另一個群體上的偽陰性率False Negative Rate)很高,即使整體準確率相似,但造成的傷害類型和分佈卻可能極不公平。公平性需要更細緻的指標來衡量,如前述的人口統計均等機會均等預測均等等等。
#39
★★★★
演算法焦慮」(Algorithmic Anxiety)是指人們對於由不透明的演算法來做決策(如評分、排序、推薦)所感到的不安或壓力。這反映了 AI 倫理中的哪個重要議題?
A
AI 模型的能源效率
B
透明度可解釋性人類自主性
C
數據儲存的安全性
D
AI 人才的短缺
答案解析
當重要的決策(如工作機會、信用評分、內容曝光)由不透明的 AI 演算法做出時,人們可能因為不了解決策依據無法預測結果、感覺失去控制難以申訴,而產生焦慮、無力感或不信任感。這種現象凸顯了 AI 系統缺乏透明度和可解釋性的問題,以及它可能對個人自主性(理解和影響與自身相關決策的能力)造成的侵蝕。提升演算法的透明度、提供有效的解釋,並保障人類的申訴和介入權利,是緩解演算法焦慮的重要倫理考量。
#40
★★★★
為了降低 AI 模型遭受「數據投毒」(Data Poisoning)攻擊的風險,可以在哪個環節加強防護?
A
模型部署後的輸出監控
B
數據收集與標註階段的品質控制異常偵測
C
使用者介面的設計
D
雲端基礎設施的防火牆設定
答案解析
數據投毒是一種針對模型訓練階段的攻擊。攻擊者透過在訓練數據中注入少量惡意製作的樣本,來操縱模型的學習過程,使其在部署後對特定輸入產生錯誤預測,或者降低整體性能,甚至植入後門。由於攻擊發生在訓練數據進入模型之前,因此最有效的防護措施是在數據收集、清洗和標註階段加強控管,例如:(1) 驗證數據來源;(2) 對數據進行嚴格的品質檢查和異常值偵測;(3) 對於眾包標註等易受攻擊的環節,實施交叉驗證或可信度評估;(4) 在模型訓練過程中加入穩健性技術,抵抗異常數據的影響。部署後的監控(A)可能發現異常,但已是事後。UI設計(C)和基礎設施防火牆(D)無法直接阻止訓練數據被污染。
#41
★★★
進行 AI 影響評估(AI Impact Assessment, AIIA)時,除了評估對個人的影響,還應考慮對哪個層面的影響?
A
僅考慮對開發團隊的影響
B
社會群體、環境及整體社會結構的影響
C
僅考慮對公司股價的影響
D
僅考慮對硬體供應商的影響
答案解析
AI 的影響是廣泛且深遠的,不能只侷限於個人層面。一個全面的 AI 影響評估(類似於隱私影響評估 PIA資料保護影響評估 DPIA 的概念)應該系統性地分析 AI 系統在整個生命週期中,可能對不同利害關係人產生的正面和負面影響,這包括:(1) 對個人的影響(如權利、自由、安全);(2) 對特定社會群體的影響(如公平性、歧視);(3) 對環境的影響(如能源消耗);(4) 對社會整體結構的影響(如就業市場、人際互動、民主程序)。這種宏觀的評估有助於更全面地理解 AI 的潛在風險和效益,做出更負責任的決策。
#42
★★★
AI 模型在訓練過程中可能無意間「記住」了部分訓練數據的敏感資訊,並在後續生成內容或預測時洩露出來。這種風險稱為?
A
模型漂移Model Drift
B
對抗性攻擊Adversarial Attack
C
成員推斷攻擊Membership Inference Attack)或數據重建攻擊Data Reconstruction Attack)風險
D
演算法放大Algorithmic Amplification
答案解析
大型 AI 模型(尤其是生成式模型)在學習大量數據後,可能過度擬合(Overfitting)並記住訓練集中的具體樣本,特別是那些獨特或重複出現的樣本。這會帶來隱私風險:(1) 成員推斷攻擊:攻擊者可以透過查詢模型來判斷某個特定數據點是否曾被用於訓練。(2) 數據重建/提取攻擊:攻擊者可能誘導模型生成與訓練集中敏感數據(如個人姓名、電話號碼、程式碼片段)高度相似甚至完全相同的內容。這顯示了即使不直接存取原始數據,訓練好的模型本身也可能成為隱私洩露的途徑。差分隱私等技術可以用於緩解此類風險。
#43
★★★
若某 AI 醫療診斷系統被認定為「醫療器材」,則其開發與上市需要遵循哪個主管機關的法規要求?
A
公平交易委員會
B
國家通訊傳播委員會(NCC
C
衛生福利部食品藥物管理署TFDA
D
經濟部智慧財產局
答案解析
在台灣,用於診斷、預防、監護、減緩或治療疾病或傷害,或用於影響身體結構或功能的軟體,若符合《醫療器材管理法》對醫療器材的定義(Software as a Medical Device, SaMD),則其開發、臨床評估、查驗登記、上市後監控等,都需要受到衛生福利部食品藥物管理署TFDA)的監管。開發者必須遵循相關的法規和指引,確保產品的安全性與有效性。這屬於特定領域的合規性風險管理
#44
★★★
建立 AI 風險清單Risk Register)的主要用途是?
A
作為對外宣傳 AI 成就的材料
B
系統性地記錄已識別的 AI 風險、其評估結果、應對措施及狀態追蹤
C
儲存 AI 模型的訓練日誌
D
管理 AI 專案的開發時程
答案解析
風險清單風險管理過程中的核心文件或資料庫。它用於集中、結構化地記錄與 AI 專案或系統相關的各種資訊,通常包括:(1) 已識別的風險描述;(2) 風險發生的可能性與衝擊程度評估;(3) 風險的優先級;(4) 計劃採取的應對措施(規避、降低、轉移、接受);(5) 負責執行的單位或人員;(6) 應對措施的執行狀態與成效追蹤;(7) 剩餘風險(Residual Risk)評估等。風險清單有助於確保風險得到妥善管理和溝通,並作為持續監控和改進的基礎。
#45
★★
關於生成式 AIGenerative AI)可能產生的倫理風險,下列何者敘述較不相關
A
生成內容可能包含錯誤資訊、偏見或歧視性言論
B
可能被用於製造深度偽造Deepfake)內容,散布假訊息或進行詐騙
C
生成內容的著作權歸屬與合理使用問題
D
模型訓練過程中的碳排放量過高
答案解析
生成式 AI 因其強大的內容生成能力,帶來了新的倫理風險挑戰:(A) 內容品質風險:可能生成不準確、有害、帶有偏見或侵犯性的內容。(B) 濫用風險:被用於製造難辨真偽的 Deepfake 影像、聲音或文字,用於惡意目的。(C) 智慧財產權風險:訓練數據的版權問題,以及生成內容的著作權歸屬和原創性認定。選項 D 描述的是 AI環境影響(屬於廣義的社會責任),雖然也是一個值得關注的議題,但相較於 A、B、C 所描述的內容本身及其應用所直接引發的倫理風險(如真實性、公平性、所有權),關聯性較低一些,更偏向永續性議題。
#46
★★
AI 風險管理中,建立模型卡Model Cards)或類似的文件記錄,主要是為了?
A
申請政府的研發補助
B
提升模型的透明度,記錄其預期用途、性能指標、限制與倫理考量
C
自動化模型的部署流程
D
保護模型的商業機密
答案解析
模型卡是一種旨在提高 AI 模型透明度問責性的文件。它通常以簡潔、標準化的格式,記錄關於模型的關鍵資訊,例如:模型的開發者、版本、預期用途、不適用場景、訓練數據描述、使用的演算法、性能評估指標(包括在不同群體上的表現、公平性指標)、已知的限制、潛在風險以及倫理考量等。模型卡可以幫助模型的開發者、使用者和管理者更好地理解模型的特性,做出明智的使用決策,並促進負責任的 AI 實踐。
#47
★★
對組織內部員工進行 AI 倫理風險意識的培訓,屬於哪種風險管理措施?
A
技術性控制(Technical Control
B
管理性或程序性控制Administrative/Procedural Control
C
物理性控制(Physical Control
D
法律性控制(Legal Control
答案解析
風險控制措施通常可分為幾類:(A) 技術性控制是透過硬體或軟體技術來實現的(如加密、防火牆、存取控制);(C) 物理性控制是保護實體資產的(如門禁、監控攝影機);(B) 管理性或程序性控制則是透過制定政策、標準、流程、指南以及人員培訓等方式來影響人的行為,以降低風險。對員工進行 AI 倫理風險意識培訓,旨在提高他們對相關議題的敏感度,了解組織的政策要求,並在工作中做出更負責任的判斷與行為,這屬於典型的管理性或程序性控制措施。法律性控制(D)通常指外部的法律法規。
#48
★★★
在評估 AI 系統可能帶來的「聲譽風險」(Reputational Risk)時,主要考量的是?
A
AI 系統的運算成本
B
AI 系統的失誤或不當應用可能對組織形象、公眾信任度造成的負面影響
C
AI 系統使用的開源元件數量
D
AI 系統是否使用了最新的演算法
答案解析
聲譽風險是指因組織的行為、產品或服務引發負面觀感,導致利害關係人(如客戶、投資者、員工、公眾)對組織的信任、尊重或評價下降的風險。AI 系統若出現嚴重失誤(如大規模歧視、隱私外洩、安全事故),或被認為應用於不道德、不公平的場景,都可能引發公眾強烈反彈、媒體負面報導、客戶流失、甚至監管介入,嚴重損害組織的聲譽和品牌價值。因此,在 AI 風險評估中,必須將潛在的聲譽衝擊納入考量。
#49
★★★
AI 模型在訓練完成後,進行「壓力測試」(Stress Testing)的目的主要是為了評估模型在哪方面的表現?
A
在理想數據條件下的最高準確率
B
極端、異常或邊緣情況下的穩健性與可靠性
C
模型訓練過程的能源消耗
D
模型程式碼的可讀性
答案解析
壓力測試是一種旨在評估系統在超出正常操作範圍或承受極端負載條件下表現的測試方法。在 AI 模型的情境下,壓力測試通常涉及:(1) 輸入極端或罕見的數據(邊緣案例);(2) 輸入帶有雜訊或損壞的數據;(3) 模擬高併發請求或資源受限的環境;(4) 測試模型對抗性擾動的抵抗能力等。其主要目的是找出模型的脆弱點,評估其在非理想狀況下的穩健性Robustness)、可靠性Reliability)和安全性Security),確保其在實際部署中能夠應對各種挑戰,而不是只在乾淨、理想的測試集上表現良好。
#50
★★★★
提倡建立 AI 開發與部署的「文件化」(Documentation)實踐,對於落實負責任 AI 的哪個面向最為關鍵?
A
提升模型的預測速度
B
降低數據儲存的需求
C
增進透明度可追溯性問責性
D
自動化錯誤修復流程
答案解析
良好的文件化實踐貫穿 AI 生命週期的各個階段,對於實現負責任 AI 至關重要。透過記錄:數據來源與處理過程(數據表 Datasheets)、模型設計選擇與假設(模型卡 Model Cards)、訓練過程與參數設定、測試結果與評估指標、風險評估與緩解措施、部署配置與監控計畫等,可以:(1) 提高透明度:讓利害關係人了解系統如何建構與運作;(2) 增強可追溯性:當問題發生時,能夠追溯原因;(3) 支持問責性:明確開發與決策過程,便於釐清責任;(4) 促進知識傳承與協作;(5) 輔助稽核與合規性驗證。缺乏文件記錄會使得理解、除錯、驗證和追究責任變得極為困難。
沒有找到符合條件的題目。