以下所有試題(及其答案與解析)皆是依據 iPAS 專業工程師考試 AI應用規劃師 之「1.人工智慧基礎概論」大綱與能力指標所撰寫,特別緊扣下列核心重點進行命題與編製:
-
人工智慧的基本概念與應用領域
-
瞭解 AI 的定義、發展與核心目標。
-
探討 AI 在隱私、安全及倫理方面的潛在挑戰。
-
-
資料處理基礎知識
-
資料收集、清洗、分析和視覺化的流程。
-
理解資料在 AI 模型中的角色與重要性。
-
-
機器學習基本原理與常見方法
-
熟悉監督式學習、無監督式學習、強化學習等主要類型。
-
了解各類演算法(如迴歸、分類、聚類等)之應用場景。
-
-
鑑別式 AI 與生成式 AI
-
分辨兩者特性與差異。
-
理解生成式 AI 的概念、基本原理及其應用領域。
-
-
本模擬試題旨在協助考生釐清考試範疇並進行自我評量,題目設計均貼合「1.人工智慧基礎概論」的能力指標,盼能提供考生更聚焦且系統性的複習方向。祝備考順利,學習成果豐碩。
第一部分(題號 1~100)
1. 下列何者最能描述「人工智慧」的核心目標?
A. 透過大型資料庫進行檔案索引
B. 讓機器能模擬人類的思考或行為模式
C. 設計高速運算電腦以處理平行運算
D. 建立固定規則以自動化所有決策流程
Answer: B
Explanation: 人工智慧核心在於「讓機器能模擬或執行人類的智能行為」,包含推理、學習、判斷與決策等。
2. 下列何者最符合人工智慧(AI)的基本定義?
A. 機器具備大量儲存空間
B. 透過機器學習與演算法讓系統自動學習與推理
C. 電腦開發之程式語言的使用
D. 全部依靠使用者手動輸入數據
Answer: B
Explanation: AI 藉由機器學習與相關演算法,使系統能自動「從經驗中學習」並進行推理或預測。
3. 關於人工智慧的應用領域,下列何者較不屬於常見的 AI 應用?
A. 電腦視覺
B. 自然語言處理
C. 化石挖掘中的地質辨識
D. 聲音辨識
Answer: C
Explanation: 化石挖掘與地質辨識並非主流或常見的 AI 領域,雖不代表絕無應用,但相較 A、B、D 為 AI 典型領域,此為最不常見。
4. 下列敘述何者最符合 AI 技術在隱私層面可能面臨的挑戰?
A. 只要在演算法中設定隱私參數即可完全保護個資
B. 收集大規模使用者資料時,若缺乏明確同意或保護機制,恐侵犯個人隱私
C. 因為模型自動學習,因此不存在隱私洩漏風險
D. 健全的資料庫規劃能避免任何形式的隱私問題
Answer: B
Explanation: 進行大規模資料收集時,若無明確的授權機制或保護措施,便可能產生侵犯個人隱私的風險。
5. 下列何者不屬於 AI 技術在安全性方面的主要挑戰?
A. 演算法被惡意竄改,造成模型輸出錯誤
B. 分散式運算環境不穩定,導致執行效率降低
C. 深度學習模型遭對手攻擊(adversarial attack)
D. 資料在傳輸過程中遭竊取或竄改
Answer: B
Explanation: 分散式運算環境的不穩定主要影響「效率」或「效能」,並非直接的安全性(資安)威脅;其餘選項均涉及安全或對手攻擊。
6. 下列選項何者屬於 AI 技術在倫理面向的關鍵課題?
A. 如何減少運算資源的使用成本
B. 如何強化中央處理器(CPU)的製程
C. 如何避免演算法產生偏見或歧視
D. 如何提高 GPU 的運算速度
Answer: C
Explanation: 演算法因訓練資料或設計不當可能產生偏見(Bias),造成歧視是重要的倫理議題。
7. 關於 AI 在自動駕駛領域應用時,下列敘述何者正確?
A. 自動駕駛車僅需單純規則式判斷,不需要機器學習
B. 汽車必須具備高階感測器與即時圖像辨識技術
C. 車輛決策只需參考地圖資訊,不需要神經網路運算
D. 結合 AI 後,車輛在碰撞事故責任歸屬上不會產生任何爭議
Answer: B
Explanation: 自動駕駛通常仰賴多種感測器(攝影機、雷達、LiDAR 等)及先進影像/感知技術,才能做即時決策。
8. 下列何者最能說明「弱人工智慧(Weak AI)」?
A. 強調模擬人類全面智慧,能主動發明技術
B. 運用嚴格規則達成單一特定任務或功能
C. 擁有類似人類的意識與情感
D. 完全模擬人類的多層面思考與行為
Answer: B
Explanation: 弱人工智慧通常只在某特定領域或單一功能上有表現,不追求真正的人類全方位智慧。
9. 下列有關「強人工智慧(Strong AI)」的敘述,何者較為合理?
A. 強調在多重領域擁有人類相當的智能與理解力
B. 僅用於影像辨識與語音辨識等單一功能
C. 不需感測器即可精準抓取外界資訊
D. 不包含任何形式的神經網路架構
Answer: A
Explanation: 強人工智慧目標是在多元領域展現類似人類般通用智慧,而非只侷限於單一任務。
10. 下列哪一項技術最能協助 AI 系統進行影像辨識?
A. 電子商務平台的推薦系統
B. 自然語言處理中的詞嵌入(word embedding)
C. 深度學習中的卷積神經網路(CNN)
D. 強化學習中的 Q-learning
Answer: C
Explanation: 卷積神經網路 (CNN) 專長於影像處理與辨識,是目前影像領域的主流架構。
11. 透過 AI 技術實現人臉辨識時,下列何者較不可能是資料面向須考量的要點?
A. 臉部資料的隱私與取得授權
B. 資料庫臉部影像解析度的足夠性
C. 影像處理前的資料清洗和特徵標註
D. 資料科學家本人是否熟悉 3D 列印技術
Answer: D
Explanation: 3D 列印技術與人臉資料處理無直接關連,其餘選項皆為人臉辨識的重要考量面向。
12. 下列關於「AI 在醫療診斷」的應用敘述,何者較為正確?
A. 只要有任何醫學影像,就能自動得到最準確的診斷結果
B. AI 模型需要龐大的醫療影像及對應診斷資料作為訓練基礎
C. 模型訓練不需要任何標籤資料,只需無監督學習即可
D. 醫師必須完全讓 AI 自動診斷,無須再進行二次確認
Answer: B
Explanation: 用於醫療影像的 AI 模型通常需大量且高品質的帶標註(標籤)的醫學資料,才能協助醫療診斷。
13. 關於「資料收集」對 AI 研發的重要性,下列敘述何者較不恰當?
A. 豐富且多元的資料有助於訓練更可靠的模型
B. 在資料收集前不需要考量使用者隱私問題
C. 收集過程應注意資料品質及標註正確性
D. 隨機且不具代表性的資料可能導致模型偏差
Answer: B
Explanation: 收集前「必須」考量隱私與合規性,故宣稱「不需要考量使用者隱私」是不恰當敘述。
14. 若要進行 AI 專案,資料清洗的主要目的在於:
A. 優化程式效能,減少演算法的記憶體使用量
B. 將原始資料中的重複值、遺漏值或異常值處理,以提高資料品質
C. 完全刪除所有疑似不正確的資料
D. 主要在美化資料以便於視覺化
Answer: B
Explanation: 資料清洗目的是「處理重複、遺漏、異常等問題」,確保整潔度與一致性。
15. 下列何者不是常見的「資料分析」步驟?
A. 特徵工程與選擇
B. 參數調整(hyperparameter tuning)
C. 視覺化與描述統計
D. 資料庫硬體升級
Answer: D
Explanation: 資料分析通常包含特徵工程、模型調參、視覺化等流程,資料庫硬體升級則屬基礎設備維運層面,不是核心分析步驟。
16. 關於「資料視覺化」,下列敘述何者較為恰當?
A. 只要以表格呈現即可,無需進一步的圖形分析
B. 圖像呈現的主要目的是傳遞資訊並協助發現數據間的關係
C. 可用來完全取代參數優化過程
D. 使用越複雜的圖形就代表視覺化品質越高
Answer: B
Explanation: 視覺化的目的在於「有效傳達資訊、找出潛在關係」,並非取代其他分析流程。
17. 在 AI 模型開發過程中,資料所扮演的主要角色為:
A. 幫助確定演算法的執行速度
B. 提供訓練、驗證、測試模型所需的依據與素材
C. 單純給使用者參考,模型實際並不需要資料
D. 只要有模型參數就可以取代資料
Answer: B
Explanation: 機器學習/深度學習的模型需要大量資料來學習與評估,資料是模型的「燃料」。
18. 關於「機器學習」與「深度學習」的關係,下列敘述何者正確?
A. 深度學習是機器學習的子領域,強調多層神經網路
B. 機器學習無法應用神經網路
C. 深度學習與機器學習是完全獨立的兩個領域
D. 機器學習僅包含監督式學習
Answer: A
Explanation: 深度學習是機器學習的一個分支,特別強調以多層神經網路來進行特徵學習。
19. 機器學習常見的主要方法不包括下列何者?
A. 監督式學習
B. 半監督式學習
C. 強化學習
D. 基因學學習
Answer: D
Explanation: 常見機器學習包含監督式、無監督式、半監督式、強化學習等,「基因學學習」並非主流稱呼。
20. 在監督式學習中,下列何者是常見的任務?
A. 聚類(Clustering)
B. 分類(Classification)
C. 降維(Dimensionality Reduction)
D. 關聯規則挖掘(Association Rule Mining)
Answer: B
Explanation: 監督式學習常見任務為「分類」或「回歸」,選項 A 與 C 屬無監督範疇,D 屬關聯分析。
21. 下列敘述何者最能描述「回歸(Regression)」任務?
A. 將資料分群而無明確標籤
B. 預測連續性數值的結果
C. 預測類別標籤
D. 找尋不同屬性的關聯性
Answer: B
Explanation: 回歸就是預測「連續數值」,如價格、溫度等。
22. 下列哪一種機器學習演算法最常用於「分類(Classification)」?
A. 線性迴歸(Linear Regression)
B. 羅吉斯迴歸(Logistic Regression)
C. 主成分分析(PCA)
D. K-Means 聚類
Answer: B
Explanation: 羅吉斯迴歸雖名為「迴歸」,但實際應用在二元或多元分類。
23. 關於「無監督學習」,下列敘述何者正確?
A. 必須提供正確的標籤資料才能進行訓練
B. 常見於分類與回歸問題
C. 透過資料本身的分布或特徵,進行聚類或降維等分析
D. 預測未來某個時間點的銷售量
Answer: C
Explanation: 無監督學習沒有標籤,主要是從資料的內在結構中挖掘分群或模式。
24. K-Means 演算法主要用途為:
A. 監督式學習的迴歸問題
B. 對資料進行分群(Clustering)
C. 進行強化學習
D. 預測時間序列
Answer: B
Explanation: K-Means 演算法是經典的無監督「分群」演算法。
25. 關於「生成式 AI」與「鑑別式 AI」的區別,下列敘述何者正確?
A. 生成式 AI 專注於生成新資料或內容;鑑別式 AI 主要用於判斷或分類已有的資料
B. 生成式 AI 需要標籤資料;鑑別式 AI 完全不需要標籤資料
C. 生成式 AI 無法用於圖像生成;鑑別式 AI 只適合語音辨識
D. 生成式 AI 不需大規模模型參數
Answer: A
Explanation: 生成式 AI (Generative) 著重「生成」內容,鑑別式 (Discriminative) 著重對現有資料作辨識、分類或判斷。
26. 關於「生成式對抗網路(GAN)」的原理,下列何者較為貼切?
A. 單純線性迴歸
B. 由生成器與辨別器相互對抗學習,以產生逼真的資料
C. 只有生成器,不包含辨別器
D. 以強化學習為基礎,與環境不斷互動
Answer: B
Explanation: GAN 透過「生成器」(Generator) 與「辨別器」(Discriminator) 互相競爭,使生成器產出愈來愈逼真的結果。
27. 生成式 AI 在應用時,較需關注的重點不包括下列何者?
A. 產出內容的真實性或合理性
B. 產生結果可能涉及智慧財產權或著作權爭議
C. 產生大量圖像或文本,但品質無法被評估
D. 硬體 CPU 的時脈速度
Answer: D
Explanation: 生成式 AI 的重點關注包含內容真實度、侵權與倫理,而 CPU 時脈雖會影響執行效率,但相對不是首要考量。
28. 下列哪一個應用最可能是「生成式 AI」的範疇?
A. 客服機器人判斷使用者問題類型
B. 透過文字描述自動生成對應的圖像(Text-to-Image)
C. 進行影像分類與物件辨識
D. 語音指令控制家電開關
Answer: B
Explanation: 文字轉圖像(Text-to-Image)明顯屬於生成式 AI 的典型應用。
29. 關於 AI 中的「偏見(Bias)」問題,下列何者敘述較為恰當?
A. 偏見僅存在於資料標註,不會存在於演算法
B. 偏見通常與資料收集和標註過程密切相關
C. 只要使用大型神經網路就能自動消除偏見
D. 偏見只會出現在深度學習模型,不會影響傳統機器學習
Answer: B
Explanation: 偏見往往來自於「資料收集與標註」或「樣本分佈」不均衡等,並可能影響後續模型。
30. 監督式學習中,常見於分類問題的評估指標不包括下列哪一項?
A. 準確率(Accuracy)
B. 精確率(Precision)
C. 召回率(Recall)
D. 互資訊(Mutual Information)
Answer: D
Explanation: 互資訊常用於衡量特徵與標籤之間的相關度,並非最常見的分類「性能」評估指標 (如 Accuracy, Precision, Recall, F1)。
31. 關於 AI 模型訓練的「過擬合(Overfitting)」現象,下列何者為其常見的解決方法?
A. 不做任何資料清洗,直接提高模型複雜度
B. 使用更多訓練資料或進行正則化(Regularization)
C. 減少驗證資料集的大小
D. 僅使用單一演算法參數,避免模型擴充
Answer: B
Explanation: 過擬合往往可透過增加資料量、正則化或使用 Dropout 等方式來緩解。
32. 下列哪一個方法通常與「正則化(Regularization)」無關?
A. L1 或 L2 正則化
B. Dropout
C. Batch Normalization
D. 遺傳演算法(Genetic Algorithm)
Answer: D
Explanation: 遺傳演算法屬於一種演化式優化方法,並非典型的「正則化」技巧。L1/L2、Dropout、BatchNorm 等都可視為正則化或穩定訓練方式的一環。
33. 在機器學習流程中,「特徵工程(Feature Engineering)」的主要意義為何?
A. 單純增加資料量
B. 從原始資料中萃取、選擇或組合出對模型預測最有幫助的特徵
C. 將模型輸出結果可視化,方便人類理解
D. 用於資料庫的備份與復原
Answer: B
Explanation: 特徵工程是將原始資料處理成更能被模型有效利用的特徵,提升預測效果。
34. 有關「交叉驗證(Cross-Validation)」的描述,下列何者較為正確?
A. 只需要一次切分資料為訓練集與測試集即可
B. K-Fold 交叉驗證能使資料在不同的「訓練/驗證」配置下測試模型,以更客觀評估模型性能
C. 交叉驗證必須在有標籤資料的情況下才能進行
D. 交叉驗證只適用於無監督學習
Answer: B
Explanation: 交叉驗證是透過多次分割資料,使模型評估更穩定客觀。
35. 在 AI 模型訓練中,若資料量不足,易產生的問題不包括下列何者?
A. 模型過度擬合
B. 模型難以學習有效特徵
C. 模型容易在測試時表現不佳
D. 模型可保證在所有測試資料上達到 100% 準確率
Answer: D
Explanation: 資料不足通常會導致過擬合、難以學習等問題,反而不可能「保證 100% 準確率」。
36. 下列何者不是常見的「資料品質」問題?
A. 資料遺漏(Missing Data)
B. 資料重複(Duplicate Data)
C. 資料無關(Irrelevant Data)
D. 資料備份(Data Backup)
Answer: D
Explanation: 資料備份與品質本身無直接關係,屬資料管理/維運層面。
37. 關於「特徵尺度(Feature Scaling)」與模型訓練的關係,下列敘述何者正確?
A. 僅在使用決策樹模型時才需要特徵尺度化
B. 對於距離或梯度相關的演算法,若未進行尺度化,可能影響模型收斂
C. 特徵尺度化指的是增加資料維度
D. 只需對標籤(Label)做尺度化
Answer: B
Explanation: 許多使用梯度或距離度量的演算法(如線性回歸、神經網路、SVM、KNN 等)都需要特徵在相似尺度上,以利訓練收斂和效能。
38. 下列敘述何者最能代表「資訊安全」在 AI 專案中的重要性?
A. 強調模型運算速度,即可保證資訊安全
B. 必須確保資料傳輸與儲存的過程防止外部惡意攻擊
C. 只要使用雲端服務就能自動確保安全
D. 資訊安全與 AI 專案無關
Answer: B
Explanation: AI 專案往往蒐集並處理大量敏感資料,必須在傳輸及儲存過程防範竊取、竄改或對手攻擊。
39. 下列關於 AI 系統中「對手攻擊(Adversarial Attack)」的描述,何者較為合適?
A. 只會發生在語音辨識,影像辨識不會受到影響
B. 是透過些微干擾或修改,使 AI 模型判斷結果嚴重錯誤
C. 只要使用資料加密就能防止所有對手攻擊
D. 只在無監督學習中產生
Answer: B
Explanation: 對手攻擊是指在輸入資料中嵌入極微小但蓄意的干擾,使模型做出錯誤判斷,是近年安全領域重要議題。
40. 關於 AI 項目的倫理考量,下列何者較不符合常見原則?
A. 公平性(Fairness):避免模型對某些族群產生系統性歧視
B. 責任歸屬(Accountability):若產生錯誤決策,應有明確可追溯機制
C. 透明度(Transparency):不需要向任何人公開演算法
D. 隱私權(Privacy):確保個資不被濫用
Answer: C
Explanation: 一般要求 AI 系統具「適度透明度」,若完全不揭露,難以建立信任和追責機制。
41. 下列關於「AI 倫理」中「可解釋性(Explainability)」的描述,何者為真?
A. 所有 AI 模型都能完全可解釋
B. 若模型無法被解釋,便無法投入商業應用
C. 可解釋性是讓人們理解 AI 決策或預測背後的原因
D. 可解釋性僅適用於規則式系統
Answer: C
Explanation: 「可解釋性」強調幫助人理解模型的判斷依據,並非所有模型都易解釋,但多數應用仍會追求一定程度的可解釋度。
42. 若要加強 AI 模型的可解釋性,下列何者較不常被採用?
A. 使用決策樹或隨機森林等樹狀結構模型
B. 利用 LIME、SHAP 等方法進行模型解釋
C. 增加隱藏層數量與神經元後自動提升可解釋性
D. 運用可視化工具呈現模型對輸入特徵的權重評估
Answer: C
Explanation: 增加深度和神經元通常會使模型更複雜、可解釋性更低;A、B、D 都是常見的解釋手段。
43. 下列哪種職業領域不太可能直接被 AI 所取代?
A. 大量重複性資料處理工作
B. 需高度創造力與人際互動的工作
C. 電子商務推薦系統的演算
D. 圖像標註與初步篩選
Answer: B
Explanation: AI 對高度依賴人際互動、創造力或同理心的工作較難全面取代。
44. 關於人工智慧在「智慧製造」領域的應用,下列敘述何者正確?
A. 只要安裝機器手臂即可自動達成所有智能化
B. 透過感測器與數據分析,可優化生產流程與品質檢測
C. 不需要任何資料收集與處理,主要靠勞工經驗
D. 智慧製造不涉及預測維護或需求預測
Answer: B
Explanation: 智慧製造透過各種感測器蒐集資料,再結合 AI 數據分析優化流程與品質檢測等。
45. 下列何者最可能是「自然語言處理(NLP)」的應用範例?
A. 預測手機電池餘量
B. 新聞文章的自動摘要與情感分析
C. 遙測衛星影像的分類
D. 強化學習的遊戲代理(Game Agent)
Answer: B
Explanation: 自然語言處理應用相當廣泛,新聞摘要和情感分析都是常見 NLP 任務。
46. 下列哪一項不是 NLP 常見的技術或概念?
A. 詞嵌入(Word Embedding)
B. 形態分析(Morphological Analysis)
C. 語句標註(POS Tagging)
D. 波士頓矩陣(BCG Matrix)
Answer: D
Explanation: BCG 矩陣為企業策略工具,不屬於 NLP 技術範疇。
47. 針對中文文本進行 NLP 處理時,下列何者為必要步驟?
A. 文字圖像化
B. 中文斷詞(Tokenization)
C. 隱藏馬可夫模型
D. 資料庫結構化
Answer: B
Explanation: 中文處理的一大難點在於「沒有空白斷詞」,故中文斷詞為重要前置步驟。
48. 下列敘述何者最能代表「深度學習」對硬體需求的特性?
A. 大部分的深度學習演算法都在 CPU 上比在 GPU 更快
B. 訓練大型深度神經網路時,往往需要 GPU 或 TPU 等加速器
C. 若資料規模很大,也能輕易在普通筆電上進行大規模訓練
D. 訓練時間與資料大小無關
Answer: B
Explanation: 深度學習常需加速器(GPU/TPU)才能加快大規模參數與資料的訓練迭代。
49. 關於深度神經網路的「層數」與「模型複雜度」,下列敘述何者為真?
A. 增加層數不會影響任何訓練難度
B. 層數越多,模型理論上能學到更複雜的特徵,但也可能更難訓練
C. 深度神經網路只需要 2 層就能解決所有問題
D. 層數越多,計算量越小
Answer: B
Explanation: 深層網路可捕捉更複雜特徵,但層數越多伴隨梯度消失、運算量大等訓練難度。
50. 下列何者最不符合「卷積神經網路(CNN)」在圖像處理的特性?
A. 透過卷積核(Filter)萃取影像局部特徵
B. 可用池化(Pooling)層減少特徵維度
C. 需要將圖片轉成語音訊號再進行運算
D. 經常應用在圖像分類、物件偵測等領域
Answer: C
Explanation: CNN 直接處理影像矩陣,不需先轉為語音訊號。
51. 針對影像辨識任務,使用 CNN 的主要優勢為:
A. 免除大量手動的特徵工程,能自動學習影像特徵
B. 計算量極低,能在任何設備上即時運行
C. 不需要大量標註資料即可達到高精度
D. 完全不需要 GPU 加速也能快速訓練
Answer: A
Explanation: CNN 能自動萃取影像特徵,大幅降低傳統需人工作特徵工程的負擔;但仍通常需要較多資料及硬體加速。
52. 關於「循環神經網路(RNN)」的描述,下列何者較為正確?
A. 無法處理序列型資料
B. 在序列資料處理時,能記住之前的輸入資訊(隱狀態)
C. 不適用於任何自然語言處理
D. 無法應用於語音識別
Answer: B
Explanation: RNN 透過「隱藏狀態」(Hidden State) 連續傳遞,能處理時間序列或文本序列等問題。
53. 關於 LSTM(Long Short-Term Memory)結構,下列敘述何者較不正確?
A. LSTM 是為了克服一般 RNN 長期依賴問題所發展出來
B. LSTM 在單元內使用「輸入閘、遺忘閘、輸出閘」等機制
C. LSTM 只能處理影像資料,無法用於文本資料
D. LSTM 能較好地保留長距離序列資訊
Answer: C
Explanation: LSTM 廣泛應用於文本、語音等序列資料處理,並非只能用於影像。它主要是為解決 RNN 長期記憶問題而設計。
54. 在語音辨識任務中,下列哪一種網路架構最常被採用?
A. 卷積神經網路(CNN)
B. 循環神經網路(RNN)或其變體(如 LSTM、GRU)
C. 生成對抗網路(GAN)
D. 自編碼器(Autoencoder)
Answer: B
Explanation: 語音屬序列資料,RNN 及其變體 (LSTM, GRU) 是常用選擇。
55. 有關「注意力機制(Attention Mechanism)」對序列資料處理的貢獻,下列敘述何者正確?
A. 只適用於非序列資料
B. 可讓模型在處理序列時,根據需求對不同部分給予不同權重
C. 僅能在圖像辨識中應用
D. 與 Transformer 架構無關
Answer: B
Explanation: 注意力機制可讓模型聚焦在序列中關鍵位置,在 NLP、語音、圖像等多領域都有應用。
56. Transformer 架構在自然語言處理中的突破性原因不包括下列哪一點?
A. 能透過「多頭注意力(Multi-Head Attention)」學習序列中不同位置之間的關係
B. 廢除了 RNN 的循環結構,並行化效率更高
C. 僅需少量參數即可在大規模語料上訓練
D. 透過位置編碼(Positional Encoding)保留序列資訊
Answer: C
Explanation: Transformer 通常參數龐大,其餘 A、B、D 都是其優勢;說「僅需少量參數」並不符合現實。
57. 下列哪一個模型屬於「生成式 AI」在自然語言處理中的應用?
A. BERT
B. GPT 系列(如 GPT-3、GPT-4)
C. ResNet
D. YOLO
Answer: B
Explanation: GPT (Generative Pre-trained Transformer) 為生成式模型,可用於文本生成。
58. 關於 BERT(Bidirectional Encoder Representations from Transformers),下列敘述何者較為正確?
A. 主要是 GAN 的生成器
B. 只針對單向的語言模型
C. 使用雙向 Transformer 編碼器,能更好理解上下文
D. 完全不用注意力機制
Answer: C
Explanation: BERT 為雙向 Transformer Encoder 架構,可同時考慮前後文資訊。
59. 為何「大型語言模型(Large Language Model, LLM)」在近年 AI 研究中備受矚目?
A. 因為其參數量極小,所以運算需求很低
B. 能在大規模語料下學到通用的語言與知識表示,適用多種下游任務
C. 大多只能針對特定客製化領域應用
D. 已不再需要任何標註資料
Answer: B
Explanation: LLM 在龐大語料上預訓練後可遷移至多種任務,具備高度通用性。
60. 在資料處理過程中,若需要對文字資料進行編碼,下列哪一種方法最常被使用於深度學習?
A. One-Hot Encoding
B. Bag-of-Words 的詞頻統計
C. 字典順序編碼
D. Word Embedding(如 Word2Vec、GloVe)
Answer: D
Explanation: 目前深度學習大多使用詞向量(Embedding)來表示文字語意,較傳統 One-Hot 或詞頻統計更能捕捉上下文資訊。
61. 關於機器學習的「偏差-變異(Bias-Variance)取捨」,下列敘述何者較為合理?
A. 偏差高意味著模型過度擬合
B. 變異高代表模型在不同資料集上結果穩定
C. 需透過調整模型複雜度、資料量及正則化等方式在偏差與變異間達到平衡
D. 偏差越低越好,變異也越低越好,兩者並不沖突
Answer: C
Explanation: 偏差-變異取捨是 ML 中常見的概念,必須同時兼顧,以尋求最佳平衡。
62. 下列哪一種方法可用於減少模型的變異(Variance)?
A. 使用更多訓練資料或採用 Ensemble 方法
B. 提高學習率(Learning Rate)
C. 減少正則化強度
D. 增加模型深度與複雜度
Answer: A
Explanation: 若模型在不同資料集上表現波動大,可透過「增加資料」或「集成學習(Ensemble)」來降低變異。
63. 在實務專案中,若「資料不平衡(Imbalanced Data)」問題嚴重,可能導致:
A. 少數類別的預測效果不佳
B. 所有類別預測都同樣精準
C. 可直接視為多分類問題處理
D. 使用 K-Means 聚類即可解決
Answer: A
Explanation: 如果某些類別資料極少,模型容易傾向預測多數類別,導致少數類別表現不佳。
64. 為解決資料不平衡,下列哪一個方法常被採用?
A. 隨機增加少數類別(Oversampling)或減少多數類別(Undersampling)
B. 完全刪除所有少數類別資料
C. 只使用多數類別進行訓練
D. 不進行任何處理,直接使用原始資料
Answer: A
Explanation: 典型作法含 Oversampling、Undersampling 或使用合成技術(如 SMOTE)等,以平衡類別分佈。
65. 在進行「特徵選擇(Feature Selection)」時,下列何者較不常見?
A. 根據特徵重要度排序,篩選高重要度特徵
B. 手動刪除所有有數值的特徵
C. 利用統計檢定或互資訊等量化方法
D. 透過模型本身(如樹狀模型)評估特徵重要度
Answer: B
Explanation: 「手動刪除所有有數值的特徵」並無邏輯,也不常見;其他皆為常用特徵選擇方式。
66. 若要使用語音資料進行機器學習,下列前置作業何者通常必須進行?
A. 只需文字斷詞
B. 音訊資料的特徵擷取,如 MFCC(梅爾頻率倒譜係數)
C. 將每段音訊隨機打亂
D. 使用批次正規化來處理雜訊
Answer: B
Explanation: 語音通常會先提取如 MFCC 等特徵,才能餵入模型;斷詞則是文本處理手段。
67. 「強化學習(Reinforcement Learning)」的基本概念包含以下哪一項?
A. 模型與靜態資料間的映射
B. 代理(Agent)與環境(Environment)不斷互動,透過獎勵或懲罰學習行為策略
C. 必須有完整標籤資料才能進行
D. 只能應用於自然語言處理
Answer: B
Explanation: 強化學習透過 Agent 與 Environment 互動,根據回饋(獎勵/懲罰)學得策略。
68. 強化學習常用於下列何種應用?
A. 圖像分群
B. 建立聊天機器人(Chatbot)的回答分類
C. 遊戲 AI 或機器人控制
D. 文字語意分析
Answer: C
Explanation: 強化學習典型應用在遊戲、自動駕駛、機器人控制等互動性場景。
69. 下列哪個敘述最能代表「強化學習」中的「Q-Learning」演算法?
A. 僅用於監督式學習
B. 代理根據 Q 函數評估動作的預期回報,逐漸學習最佳行動策略
C. 使用隨機梯度下降更新語言模型
D. 用於資料分群
Answer: B
Explanation: Q-Learning 讓 Agent 透過更新 Q 函數來評估各動作的價值,並尋找最佳策略。
70. 在機器學習工作流程中,「資料探索性分析(EDA)」的目的不包括:
A. 發現資料分布、缺漏值與潛在問題
B. 直接生成最終預測模型
C. 為後續特徵工程與模型假設提供參考
D. 使用各種統計圖表與指標檢視資料趨勢
Answer: B
Explanation: EDA 側重「了解與檢查資料」,並非直接訓練最終模型。
71. 關於「資料可視化」工具,下列哪一項較不常被提及?
A. Matplotlib
B. Tableau
C. Power BI
D. Eclipse(程式開發整合環境)
Answer: D
Explanation: Eclipse 是開發環境(IDE),並非常見的可視化工具;其餘均屬於資料視覺化常用工具。
72. 當資料集具有高維度特性時,常用於降維的方法為:
A. 監督式學習的分類器
B. PCA(主成分分析)或 t-SNE 等技術
C. 互資訊(Mutual Information)
D. Word2Vec
Answer: B
Explanation: 高維資料通常利用主成分分析 (PCA) 或 t-SNE 做降維,可視化或降低維度複雜度。
73. 若要評估回歸模型的表現,下列哪一項指標最可能被用到?
A. Accuracy
B. Recall
C. R-squared(決定係數)
D. F1-Score
Answer: C
Explanation: R-squared(或 MSE、MAE 等)為回歸常用指標,而 Accuracy、Precision、Recall、F1 通常用於分類。
74. 假設你訓練了一個二元分類模型,在測試時出現「很多實際為陽性的樣本被預測為陰性」,此情況稱為:
A. 偽陽性(False Positive, FP)
B. 偽陰性(False Negative, FN)
C. 真陽性(True Positive, TP)
D. 真陰性(True Negative, TN)
Answer: B
Explanation: 「實際陽性卻預測為陰性」即為 False Negative(FN)。
75. 二元分類中,若對陽性樣本判定的「召回率(Recall)」越高,意味著:
A. 分類器對陽性類別的識別度越強,能找出更多真正陽性的樣本
B. 偵測到陽性的同時,也增加很多偽陽性
C. 讓陰性樣本的預測能力變弱
D. 模型的準確度一定上升
Answer: A
Explanation: Recall = TP / (TP+FN)。Recall 越高,代表更多陽性樣本被成功找出(FN 越少)。
76. 為了在「高召回率」和「高精確率」之間做平衡,常用的整合指標為:
A. MAE(Mean Absolute Error)
B. MSE(Mean Squared Error)
C. F1-Score
D. R2
Answer: C
Explanation: F1-Score 為 Precision 與 Recall 的調和平均,常用於評估分類器在兩者間的平衡表現。
77. 生成式 AI 模型若被用於虛假資訊產生,可能帶來的倫理爭議不包括:
A. 可能助長假新聞或不實資訊的散播
B. 可能引發社會對 AI 的信任度降低
C. 提高資料標註的精確度
D. 可能造成對特定人士的誤導或誹謗
Answer: C
Explanation: 使用生成式模型產生假資訊,與「提高資料標註精確度」無直接關係。其餘均屬可能之負面效應。
78. 關於「生成式 AI」應用於文本生成時,下列何者較為恰當的描述?
A. 生成內容永遠正確無誤
B. 需要對生成文本加以審核或過濾,以防止錯誤或不當內容
C. 生成模型不需要任何參數
D. 任何輸入都能產生高品質文本
Answer: B
Explanation: 生成式 AI 雖能自動產生文本,但難免出現不實或不當內容,因此須加以審核/過濾。
79. 在實務中,為確保 AI 系統決策公正,下列何者不是常見做法?
A. 遵循隱私保護法規
B. 進行演算法偏見檢測與修正
C. 保留偏見特徵以減少運算量
D. 設計透明可追溯的決策流程
Answer: C
Explanation: 若特徵本身帶有敏感偏見,通常會考慮去除或修正,而非刻意保留。
80. 若 AI 系統導致某些族群受到歧視,下列哪一個層面最可能需要被檢討?
A. 資料蒐集與標註過程是否公平
B. 模型推論速度是否夠快
C. 使用者介面排版是否美觀
D. 系統的硬體記憶體大小
Answer: A
Explanation: 偏見通常根源於資料收集或標註不當,也可能演算法設計考量不足,但最先應檢討資料面的公平性。
81. 「資料標註」對於監督式學習的重要性為:
A. 無標籤資料也能達到監督式學習最佳效果
B. 正確且一致的標註能讓模型準確捕捉預測目標
C. 僅適用於影像資料
D. 只要少量標註資料就能完全涵蓋所有情況
Answer: B
Explanation: 監督式學習高度依賴標註品質,標註越正確,模型越能學習到目標概念。
82. 自然語言處理中,進行中文「詞性標註(POS Tagging)」的主要目的為:
A. 區分每個詞的詞性,如名詞、動詞、形容詞,便於後續語言理解
B. 切分句子與段落
C. 測試中文語音識別
D. 將詞轉換為向量表示
Answer: A
Explanation: 詞性標註是標示每個詞的文法功能,例如名詞(N)、動詞(V)、形容詞(ADJ)等。
83. 下列何者最有助於提升機器學習模型的「泛化能力(Generalization)」?
A. 在同一筆資料上反覆訓練直到 100% 準確度
B. 使用更多元的訓練資料,並進行適當的正則化或 Dropout
C. 盡量增加模型參數,使模型更精細
D. 減少測試集大小
Answer: B
Explanation: 增加資料多樣性並使用正則化,可避免過擬合並提升泛化能力。
84. 在模型部署前,必須進行「模型驗證」與「測試」的目的為何?
A. 僅用於產生更美觀的視覺化圖表
B. 確認模型在真實世界的表現,以及避免過擬合
C. 增加模型參數量
D. 減少模型的可解釋性
Answer: B
Explanation: 驗證與測試可確保模型效能穩定且不會過度擬合,才適宜投入生產環境。
85. 若想衡量二元分類模型在各種閾值(Threshold)設定下的性能,可使用:
A. ROC 曲線與 AUC
B. 混淆矩陣的 TP、TN
C. F1-Score 單一數值
D. 隨機森林的重要特徵排序
Answer: A
Explanation: ROC 曲線 (含 AUC) 能在不同閾值下觀察分類器的 TP 與 FP 變化,是常見評估方法。
86. 當 ROC 曲線越靠近左上角,表示:
A. 分類器性能越好
B. 分類器性能越差
C. 隨機猜測
D. 沒有任何意義
Answer: A
Explanation: ROC 曲線越接近左上角,代表 TP Rate 高且 FP Rate 低,預測能力越好。
87. 「精確率(Precision)」與「召回率(Recall)」的權衡關係,可以透過哪一種圖表呈現?
A. ROC 曲線
B. PR(Precision-Recall)曲線
C. 混淆矩陣
D. 劇本大綱
Answer: B
Explanation: Precision-Recall 曲線可視化不同閾值下 Precision 與 Recall 的變化。
88. 下列何者不是「強化學習」的核心要素?
A. 代理(Agent)
B. 環境(Environment)
C. 回饋或獎勵(Reward)
D. 樣本標註(Labeling)
Answer: D
Explanation: 強化學習不需傳統「標註資料」,而是依據「獎勵機制」學習策略;Agent、Environment、Reward 為核心要素。
89. 在強化學習中,若代理每次採取行動後都能即時得到回饋或獎勵,稱為:
A. 批次學習
B. 即時回報(On-policy)學習
C. 離線學習
D. 無監督學習
Answer: B
Explanation: 簡化地說,「On-policy」或「即時」強化學習指代理在行動時即可獲得回饋,不斷更新策略;(Off-policy) 如 Q-Learning,也能即時更新,但此題主要強調「即時回饋」的概念,多歸為 on-policy/online 類型。
90. 針對「資料隱私」議題,下列敘述何者較不恰當?
A. AI 收集個人資料時需符合所在國或地區的法規
B. 需明確告知使用者資料使用範圍與目的
C. 只要將資料匿名化,就可以不受任何法規限制
D. 若涉個資收集,需制定隱私保護措施
Answer: C
Explanation: 資料匿名化並不代表完全免除法規,有些法規仍要求更嚴謹的程序;C 過於絕對,不恰當。
91. 若 AI 系統需使用大量個人臉部資料,下列哪一個面向較不需考量?
A. 取得使用者授權或遵循相關隱私法
B. 確保資料庫連線時的加密傳輸
C. 模型使用的隱藏層數
D. 資料遭外洩時的應變機制
Answer: C
Explanation: 隱藏層數屬模型設計問題,與隱私保護無直接關連;其餘選項與個資保護密切相關。
92. 關於 AI 專案中的「資料使用同意(Consent)」機制,下列何者較正確?
A. 無需經過同意,只要匿名化資料即可任意使用
B. 可以在使用資料後再要求補簽同意書
C. 應在收集前或收集時明確告知用途,並獲得資料提供者授權
D. 若屬於商業應用,一概不需要同意
Answer: C
Explanation: 合法合規的做法是在收集個人資料之前,先取得明確告知與授權。
93. 下列哪一個條件無法完全確保 AI 系統符合倫理規範?
A. 演算法具有高度透明度
B. 持續監督與審查訓練資料
C. 僅靠 AI 系統自行監管
D. 進行風險評估與模型結果的解釋
Answer: C
Explanation: 倚賴 AI 自身自我監管並不足以確保倫理合規,仍需人為監督及完整體制。
94. 在「資料管理」的層面,下列哪一項屬於良好做法?
A. 盡量將所有資料長期保存於本地硬碟,不用備份
B. 定期備份資料並作權限管控,使用者需適當授權方可存取
C. 開放所有人無限制地讀寫資料庫
D. 完全不考慮資料格式與結構
Answer: B
Explanation: 良好的資料管理包含「定期備份」與「權限管控」,以確保資料安全及隱私。
95. 下列哪一個程式語言或框架不常用於 AI 開發?
A. Python
B. R
C. JavaScript(配合某些深度學習前端框架)
D. COBOL
Answer: D
Explanation: COBOL 為傳統商業系統語言,極少用於 AI;Python、R、JavaScript 均可見於相關應用。
96. 「雲端平台」對 AI 專案的幫助不包括:
A. 可彈性調整運算資源
B. 提供各式工具(如資料庫、模型訓練模組)加速開發
C. 自動生成演算法而無需人工設定
D. 方便部署與即時擴充
Answer: C
Explanation: 雲端平台雖提供大量服務與工具,但仍需開發者自行設定演算法與流程,並非完全自動。
97. 若要在邊緣裝置(例如手機、智慧家電)上部署 AI 模型,下列敘述何者為真?
A. 模型需經過壓縮或優化,以符合裝置的運算與記憶體限制
B. 完全不需考慮裝置效能,訓練好的大型模型直接部署
C. 邊緣裝置無法離線推論
D. 只要支援 Python 就能執行所有 AI 模型
Answer: A
Explanation: 邊緣裝置資源有限,故通常須量化、壓縮或剪枝模型,以降低運算量與記憶體占用。
98. 在實際產業中導入 AI 專案時,下列哪一項較不屬於主要挑戰?
A. 資料與隱私合規性
B. 組織內部 AI 人才的缺乏
C. 零硬體成本
D. 商業價值與成本效益評估
Answer: C
Explanation: 導入 AI 極少是「零硬體成本」,通常需要額外伺服器或雲端資源;A、B、D 都是企業常見挑戰。
99. 關於 AI 專案管理中,「敏捷開發」的重點在於:
A. 一次性完成所有需求再進行測試
B. 迭代式開發及持續回饋與修正
C. 不建立任何文件
D. 只強調前期規劃,不需彈性調整
Answer: B
Explanation: 敏捷開發強調「迭代短週期開發」「持續整合回饋」,而非一次定案。
100. 若企業要引進 AI 技術,下列哪一個層面相對較不會是首要考量?
A. 資料的品質與合規性(例如隱私、安全法規)
B. 預算與導入後的成本效益評估
C. 組織現有的人才與技術能力,及後續培訓計畫
D. 企業的 Logo 設計或品牌形象視覺風格
參考答案:D
簡要解析:
-
企業在導入 AI 時,通常最先考慮的要素包括:資料品質、隱私法規、組織內人才或技術能力,以及專案預算與可行性等面向。
第 101~200 題
101. 下列何者較能代表「人工智慧」在產業升級中所扮演的角色?
A. 單純替代人工作業的所有流程
B. 幫助企業更快速地數據分析與決策,優化生產或服務
C. 只在企業財務系統中發揮作用
D. 單純讓企業業務全面自動化,無需人員維護
Answer: B
Explanation: AI 的核心價值在於輔助企業進行快速、精準的數據分析與決策,並不一定能「全盤替代」人力,但可優化流程、提升效率。
102. 如果一個 AI 系統依賴龐大的用戶個人資料來訓練,下列哪一個步驟是必須的?
A. 隨機收集所有網路上可取得的個人資訊
B. 只要資料庫容量夠大就無需擔心
C. 建立明確的資料隱私與授權機制,以遵守隱私法規
D. 加密模型參數即可防止隱私外洩
Answer: C
Explanation: 處理個資時需嚴格遵守相關法規並取得使用者授權,僅加密參數不足以保證隱私合規。
103. 有關 AI 技術的潛在風險,下列何者較不屬於常見範疇?
A. 駭客竄改模型或訓練資料
B. 模型判斷失誤導致關鍵決策錯誤
C. 使用者無法成功登入社群平台
D. 演算法偏見造成族群歧視或不公平決策
Answer: C
Explanation: 無法登入社群平台多屬系統或網路故障問題,和 AI 特有的風險較無直接關聯;其餘都屬 AI 常見風險。
104. 下列哪一種情形較可能發生「模型外推(Extrapolation)」失誤?
A. 資料集在模型訓練前已做過標準化
B. 模型在未出現過的範圍輸入下依然進行推估,導致結果不準確
C. 模型只在有限區間預測卻得到過擬合
D. 測試資料與訓練資料分布完全一致
Answer: B
Explanation: 外推(Extrapolation)指的是輸入的特徵範圍超出訓練時所見的分布,模型往往無法準確預測。
105. 關於資料收集過程,下列何者較符合「合法合規」的作法?
A. 直接向第三方公司大量購買所有個人資訊
B. 將使用者行為資料全數公開在網路上供開發者下載
C. 收集前應先徵求用戶同意,並告知資料用途與保存期限
D. 只需取得用戶姓名即可開始模型訓練
Answer: C
Explanation: 資料收集前應告知目的並徵求同意;大規模且不當公開或購買個資恐違反隱私法。
106. 若在建置一個客戶流失預測模型,下列何者不是需要考慮的資料面向?
A. 過去客戶使用產品或服務的歷史行為
B. 客戶的個人資料,如年齡、地區等(若合法取得)
C. 企業財務報表中的公司總負債
D. 客戶的服務反饋紀錄
Answer: C
Explanation: 客戶流失預測多聚焦於「個人使用行為」與「基本屬性、反饋」,公司自身負債對個體客戶是否流失的直接關聯性通常不大。
107. 一個資料集若含有明顯的「極端值(outlier)」時,下列何種做法較適宜?
A. 一律刪除所有看起來不尋常的資料
B. 針對極端值進行統計檢視,評估其背後意義與真實性,再決定如何處理
C. 無須任何處理,直接納入模型訓練
D. 將極端值全部變成平均值
Answer: B
Explanation: 面對極端值應先檢查其合理性;可能是「重要異常」或「誤差」,不可盲目全部刪除或改寫。
108. 若開發一個自動化影像標註系統,下列哪種狀況最可能造成標註結果不可靠?
A. 資料集採用高解析度影像
B. 標註人員對標註規則理解不一致
C. 使用者介面美觀度不足
D. 訓練集中包含多種影像類別
Answer: B
Explanation: 若人員對標註規範理解不同,會出現不一致或錯誤標記,直接影響模型準確度。
109. 關於監督式學習中的「分類」應用,下列敘述何者較為恰當?
A. 一旦分類模型訓練完成,就不需要再更新
B. 通常依據離散標籤(類別)作為預測目標
C. 分類模型無法用於信用卡詐欺偵測
D. 若預測結果與實際不同,便一定是資料標註錯誤
Answer: B
Explanation: 分類預測的是「離散類別」;A、C、D 都不正確,分類可應用於偵測詐欺,且模型往往需隨時間持續更新。
110. 下列哪個方法最常用於「多分類(multi-class classification)」?
A. One-vs-Rest (OvR) 或 One-vs-One (OvO) 的延伸策略
B. K-Means
C. 主成分分析 (PCA)
D. ARIMA
Answer: A
Explanation: 多分類問題常使用 OvR 或 OvO 方式來將二元分類器延伸至多類別情境;K-Means 與 PCA 為無監督方法,ARIMA 用於時間序列。
111. 有關無監督學習的應用,下列何者較為適切?
A. 需要精準的標籤才能做聚類
B. 市場區隔分析常使用無監督方法找出消費者群組
C. 無監督學習無法應用於降維
D. 醫學影像診斷判讀必定使用無監督學習
Answer: B
Explanation: 市場區隔常透過無監督分群(如 K-Means)分類客群;降維(如 PCA)也屬無監督。醫學診斷多偏監督式(有標籤)。
112. 強化學習中,「探索(exploration)」與「利用(exploitation)」的平衡意義為何?
A. 模型要在全局搜尋新的策略與使用已學得的最佳策略之間取得平衡
B. 只要完全依靠探索,就能保證最高獎勵
C. 若無限次利用現有策略,即可找到真正的全域最佳解
D. 強化學習並不需要探索階段
Answer: A
Explanation: 在強化學習中,代理需同時嘗試新行動(探索)與善用已學到的策略(利用),才能取得最優回報。
113. 下列哪一項較不可能是「生成式 AI」的應用範例?
A. 自動生成人臉或藝術風格圖像
B. 創建音樂或文章
C. 自動語音合成
D. 依據過去銷售紀錄做未來趨勢分類
Answer: D
Explanation: 依據銷售紀錄進行趨勢「分類」較偏向鑑別式預測,非主要生成式 AI 應用。生成式常見於圖像/文本/音樂產生。
114. 關於生成式對抗網路(GAN),下列敘述何者正確?
A. 沒有辨別器(Discriminator)就可完成訓練
B. 生成器(Generator)的目標是欺騙辨別器,使其無法分辨真實與偽造樣本
C. GAN 多用於分類現有資料
D. 只需少量資料就能產生高品質結果,且不受模型設計影響
Answer: B
Explanation: GAN 由生成器和辨別器對抗學習,生成器企圖產生更逼真的假樣本使辨別器判斷失準。
115. 在「生成式 AI」中,若想確保生成圖像不侵犯他人版權,下列何者較為恰當?
A. 直接爬取網路上任意圖像做訓練
B. 不用任何授權確認即可任意用於商業用途
C. 在資料來源和使用許可證方面做好規範與審核
D. 只要重新調色就不算侵犯版權
Answer: C
Explanation: 生成式 AI 雖可自動產出內容,但仍需注意訓練素材的合法性與授權規範,避免產生版權問題。
116. 下列哪一個機器學習演算法較不適用於大量特徵的高維度資料?
A. k-NN (k-近鄰)
B. 決策樹 (Decision Tree)
C. 線性迴歸 (Linear Regression)
D. 隨機森林 (Random Forest)
Answer: A
Explanation: k-NN 對維度相當敏感(「維度災難」問題),若特徵空間很大,距離度量可能會失去判別力;其餘方法相對更能處理較高維度(但也會需要合適特徵工程)。
117. 當評估分類模型「精確率(Precision)」很高但「召回率(Recall)」偏低,下列解釋何者較合理?
A. 預測出來的陽性樣本大多是真陽性,但仍有許多真陽性被漏掉
B. 模型在所有情況下都表現極佳
C. 預測出來的陽性樣本中誤判很多
D. 模型對陰性類別毫無辨別度
Answer: A
Explanation: 精確率高代表「預測為陽性的樣本大多是真陽性」,但召回率低表示還有不少真陽性未被抓到。
118. 在評估多分類問題的模型性能時,下列何者最常被視為通用指標?
A. AUC (Area Under Curve)
B. RMSE (Root Mean Squared Error)
C. Macro-平均 F1 分數 (Macro-F1)
D. 絕對誤差 (Absolute Error)
Answer: C
Explanation: 多分類時常用 Macro-F1 或 Weighted-F1 等綜合指標,分別衡量各類別的 Precision 與 Recall。AUC 多用於二元分類,RMSE 屬回歸指標。
119. 若一個回歸模型在訓練集表現極佳、但在測試集表現很差,下列可能原因為何?
A. 測試資料品質過高
B. 模型產生過擬合(Overfitting)
C. 模型太過簡化(Underfitting)
D. 硬體規格不足
Answer: B
Explanation: 訓練集「極佳」但測試集「很差」,典型是過擬合問題。
120. 關於資料視覺化,下列哪一種圖表最常用於顯示兩個數值型變數之間的分布與關係?
A. 長條圖 (Bar Chart)
B. 散佈圖 (Scatter Plot)
C. 圓餅圖 (Pie Chart)
D. 盒鬚圖 (Box Plot)
Answer: B
Explanation: 散佈圖可同時顯示 X 與 Y 的數值,並呈現兩者之間的可能關係或趨勢。
121. AI 與大數據分析之間的關係,下列何者為真?
A. AI 完全不需要大數據
B. 大數據分析僅是一種行銷手段,與 AI 無關
C. 大數據為 AI 提供了大量訓練素材與分析機會,AI 則負責從海量數據中尋找規律
D. AI 與大數據分析是同義詞
Answer: C
Explanation: 大數據(Big Data)提供規模龐大且多樣的資料,AI/ML 透過這些資料進行訓練並學習規律,兩者相輔相成。
122. 在資料清洗的過程中,下列作法何者較為不恰當?
A. 建立清洗規則,針對空值與異常值進行處理
B. 直接用統計平均值填補所有遺漏值,而不分變數性質
C. 分析極端值是否合理,若確定為錯誤可予以更正或刪除
D. 若某些欄位缺失值比例過高,可考慮刪除該欄位
Answer: B
Explanation: 將所有缺漏值一律用平均值填補可能不恰當,應先檢驗資料性質、分布及適合的補值方法。
123. 在開發 NLP 模型時,下列哪一個步驟最常被跳過?
A. 中文文本的斷詞
B. POS 標註
C. 詞向量化 (Word Embedding)
D. 影像預處理
Answer: D
Explanation: NLP 與影像預處理無直接關係,後者屬電腦視覺領域;其餘 A、B、C 都是常見的 NLP 流程。
124. 常見的「過抽樣(Oversampling)」技術如 SMOTE,主要用於哪一種資料情況?
A. 高度平衡的多類別問題
B. 單純迴歸數值預測
C. 資料不平衡(Imbalanced Data)的監督式學習
D. 強化學習的狀態空間建模
Answer: C
Explanation: SMOTE(合成少數類別過抽樣)用於監督式學習中處理類別不平衡問題。
125. 在機器學習過程裡,若發現特徵 X 與標籤之間呈現高度非線性關係,下列哪種模型較有彈性處理此狀況?
A. 線性迴歸 (Linear Regression)
B. 邏輯斯迴歸 (Logistic Regression)
C. 決策樹 (Decision Tree)
D. 任何線性模型都能直接處理
Answer: C
Explanation: 決策樹透過樹狀結構可捕捉非線性關係,線性(或邏輯斯)迴歸假設特徵與輸出關係大多是線性的或特定函數形態。
126. 若要在龐大文本中自動找出「有意義的字詞聚集或主題(topic)」,較常使用下列哪種技術?
A. TF-IDF 直接用於分類
B. 主題模型 (Topic Modeling) 如 LDA (Latent Dirichlet Allocation)
C. 決策樹分類器
D. 主成分分析 (PCA)
Answer: B
Explanation: 文字領域中,LDA 等主題模型屬典型無監督方法,可從大規模文本找出潛在議題或主題聚集。
127. 在評估多類別分類結果時,若想進一步檢視每個類別的預測混淆情形,下列哪一種方式最直觀?
A. 查看單一 Accuracy 數值即可
B. 只檢視 F1-Score
C. 繪製混淆矩陣(Confusion Matrix),觀察各類別真正、偽判情況
D. 簡單列出 Precision/Recall 即可
Answer: C
Explanation: 混淆矩陣能逐一呈現各類別的 TP、FP、FN、TN 分佈,最能細部檢視多類別問題預測效果。
128. 關於「資料倫理」的實踐,下列敘述何者較適當?
A. 資料科學家可自行決定隱私界限,不需和法務或管理部門合作
B. 在資料使用時應保持適度透明,並考量可能的社會影響
C. 只要技術能實現就可使用,不論用途
D. 無須考慮偏見或歧視問題,因為演算法很客觀
Answer: B
Explanation: AI 開發需多方合作並評估倫理與社會影響,尤其是隱私及偏見議題,不能只考量技術可行性。
129. 下列哪一種學習模式需要「獎勵函數(Reward Function)」的設計?
A. 監督式學習
B. 無監督學習
C. 半監督學習
D. 強化學習
Answer: D
Explanation: 強化學習需要獎勵函數來評估代理(Agent)動作好壞,並藉此進行策略更新。
130. 針對時間序列預測,如銷售量或氣溫,下列何者較不適合?
A. ARIMA 模型
B. LSTM 或其他 RNN 架構
C. CNN 用於圖像分類
D. Prophet(Facebook 開源的時間序列工具)
Answer: C
Explanation: CNN 雖可應用於 1D 時序,但最常見領域為圖像;而 ARIMA、LSTM、Prophet 等都是常見時間序列預測方法。
131. 在企業導入 AI 系統的初期,下列何者是較常見的阻力或困境?
A. 零資料蒐集與管理成本
B. 企業組織對 AI 成果期望過低
C. 缺乏足夠的數據基礎或 AI 人才,導致專案推不動
D. 完全不需要高層支持
Answer: C
Explanation: 實務中,企業若缺乏數據基礎及具備 AI 技能的人才,往往很難推動專案。
132. 下列哪一項技術能使深度學習模型在處理序列資料時具備「平行運算」優勢?
A. 卷積核
B. RNN(傳統的循環神經網路)
C. Transformer 架構中的多頭注意力(Multi-Head Attention)
D. Autoencoder
Answer: C
Explanation: Transformer 以「注意力機制」取代 RNN 循環,使序列處理可並行運算,大幅提升效率。
133. 為了測試模型在不同閾值設定下的表現,可同時觀察「Precision」與「Recall」的變化,應該繪製:
A. ROC 曲線
B. 混淆矩陣
C. PR 曲線(Precision-Recall Curve)
D. 溫度折線圖
Answer: C
Explanation: Precision-Recall Curve 能隨閾值改變觀察 Precision 與 Recall 之間的平衡。
134. 在「資料探索性分析(EDA)」階段,下列哪一項工作通常不在此階段完成?
A. 了解資料分布、相關性、缺漏值狀況
B. 初步視覺化數據
C. 建立即時線上預測 API
D. 產出報表或簡易結論作為後續建模依據
Answer: C
Explanation: 在 EDA 階段主要針對資料本身進行檢視與分析,並不會馬上建立線上 API。
135. 有關機器學習中「特徵工程」的重要性,下列敘述何者較不恰當?
A. 合適的特徵工程能顯著提升模型表現
B. 神經網路可完全取代特徵工程,不需要任何前置處理
C. 特徵縮放與編碼也是特徵工程的一部分
D. 不同問題需不同特徵選擇策略
Answer: B
Explanation: 雖然深度學習能自動萃取部分特徵,但前置處理與資料清洗仍相當重要;並非完全不需要特徵工程。
136. 當使用深度學習做圖像分類,下列哪一種資料增強(Data Augmentation)方法較不可能?
A. 隨機翻轉影像(Flip)
B. 隨機旋轉或縮放影像
C. 隨機裁切影像(Crop)
D. 隨機插入句子向量
Answer: D
Explanation: 在圖像增強中,翻轉、旋轉、裁切等是常見作法;「插入句子向量」則是 NLP 領域方法。
137. 若某工廠的瑕疵檢測系統誤報率太高,可能是下列哪種情況?
A. 偽陽性(False Positive)偏多
B. 偽陰性(False Negative)偏多
C. 真陽性(True Positive)偏高
D. 真陰性(True Negative)偏高
Answer: A
Explanation: 誤報 (False Positive) 意指實際無瑕疵卻判定有瑕疵,誤報越多導致誤檢。
138. 當資料量極為龐大且實時更新,下列哪一種學習模式可行?
A. 線上學習(Online Learning)
B. 離線學習(Offline Learning)
C. 只使用交叉驗證即可
D. 不進行任何模型更新
Answer: A
Explanation: 線上學習可隨資料持續來時即時更新模型,適用於資料不斷流動的場景。
139. 哪一個機制能減輕深度神經網路的梯度消失或梯度爆炸問題?
A. Normal Equation
B. 批次正規化(Batch Normalization)
C. 互資訊增益
D. 全連接層(Fully Connected Layer)
Answer: B
Explanation: Batch Normalization 能穩定神經網路的輸出分布,減少梯度消失或爆炸,並加速訓練收斂。
140. 「鑑別式 AI」與「生成式 AI」的根本區別在於:
A. 是否需要大量標籤資料
B. 生成式 AI 專注於「生成新樣本或內容」,鑑別式 AI 則著重在「判斷、分類或預測」
C. 鑑別式 AI 無法用深度神經網路
D. 生成式 AI 全部都需要 GAN
Answer: B
Explanation: 鑑別式 (Discriminative) 模型用於判斷或分類,生成式 (Generative) 模型能夠創造新內容。
141. 下列何者不是深度學習常見的優化演算法?
A. SGD (Stochastic Gradient Descent)
B. Adam
C. RMSProp
D. Apriori
Answer: D
Explanation: Apriori 是關聯規則挖掘演算法,不屬於神經網路的優化方法。
142. 若要評估語音合成系統的合成品質,下列哪一項指標較常被使用?
A. SSIM (Structural Similarity Index)
B. BLEU (在機器翻譯評估時常用)
C. MOS (Mean Opinion Score)
D. FID (Fréchet Inception Distance)
Answer: C
Explanation: MOS(平均意見分數)常用於語音合成品質評估,BLEU 用於翻譯,FID 用於生成影像品質。
143. 在機器學習實作中,若發現特徵間存在高度共線性,下列作法何者較常見?
A. 不做任何處理
B. 使用 Ridge 或 Lasso 等正則化方法,或移除其中一項重複特徵
C. 直接加大學習率
D. 增加模型深度
Answer: B
Explanation: 高度共線性可能影響迴歸模型穩定性,常使用正則化或刪除相關度極高之特徵。
144. 下列哪一種環境設定較容易導致「Catastrophic Forgetting(災難性遺忘)」?
A. 在多任務學習中,直接用相同模型連續訓練不同任務
B. 固定同一個資料集做無線次迭代
C. 使用大規模的交叉驗證
D. 訓練資料與測試資料分布一致
Answer: A
Explanation: 當模型連續學習不同任務時,較可能覆蓋先前已學習的權重,產生災難性遺忘。
145. 在資料視覺化工具中,若要快速探索性分析並互動式檢視趨勢,下列何者較常被使用?
A. Matplotlib
B. Tableau 或 Power BI
C. Eclipse
D. GCC 編譯器
Answer: B
Explanation: Tableau 與 Power BI 提供互動式分析與可視化;Matplotlib 屬 Python 繪圖庫,多用於程式開發;Eclipse 與 GCC 屬開發工具。
146. 有關 BERT 模型,下列敘述何者正確?
A. BERT 是單向 Transformer 架構
B. BERT 為雙向編碼器,能同時考慮詞彙前後文
C. BERT 主要用於影像分類
D. BERT 不需要任何預訓練階段
Answer: B
Explanation: BERT 為 Bidirectional Encoder Representations from Transformers,可同時考慮上下文,並須經預訓練。
147. 在一個二元分類問題中,若我們更在意「不要錯過任何真正的陽性案例」,則應關注:
A. 提高 Precision
B. 提高 Recall
C. 減少 Accuracy
D. 隨意設定閾值
Answer: B
Explanation: 不要漏掉真正陽性的目標,即使有更多誤報,也要犧牲一些精確率來提高召回率。
148. 「資料可視化」中,若希望凸顯數值的時間走趨勢,下列哪種圖表最直觀?
A. 折線圖(Line Chart)
B. 長條圖(Bar Chart)
C. 圓餅圖(Pie Chart)
D. 樹狀圖(Tree Map)
Answer: A
Explanation: 折線圖適合顯示隨時間變化的趨勢。
149. 當企業導入 AI 系統後,下列哪一項並非 AI 專案後續常見的維運需求?
A. 持續監測模型表現與數據分布變化
B. 定期重新訓練或調參
C. 完全停止收集新數據
D. 蒐集用戶回饋並做功能迭代
Answer: C
Explanation: 導入 AI 後通常仍需持續收集新數據來更新模型,若完全停止收集,模型可能逐漸失效。
150. 下列關於「資料驅動決策」的描述,何者較正確?
A. 只要大量蒐集資料就能自動導出結論
B. 資料科學團隊需和決策層或業務部門合作,才能將分析結果轉化為具體行動
C. 不需要任何領域知識即可做出最優決策
D. 主要依賴個人經驗,不需數據分析
Answer: B
Explanation: 資料分析結果應結合業務與決策層討論,才可能落地成具體策略;僅有大量資料並不足以自動決策。
151. 有關自動駕駛的機器感知技術,下列何者較不包含在主要感測方法中?
A. LiDAR
B. 雷達(Radar)
C. 熱感應攝影機
D. 3D 列印機
Answer: D
Explanation: 自動駕駛常用攝影機、LiDAR、雷達等感測器收集環境資訊;3D 列印機則是製造工具,非感測器。
152. 下列哪一類型資料較不適合直接用於傳統 RNN 做序列預測?
A. 每日股票價量
B. 文章中的詞向量序列
C. 音訊波形的取樣序列
D. 未拆分成序列的 2D 圖片矩陣
Answer: D
Explanation: RNN 擅長處理一維序列,如文字或時間序列;圖片處理常用 CNN 或將其展開後另外設計網路。
153. 哪一種網路結構屬於「自動編碼器(Autoencoder)」的常見變體,可用於生成逼真的樣本?
A. VAE(Variational Autoencoder)
B. YOLO
C. CNN-RNN 混合網路
D. ResNet
Answer: A
Explanation: VAE 是自動編碼器的一種變體,用於生成式任務,可以產生具有連續潛在向量空間的逼真樣本。
154. 若想同時學習到資料的「判別式特徵」與「生成式特性」,常見做法為何?
A. 使用監督式學習即可
B. 只需要收集更多標籤資料
C. 結合 GAN 或 VAE 等生成式結構,再搭配鑑別式分類網路
D. 先進行 K-Means 再用決策樹
Answer: C
Explanation: 為同時兼顧判別與生成,多會結合生成式模組(GAN/VAE)與判別式模組,如在 GAN 中 Discriminator 即鑑別器。
155. 若深度學習訓練時出現「梯度爆炸」問題,下列何者可能為解法?
A. 增加學習率
B. 不做任何正則化
C. 使用梯度裁剪(Gradient Clipping)
D. 將批次大小調為 1
Answer: C
Explanation: 梯度爆炸可用梯度裁剪、降低學習率、或使用合適初始化等方式來緩解。
156. 在部署 AI 模型到行動裝置(Edge Device)時,通常不需要考慮:
A. 模型大小與記憶體使用量
B. 推論時延(Latency)
C. 用戶體驗與即時回饋
D. 企業股價走勢
Answer: D
Explanation: 邊緣部署主要考量裝置運算/記憶體限制與推論延遲,企業股價並非此層面考量。
157. 「模型壽命(Model Lifecycle)」中,若外界環境或資料分布改變,可能需要:
A. 保持舊模型不變
B. 隨時重訓或微調模型,確保對新情境的適用度
C. 更換開發語言但保留原始參數
D. 放棄資料管控
Answer: B
Explanation: 當環境或資料分布變化,AI 模型需要再訓練或調整,以維持表現。
158. 在機器學習專案中,若發現多數特徵皆為類別型(categorical),下列何者較可能?
A. 必須丟棄所有類別型特徵
B. 使用 One-Hot Encoding 或 Embedding 方式將類別轉為模型可用形式
C. 只能選擇樹狀模型
D. 不可進行監督式學習
Answer: B
Explanation: 類別型特徵常需經過編碼處理 (One-Hot、Embedding 等),使模型能理解該資訊。
159. 若某深度學習網路訓練速度突然變慢,並且損失函數長時間不下降,下列哪一個原因較可能?
A. 學習率(Learning Rate)設得太小或太大皆可能
B. 資料品質極佳
C. 全部特徵都非常相關
D. 使用者網路連線不穩
Answer: A
Explanation: 若學習率設定不當(太小或太大)都會導致訓練過程效率低或不收斂;其餘 B、C、D 與訓練效率無必然關係。
160. 下列哪一個組合較可能同時發生在分類模型的「過擬合」現象中?
A. 訓練集 Accuracy 高、測試集 Accuracy 亦高
B. 訓練集 Accuracy 高、測試集 Accuracy 低
C. 訓練集 Accuracy 低、測試集 Accuracy 高
D. 訓練集與測試集 Accuracy 都非常低
Answer: B
Explanation: 過擬合指的是模型在訓練集表現優秀,但無法泛化至測試集。
161. 有關對抗範例(Adversarial Example),下列敘述何者正確?
A. 只會出現在監督式學習
B. 在輸入中加入細微擾動,使模型誤判
C. 可透過刪除訓練資料徹底防範
D. 不影響任何深度學習模型
Answer: B
Explanation: 對抗範例是刻意在輸入加入極微小噪聲或干擾,使模型判斷出現大幅偏差,並廣泛影響各種深度學習應用。
162. 下列哪一項較不屬於「公平 AI(Fair AI)」的實踐方式?
A. 在資料收集與標註過程中盡量避免偏見
B. 若模型對某族群的預測明顯不公平,需進行校正
C. 完全禁止使用任何個人屬性(如性別、種族)作特徵
D. 持續監控部署後的決策結果,並審計是否造成歧視
Answer: C
Explanation: 有時考慮特定屬性(如種族)反而能及時偵測不公平;實踐公平 AI 需更精細的檢測與修正策略,而非一律禁止使用某屬性。
163. 在機器學習中,下列哪一項是衡量「偏差(Bias)」的常用概念?
A. 在不同資料切分間模型表現大幅波動
B. 訓練集表現與測試集表現差異過大
C. 模型無法在訓練集達到良好表現(系統性錯誤)
D. 資料標註過程完全隨機
Answer: C
Explanation: 偏差衡量的是模型本身在學習能力上的系統性誤差,若連訓練集都表現不佳,代表偏差高。
164. 若一個分類器同時使用「Accuracy、Precision、Recall、F1-Score」來評估,下列何者較能表示「對不平衡資料的綜合判斷」?
A. Accuracy
B. Precision
C. Recall
D. F1-Score
Answer: D
Explanation: 在類別不平衡情況下,Accuracy 可能失真,F1-Score 結合 Precision 與 Recall,更能反映分類器對陽性類別的整體表現。
165. 在大型語言模型(LLM)訓練中,下列敘述何者較為恰當?
A. 僅需少量資料即可完成大模型訓練
B. 訓練過程通常需要龐大計算資源與巨量語料
C. 模型只適用於數字運算,不擅長文字理解
D. 無需微調即可完美應對所有下游任務
Answer: B
Explanation: LLM(如 GPT 系列)通常在海量語料上訓練,需要大量 GPU/TPU 資源,且往往需微調才能針對特定任務優化。
166. 若想讓 NLP 模型理解句子結構與上下文,下列哪一種設計最可能?
A. 僅用 Bag-of-Words 數字計數
B. 使用 Transformer 架構,並配合注意力機制
C. 提取彩色直方圖特徵
D. 只依靠詞典順序排序
Answer: B
Explanation: Transformer 能透過多頭注意力同時考慮句子中不同詞彙之間的關聯,適合處理上下文理解。
167. 關於機器學習模型的可解釋性,下列敘述何者錯誤?
A. 決策樹的可解釋性通常高於深度神經網路
B. 可以用 SHAP、LIME 等方法來局部解釋模型輸出
C. 因模型複雜度提升,可能降低可解釋性
D. 可解釋性與模型性能永遠不會衝突
Answer: D
Explanation: 在實務中,可解釋性與模型效能有時存在衝突,需要在可解釋度和效能間取得平衡。
168. 機器學習部署後,若發現「新進資料分布明顯偏離舊資料」,應採取何種行動?
A. 保持原模型不變
B. 進行「概念漂移(Concept Drift)」檢測,並考慮重新訓練或調參
C. 將新資料全部丟棄
D. 對新資料做標籤再重新轉回舊格式
Answer: B
Explanation: 資料分布改變時,需偵測概念漂移並有計畫地更新或重新訓練模型。
169. 在 AI 倫理中,「透明度(Transparency)」的含意不包括下列哪一個面向?
A. 向使用者解釋模型的運作原理與輸出邏輯
B. 清楚標示是否為 AI 生成內容
C. 公開所有商業機密與源代碼
D. 讓利害關係人理解 AI 決策機制
Answer: C
Explanation: 透明度並不代表所有源碼都要公開;核心是提供充分資訊讓使用者或受影響者理解 AI 系統決策依據。
170. 當企業想要通過 AI 技術來做異常交易檢測,下列何者較不適合?
A. 可以收集交易紀錄與用戶行為做監督式學習
B. 只要在交易失敗的個案裡找規律即可
C. 可能需考慮無監督方法,如聚類或自動編碼器檢測異常模式
D. 可配合專家經驗定義部分規則輔助判斷
Answer: B
Explanation: 只根據交易失敗(不一定等於異常)案例可能不夠全面,需蒐集多維度資料、考慮監督或無監督方法等多重策略。
171. 如果一個 AI 專案需要使用即時資料流(Data Stream)進行學習,下列哪種作法較恰當?
A. 批次學習(Batch Learning)即可,無需動態更新
B. 線上學習(Online Learning)或流式學習(Streaming Learning)
C. 將資料存成離線檔,半年後再一起訓練
D. 先刪除大部分即時資料,以免佔用存儲空間
Answer: B
Explanation: 即時資料流通常採線上/流式學習,以隨時更新模型並因應動態環境。
172. 有關「機器學習模型的監控(Monitoring)」下列敘述何者較不適當?
A. 部署後即可完全不必再監控
B. 須持續追蹤預測結果與實際表現的差距
C. 可觀察輸入特徵分布變化,判斷是否需要再訓練
D. 若發現性能下降,須尋找原因並考慮改善措施
Answer: A
Explanation: 上線後的模型仍需監控,因環境或資料可能變動,導致性能波動或概念漂移。
173. 「R2(決定係數)」越接近 1,代表回歸模型:
A. 在資料上解釋力越強
B. 無法擬合任何特徵
C. 出現嚴重過擬合
D. 無法使用測試資料
Answer: A
Explanation: R2 越靠近 1,表示模型越能解釋輸入特徵對輸出變量的變化。
174. 若我們想比較兩個不同分類模型在各類別樣本數差異較大時的整體表現,下列哪個指標最合適?
A. 單純 Accuracy
B. Macro-F1 或 Weighted-F1
C. RMSE
D. Linear Correlation
Answer: B
Explanation: 面對類別分布不平衡時,Macro-F1 或 Weighted-F1 更能合理反映多類別的整體預測品質。
175. 在語音辨識系統中,若聲音環境雜訊很大,可能造成什麼問題?
A. 過度擬合
B. 產生更多語音特徵,但有助提升準確率
C. 語音訊號與噪聲混疊,導致錯誤率上升
D. 不影響模型預測
Answer: C
Explanation: 噪音會干擾語音特徵,降低語音辨識準確度。
176. 在醫療影像分析中,為何常強調需要「醫師標註」或「醫學專業標籤」?
A. 醫療領域無需標籤即可自動判讀
B. 只有專業醫師能確定病灶位置與診斷依據,提供高品質標籤
C. 用隨機方法標示病灶更客觀
D. 無論標籤是否正確,都能讓 AI 自動學習
Answer: B
Explanation: 醫療影像具有專業門檻,需醫師精準標記病灶及診斷,才能訓練出可靠 AI 模型。
177. 下列哪一個語言模型或框架較常用於自然語言理解(NLU)任務?
A. BERT
B. CNN-LSTM
C. YOLO
D. LDA
Answer: A
Explanation: BERT 為雙向 Transformer 結構,可在 NLU 任務上取得良好成效;YOLO 為物件偵測,LDA 為主題模型。
178. 若要對大量文件進行「文本摘要」,下列哪類方法較常見?
A. 規則式關鍵字抽取
B. 生成式摘要(Generative Summarization)
C. 以上皆可能
D. 僅能使用長度裁切
Answer: C
Explanation: 文本摘要可分為「抽取式(Extractive)」與「生成式(Generative)」,也可結合規則式關鍵字抽取等多元方法。
179. 在評估一個生成式 AI 所生成的文章品質時,下列哪一個方法可能比較合適?
A. WER (Word Error Rate) 只用於語音辨識
B. BLEU 或 ROUGE 用於文本生成評估
C. FID 用於影像生成
D. MAP (Mean Average Precision)
Answer: B
Explanation: BLEU、ROUGE 為文本生成常用評估指標;FID 主要針對圖像生成。
180. 在開發完一個二元分類模型後,我們發現此模型對陽性類別的 Recall 偏低。若目標是「不想漏掉陽性案例」,下列作法何者較可行?
A. 提高決策閾值,使模型更嚴苛
B. 降低決策閾值,寧可多判定陽性
C. 只使用預測機率最高的部份輸出
D. 不再微調模型
Answer: B
Explanation: 降低閾值可增加陽性判定的機會,提升 Recall(但也可能增加假陽性)。
181. 為何 GPU 在深度學習訓練中佔有重要地位?
A. GPU 記憶體通常比 CPU 小
B. 深度學習需要大量矩陣運算,GPU 的平行架構具更高吞吐量
C. GPU 價格昂貴是唯一理由
D. CPU 無法執行任何深度學習運算
Answer: B
Explanation: GPU 的多核心平行運算特性非常適合訓練深度神經網路,速度遠高於 CPU。
182. 下列哪個概念屬於「雲端運算」帶給 AI 專案的優勢?
A. 隨時無限制免費硬體資源
B. 可彈性調度計算資源做大規模模型訓練與部署
C. 只在本地端運行
D. 硬體不可擴充
Answer: B
Explanation: 雲端運算可彈性擴充計算與儲存資源,適合大型模型訓練部署;並非無限制免費。
183. 有關「AutoML(自動化機器學習)」的描述,下列何者較正確?
A. 不需要任何人為介入即可自動完成資料清理
B. 通常可幫忙自動搜尋模型超參數、特徵工程等,但仍需人工監控與調整
C. AutoML 只適用於深度學習
D. 一旦使用 AutoML,就可確保模型絕對最佳
Answer: B
Explanation: AutoML 可自動化部分流程,如超參數搜索、模型選擇等,但仍需專家介入檢查成果與資料品質。
184. 在研究「產業應用 AI」時,下列哪個案例較可能與影像處理無關?
A. 缺陷檢測
B. 產品外觀分級
C. 聲紋識別
D. 自動駕駛的物件偵測
Answer: C
Explanation: 聲紋識別屬語音辨識;缺陷檢測、產品外觀分級、自動駕駛物件偵測皆為影像處理應用。
185. 一個新開發的生成式模型出現「模態崩潰(Mode Collapse)」現象,指的是:
A. 模型無法生成任何樣本
B. 模型只會重複生成幾種相似樣本,缺乏多樣性
C. 模型記憶體不足
D. 模型自動轉為鑑別式模式
Answer: B
Explanation: Mode Collapse 是指生成式模型只生成極少幾種模式或樣本,導致缺乏多樣性。
186. 在「機器學習專案」中,選擇評估指標必須考慮:
A. 預期的商業需求或應用場景
B. 只要看 Accuracy
C. 由開發者隨意決定即可
D. 與領域專家或決策者無需討論
Answer: A
Explanation: 評估指標應根據實際應用需求、成本效益與領域場景而定,不同場合對 Precision、Recall、F1、RMSE 等要求各有差異。
187. 強化學習在遊戲 AI 中屢有成功,下列哪一項較不屬於成功因素?
A. 遊戲環境可自動產生明確獎勵或分數
B. 可不斷透過模擬進行大量對局訓練
C. 資料標註成本極高且難以取得
D. 圍棋、電玩等環境可快速運算回饋
Answer: C
Explanation: 在遊戲 AI 場景中,代理可進行大量自動對局,並自行獲取回饋,標註成本相對低;反之,標註成本高非此領域特點。
188. 如果企業想透過 AI 進行顧客回饋文本情感分析,下列何者較可能?
A. 需使用 NLP 技術進行情感分類或情感分數預測
B. 只做影像辨識即可
C. 必須進行語音合成
D. 無需資料清洗
Answer: A
Explanation: 顧客回饋文本需經 NLP 模型(如情感分析)預測其正向/負向程度;影像與語音非必備。
189. 「半監督式學習」主要解決哪種情境?
A. 完全沒有標籤的情境
B. 大量標籤資料充足
C. 少部分標籤資料 + 大量未標籤資料
D. 強化學習的回饋問題
Answer: C
Explanation: 半監督式學習在部份資料具標籤、更多資料無標籤的情況下,綜合利用兩者提升模型表現。
190. 當描述 AI 系統的「可擴充性(Scalability)」時,下列何者較不屬於考量範圍?
A. 隨著資料量增長,系統能否維持或擴大處理能力
B. 模型是否能在不同平台或裝置上運行
C. 開發者的程式語言喜好
D. 當同時用戶增加時,系統是否能保持效能
Answer: C
Explanation: 可擴充性強調系統能否應對資料量與用戶數增長,與開發者語言喜好無必然關係。
191. 若要避免 AI 模型在對人類敏感特徵(種族、性別等)上產生歧視,下列哪一種方法較常見?
A. 不需要任何檢測或修正
B. 只依靠增加隱藏層
C. 在資料層面或後處理階段執行去敏感化(Debiasing)
D. 禁止使用任何隱藏層
Answer: C
Explanation: 通常會針對敏感屬性在資料或模型預測階段做去敏感化,並進行偏差檢測;增加隱藏層無助於消除歧視。
192. 下列哪一個敘述最能說明「Ensemble 學習」?
A. 透過多個模型的結果綜合,如投票或加權平均,以提升整體表現
B. 使用單一最優模型
C. 將特徵全部放入同一個大型神經網路
D. 與遺傳演算法結合
Answer: A
Explanation: Ensemble 學習就是以多個模型(如 Bagging、Boosting)結合,通常能獲得更穩健、高效能的結果。
193. 有關隨機森林(Random Forest)的特性,下列何者較為正確?
A. 由一棵非常深的決策樹構成
B. 透過多棵樹投票或平均,能降低變異 (Variance) 並提升穩定度
C. 對少量資料的過擬合風險較小,但對龐大資料表現不佳
D. 無法做回歸任務
Answer: B
Explanation: 隨機森林由多棵決策樹組成,每棵樹的誤差可互相抵消,降低變異並提升穩定度,亦可用於回歸。
194. 有關「超參數(Hyperparameter)」與「參數(Parameter)」在機器學習的差異,下列敘述何者恰當?
A. 參數由訓練程序自動學得;超參數須在訓練前自行設定或調整
B. 兩者沒有任何差別
C. 所有網路權重均屬超參數
D. 隨機初始化後就不需改動
Answer: A
Explanation: 「參數」(如權重、偏置) 由訓練程序學習得到;「超參數」(如學習率、正則化強度、樹深度) 需預先指定或調整。
195. 若要建立一個分類器偵測「照片中是否有貓」,下列何者較屬於「監督式學習」的流程?
A. 無需任何標記照片即可訓練
B. 準備含有「貓 / 非貓」標籤的樣本圖片,然後訓練模型
C. 使用 K-Means 分群,找出貓類群組
D. 完全依照隨機森林投票來篩選
Answer: B
Explanation: 監督式學習需先有標籤(本例為「是否含貓」),再訓練分類器去辨識新照片。
196. 關於資料增強(Data Augmentation)在 NLP 的可行作法,下列何者可能?
A. 對圖像顏色進行變換
B. 插入或替換部分單詞以豐富語料
C. 對語音信號做變速
D. 只對訓練標籤進行編碼
Answer: B
Explanation: NLP 領域的增強可包含隨機替換、刪除或增添詞彙等;A 與 C 分別是圖像與語音增強手段。
197. 當我們無法解釋深度學習模型的判斷邏輯時,可能導致:
A. 提升訓練速度
B. 無法符合某些法規對可解釋性的要求
C. 避免過擬合
D. 模型使用受眾更廣
Answer: B
Explanation: 可解釋性不足可能導致法律合規問題(如銀行授信需解釋理由),因此在某些場合必須兼顧解釋性。
198. 若企業要分析顧客交易數據並即時發現「異常交易」或「詐騙行為」,下列哪一種框架較常用?
A. Batch Learning + CSV 格式離線分析
B. 僅用 PPT 報表
C. Streaming / Real-time Data Pipeline + 在線機器學習或規則檢測
D. 隨機手動檢查
Answer: C
Explanation: 即時偵測交易異常通常需要流式資料管道(Streaming)及可即時運行的模型,以快速攔截可疑交易。
199. 有關 Python 常用之機器學習/深度學習框架,下列何者不在其列?
A. TensorFlow
B. PyTorch
C. scikit-learn
D. MS-DOS
Answer: D
Explanation: MS-DOS 是早期作業系統;其餘皆為 Python 中常見之機器學習/深度學習框架或函式庫。
200. 當開發者在一個 AI 專案中,面臨無法收集足夠標註資料的情況,下列哪種策略較常被考慮?
A. 直接放棄監督式學習,改用遺傳演算法
B. 使用遷移學習(Transfer Learning)或少樣本學習(Few-Shot Learning)
C. 使用太多無關特徵填充
D. 將所有資料當作同一類別
Answer: B
Explanation: 當標籤資料不足,可考慮遷移學習(利用已有大模型微調)或 Few-Shot Learning 等技術,減少對龐大標注數據的需求。
第 201~300 題
201. 在「機器學習專案」流程中,何時最有可能用到「資料標註工具」?
A. 資料收集之前
B. 模型部署之後
C. 監督式學習的資料準備階段,為原始數據加上標籤
D. 完全無標籤的無監督學習
Answer: C
Explanation: 監督式學習需要標註(Labeling)資料,通常在資料準備或清洗後進行標籤;無監督學習則不需要標註。
202. 若要評估二元分類器在各種混淆矩陣下的綜合表現,哪一個圖表最能明確比較「正確接受率」與「誤報率」之間的關係?
A. ROC 曲線
B. 混淆矩陣
C. 梯度消失曲線
D. 雜湊圖
Answer: A
Explanation: ROC 曲線可視化不同閾值下的真陽性率(TPR)與假陽性率(FPR)關係,用 AUC 作為綜合評估。
203. 在 AI 模型的生命週期中,下列哪一個階段最需要考量「概念漂移(Concept Drift)」?
A. 資料蒐集之前
B. 模型訓練當下
C. 模型上線並運行一段時間後
D. EDA(探索性分析)階段
Answer: C
Explanation: 概念漂移通常出現在模型上線後,若外在環境或資料特徵改變,已訓練好的模型可能表現下降,需要重新調整或訓練。
204. 若企業計畫運用 AI 建立用戶行為預測模型,下列何者較不屬於前期必須建立的基礎?
A. 安全且隱私合規的資料管道
B. 充足的資料儲存與運算資源
C. 企業員工健康管理方案
D. 具備數據分析與資料標註能力的團隊
Answer: C
Explanation: 企業員工健康管理雖是重要議題,但與 AI 專案的前期基礎無直接關聯;其他選項則為導入 AI 的必要條件。
205. 下列哪一項不是評估「生成式模型」品質時常見的衡量方式?
A. BLEU(在文本生成的翻譯評估中使用)
B. FID(在圖像生成品質評估中常用)
C. Inception Score(在圖像生成評估中使用)
D. ARIMA(常用於時間序列預測)
Answer: D
Explanation: ARIMA 為時間序列的迴歸式模型,用於預測,與生成式評估指標無直接關聯;其餘選項皆是生成式模型的常見衡量方法。
206. 有關資料探勘(Data Mining)與 AI 之間的關係,下列敘述何者正確?
A. 資料探勘只著眼於統計分析,不包含機器學習
B. AI 完全不依賴資料探勘的技術
C. 資料探勘可視為 AI 或機器學習的基礎方法之一,著重從大量數據找出規律
D. 兩者是毫無關聯的獨立領域
Answer: C
Explanation: 資料探勘與機器學習在概念、演算法上密切相關,都涉及從海量數據中萃取規律或模式。
207. 為強化 AI 系統的安全性,下列何者較無直接關聯?
A. 建立對抗範例防護機制
B. 資料傳輸與存儲加密
C. 版本控制與模型審核
D. 增加繪圖介面色彩多樣性
Answer: D
Explanation: 介面色彩多樣性與安全防護無直接關係;其餘選項皆屬於可能提高 AI 系統穩定性與安全性的措施。
208. 何謂「資料湖(Data Lake)」?
A. 集中儲存與管理各種結構化、半結構化、非結構化資料的中央儲存區
B. 完全由關聯式資料庫組成
C. 僅用於備份舊檔案
D. 僅能儲存文字檔,不可放影像
Answer: A
Explanation: 資料湖是一種能夠容納各種類型資料的集中式儲存方式,可於後續分析或 AI 模型開發使用。
209. 在進行深度學習模型的「分散式訓練」時,下列哪項技術較常用?
A. 單一 CPU 串列運算
B. MapReduce 僅用於批次檔案運算
C. 使用多 GPU/TPU 併行,或採行分散式架構如 Horovod、Distributed TensorFlow
D. 嚴禁進行任何平行運算
Answer: C
Explanation: 深度學習訓練常透過多 GPU/TPU 或現有分散式框架(如 Horovod、TensorFlow Distributed Strategy)來加速模型訓練。
210. 下列敘述何者較能代表「推論(Inference)」在 AI 系統中的意義?
A. 指的是模型訓練的過程
B. 由已訓練好的模型,針對新輸入資料進行預測或判斷
C. 產生假資料並與辨別器對抗
D. 執行資料可視化
Answer: B
Explanation: 推論是在模型完成訓練後,對新資料應用該模型以生成預測結果的過程。
211. 在資料科學團隊中,若缺乏「資料工程師(Data Engineer)」角色,較可能出現何種問題?
A. 無法設計有效的使用者介面
B. 資料基礎架構與管道不完善,導致資料取得或處理效率低
C. 資料標註過度精確
D. 公司品牌名稱遭混淆
Answer: B
Explanation: 資料工程師負責資料管線、資料庫、系統架構等,若缺乏此角色,資料流與處理過程可能不穩定或低效。
212. 在做資料視覺化時,下列哪一項圖表最適合用來分析「一個數值分布」的集中與離散程度?
A. 盒鬚圖(Box Plot)
B. 圓餅圖(Pie Chart)
C. 熱度圖(Heatmap)
D. 樹狀圖(Tree Diagram)
Answer: A
Explanation: 盒鬚圖可顯示中位數、四分位數與離群值,適合探索數值分布的集中與離散情況。
213. 假設一個圖像分類模型一直被對手攻擊(adversarial attacks),使辨識錯誤顯著升高,則下列哪一種作法較可緩解?
A. 完全不使用任何防護
B. 加入對抗訓練(Adversarial Training),在訓練時考慮潛在擾動
C. 禁止資料蒐集
D. 提高圖像解析度到 8K
Answer: B
Explanation: 對抗訓練是常見防禦手段,模型會在訓練過程中考慮 adversarial examples,提高防禦能力。
214. 有關人工智慧在金融業的應用,下列敘述何者較為合理?
A. 金融交易決策一律只依照 AI,不需要人工監管
B. 可用於信用評分、詐騙檢測、投資風險評估等,但須遵守合規與審計
C. 銀行無需存取歷史交易紀錄,AI 可自動推斷
D. 完全不需要考慮演算法偏見
Answer: B
Explanation: 金融領域常用 AI 協助信用分析或詐騙偵測,但因涉及敏感度高的金錢與風險,需要合規審計及人為監管。
215. 在機器學習流程中,採用「K 折交叉驗證(K-Fold Cross-Validation)」的主要目的為何?
A. 使訓練時間加倍,提升過擬合機率
B. 確保測試集比訓練集大
C. 在不同切分方式下測試模型,提升評估結果的穩定性與客觀度
D. 僅為了加速 GPU 訓練
Answer: C
Explanation: K-Fold 交叉驗證可使各子集都當過驗證集,進而平均多次實驗結果,降低資料切分隨機性帶來的偏差。
216. 為什麼深度神經網路常需要大量資料?
A. 深度神經網路僅能用於小型資料
B. 節省標註成本
C. 多層網路結構能夠學習更複雜的模式,也需更多樣本避免過擬合
D. 當前技術可不必再考慮資料規模
Answer: C
Explanation: 深度網路擁有龐大參數,若資料不足,容易過擬合;因此通常需要龐大且多元的資料集。
217. 若某語言模型在回答時常出現不實資訊,稱為:
A. 模型概念漂移
B. 模型幻覺(Hallucination)
C. 過度正則化
D. 模型擴充失敗
Answer: B
Explanation: 生成式模型(特別是大型語言模型)在沒有足夠依據時可能捏造或誤生成資訊,被形容為「幻覺」。
218. 公司在進行 AI 專案時,發現缺乏「Domain Expert(領域專家)」的參與,可能引發下列哪種問題?
A. 資料蒐集量過多
B. 模型性能一定百分百
C. 缺乏業務需求與專業知識指引,模型無法切合實際需求
D. 不會影響專案進行
Answer: C
Explanation: 領域專家能提供關鍵的業務知識與需求,若缺乏此角色,AI 模型無法確保貼合真實應用場景。
219. 在資料集中,若「Train / Validation / Test」的區分做得不恰當,最可能造成什麼後果?
A. 模型效能提高
B. 模型效能下滑,但對真實情境更公平
C. 評估結果失真,無法反映實際泛化能力
D. 提高可解釋性
Answer: C
Explanation: 目的是為客觀評估模型,切分方式不當會導致評估失真,難以知道模型真實泛化表現。
220. 有關「Batch Normalization(批次正規化)」的敘述,下列何者較正確?
A. BN 僅能用於 RNN
B. BN 在每一批次上做正規化,可穩定輸入分布並加速訓練收斂
C. BN 與 Dropout 完全相同
D. 有了 BN 就不需要任何激活函數
Answer: B
Explanation: BN 能減少協變量偏移,讓模型更穩定並加快訓練;它與 Dropout、激活函數完全不同。
221. 在資料分析與模型訓練時,下列哪種情況最可能引發「樣本選擇偏差(Selection Bias)」?
A. 使用隨機抽樣收集資料
B. 只在特定時段或特定人群收集樣本,導致資料代表性不足
C. 同時收集多國數據
D. 每個樣本皆有完整標籤
Answer: B
Explanation: 若資料的取得範圍過於侷限或不具代表性,即易造成樣本選擇偏差,導致模型失準。
222. 為解決資料中高度偏態(skewness)與異常長尾分布,下列哪一種方法較常見?
A. 不做任何處理
B. 使用對數轉換(log transform)或其他函數轉換,使分布更趨近常態
C. 強制刪除一半資料
D. 降低模型複雜度
Answer: B
Explanation: 遇到偏態較明顯的數據時,可使用對數轉換等方式來調整分布,讓後續模型更易學習。
223. 在監督式學習中,若測試表現不佳,但訓練表現也不佳,表示:
A. 模型過度擬合
B. 模型欠擬合(Underfitting),或偏差(Bias)過高
C. 資料過於龐大
D. 過度正則化
Answer: B
Explanation: 欠擬合表示模型在訓練集也無法取得好表現,可能是模型太簡單或特徵不足。
224. 在評估多輸入或多模態(Multi-Modal)AI 系統的效果時,下列哪一項較可能被關注?
A. 僅使用文字輸入的 BLEU 分數
B. 圓餅圖可否顯示類別
C. 輸入包含文本、影像或聲音時,各模態融合後的整體預測準確度
D. K-Means 分群中心
Answer: C
Explanation: 多模態系統整合了多種輸入型態,需關注多源資料融合後的預測表現,而非只看單一路徑。
225. 哪一個演算法較常應用於「關聯規則挖掘(Association Rule Mining)」?
A. Apriori
B. XGBoost
C. GAN
D. PCA
Answer: A
Explanation: Apriori 為經典的關聯規則挖掘演算法,常用於購物籃分析等應用。
226. 下列關於「強化學習」在機器人控制的描述,何者較為恰當?
A. 機器人只需分類影像即可
B. 強化學習在不斷嘗試行動後,透過獎勵與懲罰學得最佳操作策略
C. 需完全依賴人類輸入關鍵指令,無法自主學習
D. 與環境無互動過程
Answer: B
Explanation: 強化學習透過「代理—環境」互動並獲得獎勵或懲罰,最終學得合適策略,適用於機器人控制。
227. 在建立自然語言處理應用時,若語料庫(corpus)裡出現大量錯別字或不一致用詞,下列何者較能改善?
A. 完全忽略錯別字
B. 增加模型參數
C. 透過文字清洗與標準化,或建立同義詞/糾錯字典
D. 不進行任何處理
Answer: C
Explanation: NLP 中常需額外做文本清洗與標準化,例如同義詞處理、拼字修正,減少雜訊對模型的干擾。
228. 當使用者對 AI 產生「不信任」時,可能是因為:
A. 模型可解釋性太高
B. 模型輸出結果與專家判斷大幅背離,且無法解釋原因
C. 演算法無偏見
D. 使用者了解所有源代碼
Answer: B
Explanation: 若 AI 結果與專業經驗差距大、或無法解釋決策依據,容易導致使用者對 AI 缺乏信心。
229. 有關「知識圖譜(Knowledge Graph)」在 AI 應用中的位置,下列何者較為合理?
A. 它僅是一種資料庫結構,與 AI 不相關
B. 知識圖譜可結合 NLP、推理等技術,用於語義搜索、問答系統等
C. 只能用在圖像分類
D. 不需要任何資料清洗
Answer: B
Explanation: 知識圖譜可將知識以圖結構表示,並和 AI 技術整合,應用於語義搜索、對話系統、推薦等領域。
230. 若企業想透過 AI 技術偵測醫學影像腫瘤,通常需要:
A. 大量標註的醫學影像(含腫瘤區域標記)
B. 僅使用無監督學習
C. 只要一般網路圖片即可
D. 向病人事後告知即可,不需取得同意
Answer: A
Explanation: 醫學影像診斷多屬監督式學習,需專業醫師標記腫瘤區域;隱私與合規亦是關鍵。
231. 在處理序列資料時,哪個機制可讓模型同時關注整個序列中不同位置的特徵重要性?
A. 卷積核(Convolution Filter)
B. 注意力機制(Attention Mechanism)
C. K-Means
D. Dropout
Answer: B
Explanation: 注意力機制能為序列中不同位置賦予權重,廣泛應用在 Transformer 架構、Seq2Seq 等。
232. 若一個企業在導入 AI 時,CEO 只重視「先趕快上線,沒成果就算了」,忽略資料與模型基礎,可能導致:
A. 短期內取得超高績效
B. 空有噱頭,實際應用落地與績效無法保證,亦浪費投資成本
C. 所有人都能輕易理解 AI
D. 無須考量任何風險
Answer: B
Explanation: 急於上線又忽視資料與模型基礎,容易導致專案難以真正成功落地,甚至造成資源浪費。
233. 在應用區塊鏈技術與 AI 結合時,下列何者較能說明二者的互補性?
A. AI 可提供去中心化功能
B. 區塊鏈能做海量數據運算
C. AI 所得結果可藉區塊鏈保證可信度與不可竄改,並在多方協同場景下共用數據
D. 區塊鏈即是一種深度學習演算法
Answer: C
Explanation: 區塊鏈特性在於分散式帳本、不可竄改等,可與 AI 數據共享機制結合,加強數據與模型結果的可信度。
234. 若某企業客戶對其 AI 產品懷疑存在偏見,要求「可解釋性報告」,下列哪種做法較適切?
A. 拒絕提供任何解釋
B. 對模型預測流程與特徵影響做 LIME、SHAP 分析,並適度提供可理解的解釋
C. 保密演算法並稱屬公司機密
D. 將所有源代碼完全公開
Answer: B
Explanation: 在符合商業考量前提下,可使用 LIME、SHAP 這類方法局部或全域解釋模型,回應用戶關注的偏見問題。
235. 下列哪個概念與「增強式學習(Augmented Learning)」或「互動式學習」較無直接關聯?
A. 人機協作
B. 使用者在學習過程中給予即時反饋或指導
C. 完全無人參與的自動化
D. 模型與使用者之間的動態互動
Answer: C
Explanation: 若是「互動式」或「增強式」學習,往往需要人類與模型的即時互動與指導;完全無人參與則背離了增強式學習的初衷。
236. 在 MLOps(Machine Learning Operations)流程中,下列哪個重點較不涉及?
A. 模型的持續交付與部署
B. 資料與模型監控及回饋迭代
C. 企業網站視覺設計
D. 自動化測試與版本控制
Answer: C
Explanation: MLOps 主要關注模型/資料的持續整合、交付與監測;企業網站視覺設計非 MLOps 核心。
237. 若某企業需要整合多種深度學習模型在同一流程中執行,下列何種系統架構概念較可能需要?
A. 串列執行,不需任何管理
B. 模型服務編排(Orchestration),以確保多模型順序或並行處理協調
C. 遊戲化平台
D. 顏色管理系統
Answer: B
Explanation: 同時運行多模型,需考量服務編排 (Orchestration) 來管理模型執行順序、資源配置及輸入輸出對接。
238. 機器學習的「回歸(Regression)」任務中,若要更重視對「大誤差」之懲罰,可以選擇下列哪個損失函數?
A. MAE(Mean Absolute Error)
B. MSE(Mean Squared Error)
C. Acc(Accuracy)
D. Softmax
Answer: B
Explanation: MSE 對大誤差的懲罰比 MAE 更顯著(因為誤差被平方),適合在意大誤差的場景。
239. 「增量學習(Incremental Learning)」與「線上學習(Online Learning)」的差異主要在於:
A. 兩者完全相同
B. 線上學習可以一次讀取整批資料,增量學習則逐筆讀取
C. 增量學習通常以批次更新模型,線上學習則可能即時逐筆更新
D. 線上學習只適用於有標籤資料
Answer: C
Explanation: 增量學習偏向在新資料出現後以「批次」重新訓練或更新;線上學習更注重即時、逐筆地更新模型。
240. 有關 AI 專案成果之「落地轉化(Implementation)」時,下列何者較不需考量?
A. 業務單位是否能接受與使用模型產出
B. 系統介面可操作性
C. 模型精準度符合業務門檻
D. 模型僅用於實驗室內部,不讓任何人知道
Answer: D
Explanation: 若要真正「落地轉化」,需業務與使用者能採用;將模型封閉在實驗室無法帶來實際效益。
241. 在機器學習中,若遇到「維度災難(Curse of Dimensionality)」問題,下列何者較不適合?
A. 使用 PCA、t-SNE 等降維技術
B. 做特徵選擇或正則化
C. 一次使用所有維度,不加篩選
D. 加大資料量以配合高維特徵
Answer: C
Explanation: 維度過多會導致距離度量不敏感或計算複雜度暴增,通常需降維、篩選或增加資料量來緩解。
242. 若企業採用「RPA(Robotic Process Automation)」工具自動化部分流程,並希望進一步結合 AI,最可能的做法是?
A. 直接取代所有人類職位
B. 在關鍵決策環節嵌入機器學習模型,使流程能智慧判斷或預測
C. 僅用 RPA 做前台導覽
D. 完全不需要資料分析
Answer: B
Explanation: RPA 擅長基於規則流程自動化,結合 AI/ML 可使流程在異常檢測、資料判斷等環節更智慧化。
243. 在圖像處理領域,常見的 GAN 應用不包括下列哪一項?
A. 圖像風格轉換
B. 超解析度重建(Super-Resolution)
C. 圖像分類與預測置信度
D. 人臉生成
Answer: C
Explanation: 圖像分類屬鑑別式任務,GAN 常用於生成或修飾圖像如風格轉換、超解析度、人臉合成等。
244. 企業若想進行「對話式 AI」開發,下列哪個領域的技術最為關鍵?
A. 自然語言處理(NLP)
B. 影像分群
C. 組合最佳化
D. 工業物聯網
Answer: A
Explanation: 對話式 AI 需處理文本或語音對話,核心技術在 NLP,包括語意理解、意圖辨識、對話管理等。
245. 在強化學習中,若代理(Agent)只關注短期獎勵,可能導致:
A. 無法學到長期最優策略,出現「短視(Myopic)行為」
B. 模型泛化能力大增
C. 明顯降低了後向影響
D. 一定能獲得全域最佳解
Answer: A
Explanation: 若只看眼前獎勵,可能錯失長期更高的報酬,導致行為短視而非最優策略。
246. 在機器學習團隊中,下列哪一種角色最常負責「評估演算法效能並挑選適合的模型架構」?
A. UI/UX 設計師
B. 機器學習工程師或資料科學家
C. 系統維運(DevOps)
D. 企業公關人員
Answer: B
Explanation: ML 工程師或資料科學家負責模型選型、性能評估及調參,屬 AI 研發流程核心。
247. 為提升影像辨識模型對複雜背景的「魯棒性」,下列何者較可行?
A. 避免任何資料增強
B. 在訓練時加入背景干擾、隨機裁切或其他 Data Augmentation 手段,使模型學到穩定特徵
C. 僅使用灰階圖片
D. 不執行測試
Answer: B
Explanation: 在訓練過程使用多樣化資料增強,可讓模型在面對雜亂背景時更具穩定辨識度。
248. 下列敘述何者較能代表「零售業」應用 AI 進行推薦系統時的痛點?
A. 系統必須生成新的圖像
B. 購物網站沒有任何使用者行為資料
C. 若推薦結果不精準或帶有偏見,會影響營收與用戶體驗,需要大量測試與優化
D. 不用考慮使用者隱私
Answer: C
Explanation: 推薦系統若偏見或不精準,會降低顧客滿意度並影響業績,需花時間持續優化;同時還要考量隱私。
249. 在 NLP 中,若要分析文本句子是否含有「冒犯性語言(offensive language)」並分類其強度,較常用:
A. GAN 處理關聯規則
B. 監督式學習的多類別分類模型(情緒/情感分析)
C. Dropout 降維
D. APRIORI 分析
Answer: B
Explanation: 分析冒犯性語言屬 NLP 的情感/情緒/立場分類任務,通常使用監督式多類別分類模型。
250. 人工智慧的「多任務學習(Multi-Task Learning)」指的是:
A. 只針對單一任務優化
B. 同時訓練一個模型來解決多個彼此相關的任務,以共享表示並提升總體效能
C. 完全不需標籤
D. 強化學習的變體
Answer: B
Explanation: 多任務學習透過共享特徵表示,在同一模型或同一架構下處理多個相關任務,互相增益。
251. 若企業在開發一個「AI 對話機器人」應用於客服場景,下列哪個步驟相對較不必要?
A. 收集常見客戶問題與對應回答
B. 訓練 NLP 模型理解用戶意圖
C. 預先設計回應範本或串接後端系統來解決問題
D. 收集攝影機影像進行物件偵測
Answer: D
Explanation: 客服對話一般不需要影像偵測;其餘則為客戶問題庫、NLP 模型與回應策略的必要流程。
252. 下列哪一項較不屬於 AI 模型成果的可解釋性(Explainability)範疇?
A. 提供使用者可懂的理由或特徵權重
B. 透明化模型參數與決策規則
C. 直接刪除所有隱藏層
D. 使用 LIME、SHAP 或樹狀模型等能解釋預測結果
Answer: C
Explanation: 刪除所有隱藏層並不必然提升可解釋性;其餘皆屬常見可解釋性做法。
253. 在評估回歸模型表現時,若我們的應用對「預測方向」正負誤差同樣敏感,常見評估指標是:
A. MSE、MAE
B. F1 分數
C. AUC
D. Accuracy
Answer: A
Explanation: 回歸問題通常用 MSE 或 MAE 等度量誤差;F1 與 AUC、Accuracy 屬分類任務指標。
254. 有關「雲端機器學習平台」的優勢,下列何者較不正確?
A. 可彈性擴充 GPU/TPU 資源
B. 提供各式 API 與工具,加速模型開發
C. 必須斷線離線執行,無法即時調整
D. 方便將模型部署到伺服器或邊緣端
Answer: C
Explanation: 雲端平台一般都支援在線管理與即時調整資源,並非離線運行;其餘為雲端優勢。
255. 若要測試一個分類模型對於不同錯誤成本(Cost-Sensitive)的情況,下列何者較常見?
A. 調整分類閾值
B. 改用回歸模型
C. 全部特徵丟棄
D. 不做任何調整
Answer: A
Explanation: 透過調整閾值,可平衡假陽性與假陰性的錯誤成本,適應不同業務場景需要。
256. 「早期停止(Early Stopping)」在深度學習訓練中扮演何種角色?
A. 用來增加模型參數量
B. 用來強化對抗攻擊
C. 監控驗證集損失,在過擬合前就停止訓練
D. 完全取代正則化
Answer: C
Explanation: Early Stopping 是在驗證集上發現模型開始過擬合或損失不再下降時提早停止,避免過度擬合。
257. 在沒有硬性法規規範下,下列哪種行動最能彰顯企業對 AI 倫理的自我要求?
A. 全權交由外包廠商處理,企業本身不過問
B. 成立內部倫理委員會或合規小組,審視模型可能造成的偏見或風險
C. 不考慮敏感特徵
D. 遇到質疑時,僅宣稱「AI 自己學的,我也不清楚」
Answer: B
Explanation: 企業若能主動設立 AI 倫理與合規審查機制,表示願意對可能風險或偏見進行自我管理。
258. 若要開發一個聲音指令的「語音喚醒(Voice Wake-up)」功能,下列哪種機制較關鍵?
A. 無監督式影像分群
B. 語音特徵提取(如 MFCC),並使用輕量化模型在裝置端持續監聽
C. PCA 做主成分分析
D. 物件偵測
Answer: B
Explanation: 語音喚醒功能需低功耗、即時偵測關鍵詞,通常提取聲學特徵並用小型模型部署在裝置端。
259. 下列何者是「大型語言模型(LLM)」的一項特點?
A. 模型參數量極小
B. 僅用於回歸分析
C. 透過大規模語料學到通用語言表示,可遷移到各種下游 NLP 任務
D. 僅用於二元分類
Answer: C
Explanation: LLM 具有龐大參數量並在大量語料預訓練後,可以遷移到多種自然語言任務,展現通用性。
260. 在評估一個自動駕駛模型時,下列哪一種指標較不適用?
A. 車輛的行駛平穩度或乘客舒適度
B. 車道偏移率、碰撞次數
C. 混淆矩陣中的 TP、FP
D. BLEU 分數
Answer: D
Explanation: BLEU 是翻譯文本的評估指標,與自動駕駛無關;其餘選項可用於自動駕駛系統效能測度。
261. 當 AI 系統自動生成對話或文本時,若想防止「毒性語言」或「不當內容」,下列哪一種方法可能奏效?
A. 完全不收集任何語料
B. 在生成流程中引入內容過濾(Content Filtering)或敏感詞檢測
C. 隨機刪除神經元
D. 提高學習率
Answer: B
Explanation: 在生成式文本管線中加入敏感詞檢測或過濾機制,可降低產出不當文字的風險。
262. 在實際產業應用中,若模型「假陰性(False Negative)」的成本很高,意味著:
A. 錯把陰性當陽性的代價高
B. 可能要特別提高 Recall,減少漏判真正陽性
C. 對 Precision 沒有要求
D. 準確率一定高
Answer: B
Explanation: 假陰性表示真正陽性被漏掉;若此代價高,就需提升召回率,以降低漏判的風險。
263. 若想檢測財務報表中可能的異常或舞弊,下列哪一種技術可用於「無標籤異常檢測」?
A. LSTM
B. Autoencoder(自動編碼器)
C. 監督式分類器
D. APRIORI
Answer: B
Explanation: 自動編碼器可用於無監督異常檢測,輸入正常資料訓練後,若測試資料 Reconstruction Error 明顯偏高,代表可能異常。
264. 在 TensorFlow 或 PyTorch 中,若要監控訓練過程中的損失與評估指標,常使用:
A. 記事本
B. TensorBoard 或類似可視化工具
C. Word Embedding
D. 交叉驗證
Answer: B
Explanation: TensorBoard(TensorFlow)或類似工具能即時顯示損失曲線、指標變化,輔助分析訓練過程。
265. 在 AI 領域中,「弱監督(Weak Supervision)」常指:
A. 完全無標籤資料
B. 利用一些自動化或噪聲標註方式產生不完全準確的標籤,再進行監督式訓練
C. 僅適用於強化學習
D. 模型無法更新
Answer: B
Explanation: 弱監督透過規則、遠端監督或標籤傳播等方式生成較雜訊的標籤,使大規模資料得以被部分監督,減少人工標註成本。
266. 當開發者面臨「GPU 訓練時間過長」時,下列哪一種方法較不能直接解決?
A. 使用更多 GPU 做分散式訓練
B. 減小模型規模或調整網路結構
C. 模型壓縮、剪枝或混合精度訓練
D. 額外在本地端採用 CPU 進行並行訓練
Answer: D
Explanation: CPU 並行通常遠慢於 GPU,無法有效加速深度學習;其餘選項皆為可行方向。
267. 下列哪一種演算法較不適合直接用於高維稀疏文本向量的分群?
A. K-Means
B. DBSCAN
C. Hierarchical Clustering
D. 朴素貝葉斯(Naive Bayes)
Answer: D
Explanation: Naive Bayes 是監督式分類演算法,不是用於分群;其餘為常見無監督分群法。
268. 企業在導入 AI 時,若無法量化專案成效,最可能的原因是:
A. 模型性能太好,難以衡量
B. 無清晰 KPI 與商業價值評估,AI 專案缺乏目標
C. 開發者不會寫程式
D. 資料量太大
Answer: B
Explanation: 若專案缺乏明確目標與量化指標(KPI),就難以評估 AI 專案的成效。
269. 在 AI 專案管理中,若企業想確保不同部門對專案進展瞭解並提供回饋,下列哪一種方法較恰當?
A. 僅由開發團隊單獨進行,保密所有過程
B. 定期舉行跨部門會議或 Scrum Review,讓各單位同步狀態並做迭代調整
C. 只在專案結束後進行說明
D. 完全不需要使用者回饋
Answer: B
Explanation: 透過敏捷或跨部門定期會議可讓利益相關者及使用者在過程中給予回饋,有助於專案落地。
270. 一個建議演算法若在測試集上 MAP(Mean Average Precision)顯著提升,表示:
A. 推薦結果更能符合用戶興趣,排名前列的建議較精準
B. 模型無法泛化
C. 與分類問題無關
D. 發生偏差過高
Answer: A
Explanation: MAP 常用於評估推薦與資訊檢索,代表前幾項推薦的精準度提升。
271. 當想比較兩個分類模型的差異,且關心是否存在統計顯著性,下列哪一種方法可能適用?
A. 直接比較 Accuracy 數值,不考慮其他
B. 交叉驗證 + 統計檢定(如 t-test)
C. 只看權重分布
D. 僅使用混淆矩陣
Answer: B
Explanation: 透過交叉驗證分別計算兩模型表現,再用統計檢定判斷差異是否顯著,較客觀。
272. 若資料集中每個樣本有上百個特徵,但其中許多特徵互相關聯度極高,下列哪一種方法可有效簡化?
A. 強制刪除原始資料
B. 不做任何處理
C. 使用 PCA、LDA 等降維手段或特徵選擇以減少冗餘
D. 使用更多 GPU
Answer: C
Explanation: 降維或特徵選擇可合併相關特徵、去除冗餘,提升模型效能與訓練效率。
273. 為避免將訓練集資料泄漏到測試過程,下列哪一種作法較妥當?
A. 在做任何資料清洗或特徵工程前,先分割好訓練與測試集
B. 先對整個資料集做標準化,之後再切成訓練與測試
C. 重新隨機抽樣
D. 同時訓練與測試都用同份資料
Answer: A
Explanation: 在進行資料處理前就分割數據,可避免將訓練資訊洩漏到測試集中,確保評估客觀性。
274. 在「迴歸模型」中,R2 越小代表:
A. 模型解釋度越低
B. 模型一定過擬合
C. 模型參數越少
D. 不需要任何特徵
Answer: A
Explanation: R2 反映模型對目標變數解釋能力,越小表示解釋度越低。
275. 若想建構「AI 農業」系統監測植物健康,下列哪一種功能較常見?
A. 以雷達回波偵測雨量
B. 圖像辨識用於病蟲害檢測,並搭配感測器監測環境參數
C. 僅能針對工廠生產檢測
D. 全部使用 CLI 介面
Answer: B
Explanation: AI 農業多會透過影像技術監測作物健康,並收集環境數據(溫溼度、土壤 pH 等)進行分析。
276. 在資料科學專案中,當要進行「特徵重要度」排行,下列哪一種模型或手段最直接提供該資訊?
A. K-Means
B. 決策樹或隨機森林,可從樹結構中得知特徵重要性
C. Autoencoder
D. CNN
Answer: B
Explanation: 樹狀模型(決策樹、隨機森林)能根據分割節點,提供特徵重要度估計;其餘方法需額外工具解釋。
277. 若對少量圖片進行「數據增強(Data Augmentation)」時,下列哪一種方法不常用?
A. 圖像翻轉或旋轉
B. 顏色抖動(Color Jitter)
C. Word Embedding
D. 隨機裁切
Answer: C
Explanation: Word Embedding 屬文字領域增強手段,不適用於圖像;其餘皆為圖像常用增強技巧。
278. 在執行 NLP 聊天機器人時,若出現「多輪對話」邏輯混亂,下列哪一種策略可協助?
A. 使用無監督式 K-Means 改善多輪對話
B. 引入對話管理(Dialogue Management)或帶有記憶機制的模型(如 Transformer、RNN)
C. 只保留單輪對話
D. 不考慮上下文
Answer: B
Explanation: 多輪對話需管理上下文,對話管理或 RNN/Transformer 記憶機制能保持對先前對話的脈絡理解。
279. 當模型在交易系統中執行時,為何需要「可追溯(Traceability)」?
A. 不需要,AI 可自行決策
B. 若發生錯誤或爭議,需追蹤決策流程與依據,以便審計與責任歸屬
C. 完全隱藏演算法細節
D. 違法行為無法被偵測
Answer: B
Explanation: 交易系統事關金融與法律責任,AI 判斷需可追溯,確保能審計與責任劃分。
280. 有關「群體智慧(Crowdsourcing)」與 AI 結合,下列何者較為正確?
A. 由大眾提供標註或檢核,協助 AI 模型獲得高品質資料
B. 只能在機器學習完全失效時使用
C. 與資料標註無關
D. 僅能用於電商平台
Answer: A
Explanation: 群眾外包可為 AI 專案提供標註或驗證,增強資料的規模與品質,並不限定於電商領域。
281. 在「資料視覺化」過程中,若資料量極大且需要互動式探索,下列哪一種工具或技術較常被提及?
A. 純文字檔案
B. 交互式數據儀表板(如 Tableau、Power BI)
C. Notepad++
D. SSH 終端機
Answer: B
Explanation: 互動式儀表板能即時切換維度、篩選數據,適合大規模資料可視化探索。
282. 在機器學習的特徵工程中,若我們觀察到多個類別型特徵,各自取值數量龐大,可能需要:
A. 直接丟棄所有類別特徵
B. 採用 Embedding 或 Target Encoding 等方法,而非 One-Hot(避免維度爆炸)
C. 只使用主成分分析
D. 硬體擴充到 1TB RAM
Answer: B
Explanation: 大量類別型資料若用 One-Hot 會造成維度爆炸,可考慮 Embedding 或其他編碼方式。
283. 關於神經網路的「梯度檢查點(Checkpoint)」機制,下列敘述何者較為正確?
A. 用於監測梯度消失
B. 在訓練中定期儲存當前模型權重,以便斷點續訓或回溯到最佳版本
C. 僅可用於 CNN
D. 為計算混淆矩陣而設
Answer: B
Explanation: Checkpoint 會定期儲存模型狀態,若訓練中斷或需要回到較佳版本時可直接載入。
284. 「A/B 測試」在 AI 應用上最常用於:
A. 比較不同模型或參數配置對用戶行為指標的影響
B. 只在醫療影像用
C. 無法用於線上服務
D. 對抗攻擊
Answer: A
Explanation: A/B 測試常用於比較兩種模型(或介面、策略)在真實用戶環境下的表現差異,選擇最佳方案。
285. 在「語音辨識」與「語音合成」領域,下列敘述何者為真?
A. 語音辨識與合成皆為 NLP 中的相同技術
B. 語音辨識屬 ASR(Automatic Speech Recognition),語音合成屬 TTS(Text-To-Speech),兩者皆可與 NLP 結合,但技術重點不同
C. 不需聲學特徵抽取
D. 都只能離線運行
Answer: B
Explanation: ASR 與 TTS 雖同屬語音處理範疇,但方向相反,一個把語音轉文字,一個把文字轉語音,常與 NLP 結合實現完整聲音互動。
286. 在監督式學習中,若想避免模型只記住「訓練集特定噪音」,下列哪個策略較常見?
A. 超大學習率
B. Dropout、L2 正則化或 Early Stopping 等手段
C. 總是用同樣的隨機種子
D. 模型層數越多越好
Answer: B
Explanation: 透過正則化、Dropout、早停等方式,可防止過擬合,避免模型「死記硬背」訓練資料噪音。
287. 在提供 API 或微服務的生產環境中,若要動態更新 AI 模型,下列哪一項較常被討論?
A. 滾動部署(Rolling Update)或金絲雀部署(Canary Deployment),以免影響線上用戶
B. 完全中斷服務以更新模型
C. 僅更新 UI 介面
D. 不必監控新模型表現
Answer: A
Explanation: 金絲雀部署、滾動更新等方法可在不中斷服務的情況下逐步切換到新版本,並監測其表現。
288. 若企業主要數據都在私有資料中心,且擔心傳輸到雲端的安全與合規,下列何者較可行?
A. 全部改用公共雲無需評估
B. 採用混合雲或邊緣計算方案,在本地部署 AI
C. 不再使用 AI
D. 僅用 Excel 做統計
Answer: B
Explanation: 若企業對數據合規要求高,可選擇混合雲或在本地(on-premise)部署 AI 模型,兼顧隱私與彈性。
289. 「模型壓縮(Model Compression)」與「量化(Quantization)」對邊緣裝置 AI 之貢獻為何?
A. 加大模型參數
B. 增加推論時間
C. 減少記憶體用量與計算負擔,提高推論效率
D. 使模型失效
Answer: C
Explanation: 透過模型壓縮與量化可大幅降低模型大小與運算量,利於在行動或邊緣裝置部署。
290. 下列何者最能幫助 AI 專案在大型組織內部「順利推行」?
A. 先進技術即可保證成功
B. 一開始就大規模改造所有系統
C. 充分的高層支持與試點專案驗證,漸進式推廣
D. 僅依靠外包不需要內部溝通
Answer: C
Explanation: AI 專案往往需要高層認同與資源,並透過小規模試點成功後再擴張,才易在組織內落地。
291. 「ChatGPT」「GPT-4」這類大型語言模型可視為:
A. 監督式圖像辨識模型
B. 無法生成任何文字
C. 生成式 AI(Generative AI),使用 Transformer 架構的大規模預訓練模型
D. 僅能執行強化學習
Answer: C
Explanation: ChatGPT、GPT-4 屬 Generative AI,以 Transformer 為核心的大型語言模型,可生成高品質文本。
292. 若某企業希望 AI 協助客服人員答覆客戶,下列哪一種功能最重要?
A. 全自動生成回覆且完全無須人工復核
B. 關鍵詞搜索
C. 能整合 FAQ 與動態資訊,並具備基本語意理解與對話管理
D. 圖像超解析
Answer: C
Explanation: 客服場合需要對常見問題與使用者意圖進行理解,並可檢索或生成適切回覆,不一定全自動化但需語意能力。
293. 在圖像分析中,若想自動偵測圖片中的物件位置與類別,下列哪一種方法最常見?
A. ResNet 用於分類
B. VGG
C. YOLO 或 Faster R-CNN 等物件偵測演算法
D. GAN
Answer: C
Explanation: YOLO、Faster R-CNN 屬典型物件偵測模型,可同時判定位置(Bounding Box)與類別。
294. 「自動編碼器(Autoencoder)」若要應用於降維,下列何者較合適?
A. 輸入維度與輸出維度相同,中間瓶頸層維度縮小,學到壓縮的表示
B. 直接刪除輸入特徵
C. 用樹狀結構
D. 僅能生成新資料
Answer: A
Explanation: 自動編碼器可透過中間瓶頸層強迫網路學到低維度表示,達到降維與特徵萃取效果。
295. 在金融機構使用 AI 作「信用評分」時,若出現某族群長期被低估或拒絕信貸,下列何者原因較可能?
A. 模型沒有偏見
B. 資料本身帶有歧視或偏見,或模型對該族群缺乏足夠樣本
C. 代表該族群不存在信用需求
D. 模型無法產生幻覺
Answer: B
Explanation: 資料或模型若內含偏見,可能導致對某族群評分不公,需要針對資料與特徵做審查和調整。
296. 「集成學習(Ensemble Learning)」若發現不同模型輸出結果非常雷同,下列哪種方法可能增強多樣性?
A. 使用相同資料與相同演算法
B. Bagging、Boosting 或調整特徵與演算法超參數以增加模型差異
C. 不必增強多樣性
D. 將所有樣本都丟棄
Answer: B
Explanation: 集成要有多樣化模型才能提升最終預測效果,Bagging、Boosting、調參等方式可增加模型差異性。
297. 在構建「情感分析」模型時,下列哪種文本屬性較不具參考價值?
A. 使用者情緒詞彙(正面、負面詞)
B. 文本長度、標點符號使用頻率
C. 發文時間與主題關鍵字
D. 使用者介面顏色
Answer: D
Explanation: 情感分析通常需考慮文本內容本身(情緒詞、關鍵字、標點等),介面顏色對文本情感無明顯關係。
298. 在部屬「AI 處方建議系統」到醫院時,下列哪一個層面較為關鍵?
A. 視覺設計美感
B. 法規遵循(醫療法)、專業醫師最後審閱機制
C. 廠商行銷手段
D. 使用者喜好語言
Answer: B
Explanation: 醫療系統需合乎相關法規並由合格醫師進行最終判斷,不能完全交由 AI 自主決策。
299. 在 NLP 中,若想進行「字詞相似度」計算,下列哪種技術最直接?
A. One-Hot Encoding
B. Word Embedding(如 Word2Vec、GloVe),透過向量空間餘弦相似度
C. 語音轉文字
D. APRIORI
Answer: B
Explanation: Word Embedding 能將字詞映射到向量空間,以向量相似度衡量詞彙相似性,是 NLP 常用手法。
300. AI 專案導入成功後,若經營者忽視後續「模型維運與更新」,最可能發生哪種情況?
A. 模型表現隨時間劣化,無法持續帶來價值
B. 可以一直保持最佳狀態
C. 運行成本急遽降低
D. 完全不影響用戶體驗
Answer: A
Explanation: AI 模型須不斷監控、更新與維護,否則隨環境或資料分布改變,效能會逐漸下降。
第 301~400 題
301. 有關人工智慧在「教育」領域的應用,下列何者最為常見?
A. 僅能用於體育訓練
B. AI 自動為學生分配個人化學習材料、提供學習路徑建議
C. 不適用於教育場景
D. 只能監管學生考勤
Answer: B
Explanation: AI 在教育中可根據學生學習表現與進度提供客製化教材與建議,稱作「自適應學習系統(Adaptive Learning)」。
302. 「模型部署(Deployment)」在 MLOps 流程中,最關鍵的問題是:
A. 訓練集準確度是否達 100%
B. 如何將已訓練好的模型放到可供外部應用呼叫的生產環境,並確保服務穩定且可監控
C. 模型一經部署即無需更新
D. 不需任何測試
Answer: B
Explanation: 部署指將模型上線至生產環境,供外部系統或使用者呼叫,並確保監控與資源彈性。
303. 在「電商推薦系統」中,下列哪種資訊不太可能納入協同過濾(Collaborative Filtering)考量?
A. 使用者行為紀錄(瀏覽、購買、加購物車)
B. 商品分類與屬性
C. 使用者評價或收藏紀錄
D. 企業公司登記號碼
Answer: D
Explanation: 電商推薦主要關注使用者與商品互動相關的資訊;公司登記號碼與消費者行為無直接關聯。
304. 若開發一個「語音助理」,要讓系統能分析說話者的語意與情緒,下列哪一種技術較不需要?
A. 語音信號預處理與特徵提取(如 MFCC)
B. NLP 對文字內容之理解
C. 影像分割
D. 語音情感識別(SER)
Answer: C
Explanation: 影像分割屬電腦視覺技術,與語音助理的聲音互動無關;其餘都是語音助理常見流程。
305. 在機器學習領域,若資料集存在嚴重的「類別不平衡」,評估單純的 Accuracy 可能產生什麼問題?
A. Accuracy 已足以反映真實情況
B. 會低估模型真實表現
C. 可能會被少數類別影響而偏高
D. 可能高估模型對於少數類別的偵測能力
Answer: D
Explanation: 在類別極度不平衡的情況下,Accuracy 可能被多數類別所佔據而看似很高,實際上對少數類別的偵測力不足,容易誤導。
306. 假設一個二元分類器用於醫療篩檢,若非常重視「不漏掉真正病患」,則最該提高:
A. Precision
B. Recall
C. 速度
D. 低學習率
Answer: B
Explanation: 不漏掉真正病患意即降低「假陰性」,需提升 Recall(召回率)。
307. 有關「Active Learning(主動式學習)」下列何者較為合理?
A. 模型隨機選擇標註樣本即可
B. 模型會主動挑出最難或最不確定的樣本請人員標註,以最大化標註效率
C. 必須全部樣本都標註後才可訓練
D. 完全無需人工介入
Answer: B
Explanation: Active Learning 是讓模型在大量未標資料中「主動詢問」最需要標註的部分,提高標註效率並提升模型表現。
308. 下列哪一個學習方法可以在只有少數已標註資料、但大量未標註資料的前提下進行訓練?
A. 監督式學習
B. 無監督式學習
C. 半監督式學習(Semi-Supervised Learning)
D. 強化學習
Answer: C
Explanation: 半監督學習同時利用少量有標籤資料與大量無標籤資料,改善模型效果。
309. 當機器學習任務需要同時輸出多個相關的目標變數(Multi-Output),下列何種設計較常見?
A. 多路徑的神經網路或多輸出層
B. 只用單輸出層
C. 監督式學習只能輸出一個目標
D. 完全無法實現
Answer: A
Explanation: 多輸出任務可在神經網路最後配置多個輸出節點或多個分支,分別對應各個目標。
310. 在企業應用「生成式 AI」自動撰寫行銷文案時,下列哪一個議題不太需要考量?
A. 生成文案的真實性與避免誤導
B. 版權或侵權風險
C. 文案對目標客群之吸引力
D. GPU 與影像解析度
Answer: D
Explanation: 行銷文案屬文本生成;影像解析度與 GPU 更常見於影像或視覺任務。其餘關於文案品質、真實性、法律風險都重要。
311. 在分析時序資料時,若發現明顯的季節性(Seasonality),下列哪種方法較常處理此特性?
A. ARIMA
B. SARIMA(Seasonal ARIMA)或 Prophet 等具備季節成分模型
C. PCA
D. LIME
Answer: B
Explanation: SARIMA 在 ARIMA 基礎上增加季節性參數,能處理時間序列中的季節週期變化。
312. 當訓練一個 NLP 模型時,以下哪一步驟最能幫助它理解上下文線索?
A. 只用字典順序索引
B. 引入 RNN、LSTM 或 Transformer 的注意力機制以掌握前後文
C. 增加批次大小
D. 圖像增強
Answer: B
Explanation: 序列模型(RNN/LSTM)或 Transformer 架構都能捕捉上下文相關性,顯著提升 NLP 理解度。
313. 在無監督學習中,若想讓演算法自行發現資料中潛在的分群,下列哪一種做法較無用?
A. K-Means 或 Hierarchical Clustering
B. PCA 做降維並嘗試找出內在分佈
C. 編寫大量規則做標籤
D. DBSCAN
Answer: C
Explanation: 無監督學習通常無標籤;編寫大量標籤規則趨近監督式流程。其餘選項都是常見無監督方法。
314. 有關訓練「對話式生成模型」時,若語料品質低落,可能導致?
A. 永遠不會出現錯誤
B. 生成結果包含拼寫錯誤或語意不通
C. 模型自帶糾正能力
D. 降低模型參數可改善
Answer: B
Explanation: 若語料品質低,模型易學到錯誤用詞或混亂語序,導致生成結果的可讀性差。
315. 在機器學習面試中,若面試官提問「你如何處理過度擬合(Overfitting)?」下列答案何者較常見?
A. 不做任何驗證
B. 減少訓練數據
C. 使用正則化、Dropout、早停 (Early Stopping),或增加更多訓練資料
D. 提高學習率
Answer: C
Explanation: 常見解決策略含「正則化(L1/L2)」、「Dropout」、「Early Stopping」、「擴充資料」等。
316. 一個機器學習專案若要遵從「隱私法令」,通常不會做什麼?
A. 在收集個人資料前告知並徵得同意
B. 作匿名化處理
C. 對敏感資料做存取控管、加密保護
D. 任意共享帶個資的原始資料給任何人
Answer: D
Explanation: 公開散佈個資屬嚴重違反隱私保護;其餘方式皆較合規。
317. 下列哪一種情境屬於 AI 在「電子病歷」應用中的難點?
A. 無需考量資料安全
B. 機器學習處理大量敏感醫療紀錄,需嚴格遵守法規與隱私限制
C. 任何人都可取得完整病患紀錄
D. 全部病歷集中於單一區塊鏈
Answer: B
Explanation: 醫療紀錄為敏感資料,AI 應用需高度重視法規與隱私保護。
318. 在 CNN 模型中,下列哪一層級通常可減少特徵維度並保留主要特徵?
A. 輸入層
B. 池化層(Pooling Layer)
C. 全連接層
D. Softmax
Answer: B
Explanation: Pooling(如 Max Pooling)能縮小特徵圖尺寸,保留關鍵特徵以減少參數量。
319. 當一個回歸模型的 MSE(平均平方誤差)過大時,可能表示:
A. 輸入與輸出之間無關
B. 預測誤差較嚴重,需調整模型或特徵
C. 模型參數太少
D. 資料絕對正確
Answer: B
Explanation: MSE 過大代表模型預測誤差高,暗示需檢查資料品質、特徵工程或模型結構。
320. 「注意力機制(Attention)」對 Transformer 系列模型的主要貢獻為:
A. 讓模型只能單向讀取序列
B. 能以並行方式處理序列,同時關注不同位置並學到全域關聯
C. 不需要任何向量表示
D. 完全取代 CNN
Answer: B
Explanation: 注意力機制使模型能並行處理序列,同時捕捉序列中各位置的重要度關係,相較 RNN 無需序列遞歸。
321. 在實際大數據環境中,若要對 PB 級數據進行分散式批次運算,下列哪個技術較常被提到?
A. MapReduce 或 Spark 等分散式運算框架
B. 只靠單機 CPU
C. CSV 檔手動分析
D. 單純用 Excel
Answer: A
Explanation: 面對超大規模數據,常用 MapReduce、Spark 等分散式框架進行批次計算。
322. 當企業使用 GPU 雲端服務時,下列哪一個情況不太可能發生?
A. 可隨時擴充 GPU 節點
B. 可隨時調整計算資源
C. 硬體完全免費
D. 透過 API 實現自動部署
Answer: C
Explanation: 雲端 GPU 資源通常需付費使用;其餘彈性調度與自動部署在雲端環境都常見。
323. 在企業場域推廣 AI 時,若高層過度期待「AI 能一次解決所有問題」,可能導致:
A. 專案範圍過廣,無法落地
B. 顯著提升成功率
C. 省下大量成本
D. 完全不需要規劃
Answer: A
Explanation: AI 推廣需要明確範疇與可行性評估,若企圖一次解決所有問題,容易超出資源與可行範圍。
324. 「XAI(Explainable AI)」最主要的目的是:
A. 提高模型參數量
B. 幫助用戶理解 AI 決策依據,並在關鍵領域(如金融、醫療)滿足合規與可信度需求
C. 減少測試資料集
D. 取代所有黑盒模型
Answer: B
Explanation: XAI 旨在使 AI 決策具備可解釋性,以便評估風險、滿足法規或增進使用者信任。
325. 在進行 NLP「文本摘要」時,下列哪一種策略屬於「抽取式摘要」?
A. 直接生成新句子
B. 從原文抽取最關鍵句子或片段組合
C. 重新編寫文章
D. 使用 GAN 生成圖像
Answer: B
Explanation: 抽取式摘要聚焦於從原文本中擷取最重要句子;而生成式摘要則是重新用自己的語言組句。
326. 「曠世(DRIFT)」通常形容的是:
A. 模型訓練速度
B. 資料或概念分布隨時間產生變化,使原模型無法維持同樣效能
C. 統一指標
D. 碰撞測試機制
Answer: B
Explanation: 資料或目標概念改變(Concept Drift)會讓舊有模型失效,需要再訓練或更新。
327. 「協同過濾(Collaborative Filtering)」在推薦系統中的想法為何?
A. 只依據商品屬性做推測
B. 利用使用者-商品之間的互動矩陣,判斷相似用戶或相似商品
C. 僅考慮使用者地理位置
D. 使用監督式分類演算法
Answer: B
Explanation: 協同過濾是透過「使用者與物品」互動矩陣,將喜好相似的用戶或商品串聯來進行推薦。
328. 當測試一個生成式模型的文本品質,如果需要比較其「可讀性」與「文意通順」程度,下列哪一種評估較可能?
A. ROC AUC
B. F1-Score
C. 人工評分(人類閱讀後給意見)或自動指標如 BLEU/ROUGE
D. ARIMA
Answer: C
Explanation: 文本品質包括可讀性、通順度等,常需結合人工評分與 BLEU/ROUGE 自動評估;ROC AUC 與 ARIMA 與此不符。
329. 機器學習流程中,若資料中存在多個完全相同的特徵(或高度重疊),可能影響:
A. 模型訓練效率,且易導致參數冗餘
B. 讓模型更易收斂
C. 減少需要的正則化
D. 無任何影響
Answer: A
Explanation: 重複或極度相似特徵帶來冗餘與計算負擔,亦可能干擾模型參數學習。
330. 當企業專案需要一次整合多個 AI 功能(例如:影像偵測 + NLP 問答 + 語音合成),此情況下最需注意:
A. 僅需一台 GPU
B. 整合多模組的開發與部署協調、資源配置與服務編排
C. 直接全部模型合併成單一模型
D. 無須考慮
Answer: B
Explanation: 多種功能組合需考慮系統架構與服務編排,才能穩定協同運作。
331. 下列哪種情況代表模型出現「欠擬合(Underfitting)」?
A. 訓練集誤差低、測試集誤差高
B. 兩者誤差皆低
C. 兩者誤差都高
D. 訓練集準確度 > 測試集準確度
Answer: C
Explanation: 欠擬合指訓練集也無法被充分擬合,表現普遍不佳,故訓練與測試集誤差都高。
332. 若企業要利用「電腦視覺」進行商品瑕疵檢測,下列哪一項不太需要?
A. 清晰標註瑕疵位置或類型的影像
B. 對影像進行預處理與增強
C. 域名註冊
D. 機器學習或深度學習模型(如 CNN)
Answer: C
Explanation: 域名註冊與瑕疵檢測無直接關係;其餘皆為電腦視覺檢測必備環節。
333. 「串接知識庫(Knowledge Base)」在客服機器人中有何用處?
A. 僅用於圖像辨識
B. 將對話管理與既有 FAQ / 資料庫結合,使機器人能檢索並回答更準確
C. 完全不需要文字處理
D. 用於強化學習
Answer: B
Explanation: 知識庫可幫助對話機器人檢索既有 FAQs 或關鍵資訊,大幅提升回答精度。
334. 關於「AutoML」的常見誤解,下列哪一項正確?
A. AutoML 不需任何人工參與,即可保證最佳模型
B. AutoML 可以自動搜索多種模型與參數,但仍需人員監控與資料前處理
C. 只能用於影像辨識
D. 無法調整超參數
Answer: B
Explanation: AutoML 能協助自動化演算法搜索與參數調整,但仍需要人工觀察資料品質、結果解釋與微調。
335. 在深度學習框架中,若要同時計算正向傳播(Forward Pass)與反向傳播(Backward Pass),最核心的技術是:
A. 自動微分(Automatic Differentiation)
B. Word Embedding
C. One-Hot Encoding
D. 只用正則化
Answer: A
Explanation: 現代深度學習框架(TensorFlow、PyTorch)透過自動微分機制來計算梯度,以執行反向傳播更新參數。
336. 下列哪一種「資料蒐集」情況更易導致樣本偏差?
A. 隨機抽樣
B. 在單一時間點、單一地區蒐集大量資料,未考慮其他時空變異
C. 在不同人群、時段平均蒐集
D. 與專家協商分層取樣
Answer: B
Explanation: 若僅在特定時地蒐集,可能無法代表整體,多半易造成樣本選擇偏差。
337. 「OpenAI Gym」與「DeepMind Lab」等平台主要用於?
A. 電腦視覺數據標註
B. NLP 文本清洗
C. 強化學習(Reinforcement Learning)的環境與測試
D. 無監督學習分群
Answer: C
Explanation: 這些平台提供虛擬環境供強化學習代理進行訓練與測試。
338. 在實務中,若企業要快速試驗多種 AI 模型,並自動比較性能,下列哪一種方式較有效?
A. 手動逐一測試
B. 使用 AutoML 或自動化模型測試框架
C. 一次性丟入全部資料
D. 不做任何比較
Answer: B
Explanation: AutoML 或相關自動化工具可快速嘗試多種模型結構與超參數,並系統化比較結果。
339. 下列哪一個方法不能有效偵測或處理異常值(Outliers)?
A. 箱線圖(Box Plot)
B. Z 分數(Z-score)
C. One-Class SVM
D. 朴素貝葉斯分類
Answer: D
Explanation: 朴素貝葉斯主要用於監督式分類;其餘選項屬常見異常檢測或可視化偵測方式。
340. 在影像處理中,若前處理不當(例如尺寸不一致、亮度落差大),可能造成什麼後果?
A. 模型過度擬合
B. 模型無法學習到穩定特徵,導致準確率下降或訓練困難
C. 完全無影響
D. 模型更易收斂
Answer: B
Explanation: 不一致的影像尺寸或極度亮度差異會增加模型學習難度並降低性能,需進行合理預處理。
341. 若要在 Token Level(單字或子詞)進行運算,並保留序列位置資訊,下列哪一種方法較常用於 Transformer?
A. PCA
B. Positional Encoding
C. Dropout
D. Word2Vec
Answer: B
Explanation: Transformer 使用 Positional Encoding 為序列中的每個 Token 加入位置資訊,代替 RNN 的時序性。
342. 在「多類別分類」情境下,若想均衡地衡量各類別表現,下列指標哪個較合適?
A. Micro-F1 或 Macro-F1
B. RMSE
C. ACC 與誤差絕對值
D. BLEU
Answer: A
Explanation: 多類別時,Macro-F1、Micro-F1 能平衡各類預測品質,RMSE 為回歸指標,BLEU 用於文本生成。
343. 「Anomaly Detection(異常檢測)」常應用於:
A. 網站 UI 色彩設計
B. 工廠設備異常預測、信用卡詐欺偵測、網路入侵偵測等
C. 隨機森林
D. 全部無法
Answer: B
Explanation: Anomaly Detection 是在正常模式下偵測出不尋常事件,廣用於金融詐騙、工業預檢、資訊安全等。
344. 有關「貝氏分類器(Naive Bayes)」敘述,何者較為正確?
A. 假設特徵條件相互依賴
B. 常用於文本分類,前提是假設特徵條件獨立性
C. 只適用於影像分群
D. 沒有任何可解釋性
Answer: B
Explanation: Naive Bayes 假設特徵獨立,通常可用於垃圾郵件分類等文本問題;缺點是特徵依賴情況下效果較差。
345. 一個深度學習網路若所有層都使用線性激活函數,會導致?
A. 無法擬合非線性複雜函數,模型退化成單純線性函數
B. 模型表現更強
C. 一定過擬合
D. 訓練速度瞬間加倍
Answer: A
Explanation: 若全用線性激活,各層組合仍是線性,不會帶來非線性學習能力,失去深度神經網路優勢。
346. 「Batch Size」在深度學習訓練時的作用為何?
A. 決定每次參與更新權重的訓練樣本數
B. 決定最終模型大小
C. 僅用於推論
D. 不會影響收斂速度
Answer: A
Explanation: Batch Size 是一次參與梯度更新的樣本數,會影響訓練穩定度與速度。
347. 在「信用卡詐欺偵測」中,若詐欺樣本非常稀少,下列哪個方法有助於訓練分類器?
A. 不進行任何處理
B. 使用資料平衡技術,如 Oversampling 或 SMOTE,並採用適合不平衡資料的評估指標(F1 或 AUROC)
C. 調整高學習率
D. 僅用 Accuracy
Answer: B
Explanation: 詐欺偵測屬嚴重不平衡問題,常透過 SMOTE 等方式增加少數類別、使用合適評估指標(F1、AUROC)來衡量。
348. 企業在建構「行銷預測模型」時,若同時顧及隱私與個資合規,下列哪種做法較可行?
A. 無須告知消費者
B. 采用差分隱私(Differential Privacy)或同態加密技術,以在分析同時保護個資
C. 將數據全部匿名上傳到公開網站
D. 禁止 AI 模型使用任何資料
Answer: B
Explanation: 差分隱私或同態加密是當代研究重點,可在不洩漏個資的情況下進行數據分析。
349. 「聯邦學習(Federated Learning)」的主要概念是?
A. 在中央伺服器上集中所有資料
B. 將資料集中到雲端進行統一訓練
C. 各裝置本地訓練模型,僅傳送參數更新到伺服器彙整,保護資料隱私
D. 只用於區塊鏈
Answer: C
Explanation: 聯邦學習在裝置端進行本地訓練,伺服器只彙整參數更新而不匯集原始數據,兼顧隱私與學習效益。
350. 在圖像分類模型中,若想處理「多標籤分類(Multi-Label Classification)」,下列哪一種設計最常見?
A. 僅用 Softmax 作單一類別輸出
B. 改用多個 Sigmoid 輸出單元,每個標籤獨立判斷
C. 不可同時判斷多種標籤
D. 只用二元分類器
Answer: B
Explanation: 多標籤情況(同張圖可有多個標籤)通常採多個獨立 Sigmoid,獨立輸出每個標籤概率。
351. 在 CNN 中,若想擴大感受野並減少參數,下列層級設計方式可能包含?
A. 僅用 1×1 卷積
B. 遞增卷積層深度與池化層
C. 不使用池化
D. 大量全連接層
Answer: B
Explanation: 深度與池化層能擴大感受野,同時減少空間維度,降低參數量;1×1 卷積是另外一種手段,但並非唯一。
352. 「時間序列交叉驗證(Time Series Cross-Validation)」與一般 K-Fold 不同之處是?
A. 一模一樣
B. 時序資料需要保留時間順序,不能隨意打亂樣本
C. 無需分割
D. 不用任何驗證集
Answer: B
Explanation: 時序資料必須尊重時間先後,不可像一般 K-Fold 隨機切分,需要特殊切分策略。
353. 在機器學習之「網格搜索(Grid Search)」或「隨機搜索(Random Search)」主要目的為何?
A. 搜尋最佳資料清洗方法
B. 搜尋最佳模型結構或超參數組合
C. 蒐集用戶反饋
D. 進行模型解釋
Answer: B
Explanation: 網格搜索或隨機搜索可在設定範圍內嘗試各種超參數組合,找出性能最佳的模型配置。
354. 「GPT」模型常用於:
A. 影像風格遷移
B. 生成文本或對話
C. 圖像檢測
D. 聚類分析
Answer: B
Explanation: GPT(Generative Pre-trained Transformer)最常用於文本生成、回答問題等 NLP 生成式應用。
355. 若一個 NLP 模型僅訓練於書面語文本,應用在口語化社群媒體時,可能遭遇?
A. 完全沒差異
B. 模型預測速度翻倍
C. 語料分布不一致與詞彙風格差異,導致性能下降
D. 無需調整
Answer: C
Explanation: 書面語與口語化網路文本差異大,模型難以泛化,需要重新蒐集或微調。
356. 下列哪一個資料結構最常用於「關聯規則挖掘」中保存交易資訊?
A. 樹形結構
B. 全連接圖
C. 事物—項目集(Transaction-Itemset)資料表
D. B+ Tree
Answer: C
Explanation: 在關聯規則挖掘(如購物籃分析)中,常見使用 交易 × 項目 的矩陣或表格記錄,進行頻繁項目集搜尋。
357. 若企業部署「AI 內容審核系統」審核海量使用者上傳的圖片,最可能關切的點是?
A. 圖像顏色調整
B. 模型是否能有效辨識違規內容(色情、暴力、侵權),並同時避免誤殺
C. 調整網路流量
D. 完全不需要標籤
Answer: B
Explanation: 圖片審核重點在於有效判別違規與正常內容,且誤判率也要可控,才能減少誤刪合規圖像。
358. 在資料科學中,若想檢查兩個連續變數之間的線性相關程度,下列哪一種指標較常用?
A. 皮爾森相關係數(Pearson Correlation Coefficient)
B. RMSE
C. F1-Score
D. 精確率(Precision)
Answer: A
Explanation: 皮爾森相關係數衡量兩個連續變數的線性相關程度。RMSE 與 F1 屬於其他領域指標。
359. 有關模型調參(Hyperparameter Tuning)時,若整個搜索空間非常大,下列哪一種方式可能較有效?
A. 只用網格搜索(Grid Search),嘗試所有組合
B. 使用貝氏優化(Bayesian Optimization)或隨機搜索,能更高效探索
C. 盲目嘗試
D. 僅用預設值
Answer: B
Explanation: 在巨大參數空間中,貝氏優化或隨機搜索常比網格搜索更能有效利用資源。
360. 有關 AI 領域的「對手生成網路(GAN)」之鑑別器(Discriminator),下列描述何者正確?
A. 負責生成新數據
B. 判斷輸入資料是真實還是生成器產生
C. 不需要任何訓練
D. 與生成器無互動
Answer: B
Explanation: GAN 中鑑別器的任務是判斷輸入是真實樣本或偽造樣本,以幫助生成器不斷改進品質。
361. 當機器學習系統接收到大量噪音或廢訊(Garbage Input),下列哪種方法可降低被對手攻擊的風險?
A. 開放所有輸入直接給模型
B. 在資料管道中加入檢查與過濾機制,排除明顯無效或惡意輸入
C. 由使用者自行決定
D. 不需任何檢查
Answer: B
Explanation: 加強輸入驗證與過濾可阻擋惡意或無效輸入,降低對手攻擊風險。
362. 下列何者不是「深度學習」當中對網路訓練有益的技術?
A. Batch Normalization
B. Skip Connection(如 ResNet)
C. Xavier or He 初始化方式
D. 只用線性激活函數
Answer: D
Explanation: 僅用線性激活會失去深度學習的非線性表達能力,無益於複雜問題;其餘皆為常用且有效的技巧。
363. 在 AI 專案進行「POC(Proof Of Concept)」時,最主要目的為何?
A. 在大規模上線前,小規模驗證技術可行性與潛在價值
B. 直接全組織部署
C. 減少溝通
D. 確保系統無任何缺陷
Answer: A
Explanation: POC 透過小規模試驗來證明技術或想法可行,若成功再考慮擴大部署。
364. 「資訊熵(Entropy)」在機器學習中的常見角色為:
A. 判斷樹分割準則(如 ID3 演算法)
B. 測量維度相似度
C. 測量 GPU 訓練加速
D. 判斷可解釋性
Answer: A
Explanation: 訊息熵在決策樹(ID3/C4.5)常用於選擇分割特徵,衡量資料不純度。
365. 在模型監測中,若發現真實使用情境來的數據分佈與訓練時差異極大,稱作:
A. 資料洩漏
B. 分佈偏移(Data Shift)
C. 模型落地
D. 網路延遲
Answer: B
Explanation: 分佈偏移指「線上數據分佈」與「訓練時數據分佈」產生明顯差異,需要評估是否重新訓練。
366. 有關 CNN 的特徵提取過程,下列何者較為正確?
A. 完全不用捲積核
B. 透過卷積層萃取局部特徵,逐層累積更高階語意
C. 僅能應用於文字
D. 模型輸入為灰階矩陣即可
Answer: B
Explanation: CNN 的核心是捲積操作對局部區域特徵進行萃取,疊多層後學到高階抽象特徵。
367. 「AI 會取代哪些工作?」是一個經常被討論的議題,下列哪一種觀點較平衡?
A. AI 最終將取代所有工作
B. AI 不會影響任何工作
C. AI 會替代部分重複性流程工作,但需要人類在創造力、決策判斷、複雜人際互動領域中合作與輔助
D. 需立法禁止 AI
Answer: C
Explanation: 普遍看法是 AI 可自動化重複性或可程式化任務,但仍需要人類在策略、創造力、倫理與管理中發揮關鍵作用。
368. 在「目標檢測(Object Detection)」任務中,若只執行影像分類而無法輸出框選位置,這表示?
A. 準確度最高
B. 模型缺乏 bounding box 偵測機制
C. 一定能輸出多物件位置
D. 代表是語音偵測
Answer: B
Explanation: 影像分類只能判斷該圖片是否含特定物件,無法提供物件在圖片中之位置,需要目標偵測模型才可輸出 bounding box。
369. 當要確保「AI 系統」符合各國數據隱私法,如 GDPR,下列哪一種做法較不必要?
A. 訂定資料蒐集與使用政策、取得使用者同意
B. 對敏感資料進行匿名化或去識別化處理
C. 完全無需告知任何人
D. 定期安全稽核與資訊保護
Answer: C
Explanation: GDPR 要求透明與同意,並保護個資;「不告知、不揭露」恐違反法規。
370. 下列關於「生成式語言模型」的應用敘述,何者正確?
A. 僅用於分類情緒正負向
B. 可應用於自動寫作、聊天機器人、程式碼生成等多種情境
C. 必須基於可解釋度
D. 只能處理低階語言
Answer: B
Explanation: 生成式語言模型能生成各式文本,如對話、文章、程式碼等,應用相當多元。
371. 當企業團隊表示「我們建立一個 Random Forest 來做分類」,下列何者較能描述其特性?
A. Random Forest 是一種深度學習網路
B. 它是許多決策樹的 Ensemble,透過隨機抽樣特徵與資料子集建立多棵樹,再投票或平均
C. 僅包含一棵樹
D. 必須使用 RNN
Answer: B
Explanation: Random Forest 綜合多棵隨機抽樣後訓練的決策樹,以投票或平均提高穩定度與表現。
372. 「Dropout」在訓練神經網路時的原理是:
A. 隨機凍結所有神經元
B. 在訓練時隨機將部分神經元輸出置零,避免過於依賴特定路徑、減少過擬合
C. 提高學習率
D. 收斂速度降低
Answer: B
Explanation: Dropout 是隨機將某些神經元輸出歸零,使網路不依賴特定權重路徑,有助減少過擬合。
373. 在數據標註過程中,下列哪個問題常導致標註品質不佳?
A. 使用者介面過於友善
B. 標註者未受良好訓練或標註規範不明確
C. 嚴格審查
D. 資料筆數太多
Answer: B
Explanation: 若標註人員缺乏統一規範或經驗,易出現不一致或錯誤標籤,最終導致模型品質下降。
374. 在工業生產中,若導入「AI 預測維護(Predictive Maintenance)」,下列敘述何者較為恰當?
A. 只靠傳統定期保養,不需要數據
B. AI 能透過機器運轉數據與異常模式,預測故障風險並降低停工損失
C. 無需感測器
D. 必須經過深度強化學習
Answer: B
Explanation: 預測維護透過各種感測器數據與模型分析,提早發現異常徵兆,以預防突發故障並節省維護成本。
375. 如果一個回歸模型對高數值預測的誤差尤其敏感,可能選擇下列哪個評估指標?
A. MAE
B. MSE
C. F1
D. AUC
Answer: B
Explanation: MSE 對大誤差懲罰比 MAE 更大,因此特別敏感於高數值誤差。
376. 「ResNet(殘差網路)」解決了哪些深度神經網路常見的問題?
A. 網路愈深,誤差不斷降低
B. 避免梯度消失或衰減,讓更深層的神經網路也能順利訓練
C. 只能用於 RNN
D. 不需要激活函數
Answer: B
Explanation: ResNet 透過「殘差連接」減輕梯度消失,使非常深的網路也可有效訓練。
377. 當企業想增加「顧客忠誠度」,並希望 AI 自動分析何時應推出折扣或加值服務,下列哪個應用最貼切?
A. 顧客流失預測、推薦系統
B. 直接用語音辨識
C. 影像分群
D. 文本生成詩詞
Answer: A
Explanation: 透過 AI 預測哪些客戶容易流失,再精準給予優惠或推薦,提升顧客黏著度。
378. 下列何者與「轉移學習(Transfer Learning)」概念較吻合?
A. 不同任務間絕無關聯
B. 先在大規模通用資料預訓練,再在目標任務微調,節省資料與計算
C. 僅在醫療領域使用
D. 只適用於強化學習
Answer: B
Explanation: 轉移學習是將在大規模資料(通用任務)上學到的知識遷移到特定目標任務中微調,以節省資源並提升效能。
379. 若語言模型在聊天時回答充滿冒犯字眼或錯誤陳述,下列對策何者不恰當?
A. 加入不當詞彙過濾
B. 更新訓練資料,移除冒犯內容或強化其規範
C. 完全停止使用生成式 AI
D. 強化內容審核機制
Answer: C
Explanation: 遇到不當回應應考慮更新資料、加過濾與審核,而非直接放棄使用生成式 AI。
380. 有關「淺層學習(Shallow Learning)」與「深度學習(Deep Learning)」的差別,下列敘述何者較正確?
A. 深度學習不需要大量資料
B. 淺層學習模型參數更少,對特徵工程依賴較高;深度學習能自動萃取特徵,但需要更多資料與運算
C. 淺層學習比深度學習一定更準確
D. 深度學習不用特徵工程
Answer: B
Explanation: 淺層學習依賴手動特徵工程,深度學習可自動學習高階特徵,通常需大量資料與較高運算資源。
381. 在自動駕駛系統中,下列哪個功能較不屬於感知層面的核心任務?
A. 車道線辨識
B. 物體偵測(其他車輛、行人)
C. 實時定位與地圖對照
D. 行銷推送訊息
Answer: D
Explanation: 自動駕駛感知層聚焦於車輛周邊環境的感知(車道、行人、物體),行銷推送訊息與安全駕駛無關。
382. 當企業採用雲端或第三方 AI 平台,下列哪個擔憂較不常見?
A. 數據安全與隱私合規
B. 服務穩定性與 SLA
C. 模型可解釋性
D. 公司 Logo 設計風格
Answer: D
Explanation: 引進第三方雲端服務需考慮數據安全、合約 SLA、模型透明度等;公司 Logo 與此無直接關係。
383. 在醫療診斷領域使用深度學習時,若資料量有限,但專業標籤昂貴,下列策略較常見?
A. Random Search
B. 購買更多 GPU
C. 使用遷移學習或預訓練模型(如在大型影像資料上訓練後再微調),並進行資料增強
D. 只用無監督學習
Answer: C
Explanation: 醫療影像標註往往昂貴,可先在大規模通用影像上訓練,再使用小量醫療資料微調,並可做 Data Augmentation。
384. 當 AI 專案導入「演算法即服務(Algorithm as a Service)」模式時,下列敘述哪一項較正確?
A. 企業自行維護所有模型細節
B. 企業可直接呼叫第三方提供之演算法 API,減少自建負擔
C. 一定能看到完整源代碼
D. 模型與資料都必須上傳至公有雲
Answer: B
Explanation: Algorithm as a Service 讓使用者可透過 API 方式使用服務供應商的模型,不必自行開發;是否上傳至公有雲或能否查看源碼視合約而定。
385. 在「電腦視覺」中,若想將物件從背景中分割出來,下列哪一種技術最適合?
A. 影像分割(Segmentation)
B. 影像分類
C. 最短路徑演算法
D. 馬爾可夫鏈
Answer: A
Explanation: 影像分割(如 Semantic / Instance Segmentation)是將畫面中每個像素分出對應物件或背景。
386. 「小樣本學習(Few-Shot Learning)」在何時顯得關鍵?
A. 當標註資料龐大且容易取得
B. 需要依賴大量訓練資料
C. 僅能做無監督學習
D. 當可取得的有標籤樣本極少,仍需模型具備良好泛化能力
Answer: D
Explanation: Few-Shot Learning 解決資料標註極少的場景,嘗試在非常少的範例下學習出可泛化的模型。
387. 企業在電子商務網站上建置「聊天機器人」回答問題並引導交易,下列哪個功能對營運最有助益?
A. 提供影片剪輯服務
B. 對話管理與商品推薦,串接支付或客服
C. 僅用靜態網頁資訊
D. 刪除所有顧客資料
Answer: B
Explanation: Chatbot 能即時回答購物問題、引導下單並串接推薦與支付系統,提升客戶體驗與轉換率。
388. 在生產線部署「邊緣裝置 AI」,若需要影像即時分析,下列哪一種考量較重要?
A. 僅使用雲端大型模型
B. 模型需壓縮或量化,以符合邊緣硬體資源與即時性需求
C. 不允許離線運作
D. 無需任何考量
Answer: B
Explanation: 邊緣裝置資源有限,需使用輕量化或壓縮模型;可支援即時運算降低雲端傳輸延遲。
389. 當企業想用 AI 進行客戶情緒分析,下列哪一種方法較不適當?
A. 分析客服對話文本或社群評論的關鍵詞與情感分數
B. CNN 用於影像分群
C. NLP 情感分類模型
D. 視覺或語音情緒辨識
Answer: B
Explanation: 影像分群無法直接解析文字、語音情緒;其餘選項都能捕捉客戶情緒訊息。
390. 「離線評估(Offline Evaluation)」與「在線評估(Online Evaluation)」在推薦系統中的差別在於:
A. 離線評估使用歷史資料與指標(Precision@k、Recall@k 等),在線評估則透過真實用戶互動(A/B 測試)獲得更直接的反饋
B. 兩者沒有差別
C. 離線必須收錢
D. 在線不需任何使用者
Answer: A
Explanation: 離線評估在已有數據上模擬,在線評估則觀察真實用戶反應,兩者互補。
391. 在「多任務學習(Multi-Task Learning)」中,下列哪種場景可能受益?
A. 需同時判斷圖像分類與該物件形狀屬性
B. 只有單一標籤
C. 無法共享特徵
D. 彼此任務毫無關聯
Answer: A
Explanation: 多任務學習在多個相關任務間共享特徵表達,增進整體效能;互不相干的任務則助益有限。
392. 在「強化學習」中,代理要不斷試錯并優化策略,這代表:
A. 需標籤大量資料
B. 不一定需要標籤,但需獎勵/懲罰信號指引學習
C. 直接使用監督式學習
D. 僅透過無監督聚類
Answer: B
Explanation: 強化學習不需要傳統標籤,而是透過環境提供的獎懲來調整行為策略。
393. 如果深度學習訓練一段時間後,發現訓練集與驗證集損失均持續高且收斂緩慢,下列何者較可能?
A. 模型過度擬合
B. 學習率設定不當(可能過低或過高),或網路太小而難以擬合
C. 模型太過強大
D. 資料太完美
Answer: B
Explanation: 若長期無法收斂,可能學習率不合適或模型太簡單(欠擬合)。需調參或改模型結構。
394. 「LSTM」與一般 RNN 最大差異在於:
A. LSTM 在隱藏層內多了控制資訊流的閘門(輸入閘、遺忘閘、輸出閘),能更好處理長期依賴問題
B. LSTM 無法保存長程記憶
C. RNN 不用梯度
D. LSTM 只用於圖像
Answer: A
Explanation: LSTM 通過閘門機制保留長期資訊並減輕梯度消失,是 RNN 的改良版本。
395. 在機器學習中,若採用「啟發式特徵選擇」(Heuristic Feature Selection),其目的為何?
A. 讓模型過度擬合
B. 減少不相關或噪聲特徵,保留最具資訊價值的部分
C. 增加維度
D. 做隨機初始化
Answer: B
Explanation: 特徵選擇能提升訓練效率、減少過擬合機會,使模型更易聚焦於關鍵資訊。
396. 有關 NLP 中「問答系統(QA System)」下列何者較為正確?
A. 都使用無監督學習
B. 需要語意理解與資訊檢索,或結合生成式模型
C. 僅能回答數值問題
D. 無需資料即可
Answer: B
Explanation: QA 系統通常需結合自然語言理解、資訊檢索或生成式模型才能回答多樣化問題。
397. 「半結構化資料(Semi-Structured Data)」常見於:
A. 圖像檔
B. CSV
C. JSON、XML 格式檔,帶有結構標記但並非嚴格關聯式
D. 只能放 NoSQL
Answer: C
Explanation: JSON、XML 帶有標籤與層次,屬半結構化資料;CSV 是結構化、圖像檔屬非結構化。
398. 當使用者提問:「為什麼模型給我如此結果?」時,若開發者無法回答,表示:
A. 模型可解釋性不足
B. 模型無偏差
C. 完全沒有問題
D. 適合任何關鍵業務
Answer: A
Explanation: 使用者要求瞭解決策依據,若無法給出合理解釋,代表模型可解釋性不足。
399. 在 AI 專案實務中,若發現標籤資料中有許多錯誤或不一致,下列哪種做法最合適?
A. 忽視並直接訓練
B. 加入更多模型參數
C. 回頭修正或審核標籤,提升標註品質再行訓練
D. 不需要測試
Answer: C
Explanation: 標註錯誤會嚴重影響模型訓練結果,應先修正或重審標籤,確保資料品質。
400. 當組織內部存在「AI 項目」與「IT 部門」溝通障礙時,下列哪種作法較能改善?
A. 不做任何跨部門協調
B. 訂立共通目標與溝通管道,定期協調需求與資源,推動跨部門合作
C. 外包整個 IT 部門
D. 讓 AI 團隊單獨行動即可
Answer: B
Explanation: AI 專案需要 IT 部門提供架構、系統與維運支持,應設置明確協作流程、定期會議或共同目標以提升效率與合作成效。
第 401~500 題
401. 在智慧城市建設中,下列哪一種應用場景較常透過 AI 實現?
A. 全部路燈一律常亮
B. 交通號誌優化調度、智能停車引導、城市安防影像監控等
C. 僅能用於氣象預測
D. 與城市規劃無關
Answer: B
Explanation: AI 常被應用於智慧交通、停車管理、影像監控等城市治理場域,提升城市運行效率與公共安全。
402. 若某影像分類任務的類別非常多(例如 1000 類),下列哪一個挑戰最明顯?
A. 不需大量資料
B. 訓練和推論時的計算複雜度與參數量上升,需要更強的模型與硬體資源
C. 每個類別都維持超高 Precision
D. 僅限於監督式學習
Answer: B
Explanation: 類別越多,模型區分難度越大,需更大量的資料與更複雜模型,計算開銷也隨之上升。
403. 企業在評估 AI 導入成效時,最可能同時關注:
A. K-means 分群中心
B. 商業指標(ROI、成本節省)及技術指標(準確率、召回率)
C. 只關心技術層面
D. 無需評估
Answer: B
Explanation: AI 導入的最終目標多與商業或組織效益相關,因而需兼顧技術表現與投資報酬率等商業指標。
404. 若資料集中存在少數極端異常值,在計算平均或變異數時會造成嚴重影響,下列哪一種統計指標較能抗極端值?
A. 平均值(Mean)
B. 中位數(Median)
C. 標準差(Std Dev)
D. 變異數(Variance)
Answer: B
Explanation: 與平均值相比,中位數對極端值較不敏感,能更穩定地代表資料中心趨勢。
405. 在企業推行 AI 專案之初,若缺乏適當的「資料治理(Data Governance)」制度,可能導致:
A. 資料品質不受控、隱私風險增加,難以確保 AI 模型效能
B. 更快落地
C. 模型訓練自動完成
D. 成本立即歸零
Answer: A
Explanation: 資料治理不完善會造成資料混亂、品質或隱私管理不足,影響 AI 專案成功率。
406. 在機器學習中,下列哪種情況屬於「資料洩漏(Data Leakage)」?
A. 模型測試時用到與訓練集重疊的標籤訊息,導致評估結果不真實
B. 使用交叉驗證
C. 調整學習率
D. 進行 Early Stopping
Answer: A
Explanation: 資料洩漏指測試階段不小心使用到訓練集資訊(或標籤)而失去客觀性,造成評估偏差。
407. 在工業 4.0 應用中,AI 可協助「生產流程優化」與「智慧檢測」。若重視良率與設備維護,下列哪種資料最關鍵?
A. 產品外觀影像、感測器機台運轉數據
B. 員工年齡
C. 公司 Logo 設計
D. 行政表格
Answer: A
Explanation: 產品影像與機台運轉感測數據能有效檢測瑕疵、預測維護需求,是工業 AI 的核心資料。
408. 有關「模型部署」時的彈性伸縮機制(scaling),下列敘述何者正確?
A. 與使用者請求量無關
B. 若預期高併發量,可採用容器或雲端自動擴充主機資源,因應瞬間負載
C. 僅能在本地端執行
D. 不需考慮延遲
Answer: B
Explanation: 部署在雲端或容器化環境時,可依需求彈性擴充/縮減資源,對應不同負載水位。
409. 如果一個語言模型經常產生「隨機亂語」或「斷句不合邏輯」,可能的原因是:
A. 訓練資料不足或品質不佳
B. 過擬合
C. 模型使用過多參數
D. 絕對錯誤的 Tokenization
Answer: A
Explanation: 若文本數據不夠或帶有大量噪音,生成式模型可能缺乏語言結構學習,導致產出亂句。
410. 在 AI 的「倫理與公平」範疇中,下列哪一項較不屬於常見考量?
A. 演算法的偏見檢測
B. 結果可解釋性
C. 資料使用者介面美觀性
D. 對敏感族群的影響評估
Answer: C
Explanation: AI 倫理重點在偏見、公平、隱私和可解釋性等;介面美觀雖可影響使用體驗,但非倫理考量核心。
411. 深度學習訓練中,若損失函數長時間「Nan」或發散,下列哪一個原因較常見?
A. 資料完美無暇
B. 學習率設定過高、初始權重不當或梯度爆炸
C. 模型結構過於簡單
D. 模型完全沒問題
Answer: B
Explanation: 訓練過程若出現 NaN,常與學習率、初始化或梯度爆炸等因素有關,須調參或正則化。
412. 在監督式學習的分類問題中,若我們希望「寧可多誤判一些負類,也要絕對抓到所有正類」,意味著?
A. 要提高 Precision
B. 要降低 Recall
C. 要提高 Recall
D. 想要更小的 F1
Answer: C
Explanation: 「絕對抓到所有正類」就要盡量減少 FN,也就是提升召回率(Recall)。
413. 在 NLP 的文本前處理中,下列哪一個步驟最常見?
A. 卷積運算
B. Tokenization(斷詞)、去除標點或停用詞、詞形還原等
C. 設計 CNN Kernel
D. 影像增強
Answer: B
Explanation: NLP 常需先對文本斷詞、去除無意義詞彙、處理詞形等,便於後續模型分析。
414. 「GAN」在圖像生成中出現 Mode Collapse,表示:
A. 模型產出多樣性極高
B. 模型只會重複生成少數幾種樣本,缺乏多樣性
C. 鑑別器停止學習
D. 完全不受參數影響
Answer: B
Explanation: Mode Collapse 是生成器始終重複生成同類型樣本,無法展現應有的多樣性。
415. 有關「AI 醫療輔助診斷」系統的最佳實務,下列何者較恰當?
A. 直接讓 AI 完全取代醫師
B. AI 產生的診斷結果供專業醫師參考,最終決策仍由醫師把關
C. 使用任何影像都能診斷
D. 不需任何隱私保護
Answer: B
Explanation: 醫療輔助診斷以專業醫師最終判斷為準,AI 提供建議或輔助診斷,必須符合醫療法規及隱私需求。
416. 「強化學習」中,若我們只在最終目標達成後給予獎勵,這種問題被稱為:
A. 即時回饋
B. 稀疏獎勵問題(Sparse Reward)
C. 有標籤學習
D. 無須探索
Answer: B
Explanation: 當獎勵訊號非常稀少或僅在成功結束時給予,稱稀疏獎勵,代理需更複雜的探索機制才能找到路徑。
417. 在「客戶關係管理(CRM)」中,AI 常用於:
A. 分析客戶流失風險、個人化推薦、客服自動化等
B. 更新網頁前端樣式
C. 資料加解密
D. 不適用任何機器學習
Answer: A
Explanation: CRM 透過 AI 可預測客戶流失、提供精準行銷與自動客服,提升客戶體驗與忠誠度。
418. 在資料科學中,若要加速「特徵工程」與「模型訓練」的流程,並確保可復現性,下列哪一種概念最為重要?
A. CLI 使用者介面
B. 自動編碼
C. Pipeline 化與版本控制(如 MLflow, DVC),確保同樣流程可多次執行
D. 只依賴隨機執行
Answer: C
Explanation: 透過 Pipeline 設計與版本控制可讓資料處理、特徵工程與模型訓練流程自動化且可重複。
419. 有關「自動超參數調整」的技術,下列哪一種不是常見方式?
A. Grid Search
B. Random Search
C. Bayesian Optimization
D. 依據人員喜好隨意設定
Answer: D
Explanation: 人為拍腦袋猜測不算正式方法;其餘為自動調參常見手段。
420. 若深度學習網路在測試集的錯誤率極高,但在訓練集幾乎完美,下列哪一個現象最有可能?
A. 欠擬合
B. 資料剛好完美
C. 嚴重過擬合(Overfitting)
D. 太少隱藏層
Answer: C
Explanation: 訓練集幾乎零誤差而測試差,代表模型只記住訓練樣本,無法泛化,為典型過擬合。
421. 「Ensemble Learning(集成學習)」主要原因是:
A. 在不同演算法或不同數據切分下訓練多個模型,再綜合結果,通常可提升精度與穩定度
B. 只訓練一個模型即可
C. 只適用於無監督學習
D. 提高過擬合機率
Answer: A
Explanation: 集成透過多個模型投票/平均,使最終結果更穩健,也降低單一模型錯誤的風險。
422. 企業在引進 AI 系統前,若業務與流程尚未數位化,可能出現何種問題?
A. 資料無法取得或品質不足,AI 專案無法順利推動
B. 模型效能自動最佳
C. 無需考慮任何隱私
D. AI 可自動生成所有數據
Answer: A
Explanation: AI 需要可靠數位資料來訓練和運行,若流程未數位化,常缺乏足夠高品質數據。
423. 在數位廣告投放領域,AI 推薦引擎可根據用戶瀏覽與點擊行為進行「自動出價」與「受眾定向」。下列敘述何者正確?
A. 只需固定出價
B. 透過強化學習或預測點擊率等機制,動態調整廣告出價與投放目標
C. 不可使用任何資料
D. 僅能在無監督學習
Answer: B
Explanation: AI 會根據用戶行為預測 CTR,並動態調整出價策略與受眾定向,以提高廣告效益。
424. 在資料前處理時,若某特徵存在大量空值(Missing Data),下列哪種方法不恰當?
A. 根據數值分布填補或使用回歸/平均等方式推估
B. 直接全部刪除該特徵,不考慮實際情況
C. 利用相近樣本或外部資訊進行插補
D. 設計一個特殊值或欄位標示缺失
Answer: B
Explanation: 若該特徵潛在重要,應謹慎評估是否可以填補或替代,不能盲目全部刪除。
425. 當模型在每一次迭代訓練中,損失值震盪極大,學習不穩定,可能原因為:
A. 學習率過大
B. 學習率過小
C. 過度正則化
D. 無監督方法
Answer: A
Explanation: 學習率過高導致梯度更新幅度過大,造成損失震盪或無法收斂。
426. 「特徵縮放(Feature Scaling)」像是 Min-Max 正規化或標準化,其主要目的是:
A. 增加資料維度
B. 讓各特徵處於相近數值範圍,利於梯度下降收斂或距離度量
C. 生成虛假資料
D. 移除不重要特徵
Answer: B
Explanation: 不同數值尺度的特徵若不縮放,可能導致訓練收斂慢或距離度量偏差。
427. 有關「數據可視化」與「商業智慧(BI)」工具,下列哪一種功能最常見?
A. 僅能做剪裁圖片
B. 多維度的互動式報表、即時 Dashboard
C. 深度學習訓練
D. K-Means 聚類
Answer: B
Explanation: BI 工具重點在資料可視化與互動式報表,協助商業決策。
428. 在「推薦系統」中,若我們同時考慮「協同過濾」與「內容分析」稱為:
A. 混合式推薦(Hybrid Recommendation)
B. 單純轉移學習
C. 無法實現
D. 監督式迴歸
Answer: A
Explanation: 協同過濾著重使用者互動,內容分析聚焦物品屬性,混合式推薦結合兩者優點。
429. 下列哪一個概念可用於強化「AI 系統」的對手防禦能力?
A. Adversarial Training(對抗訓練)
B. 減少測試資料
C. 遺傳演算法
D. 單純刪除隱藏層
Answer: A
Explanation: 對抗訓練把對手攻擊樣本納入模型訓練過程,使模型學會抵禦些微擾動。
430. 若某企業對於 AI 產生高度依賴,但忽略安全防護,下列哪一種攻擊可能出現?
A. 完全無風險
B. 資料竊取、對手攻擊(Adversarial Attack),或模型被反向工程
C. 模型自動修復
D. 絕對無法被入侵
Answer: B
Explanation: AI 系統若安全機制不足,可能遭惡意入侵或竊取,亦或對手攻擊,使模型輸出錯誤。
431. 「E2E(End-to-End)」在深度學習中指:
A. 只在最末端進行監督
B. 從輸入到輸出完全用單一端到端模型學習,中間少需人工特徵工程
C. 手動萃取特徵
D. 不可用於 NLP
Answer: B
Explanation: E2E 模型不依賴大量人工特徵工程,而是整個流程由網路自行學習。
432. 企業若想透過「對話式 AI」實現客服自動化,下列何者為必要條件?
A. 收集相當量的對話範例或 FAQ,並建置 NLP 模型或規則
B. 直接隨機回應
C. 不需任何訓練
D. 只用影像處理
Answer: A
Explanation: 對話式 AI 需要語料庫(對話紀錄/FAQ)做訓練,才能理解並生成適切回答。
433. 「轉錄(Transcription)」與「文本分類」的差別在於:
A. 轉錄是將音訊轉成文字;文本分類是針對文字內容做類別判定
B. 同一種任務
C. 無需語音處理
D. 全部都是無監督
Answer: A
Explanation: 轉錄重點是聲音轉文字,分類則是對文字進行標籤判斷,兩者任務不同。
434. 若某企業 AI 專案導入後,使用者抱怨系統充滿錯誤判斷,可信度低。可能原因為:
A. 過度期望 AI 能零失誤
B. 模型在訓練或資料品質不足,缺乏測試與迭代優化
C. 專案經費充足
D. 使用極度簡單的線性回歸
Answer: B
Explanation: 若資料或測試不足,最終產出的模型易在真實場景出現偏差,降低信任度。
435. 在管理大量影像資料時,若需快速搜尋相似圖片,下列哪一種技術最有幫助?
A. 全文檢索
B. 向量搜尋(Vector Search)或近似鄰居搜尋(Approximate Nearest Neighbor)
C. One-Hot Encoding
D. 絕對不使用 Embedding
Answer: B
Explanation: 向量搜尋可將影像編碼成向量,再進行相似度比對,適用於影像檢索。
436. 「Python」在 AI 發展中受歡迎的主要原因是:
A. 語言複雜度高
B. 具備豐富的機器學習與深度學習生態系(如 NumPy、Pandas、scikit-learn、TensorFlow、PyTorch)
C. 僅能開發遊戲
D. 無法可視化
Answer: B
Explanation: Python 擁有眾多科學運算與深度學習庫,且社群活躍,成為 AI 開發主流語言。
437. 若企業引入 AI「人臉辨識系統」做門禁,下列哪一個層面風險較高?
A. 系統成本太低
B. 收集員工臉部資料時是否取得同意與加密,避免隱私洩漏
C. 模型特徵過擬合
D. 門禁離線化
Answer: B
Explanation: 收集臉部資訊屬個資敏感範疇,需要明確告知與保護機制,否則存在高隱私風險。
438. 在 ML 模型開發中,若反覆微調超參數卻忽略驗證集使用規範,可能導致?
A. 恰當的偏差與變異
B. 模型測試分數被「過度擬合」到驗證集,失去真實泛化測試意義
C. 提高隱私
D. 運算量驟減
Answer: B
Explanation: 不斷依驗證集結果調參易使模型過度針對驗證集最佳化,需留獨立測試集以最終驗證泛化能力。
439. 「資料標籤不一致」最顯著的危害是?
A. 模型參數量更高
B. 導致模型難以正確學習,最終預測可靠性大幅下降
C. 增強對抗攻擊
D. 提高可解釋性
Answer: B
Explanation: 標籤品質是監督式學習的關鍵,若標籤標準不一或明顯錯誤,模型會學到混亂規則。
440. 在「時間序列預測」中,若資料存在趨勢與季節性,下列哪一項模型較合適?
A. SARIMA 或 Prophet 等能處理趨勢/季節性成分
B. K-Means
C. 樹狀模型
D. PCA
Answer: A
Explanation: SARIMA、Prophet 類模型內建趨勢與季節性參數,更適合這類時序預測。
441. 有關「深度強化學習(Deep Reinforcement Learning)」敘述何者較為正確?
A. 只要監督式標籤
B. 代理藉神經網路近似 Q 函數或策略函數,在環境互動中學習
C. 不需要任何獎勵
D. 只適用於圖像辨識
Answer: B
Explanation: 深度強化學習在傳統 RL 中引入深度神經網路,代理可更高效地在狀態空間中學習最優策略。
442. 若企業計畫用「Autoencoder」檢測製造瑕疵,下列哪一個步驟最重要?
A. 使用大量正常品訓練,自動編碼器學到正常樣本的特徵,再依重建誤差高低判斷是否異常
B. 必須監督式標籤所有瑕疵
C. 只看一張圖即可
D. 無需任何資料
Answer: A
Explanation: Autoencoder 無監督異常偵測常先學習「正常」樣本,再根據高重建誤差判斷異常或瑕疵。
443. 下列哪一種應用較常使用「強化學習」解決?
A. 客戶流失預測
B. 遊戲 AI(如圍棋、電玩)、機器人動作控制
C. 影像分群
D. 大規模文本情感分析
Answer: B
Explanation: 遊戲 AI 及機器人控制是強化學習典型場景,透過環境互動與獎懲機制不斷學習最佳策略。
444. 在 AI 系統開發中,若資安團隊提醒「儲存使用者資料時需加密」,下列哪一項較符合要求?
A. 直接明文存放到開放式伺服器
B. 資料傳輸與儲存皆採加密,並分配適當存取權限
C. 由資料工程師自行決定
D. 只在 UI 層加密
Answer: B
Explanation: 保護隱私與安全時,通常需在傳輸層和儲存層都進行加密,並管理存取權限。
445. 有關「XGBoost」與「LightGBM」此類梯度提升樹演算法,下列敘述何者不正確?
A. 能在結構化資料上表現良好,且訓練速度快
B. 常用於高維稀疏文本 Embedding
C. 需要 GPU 加速才能跑
D. 相比深度神經網路,對小中型表格資料 often 更具效率
Answer: C
Explanation: XGBoost/LightGBM 不一定需要 GPU 才能使用;也可在 CPU 訓練,速度仍相當可觀。
446. 在「Data Lake」與「Data Warehouse」的差別中,下列何者較為精準?
A. Data Lake 僅能放結構化資料
B. Data Warehouse 可存各式原生檔案
C. Data Lake 容納各種結構型/非結構資料,Data Warehouse 通常針對結構化資料並經過清洗與建模
D. 兩者一模一樣
Answer: C
Explanation: 資料湖可存放各種類型的原始數據,資料倉庫則針對較結構化資料並有預先建模。
447. 在監督式學習中,有時採用「Stratified Sampling(分層抽樣)」的目的是?
A. 提升批次大小
B. 確保不同類別在訓練/測試分割中保持相近比例,避免類別分布失衡
C. 只適用於無監督學習
D. 減少資料規模
Answer: B
Explanation: 分層抽樣使得各類別在不同資料分割中保有類似比例,減少因抽樣帶來的偏差。
448. 深度學習的「自注意力(Self-Attention)」在 NLP 中的用途是?
A. 改善圖像池化
B. 讓句子中每個詞能與其他位置詞進行關聯計算,抓住全域上下文語意
C. 進行 Dropout
D. 單純提取詞頻
Answer: B
Explanation: 自注意力機制(Self-Attention)可在 Transformer 等架構中捕捉序列內各詞之間的相互關係。
449. 「隨機森林(Random Forest)」中的樹彼此之間透過什麼方式實現差異化?
A. 完全相同參數
B. 在訓練時對樣本及特徵進行隨機抽樣(Bootstrap),加大模型多樣性
C. 無監督學習
D. 採用循環神經網路
Answer: B
Explanation: 隨機森林的每棵樹基於不同的子樣本和特徵子集進行訓練,提升集成多樣性與穩健度。
450. 在 AI 前期規劃時,若管理層僅關注技術細節,缺乏「商業目標」思考,可能後果為:
A. 加速專案完成
B. 專案無法帶來明確價值或無法落地導致失敗
C. 一定成功
D. 省下人力
Answer: B
Explanation: AI 專案需明確的商業/應用場景,單憑技術堆疊,可能無法實現實際價值而失敗。
451. 在圖像分類中,若模型遭遇「資料不足」卻有大量已知預訓練模型可用,常見解法為?
A. 重新標記
B. 遷移學習(Transfer Learning),只微調最後幾層
C. 強化學習
D. SQL 操作
Answer: B
Explanation: 可利用在大規模資料上已訓練的 CNN 作為基礎,只微調部分層,節省資料與計算。
452. 「資料科學團隊」成員通常包含資料工程師、資料科學家、ML 工程師等角色,下列哪一種職能不常見?
A. 模型研發與調參
B. 搭建資料管線、管理資料庫
C. 為企業規劃外部投資策略(與資料無關)
D. 部署與維運 AI 服務
Answer: C
Explanation: 投資策略與 AI 使用無關,不在資料科學團隊典型職能範圍;其餘皆屬常見工作。
453. 碰到「維度災難」時,下列哪一種算法最易受負面影響?
A. 樹狀模型
B. k-NN 依賴距離度量,在高維空間效果常顯著下降
C. 線性迴歸
D. BERT
Answer: B
Explanation: k-NN 依賴距離度量,高維度空間會出現距離淨化問題,難以區分近鄰。
454. 在訓練 AI 圖像辨識時,下列哪一項方法不能視為「Data Augmentation」技術?
A. 翻轉、旋轉、裁切
B. 調整亮度與對比度
C. 隨機插入無意義文字向量
D. 位置偏移或縮放
Answer: C
Explanation: 在圖像增強不會插入「文字向量」,那是 NLP 領域的方法;其餘操作都屬常見圖像增強。
455. 針對「廣度學習(Broad Learning)」的概念,下列敘述何者較合理?
A. 與深度學習互補,指在同一層納入更多特徵或橫向擴展,而非增加層數
B. 僅適用於 CNN
C. 全部依賴 Autoencoder
D. 與 Ensemble 完全相同
Answer: A
Explanation: 廣度學習(Broad Learning)透過橫向擴展獲取多樣特徵,與深度學習不同維度互補。
456. 在無監督分群後,若想進一步評估聚類品質,下列哪一種方式較可行?
A. 使用輪廓係數(Silhouette Coefficient)或 Calinski-Harabasz、Davies-Bouldin 指標等
B. 看 Accuracy
C. 單純觀察資料檔案大小
D. 單看是否有隱藏層
Answer: A
Explanation: 無監督分群需特定內在評估指標,如 Silhouette 係數衡量類內緊密度與類間分離度。
457. 「零交互(Zero UI)」概念在 AI 中指的是?
A. 需使用者頻繁調用
B. 利用語音、手勢或自動觸發的方式進行交互,讓用戶感覺不到傳統圖形介面的存在
C. 僅用鍵盤輸入
D. 完全關閉介面
Answer: B
Explanation: Zero UI 透過自動或自然方式與 AI 系統互動,減少明顯的按鈕或視覺介面。
458. 在一個大型組織推廣 AI 時,若無法整合多部門與現有系統,最可能導致:
A. 加快上線
B. 團隊士氣提升
C. 該 AI 專案落地困難、推廣受阻
D. 不需考量使用者需求
Answer: C
Explanation: AI 推行需要跨部門支援,若缺乏整合及協同,專案難以順利落地。
459. 強化學習中,「Q-Learning」的更新公式核心在於:
A. 循環神經網路
B. 不斷更新 Q 函數估計動作的長期回報,以貝爾曼方程為基礎
C. 無需獎勵
D. 模型無法儲存任何狀態
Answer: B
Explanation: Q-Learning 根據貝爾曼方程不斷更新動作-狀態價值,學習最優行動策略。
460. 建立「人臉辨識門禁系統」時,下列哪一種情況最能提升系統準確度?
A. 選擇外觀顯著不同的人做測試
B. 多角度、多光線條件下的人臉蒐集,增加訓練資料多樣性
C. 無需蒐集任何資料
D. 只用一張照片訓練
Answer: B
Explanation: 多樣化的人臉資料(角度、光照)有助於提升模型的辨識穩定度。
461. 在 AI 系統中經常提及「容器化(Containerization)」與「Docker / Kubernetes」,目的為:
A. 提高隱藏層
B. 提供更便捷的環境配置、部署與彈性擴充
C. 替代所有編譯器
D. 只在本地端使用
Answer: B
Explanation: 容器能將應用程式與其依賴環境封裝一致化,方便部署與管理,Kubernetes 可協調多容器佈署。
462. 當前「大模型(Large Language Model, LLM)」如 GPT-4,多半的訓練特色是:
A. 參數量極小
B. 在超大型語料上進行預訓練,能捕捉較廣泛的語言知識
C. 僅適用於單字向量
D. 不需要 GPU
Answer: B
Explanation: LLM 在龐大文本上預訓練,擁有龐大參數量並學到通用語言知識,可微調至多個下游任務。
463. 若想評估一個二元分類器對於各類的識別能力,下列哪一種視覺化最直觀?
A. ROC 曲線或 PR 曲線
B. 折線圖
C. 圓餅圖
D. 散布圖
Answer: A
Explanation: ROC/PR 曲線能在不同閾值下觀察分類器對正負類的區分能力,直觀呈現模型性能。
464. 「Labelling Tool(資料標註工具)」在 AI 專案中扮演什麼角色?
A. 統計學檢定
B. 幫助標註影像、文字或語音等資料,以生產有監督式學習所需的標籤
C. 只做可視化
D. 完全不需人工介入
Answer: B
Explanation: 有監督學習大量仰賴標準化、準確的標籤,標註工具可提升效率並維持標籤一致性。
465. 在開發一個語音 Chatbot 時,若想加速 RNN 訓練,下列哪個做法不適合?
A. 使用 CuDNN 加速
B. 改用注意力機制或 Transformer 架構
C. 降低批次大小到 1
D. 混合精度訓練
Answer: C
Explanation: 批次大小太小常導致 GPU 利用率不佳,訓練速度反而變慢,其餘措施可以加速。
466. 「Moore's Law(摩爾定律)」在 AI 領域中的影響為:
A. CPU 時脈數十年來無成長
B. 顯示晶片與專用 AI 加速硬體發展,為深度學習提供更強大的運算能力
C. 與 AI 無任何關係
D. 限制了神經網路的應用
Answer: B
Explanation: 摩爾定律推動半導體持續進步,連帶為 GPU/TPU 等 AI 加速器提供更強運算效能。
467. 在推廣 AI 時,若無法將模型產出整合到現有工作流程,下列哪個問題最常見?
A. 模型結果無法即時供決策者使用,導致無法創造實際價值
B. 免除手動標註
C. 直接達到最佳效能
D. 全部自動化
Answer: A
Explanation: 若模型無法融入業務或自動化流程,則即便預測再準也難帶來真正價值。
468. 當 AI 系統大量使用網路爬蟲蒐集資料,下列哪個風險較顯著?
A. 不涉及任何法規
B. 隱私與版權爭議,以及可能違反機器人協議或服務條款
C. CPU 計算量不足
D. 全部公開無限制
Answer: B
Explanation: 網路爬蟲若未遵守服務條款與隱私權,容易引發法律爭議。
469. 在圖像辨識比賽中,若排名前列的隊伍經常提交「Ensemble」結果,下列原因何在?
A. 單一模型一定最強
B. 多模型投票或平均可彌補單一模型的不足,提升綜合準確度
C. 減少計算量
D. 方便過擬合
Answer: B
Explanation: 集成多模型可提高穩定度與精度,是比賽常見策略。
470. 「Online Learning」與「Batch Learning」差異在於:
A. 無監督 vs 監督
B. Online Learning 能根據新資料不斷更新模型,Batch Learning 則以固定資料集中訓練
C. Batch Learning 速度更快
D. Online Learning 只適用於 RNN
Answer: B
Explanation: Online Learning 隨資料流動即時更新,Batch Learning 在固定訓練集上一次性訓練。
471. 在 AI 專案中,有時會建立「黃金標準(Gold Standard)」資料集,下列哪一種陳述最貼切?
A. 由隨機人員標註
B. 最高品質且經過專家校正的標註資料,用於最終測試或評估
C. 與測試集相同
D. 越大越好
Answer: B
Explanation: 黃金標準通常由專家審核,確保標註非常精準,用於評估或微調,是參考基準。
472. 「Autoencoder」可同時應用於:
A. 降維、特徵學習與無監督異常檢測
B. 二元分類
C. 強化學習
D. 全監督回歸
Answer: A
Explanation: 自動編碼器常用於無監督降維、取得潛在表示,並可測量重建誤差偵測異常。
473. 若企業想對客服通話內容進行「情緒偵測」,下列哪一種方法可能?
A. 無需任何聲音資料
B. 提取語音特徵(音調、音量、節奏)並進行情感分類
C. 圖像分群
D. Only One-Hot for user ID
Answer: B
Explanation: 語音情緒分析需萃取音頻特徵,如音調、能量、頻譜,然後訓練情感辨識模型。
474. 「Hyperparameter」在深度學習中常包含:
A. 權重和偏置
B. 學習率、batch size、層數、Dropout 比例等
C. 任何預測結果
D. 對抗擾動
Answer: B
Explanation: 模型權重屬「參數」,而學習率、batch size、network depth、Dropout 等屬「超參數」,需手動或自動調整。
475. 在開發醫學影像檢測模型時,臨床單位通常要求更重視「召回率」,原因是:
A. 怕把病患漏掉
B. 假陽性數量必須最小
C. 模型需要高 Precision
D. 資料庫可公開
Answer: A
Explanation: 醫學診斷寧可多誤判也不漏判真病患,因此偏好高 Recall。
476. 「One-Class SVM」的用途為何?
A. 監督式分類
B. 群集分析
C. 無監督的異常檢測或單類別學習
D. 圖像分割
Answer: C
Explanation: One-Class SVM 側重於學習單一類別的邊界,對於落在邊界外的資料視為異常。
477. 當市場行銷團隊希望 AI 幫忙進行目標客戶細分,下列何者最可能採用?
A. 監督式回歸
B. 無監督分群(如 K-Means、階層式分群)
C. 自動語音識別
D. 強化學習
Answer: B
Explanation: 市場區隔常使用無監督分群法找出不同消費者群組,以進行差異化行銷。
478. 下列哪一項「不是」常用於加速神經網路訓練或推論的專用硬體?
A. GPU
B. TPU
C. FPGA
D. CRT 顯示器
Answer: D
Explanation: CRT 為傳統顯示器,與 AI 訓練加速無直接關連;GPU、TPU、FPGA 常被應用於 AI 加速。
479. 在實務中,若發現某些特徵在訓練與測試分布完全不同,表示可能出現?
A. 連續性最優化
B. 資料偏移(Data Shift / Covariate Shift)
C. 模型無需更新
D. 例行現象
Answer: B
Explanation: 代表訓練與測試分布不一致,可能是資料蒐集範圍差異或時間漂移,需重新評估模型適用度。
480. 在構建 Chatbot 時,若語料大多是非正式網路用語,若只在書面文本訓練,可能結果:
A. 模型照樣完美
B. 容易出現理解偏差或無法正確回覆口語化問題
C. 明顯偏見
D. 出現過度正則化
Answer: B
Explanation: 書面語與口語用詞差異大,模型難以正確理解非正式網路語彙,影響回覆品質。
481. 在訓練 CNN 做二元分類時,若最後輸出層使用 Softmax 且維度為 2,下列哪一種改法可行?
A. 改用單一 Sigmoid 輸出 + 二元交叉熵
B. 取消激活函數
C. 使用 MSE
D. 不再需要標籤
Answer: A
Explanation: 二元分類可使用單一輸出接 Sigmoid,或雙輸出接 Softmax,兩種設計都可行,通常搭配適當損失函數(Binary Cross-Entropy)。
482. 「簡單線性回歸」只有一個特徵,若想延伸到多個特徵,成為:
A. 多元線性回歸(Multiple Linear Regression)
B. 邏輯斯迴歸
C. 隨機森林
D. 自動編碼器
Answer: A
Explanation: 同時使用多個特徵做線性組合預測,稱多元線性回歸。
483. 有關「資料擴充(Data Augmentation)」在 NLP 中的應用,下列何者較不常見?
A. 隨機刪除或替換部分詞彙
B. 文字反轉成鏡像
C. 插入同義詞或改寫句子結構
D. 語音變速
Answer: B
Explanation: NLP 中較少對文字做「鏡像反轉」;其餘插詞、改寫同義詞則是可行增強方法。
484. 「Bagging」與「Boosting」在集成學習中有何主要差異?
A. Bagging 每個模型獨立訓練並做投票;Boosting 逐步訓練,強調修正前一階段模型的錯誤
B. 兩者完全相同
C. 皆隨機挑選少數類別
D. 不會影響性能
Answer: A
Explanation: Bagging 與 Boosting 同屬集成思維,但機制不同,Boosting 的訓練依次關注先前的錯誤樣本。
485. 「高可用性(High Availability)」在 AI 系統部署中,指的是:
A. 完全無需備援
B. 模型可在任何時候快速收斂
C. 系統能在故障時透過多重備援保持服務不中斷或影響最小
D. 只有雲端才做得到
Answer: C
Explanation: 高可用性透過冗餘與備援確保系統穩定運行,故障時也能快速切換不致中斷。
486. 在保險業使用 AI 預測理賠風險,下列哪一項較不適當?
A. 只用 1 筆資料作預測
B. 收集大量歷史理賠數據,建立監督式模型
C. 注意資料隱私與法規
D. 定期監測模型偏差
Answer: A
Explanation: 僅有 1 筆資料無法得出可靠預測;其餘皆是保險 AI 需要關注的重點。
487. 「Few-Shot Learning」可與「遷移學習」結合的意義是?
A. 不再需要任何訓練
B. 利用在大規模資料上訓練的模型,針對少量新領域標籤做快速適應
C. 使用巨大標籤庫
D. 單純使用 K-Means
Answer: B
Explanation: 先透過大模型獲得通用知識,再在少樣本領域調整,提升學習效率。
488. 當管理者要求「AI 模型必須解釋為何拒絕用戶貸款」,下列哪種方法較可使用?
A. SHAP 或 LIME
B. Dropout
C. GAN
D. 無需解釋
Answer: A
Explanation: SHAP/LIME 能對複雜模型輸出做局部解釋,顯示各特徵對預測的影響度,適用金融合規要求。
489. 有關「預測性維護」與「事後維修」的差異,下列敘述何者正確?
A. 預測性維護可在故障前主動預判並修復,降低停機風險;事後維修則在故障發生後才修
B. 無任何差異
C. 事後維修成本更低
D. 預測性維護一定不準
Answer: A
Explanation: 預測性維護在故障前通過 AI 判斷狀況,降低意外停機與損失,與事後被動維修大不相同。
490. 若企業希望建置「個人化新聞推薦」,下列哪一個資料最關鍵?
A. 使用者閱讀紀錄與偏好標籤(如點擊、瀏覽時間)
B. 企業員工工號
C. 網頁前端色彩
D. 不需任何紀錄
Answer: A
Explanation: 推薦系統需掌握使用者行為紀錄,才能針對偏好或興趣做個人化推薦。
491. 在「影像分割(Semantic Segmentation)」中,下列哪一項不屬於常見網路架構?
A. FCN(Fully Convolutional Network)
B. U-Net
C. Mask R-CNN
D. RNN
Answer: D
Explanation: RNN 用於序列資料,非典型影像分割結構;其餘架構應用於圖像分割。
492. 「Self-Supervised Learning」的核心概念為:
A. 必須由人員標註所有資料
B. 模型從輸入資料本身挖掘標籤,並進行預訓練
C. 僅能做監督分類
D. 只能在物聯網使用
Answer: B
Explanation: 自監督學習透過資料內部結構設計預訓練任務,無需人工標註即可學到表示。
493. 在模型評估中,「F2-Score」與「F1-Score」差異在於:
A. F2-Score 對 Recall 權重更高,適用重視召回率的場景
B. F2-Score 較精確
C. F1-Score 對 Precision 權重更高
D. 兩者沒有差別
Answer: A
Explanation: Fβ-Score 讓 Recall 的權重增加,F2 即更偏向 Recall,而 F1 的 Precision 與 Recall 權重相同。
494. 當對一個數值型特徵應用「對數轉換(Log Transform)」時,通常目的為:
A. 強化外部攻擊
B. 平滑偏態、緩解長尾分布,使模型更易學習
C. 增加維度
D. 用於輸入標籤
Answer: B
Explanation: 透過對數轉換可將大數值範圍收縮,減少偏態、長尾影響,利於回歸或分類模型。
495. 「自動駕駛」AI 系統中,除了圖像感知與路徑規劃,還需要哪一項模塊?
A. 模型解釋器
B. 決策控制(控制轉向、加速、煞車),確保與感知/規劃配合
C. 表格管理
D. 加密算法
Answer: B
Explanation: 自動駕駛包含感知—規劃—控制三大部分,最後還需實際控制車輛運動。
496. 若一個「語音助理系統」回答問題錯誤率高,下列哪個檢查流程最合適?
A. 檢查語音辨識是否正確轉文字、NLP 模型對問題解析是否準確、是否有相對應的知識庫
B. 只增加圖像蒐集
C. 擴大麥克風音量
D. 不需要標註
Answer: A
Explanation: 語音助理包含語音辨識、語意理解、回答生成/檢索等多階段,需全面檢查哪個環節導致錯誤。
497. 「擴散模型(Diffusion Model)」在生成式 AI 中的應用,多半用於:
A. 決策樹學習
B. 漸進式生成圖像,如近年興起的 stable diffusion 方法
C. K-Means 分群
D. Text Summarization
Answer: B
Explanation: 擴散模型是一類生成模型,通過逆向模擬噪聲擴散過程來生成高品質圖像,如 Stable Diffusion。
498. 當企業希望在智慧製造過程中「即時」偵測異常,下列哪一種 ML 流程較常見?
A. 批次學習
B. 流式數據處理(Streaming)與線上學習(Online Learning),可即時偵測並回饋
C. 完全離線統計
D. 只保留事後報表
Answer: B
Explanation: 即時偵測需要隨生產資料不斷進來時即時處理,故多用 Streaming + Online/Incremental Learning。
499. 「AIOps」指的是?
A. 將 AI 應用於 IT 運維與監控,自動化故障檢測、根因分析等
B. 自動編碼器加速
C. 搜尋最佳樹深
D. 強化學習
Answer: A
Explanation: AIOps 指在 IT 運維中應用 AI 技術,協助即時監控、報警、分析根因並自動化運維流程。
500. 若企業導入 AI 失敗,最常見的主要原因不包括:
A. 缺乏明確商業目標、資料品質不足、人才短缺、跨部門溝通不良
B. 國際研究趨勢
C. 低估模型維運與持續迭代成本
D. 資料隱私與合規性管理缺失
Answer: B
Explanation: AI 導入失敗多因資料與組織問題,或缺乏清晰目標及維運規劃;「國際研究趨勢」不是直接導致失敗的主要因素。
第 501~600 題
501. 在監督式學習中,下列何者不是常見的演算法範疇?
A. 分類(Classification)
B. 回歸(Regression)
C. 聚類(Clustering)
D. 零樣本學習(Zero-Shot Learning)
Answer: C
Explanation: 聚類屬於無監督式學習。分類與回歸是監督式學習主要任務。零樣本學習較偏向少/零標註延伸概念,但理論上仍可歸在廣義的監督式範疇,或視為特殊形式的遷移/推論學習。
502. 在機器學習中,若某演算法對「資料距離」相當依賴,下列哪個問題最容易在高維度下產生?
A. 欠擬合
B. 過擬合
C. 維度災難(Curse of Dimensionality)
D. 遞歸方程過多
Answer: C
Explanation: k-NN、SVM 等仰賴距離度量的演算法,在高維空間中距離差異模糊,導致效能急遽下降,稱「維度災難」。
503. 若要提升分類器的穩定度與精度,「集成學習(Ensemble Learning)」常見的方法不包括:
A. Bagging
B. Boosting
C. Stacking
D. Normal Equation
Answer: D
Explanation: Normal Equation 是線性迴歸解方方式,不屬於集成策略;Bagging、Boosting、Stacking 皆為常用集成方法。
504. 在特徵工程中,若你想降低多元線性迴歸的「共線性(Multicollinearity)」問題,下列哪一種方法不常見?
A. Ridge(L2)正則化
B. Lasso(L1)正則化
C. PCA(主成分分析)降維
D. 使用 One-Hot 將所有特徵擴增
Answer: D
Explanation: One-Hot 編碼通常用於類別特徵轉換,若胡亂增加特徵量可能反而加劇維度問題;A、B、C 都是降低共線性的典型做法。
505. 在「分類模型」的訓練過程中,若需要一個同時考量 Precision 與 Recall 的平衡指標,下列何者最常用?
A. Accuracy
B. F1-Score
C. MAE
D. ROC AUC
Answer: B
Explanation: F1 為 Precision 與 Recall 的調和平均(harmonic mean),常用來平衡兩者。
506. 機器學習的資料前處理中,下列哪一項舉措不屬於「資料清洗」?
A. 移除或填補遺漏值(Missing Values)
B. 對離群值(Outliers)做檢查處理
C. 數據標籤化(Labeling)
D. 切分資料集為訓練/測試
Answer: D
Explanation: 切分資料集是「資料分割」或「模型評估」一環;資料清洗則包含處理遺漏值、離群值、重複值等。
507. 若在「監督式學習」中,使用者提供了大量「標註資料」但分布有極度偏差(例如,正類僅占 1%),此種情況稱為?
A. 數據豐富
B. 類別不平衡(Class Imbalance)
C. 協同過濾
D. 結構化資料
Answer: B
Explanation: 當一個類別遠少於其他類別時,模型可能難以學到少數類別特徵,需專門處理「類別不平衡」。
508. 在「半監督式學習」中,下列哪一項描述最貼近其核心思維?
A. 只使用大量無標籤資料
B. 適量的已標註資料 + 大量未標註資料,一同用來提升模型效能
C. 需要完全標註
D. 結合強化學習
Answer: B
Explanation: 半監督式學習將有限標註資料與大量無標註資料結合,降低標註成本並提升效能。
509. 有關「偏差 - 變異(Bias-Variance)取捨」問題,下列何者為真?
A. 偏差高表示模型在訓練集也表現不佳,屬欠擬合
B. 變異高表示對不同資料集表現穩定
C. 想要偏差低、變異也低是一種很好達成的目標
D. 模型複雜度越高,偏差越高
Answer: A
Explanation: 偏差高通常代表欠擬合;變異高代表不同資料集下結果波動大,表示過擬合可能。要同時壓低兩者相當困難,需折衷。
510. 在「決策樹」演算法中,常見的節點分割指標不包含下列哪一項?
A. 基尼係數(Gini Index)
B. 信息增益(Information Gain)
C. 平均絕對誤差(MAE)
D. 信息增益率(Gain Ratio)
Answer: C
Explanation: MAE 為回歸誤差指標,決策樹在分類時常用 Gini、信息增益或增益率,MAE 多用於回歸類型。
511. 下列哪個演算法為「監督式學習」中的線性模型?
A. 邏輯斯迴歸(Logistic Regression)
B. K-Means
C. Principal Component Analysis(PCA)
D. GAN
Answer: A
Explanation: 邏輯斯迴歸雖名為「回歸」,實際用於分類,且屬監督式線性模型;K-Means、PCA 為無監督;GAN 為生成式深度模型。
512. 在「時間序列分析」中,下列哪一種方法較適用於捕捉長期趨勢與季節性?
A. KNN
B. ARIMA
C. SARIMA(Seasonal ARIMA)或 Prophet
D. SVM
Answer: C
Explanation: ARIMA 可處理趨勢,但面對季節性需 SARIMA 或像 Prophet 這類更完善的季節模型。
513. 為了避免「過度擬合」,下列哪一項方法無法達到?
A. 正則化(Regularization)
B. 使用更多訓練資料
C. 提高模型複雜度
D. Early Stopping
Answer: C
Explanation: 提高模型複雜度易導致更嚴重過擬合,其他選項皆可有效預防過擬合。
514. 「朴素貝葉斯(Naive Bayes)」對特徵獨立性的假設,下列敘述何者較合理?
A. 其假設特徵條件彼此獨立,簡化了計算,但在實務中可能違背現實
B. 一定比深度學習更精準
C. 僅能用於回歸
D. 需要大量 GPU
Answer: A
Explanation: Naive Bayes 假設特徵條件獨立,計算量小、訓練速度快,但在真實世界往往違反此假設,不過其表現仍相當不錯。
515. 「Ensemble Learning」的三大典型流派為:
A. Bagging、Boosting、Stacking
B. KNN、SVM、NB
C. 卷積、池化、全連接
D. Random Search、Bayesian、Grid
Answer: A
Explanation: Bagging、Boosting、Stacking 為機器學習集成的常見三大套路;KNN、SVM、NB 為不同演算法;卷積、池化、全連接屬 CNN 結構;Random/Bayesian/Grid 屬於超參數搜索技術。
516. 「XGBoost」在機器學習競賽中常被使用的原因,下列敘述何者較不正確?
A. 訓練速度快、可處理多種特徵類型
B. 對於表格式資料表現通常相當優異
C. 一定需要 GPU 才能使用
D. 內建正則化,較不易過擬合
Answer: C
Explanation: XGBoost 在 CPU 環境也能使用且相當高效,雖然支援 GPU 加速,但並非「必需 GPU」。
517. 若要做「詞性標注(POS Tagging)」或「序列標註」,下列哪一種 ML 方法可能適合?
A. RNN(LSTM/GRU)或 CRF(條件隨機場)等序列模型
B. K-Means 聚類
C. 主成分分析
D. 只用線性迴歸
Answer: A
Explanation: 序列標註最常用 RNN、Bi-LSTM、CRF 等序列模型;K-Means、PCA 都是無監督維度或分群方法;線性迴歸則不適用。
518. 「超參數(Hyperparameter)」與「參數(Parameter)」的主要差異何在?
A. 超參數由模型自動學習
B. 參數在訓練前決定
C. 超參數(如學習率、樹深、正則強度)需人工或自動化搜尋,參數(權重)則由訓練過程自動更新
D. 全部都由使用者指定
Answer: C
Explanation: 超參數於訓練前設定,參數則透過優化程序自動學習。
519. 「Early Stopping」主要用意是?
A. 讓模型對訓練集繼續擬合
B. 提前結束訓練,以免發生過擬合
C. 單純加速推論
D. 減少測試集
Answer: B
Explanation: Early Stopping 會監控驗證集誤差,一旦不再下降或開始上升,便提早停止以防過擬合。
520. 在深度學習的「梯度消失(Gradient Vanishing)」問題中,下列何者非常見解法?
A. 使用 ReLU 或其變體作激活函數
B. 使用 Batch Normalization
C. 使用殘差連接(Residual Connection)
D. 使用無激活函數
Answer: D
Explanation: 不使用激活函數會失去非線性能力,也不會解決梯度消失;其餘 A、B、C 都是常見對策。
521. 當資料中存在明顯非線性關係,下列哪種模型更能捕捉?
A. 線性迴歸(Linear Regression)
B. 決策樹(Decision Tree)
C. One-Hot Encoding
D. 無監督降維
Answer: B
Explanation: 決策樹透過分割節點處理複雜非線性;線性迴歸只擬合線性關係。
522. 在「無監督學習」的「降維」應用中,下列哪一項不屬於常見方法?
A. PCA
B. t-SNE
C. UMAP
D. Mini-Batch Gradient Descent
Answer: D
Explanation: Mini-Batch GD 是優化策略,用於有/無監督模型的訓練,不是降維演算法;PCA、t-SNE、UMAP 都是降維技術。
523. 對於「線性迴歸」,若考慮將特徵維度大幅提高,下列哪一種情況易發生?
A. 欠擬合減少
B. 容易過擬合
C. 一定能得到最好結果
D. 不受影響
Answer: B
Explanation: 維度太高可能導致模型記憶訓練樣本而失去泛化,建議透過正則化或降維來控制。
524. 為了提升「k-NN」在大型資料上的預測效率,下列哪一種作法最常見?
A. 使用 KD-Tree 或 Ball-Tree 等空間樹結構
B. 增加 k 值至資料量的一半
C. 強化學習
D. GAN
Answer: A
Explanation: k-NN 在大規模資料運算量大,可使用空間索引結構(如 KD-Tree)快速查找近鄰。
525. 假設你有大量文字與數值特徵同時存在,使用樹狀模型(如 LightGBM)時,下列敘述何者合理?
A. 樹狀模型對各種特徵型別相對友好,無需太多縮放或特殊處理
B. 一定要全部特徵做 One-Hot
C. 需將文字特徵丟棄
D. 必須 GPU
Answer: A
Explanation: 樹狀模型對類別型/數值型特徵都具一定容忍度,特徵選擇、缺值處理也較彈性,常在表格式數據表現佳。
526. 在「強化學習(Reinforcement Learning)」中,代理(Agent)與環境(Environment)互動的目標為何?
A. 累積獎勵最大化
B. 驗證集 Accuracy
C. 誤差最小
D. 無監督分群
Answer: A
Explanation: 強化學習主要以「獎勵」驅動學習行為策略,代理想要最大化累積回報(Reward)。
527. 「L1 正則化」的特性為何?
A. 不會產生任何稀疏效果
B. 會使部分特徵權重趨於 0,達到特徵選擇效果
C. 與 L2 正則化相同
D. 完全不抑制過擬合
Answer: B
Explanation: L1 正則化(Lasso)可將部分權重降為 0,產生稀疏性,等同特徵選擇效果。
528. 機器學習中的「線上學習(Online Learning)」與「增量學習(Incremental Learning)」:
A. 完全相同概念,有時可通用
B. 線上學習是一次讀入大量批次
C. 增量學習不能更新模型
D. 不適合資料動態流
Answer: A
Explanation: 線上學習和增量學習都處理動態或逐批資料的方式,二者經常混用,不同文獻定義略有差異。
529. 若某分類任務嚴重類別不平衡,卻一味看 Accuracy 可能出現什麼問題?
A. 完全客觀
B. 極端情況下模型只預測多數類別就能得到高 Accuracy,忽略少數類別的錯誤
C. Accuracy 與 F1-Score 等效
D. 資料增強
Answer: B
Explanation: 在不平衡場景中,用 Accuracy 評估易被多數類別「吃」掉,使少數類別誤判嚴重但不顯示。
530. 在「文本分類」或「情感分析」中,常使用的特徵表示不包含:
A. TF-IDF
B. Word Embedding(如 Word2Vec、GloVe)
C. One-Hot Encoding
D. CNN 卷積核
Answer: D
Explanation: CNN 卷積核是一種深度網路架構層,而非直接文本特徵表示。TF-IDF、Word Embedding、One-Hot 都是常見文本向量化方法。
531. 「ROC 曲線」中,X 軸與 Y 軸各代表什麼?
A. (X: TPR, Y: FPR)
B. (X: FPR, Y: TPR)
C. (X: Precision, Y: Recall)
D. (X: Recall, Y: Precision)
Answer: B
Explanation: ROC 曲線:X 軸為假陽性率(FPR),Y 軸為真陽性率(TPR)。
532. 在「線性可分」與「線性不可分」的分類問題時,SVM 如何應對?
A. 完全無法應對線性不可分
B. 透過核函數(Kernel Trick)將資料映射到更高維度,使之線性可分
C. 一定要多棵樹集成
D. 必須用未標記資料
Answer: B
Explanation: SVM 可使用核函數技巧解決線性不可分問題,將原空間映射到更高維度增強可分性。
533. 「PCA」作為降維方法,下列哪個限制較明顯?
A. 單純透過線性投影,不一定能捕捉高度非線性結構
B. 一定比 t-SNE 更好
C. 僅能用於監督式學習
D. 需要大量標籤
Answer: A
Explanation: PCA 為線性降維,無法捕捉非線性特徵。t-SNE 等更適合視覺化高維非線性資料。
534. 在「迴歸問題」中,若你想特別抑制「大誤差」對損失的影響,最可能選擇哪種損失函數?
A. MSE(Mean Squared Error)
B. MAE(Mean Absolute Error)
C. Huber Loss
D. Cross-Entropy
Answer: C
Explanation: Huber Loss 在誤差小時像 MSE,一旦誤差大則轉為 MAE,平衡兩者以減少極端誤差影響。
535. 在「決策樹」的生成過程中,過度增深樹結構常導致?
A. 欠擬合
B. 過擬合
C. 維度災難
D. 分群失效
Answer: B
Explanation: 決策樹若不加限制易增深至記住所有訓練數據,導致過度擬合。
536. 若你要建構一個「多類別分類」模型,並想用 logistic 形式實現,下列哪一種設計較常見?
A. Softmax Regression(多類邏輯迴歸)
B. 隨機森林
C. Autoencoder
D. ARIMA
Answer: A
Explanation: 多類邏輯迴歸透過 Softmax 函數同時輸出多類別機率,是經典多分類設計。
537. 在「樹狀模型」中(如隨機森林、XGBoost),若出現嚴重過擬合,下列哪種做法可緩解?
A. 提高樹深度
B. 增加葉子節點數
C. 限制樹深、增加 min_samples_split 或加強正則化
D. 去掉隨機性
Answer: C
Explanation: 過度擬合時,可減少樹深、限制葉子節點、增加正則化,以防樹過度記憶訓練資料。
538. 在強化學習「Q-Learning」或「SARSA」中,「折扣因子(Discount Factor)」γ 代表什麼?
A. 決定模型輸出維度
B. 權衡當前獎勵與未來獎勵的重要性
C. 只適用於監督學習
D. 調整批次大小
Answer: B
Explanation: 折扣因子(γ)控制對未來獎勵的重視程度,γ 越接近 1 代表更看重長期回報。
539. 下列哪一項是「機器學習」資料集切分的典型比例做法?
A. 全部當訓練集
B. 只留少量測試集
C. 例如 70% 作訓練、15% 作驗證、15% 作測試(或 8:1:1),皆為常見切分方式
D. 測試集不可存在
Answer: C
Explanation: 典型做法會保留約 10-30% 做驗證/測試,確保模型評估客觀;常見 70-15-15 或 8-1-1 都可。
540. 為進一步提升「樹模型」的預測力,且希望避免手工做太多特徵工程,可嘗試?
A. XGBoost 或 LightGBM 之後再堆疊
B. One-Hot + CNN
C. K-Means
D. 只用線性迴歸
Answer: A
Explanation: 近年樹模型如 XGBoost、LightGBM,配合 Stacking 方式可以強化預測效果,通常在表格式數據很有效。
541. 在「回歸問題」中常見的評估指標有 MSE、MAE、R-squared,下列何者用於衡量解釋度?
A. MSE
B. MAE
C. R-squared(R²)
D. Accuracy
Answer: C
Explanation: R²(決定係數)衡量模型對輸出變量變異的解釋能力;越接近 1 表示解釋度越高。
542. 在「k-Means」聚類中,下列何者不屬於核心過程?
A. 初始化 k 個聚類中心
B. 計算樣本到各中心距離、分配至最近中心
C. 重新計算新中心並迭代
D. 監督式標籤學習
Answer: D
Explanation: k-Means 是無監督演算法,不需要標籤,故選項 D 與其核心過程無關。
543. 若有一個分類器對多數類別表現很好,但對少數類別幾乎完全錯誤,下列哪一個指標能暴露此問題?
A. 只看 Accuracy
B. Weighted F1-Score 或 Macro-F1
C. RMSE
D. MSE
Answer: B
Explanation: 面對不平衡,Accuracy 易被多數類別「掩飾」,Macro-F1 或 Weighted-F1 能單獨計算少數類別的表現。
544. 下列哪一種演算法主要用於「回歸」?
A. 線性迴歸
B. 邏輯斯迴歸
C. 朴素貝葉斯
D. DBSCAN
Answer: A
Explanation: 線性迴歸是典型回歸,邏輯斯迴歸與貝葉斯是分類,DBSCAN 是分群。
545. 若在「決策樹」生成時沒有限制樹深與節點分裂,下列現象最易發生?
A. 欠擬合
B. 過擬合
C. 規模災難
D. 無法收斂
Answer: B
Explanation: 決策樹若無限制可輕易將訓練集「記住」,即過度擬合。
546. 「隨機森林(Random Forest)」透過什麼手段減少單棵樹的高變異性?
A. 完全相同的樹
B. 多棵隨機的決策樹投票或平均結果,分散風險
C. 全部聚類
D. 僅用無監督模型
Answer: B
Explanation: 隨機森林藉由多棵樹取平均(或多數決),降低單樹過度擬合的風險。
547. 「GBDT(Gradient Boosting Decision Tree)」與「隨機森林」的關鍵差異為?
A. GBDT 使用 Boosting 機制,逐步修正前一棵樹的誤差;隨機森林使用 Bagging 平行訓練
B. 完全相同
C. GBDT 不用決策樹
D. RF 不支援多核
Answer: A
Explanation: 隨機森林是 Bagging,並行多棵樹;GBDT 用 Boosting 逐階學習累進改進。
548. 「特徵選擇(Feature Selection)」與「特徵提取(Feature Extraction)」的差異在哪裡?
A. 選擇是直接篩選、刪減現有特徵;提取是重新組合或投影成新特徵(如 PCA)
B. 無任何區別
C. 兩者同時提升維度
D. 都必須使用監督式
Answer: A
Explanation: 選擇:保留/刪除原特徵。提取:用數學變換創造新特徵,如 PCA, Autoencoder 等。
549. 「分層交叉驗證(Stratified Cross-Validation)」的目的為何?
A. 提升可解釋性
B. 保持類別分布在每折中相對一致,減少抽樣偏差
C. 無需標籤
D. 擴充資料
Answer: B
Explanation: 分層交叉驗證讓每折資料維持類別比例,提升模型評估的穩定與公平性。
550. 在「半監督式學習」中,常見技術之一是:
A. k-NN
B. Label Propagation / Label Spreading
C. 無需資料
D. MSE
Answer: B
Explanation: 半監督式學習可透過標籤傳播方法,將少量標籤資訊擴散到相似的無標籤樣本。
551. 在真實應用中,「線性迴歸」若發現殘差分布存在明顯結構或模式,意味著?
A. 模型非常精準
B. 存在未捕捉的非線性關係或交互作用
C. 完全沒問題
D. 資料量過多
Answer: B
Explanation: 殘差若非隨機分布,代表模型無法擬合資料的部分結構,需考慮更複雜方法或特徵改造。
552. 「過採樣(Oversampling)」技術如 SMOTE 對類別不平衡有什麼效果?
A. 刪除多數類別
B. 合成少數類別樣本,增加其數量使分布更平衡
C. 降低模型精度
D. 與 One-Hot 相同
Answer: B
Explanation: SMOTE 透過合成新樣本增強少數類別,改善不平衡。
553. 在「迴歸樹(Regression Tree)」的分割準則中,常使用何種衡量方式?
A. 基尼係數
B. 信息增益
C. 均方差(MSE)或平均絕對誤差(MAE)
D. 熵(Entropy)
Answer: C
Explanation: 迴歸樹用均方差或平均絕對誤差度量分割優劣;基尼係數、熵等用於分類樹。
554. 在強化學習的「策略梯度(Policy Gradient)」方法中,與「價值函數(Value-based)」的最大差異為?
A. 價值函數方法先估計動作的 Q 值,策略梯度直接優化策略π(θ),不需要顯式 Q 函數
B. 價值函數必須 CNN
C. 策略梯度只能離線
D. 兩者無差別
Answer: A
Explanation: 價值函數方法(Q-learning)透過估計 Q,策略梯度則直接對策略參數進行梯度上升以最大化預期回報。
555. 「最大邏輯斯迴歸(Multinomial Logistic Regression)」用於?
A. 二元分類
B. 多類別分類
C. 聚類
D. 時序分析
Answer: B
Explanation: Multinomial Logistic Regression 或 Softmax Regression 適用於多類別分類。
556. 如果在「SVM」中採用「RBF(高斯)核函數」,表示演算法能處理什麼樣資料邏輯?
A. 僅能線性
B. 可捕捉某種非線性映射
C. 只適用於文字
D. Kernel Trick 失效
Answer: B
Explanation: RBF 核可以將資料映射到無限維度空間,捕捉複雜非線性邏輯。
557. 「貝氏最佳決策理論」中提及若要最小化期望損失,下列敘述何者較貼切?
A. 只要看平均值
B. 依據後驗機率最大者做決策
C. 確保熵最小
D. 無法應用
Answer: B
Explanation: 貝氏決策理論指明依後驗機率最高者做分類(最小期望損失),等同 MAP(Maximum A Posteriori)原則。
558. 「留一交叉驗證(Leave-One-Out Cross-Validation, LOOCV)」中的主要特點為?
A. 每次只留下 1 筆作測試,其餘作訓練
B. 不需要測試
C. 訓練集太小
D. 與 K-Fold 無異
Answer: A
Explanation: LOOCV 即 K-Fold 的 K=資料筆數,每次只留 1 筆做測試,所有其餘用於訓練。
559. 在「神經網路」中,若使用「Dropout」率過高,會導致?
A. 模型參數增多
B. 模型難以收斂或表現不佳,因太多神經元被隨機遮蔽
C. 更易過擬合
D. 增加運算量
Answer: B
Explanation: Dropout 過高使網路難以有效學習特徵,需在避免過擬合與保留學習能力間平衡。
560. 「Batch Normalization」的核心目的不包含下列哪一項?
A. 穩定激活分布,減少梯度消失
B. 加速訓練收斂
C. 取代所有激活函數
D. 允許使用較高學習率
Answer: C
Explanation: BN 不是用來取代激活函數,主要是穩定各層輸出分布、加速收斂並可用較高學習率。
561. 為什麼多層感知器(MLP)不適合直接處理高維圖像特徵?
A. 參數量過於龐大,且未利用局部空間特性
B. 更易收斂
C. 沒有隱藏層
D. 不支援回傳梯度
Answer: A
Explanation: MLP 對高維圖像會導致龐大參數,學習難度大,CNN 則利用卷積核捕捉局部特徵更有效。
562. 為何「梯度提升(Boosting)」常被形容為「逐步糾正前一模型誤差」?
A. 因為同時訓練所有模型
B. 每次新模型都會將重點放在前一模型錯誤的樣本,修正誤差累積
C. 與 Bagging 同步
D. 只適用於線性資料
Answer: B
Explanation: Boosting 機制在每個迭代階段著重前一模型未能正確預測的樣本,逐漸提升最終準確率。
563. 「線性判別分析(LDA,Linear Discriminant Analysis)」在分類任務中的原理為?
A. 最小化熵
B. 最大化類間距離、最小化類內距離,將資料投影到能區分度最佳的維度
C. 無法分類
D. 僅用於降維
Answer: B
Explanation: LDA 在尋求投影方向時同時考量「類間分散度」與「類內分散度」,實現最佳線性可分性。
564. 在「貝葉斯最佳分類器」理論下,如果能精確估計後驗機率,下列哪一種模型能得到理論上最優?
A. 最近鄰
B. Bayes Optimal Classifier
C. PCA
D. YOLO
Answer: B
Explanation: 理想情況下,Bayes Optimal Classifier 依據真實後驗機率做判斷,可達到理論最優誤差下限。
565. 若要對文本資料進行「關鍵詞提取」且不需要事先標註,下列哪種方法較可能?
A. 電腦視覺
B. RAKE(Rapid Automatic Keyword Extraction)或 TF-IDF 排序
C. CNN
D. Log Loss
Answer: B
Explanation: RAKE、TF-IDF 都可從文字中無監督萃取關鍵詞,而不需標籤資料。
566. 在「決策樹後剪枝(Post-Pruning)」的目的為何?
A. 增大樹深
B. 減少訓練時間
C. 移除一些枝葉(子樹)以避免樹過度擬合,增強泛化
D. 強化過擬合
Answer: C
Explanation: 剪枝可簡化樹結構,緩解過擬合、提升泛化能力。
567. 一個分類器在測試集上 Accuracy 高,但 F1-Score 低,可能原因?
A. 分類器對多數類別都預測正確,但在少數類別失敗
B. 模型非常穩定
C. 正負類分布均衡
D. 一定是過擬合
Answer: A
Explanation: Accuracy 可能被多數類別淹沒,F1 若低代表對少數類別(或整體精確率、召回率)不佳。
568. 在「線性回歸」中,下列哪個前提若被嚴重違反,會造成結果不可靠?
A. 資料量大
B. 特徵相互獨立且殘差符合常態等古典線性模型假設
C. 資料有多樣性
D. 分群
Answer: B
Explanation: 線性回歸假設殘差符合獨立同分布並接近常態,若嚴重違背,回歸係數與信區間可能失真。
569. 若想在「監督式學習」做穩健泛化,除了資料量與演算法,還需什麼環節?
A. 隨便測試
B. 良好的資料切分與交叉驗證,並觀察偏差與變異
C. 全部用同一張表
D. 不考慮正則化
Answer: B
Explanation: 資料切分、交叉驗證能評估模型真正泛化能力,並透過調參等手段調整偏差/變異。
570. 在「Logistic Regression」中,若資料集特徵高度共線,容易出現不穩定係數,該怎麼辦?
A. 加入 L1/L2 正則化
B. 增大 Batch Size
C. 不做任何處理
D. 用 GPU
Answer: A
Explanation: 高度共線性可透過正則化(Ridge/Lasso)平滑參數,減輕係數不穩定。
571. 「無監督學習」與「有監督學習」之間最大的區別在於:
A. 有監督學習需標籤(label),無監督學習無標籤
B. 無監督學習更複雜
C. 有監督學習不能用深度學習
D. 無監督學習只能處理圖片
Answer: A
Explanation: 監督式需要標籤資料作訓練,無監督則嘗試從無標籤資料中發現內在結構。
572. 「多目標回歸(Multi-Output Regression)」指的是?
A. 同時預測一個數值
B. 輸出多個關聯數值
C. 分群
D. 一次只看單特徵
Answer: B
Explanation: 多目標回歸可同時預測多個連續數值,每個輸出彼此間可能有關聯。
573. 一般情況下,「線性迴歸 + MSE」優化可使用何種方法求解?
A. 無法求解
B. GD 或 Normal Equation 皆可
C. 隨意猜測
D. One-Hot Encoding
Answer: B
Explanation: 線性迴歸常用普通最小平方法(解析解)或梯度下降(GD)得到參數。
574. 在機器學習中,「集成」最主要的目的在於:
A. 用更多模型來確保過擬合
B. 滿足可解釋性
C. 提升模型整體效能與穩定度
D. 減少訓練時間
Answer: C
Explanation: 集成學習能綜合多模型優點,降低單一模型的變異性並提升預測表現。
575. 「無監督學習」中,下列哪一應用最常見?
A. 分類
B. 回歸
C. 聚類
D. 邏輯斯迴歸
Answer: C
Explanation: 聚類是無監督學習經典應用,回歸與分類都需標籤。
576. 在「SVM」訓練過程中,若要允許少量錯分類,通常會有一個「懲罰參數 C」。下列何者描述較貼切?
A. C 越大越寬鬆
B. C 越大代表更嚴厲懲罰錯誤,傾向過擬合
C. 與學習率相同
D. 僅適用於多分類
Answer: B
Explanation: C 越大越不容忍錯分類,模型決策邊界更趨向緊貼訓練資料,易過擬合;C 小較寬鬆。
577. 當「決策樹」用於回歸時,葉節點代表:
A. 無作用
B. 一個分類標籤
C. 該節點所有樣本的平均值(或中位數)
D. 句子斷詞
Answer: C
Explanation: 回歸樹葉節點通常取該節點樣本均值作預測輸出。
578. 下列哪個情境下,使用「One-Hot Encoding」會導致極大維度?
A. 連續數值特徵
B. 類別特徵且取值種類眾多(如城市名稱上萬種)
C. 只有一兩種類別
D. 影像像素
Answer: B
Explanation: 若類別變數有數千或上萬種,One-Hot 會產生巨大稀疏矩陣,維度爆炸。
579. 當進行「分類任務」,若想用「Log Loss(Cross-Entropy)」作為訓練目標,其意義為?
A. 與回歸無關
B. 測量預測機率與真實標籤的差異,預測越準確,Log Loss 越小
C. 用於測試集
D. 減少維度
Answer: B
Explanation: Log Loss 用於分類機率預測,預測機率愈正確,損失愈低;若預測錯誤且置信度高,損失愈大。
580. 「Naive Bayes」適用於文字分類一大優點為?
A. 訓練速度快,對高維稀疏特徵容忍度高
B. 一定比深度學習好
C. 只能做回歸
D. 必須 GPU
Answer: A
Explanation: NB 計算簡單,對文字表示(高維稀疏)亦有不錯效果,適合快速分類。
581. 若想檢驗某回歸模型在外部資料的真實表現,應使用?
A. 交叉驗證或留出測試集
B. 同一訓練集
C. Only MSE
D. 不用任何測試
Answer: A
Explanation: 需要獨立驗證/測試資料或交叉驗證才能客觀衡量外部表現。
582. 「RNN」擅長處理序列資料,但容易遇到什麼問題?
A. 資料維度爆炸
B. 梯度消失或梯度爆炸
C. 無監督學習
D. 只適用於圖像
Answer: B
Explanation: RNN 在長序列中易出現梯度消失或爆炸,LSTM/GRU 部分解決此問題。
583. 下列哪個方法常被用於大規模、稀疏情境下的「線性分類」?
A. Linear SVM(使用梯度下降或坐標下降)
B. RNN
C. 影像分割
D. 微分方程
Answer: A
Explanation: Linear SVM 或對偶坐標下降可處理大規模稀疏特徵,常應用於文本分類。
584. 若要預測「旅館訂房量」隨季節波動,下列哪一種方法較適合?
A. 無監督分群
B. 時序迴歸模型(SARIMA、Prophet 或 LSTM)
C. 邏輯斯迴歸
D. XGBoost 分類
Answer: B
Explanation: 旅館訂房屬連續量且有季節趨勢,可用 SARIMA、Prophet 或 LSTM 等時序模型預測。
585. 「留一法(LOOCV)」在資料量非常大時,主要缺點是?
A. 計算成本極高(要跑 N 次訓練)
B. 準確度不如 K-Fold
C. 不可用於小資料
D. 必須有標籤
Answer: A
Explanation: LOOCV 對每筆樣本都要做一次訓練,N 次訓練計算量龐大,大資料時更為嚴重。
586. 在構建「推薦系統」時,「隱語義模型(Matrix Factorization)」多被視為何種學習?
A. 監督式分類
B. 無監督或半監督的矩陣分解,從使用者-物品交互中挖掘潛在因子
C. 回歸樹
D. 強化學習
Answer: B
Explanation: 矩陣分解是根據使用者-物品交互矩陣,找出低維因子表徵,用於推薦。
587. 下列哪一種機器學習演算法「通常」需要手動特徵工程較多?
A. CNN
B. RNN
C. 傳統 ML(如邏輯斯迴歸、隨機森林)
D. 自動編碼器
Answer: C
Explanation: 傳統 ML 演算法(LR、RF)一般需要手動特徵工程;CNN、RNN、Autoencoder 等深度網路可自動學習特徵。
588. 「高斯混合模型(GMM)」是什麼性質的演算法?
A. 監督式分類
B. 基於概率模型的無監督分群
C. 僅用於回歸
D. 僅用於強化學習
Answer: B
Explanation: GMM 以多個高斯分布擬合資料,屬無監督分群(或密度估計)模型。
589. 「增量學習(Incremental Learning)」的關鍵在於:
A. 模型每接收到一小批新資料能更新,不用完全重新訓練
B. 只用一次
C. 絕對不能上線
D. 減少測試集
Answer: A
Explanation: 增量學習可在新資料到來時局部更新模型,適用於資料連續成長場景。
590. 當一個分類任務同時有多個可能標籤(可並存),稱為?
A. 多類別(Multi-Class)
B. 多標籤(Multi-Label)
C. 二元分類
D. 無監督聚類
Answer: B
Explanation: 多標籤分類(Multi-Label Classification)指一個樣本可具有多種標籤並存,與多類別 (Multi-Class) 不同。
591. 「階層式分群(Hierarchical Clustering)」中的兩大策略為?
A. 全監督
B. 聚合式(自下而上)與分裂式(自上而下)
C. Dropout 與 Batch Normalization
D. 貝葉斯與 EM
Answer: B
Explanation: 階層分群有兩種主要流程:自下而上(Agglomerative)或自上而下(Divisive)。
592. 「適配性重加權(Cost-Sensitive Reweighting)」主要目的是?
A. KNN
B. 使模型對不同錯誤的成本不一樣,尤其在不平衡資料或不同錯誤成本場景中有效
C. 決策樹剪枝
D. 模型解釋
Answer: B
Explanation: 當各類錯誤成本不同或類別不平衡,可用加權策略讓模型更重視成本高的錯誤。
593. 若企業想用機器學習對銷售數據預測「客戶流失」,下列哪一點較重要?
A. 需有歷史流失標籤(留存/離開)資料作監督式訓練
B. 使用無監督分群
C. 僅看文字
D. 不考慮特徵
Answer: A
Explanation: 客戶流失預測需有歷史標籤,才能用監督式模型學習判斷。
594. 「重採樣(Resampling)」方法(如 Oversampling、Undersampling)在處理何種問題時特別常用?
A. 資料量太大
B. 訓練速度
C. 類別不平衡
D. 資料隱私
Answer: C
Explanation: 重採樣策略主要用於平衡類別分布,以免多數類別壓過少數類別。
595. 「小波變換(Wavelet Transform)」在機器學習中較常見於?
A. 時頻分析,對時間序列或訊號資料做多解析度分析
B. 影像分割
C. NLP 斷詞
D. JSON 解析
Answer: A
Explanation: 小波變換可同時處理時域與頻域資訊,常用於訊號、時序分析的特徵萃取。
596. 在回歸模型中,「過度擬合」常見徵兆之一為:
A. 訓練集 MSE 極低、測試集 MSE 很高
B. 訓練與測試表現相同
C. 欠擬合
D. 模型完全不能訓練
Answer: A
Explanation: 過擬合表示模型只適應訓練集,測試表現差距大。
597. 「卷積神經網路(CNN)」相比傳統 ML 演算法最大優勢在於:
A. 自動對影像進行特徵萃取,不需手動設計特徵
B. 一定比樹模型快
C. 不需正則化
D. 無需大資料
Answer: A
Explanation: CNN 能透過卷積核自動萃取影像層次特徵,大幅減少手動特徵工程。
598. 若在「強化學習」中,代理不知道環境的轉移動態,但可與環境互動,則常使用:
A. 模型式強化學習
B. 無模型(Model-Free)強化學習,如 Q-Learning、Policy Gradient
C. 決策樹
D. 半監督學習
Answer: B
Explanation: 若代理無法預先知道環境動態,則透過無模型方法在交互中學習策略。
599. 為提升複雜場景下的分類效果,下列哪個方法可將高偏差與高變異方法結合?
A. K-Means
B. 隨機森林
C. Stacking(Stacked Generalization)
D. PCA
Answer: C
Explanation: Stacking 透過把多種演算法輸出集成,元模型再學習,能在高偏差/高變異模型間取得平衡。
600. 在構建「語音情感分析」模型時,若系統抓到高頻雜訊,導致判斷失誤,下列何者較恰當?
A. 不需任何處理
B. 做語音前處理與特徵萃取(降噪、語音信號處理),確保輸入特徵品質
C. 全部刪除該語音
D. 人工檢查
Answer: B
Explanation: 為了降低噪音影響,通常要在音訊層先做降噪、過濾或特徵萃取,以提高情感識別準確度。
第 601~700 題
601. 在機器學習的模型評估中,若測試集結果較佳、但交叉驗證結果普遍不佳,可能原因為:
A. 模型對任何資料都能適用
B. 測試集恰巧分布特別有利於模型,交叉驗證更能反映整體穩定度
C. 資料量過多
D. 模型複雜度太低
Answer: B
Explanation: 如果交叉驗證平均表現不佳,而測試集結果較好,可能是測試集恰巧在模型的“甜蜜點”分布;交叉驗證通常更全面客觀。
602. 「半監督式學習」中,若想將無標籤資料的分類結果用於預測,下列哪一種方法較典型?
A. Label Propagation(標籤傳播)
B. 主成分分析(PCA)
C. Dropout
D. ROC 曲線
Answer: A
Explanation: 標籤傳播透過已標註的少量樣本將標籤「傳遞」給相似的無標籤樣本,以擴充標註資料用於訓練。
603. 在構建「多人臉辨識系統」時,若想一次找出所有已知臉部並判別身份,下列哪個流程最常見?
A. 只用 LSTM
B. 先偵測人臉位置,再進行人臉特徵嵌入(Embedding),最後與已知身份向量比對
C. K-Means 對每張臉分群
D. 不需要任何標籤
Answer: B
Explanation: 通常流程:1) 人臉偵測 2) 人臉特徵提取(embedding) 3) 與資料庫身份向量比對做分類。
604. 「歐盟人工智慧法案(EU AI Act)」的核心理念之一為何?
A. 完全禁止所有 AI
B. 基於風險等級對 AI 系統做分層管理,確保安全、透明與基本權利保障
C. 無需任何規範
D. 僅適用於美國
Answer: B
Explanation: EU AI Act 採「風險導向」原則,依 AI 應用風險等級訂定不同義務,保障使用者安全與權利。
605. 在自動駕駛領域,若要使用強化學習訓練駕駛策略,常遇到的困難是?
A. 即時回饋難度高,且真實環境測試風險大,需要模擬器或安全機制
B. 樣本標籤充足
C. LSTM 不可用
D. 必須有 One-Hot 特徵
Answer: A
Explanation: 在真實道路中強化學習試錯成本高,一般須用模擬器搭配安全措施,再移轉至真實環境。
606. 如果想快速衡量「二元分類」在各種分類閾值下的 Precision 與 Recall 平衡,可用何種曲線?
A. ROC
B. PR 曲線(Precision-Recall Curve)
C. Confusion Matrix
D. MAE
Answer: B
Explanation: PR 曲線隨著閾值變化觀察 Precision 與 Recall 之間權衡,比 ROC 更適合類別不平衡或對正類敏感的情況。
607. 當「決策樹」進行分類時,常遇到的問題是「分裂標準過度偏好多值特徵」,可使用哪一種指標緩解?
A. 基尼係數
B. 信息增益率(Gain Ratio)
C. 僅用熵
D. 精確率
Answer: B
Explanation: 信息增益率能調整對多值特徵的偏好;單純信息增益常偏好多值特徵。
608. 「Ridge Regression(L2)」在參數學習中,其效果是?
A. 產生特徵稀疏
B. 使權重接近 0 但不一定變為 0
C. 最終迴歸係數不受影響
D. 對過擬合無幫助
Answer: B
Explanation: L2 正則化會把權重往 0 拉近,但不會直接把權重消成 0;這是 L1(Lasso)的特點。
609. 若資料中有「高離群值」,考慮迴歸時應先檢查?
A. 只看平均值
B. 散佈圖、盒鬚圖等,檢驗離群值是否真實或異常
C. 全部無視
D. 使用 CNN
Answer: B
Explanation: 離群值需先判斷其合理性,也可採用穩健估計(如 MAE、Huber Loss)減少對離群點敏感度。
610. 為了對一個多特徵資料集進行「二元分類」,下列哪個演算法較不適用?
A. 羅吉斯迴歸
B. 隨機森林
C. K-Means
D. XGBoost
Answer: C
Explanation: K-Means 屬無監督分群,無法直接做監督式的二元分類;其餘皆為監督分類演算法。
611. 「GMM(Gaussian Mixture Model)」在分群後,可同時提供?
A. 每個群中心的確定標籤
B. 後驗機率,即某樣本屬於某個群的機率
C. Gradient Clipping
D. 僅能做二元分類
Answer: B
Explanation: 高斯混合模型會給出每個樣本對應各混合成分的概率分佈,而非確定群標籤。
612. 「支持向量機(SVM)」面對大規模資料時的缺點是?
A. 訓練速度可能較慢,尤其在 O(n²) 甚至更高複雜度
B. 一定超快
C. 無法並行
D. 整合度低
Answer: A
Explanation: 傳統 SVM 在大規模資料上訓練複雜度較高,需要針對性優化或近似演算法方可加速。
613. 在「多分類問題」中,若想延用二元分類器,可能使用何種策略?
A. Softmax Regression
B. One-vs-Rest(OvR)或 One-vs-One(OvO)
C. 無法實現
D. Autoencoder
Answer: B
Explanation: 多分類時可用 OvR(對每類別訓練一個二分類器)或 OvO(任兩類訓練一分類器)達成。
614. 「歐盟人工智慧法案(EU AI Act)」之風險等級包含?
A. 僅分成一個風險級
B. 不同層級,如「不可接受風險」、「高風險」、「有限風險」、「最小風險」
C. 全部禁止 AI
D. 只用於特定區域
Answer: B
Explanation: EU AI Act 採分級管理:最危險應用會被禁止(如某些社會評分系統),高風險應用須嚴格要求,其餘有限/最小風險應用要求較低。
615. 在機器學習的「One-Hot Encoding」中,若某類別取值種類過大,常見替代做法?
A. 全部保留
B. 離散後再做 embedding(如類別嵌入)
C. 不需特徵
D. 只能刪除該特徵
Answer: B
Explanation: 太多類別用 One-Hot 會導致維度爆炸,可嘗試「類別嵌入」或其他編碼方式。
616. 下列哪一項屬於「無監督異常偵測」演算法?
A. Autoencoder 重建誤差
B. Random Forest 分類
C. Linear Regression
D. Strong AI
Answer: A
Explanation: 自動編碼器可學習正常樣本特徵,通過重建誤差大者視為潛在異常,屬無監督異常檢測應用。
617. 在「監督式學習」當中,若不同類別之「錯誤成本」相差甚多,屬於何種學習需求?
A. 成本敏感學習(Cost-Sensitive Learning)
B. 正則化
C. 無監督分群
D. 自動語音合成
Answer: A
Explanation: 成本敏感學習會根據不同錯誤代價調整損失函數或樣本權重,避免高代價錯誤被忽視。
618. 「Bagging」的兩個關鍵特徵為何?
A. 自助抽樣(Bootstrap) & 多模型並行投票/平均
B. 逐步修正前一模型
C. 單一決策樹
D. 使用深度學習
Answer: A
Explanation: Bagging 通常對原數據做多次Bootstrap再訓練多個模型,最後投票/平均。
619. 若企業希望能動態更新模型以反映最新市場資料,下列哪種機制最適合?
A. Batch Learning
B. Online Learning(線上學習)或增量學習
C. 留一交叉驗證
D. 完全不更新
Answer: B
Explanation: Online/Incremental Learning 可不斷接收新數據更新模型,符合動態需求。
620. 在使用 CNN 做圖像分類時,若發現模型較晚層出現梯度消失,可嘗試何種技巧?
A. Gradient Explosion
B. 殘差連接(Residual Connection, ResNet-style)或 Batch Normalization
C. One-Hot Encoding
D. 無監督聚類
Answer: B
Explanation: ResNet 透過殘差連接能有效避免深層網路梯度消失,BN 也能穩定梯度。
621. 機器學習中,若重視的是「對所有樣本預測平均誤差」則常用?
A. Precision
B. Recall
C. MAE 或 MSE
D. AUC
Answer: C
Explanation: 平均絕對誤差 (MAE) 或均方誤差 (MSE) 都衡量回歸預測平均誤差。
622. 在「強化學習」中,若環境具有延遲性回饋(只有最後成功才給獎勵),策略學習常見的難點為?
A. 資料足夠
B. 稀疏獎勵(Sparse Reward),需要更複雜探索和中間目標設計
C. 過度監督
D. 語義搜索
Answer: B
Explanation: 獎勵僅在成功結束時出現,代理很難判斷哪步才是關鍵,需要更巧妙探索。
623. 「偏差高、變異低」常代表何種現象?
A. 欠擬合
B. 過擬合
C. 偏差-變異平衡
D. 泛化能力極佳
Answer: A
Explanation: 偏差高、變異低 = 模型在訓練集本身也表現不佳 → 欠擬合。
624. 「韓文文本斷詞」屬於 NLP 中哪種典型前處理步驟?
A. 分子詞(Morpheme Segmentation)或 Tokenization
B. 影像增強
C. Word2Vec
D. One-Hot Encoding
Answer: A
Explanation: 韓文或中文因缺乏顯示空白,需要斷詞/形態分析;屬於 NLP 前處理。
625. 「樹狀模型」若需要計算特徵重要度,下列哪一個方法最常見?
A. 觀察葉節點數量
B. 根據分裂節點出現次數/帶來的純度提升,加總各特徵之貢獻度
C. 只看 K-Means
D. ANN
Answer: B
Explanation: 決策樹、隨機森林可依據特徵分裂節點的「資訊增益」或「Gini 降低量」等,計算特徵重要度。
626. 歐盟 AI Act 中的「高風險 AI 系統」通常需要?
A. 無條件禁止
B. 強制進行合規評估、資料治理、技術文件與人類監控措施
C. 對外完全公開源碼
D. 不需任何文件
Answer: B
Explanation: EU AI Act 中「高風險」應用需符合嚴格要求(透明度、人機監管、安全與品質),並保留技術文件便於審查。
627. 在「機器學習專案管理」中,若想避免研發過程過長,常採用:
A. 敏捷開發(Agile)方式與快速原型(Prototype),小步迭代
B. 一次性瀑布式開發
C. 全員隨意
D. 不需要管理
Answer: A
Explanation: 透過敏捷與快速原型能及早驗證可行性並蒐集回饋,縮短失敗成本。
628. 「多層感知器(MLP)」中常使用哪種激活函數避免梯度消失?
A. Sigmoid
B. ReLU 或其變體(LeakyReLU、ELU)
C. Logistic 迴歸
D. 指數函數
Answer: B
Explanation: ReLU 具簡單有效梯度,減少梯度消失;Sigmoid 在深層網路常易消失。
629. 若資料集中的特徵與標籤間有高度非線性且綜合性相互作用,傳統線性模型可能無法表現良好,因此考慮:
A. Deep Learning 或樹模型(Random Forest / XGBoost)
B. 繼續用線性迴歸
C. 拆成多個二元分類器
D. 全部刪除特徵
Answer: A
Explanation: 深度學習或樹模型能自動捕捉非線性與複雜交互,往往表現較佳。
630. 在「Lasso Regression(L1)」中,最大的特徵為?
A. 不會產生任何稀疏效應
B. 常將部份係數逼近 0,做到特徵選擇
C. 一定比 Ridge 更好
D. 對過擬合沒幫助
Answer: B
Explanation: L1 正則化可使部份權重直接歸零,達成特徵選擇功效。
631. 機器學習模型若要兼顧「可解釋性」與「效能」,下列何者常被用於「解釋模型決策」?
A. SHAP、LIME
B. Dropout
C. Bagging
D. t-SNE
Answer: A
Explanation: SHAP、LIME 等為模型解釋工具,能分析各特徵對預測的影響度。
632. 當我們在「聊天機器人」中需要同時了解語意與上下文,常會用哪種架構?
A. CNN
B. RNN / LSTM / Transformer
C. PCA
D. Autoencoder 無監督
Answer: B
Explanation: Chatbot 典型需處理序列上下文,可使用 RNN、LSTM 或 Transformer 等序列模型。
633. 在「歐盟 AI Act」中,若 AI 系統被列入「不可接受風險」類別,代表什麼?
A. AI 系統可正常商業化
B. AI 系統違反 EU 嚴重原則或基本權利,被禁止在 EU 內部使用
C. 僅需部分改善
D. 無需合規
Answer: B
Explanation: 不可接受風險應用將被禁止,如公共領域中的「社會積分」、大規模隱蔽性監控等。
634. 若要快速判斷「兩個向量」的相似度,下列哪一種指標最常用?
A. Cosine Similarity
B. Accuracy
C. MSE
D. MAP
Answer: A
Explanation: 餘弦相似度在高維向量比較常用,可度量兩向量的方向相似度。
635. 在「資料清洗」過程中,若某些特徵多數值無效或缺失,常見做法?
A. 視重要度考慮是否刪除該特徵或想辦法填補
B. 直接用該特徵做預測
C. 不考慮隱私
D. 全部無視
Answer: A
Explanation: 缺失值比例太高或特徵無意義可考慮刪除,若仍重要則嘗試合理填補方法。
636. 「維度災難」在 k-NN、SVM、距離度量類方法中特別嚴重,解決方案?
A. 增加特徵
B. 降維、特徵選擇或增加資料量
C. 批次學習
D. 交叉驗證
Answer: B
Explanation: 面對高維度,可減少無用特徵或擴充資料以緩解距離失效。
637. 「Adversarial Attack(對手攻擊)」在機器學習安全中指的是?
A. 預防性的加密
B. 故意製造微小擾動,使模型產生錯誤判斷
C. 資料加速
D. 集成學習
Answer: B
Explanation: 對手攻擊透過巧妙加雜訊干擾輸入,讓模型分類或預測大幅錯誤。
638. 在時間序列預測中,若採用「移動平均(Moving Average)」,適用於?
A. 平滑短期波動,但可能難以捕捉季節或趨勢
B. 分群
C. 過度擬合
D. 自動語音合成
Answer: A
Explanation: 移動平均可平滑短期波動,用於簡易時序分析;較難處理季節趨勢。
639. 「歐盟 AI Act」中對「高風險系統」提出的合規要求不包含下列哪一項?
A. 透明度及提供使用者基礎資訊
B. 建立風險管理系統與監督機制
C. 必須公開所有源代碼在網路
D. 保留技術文件,確保可追溯
Answer: C
Explanation: 法案並未強制公開所有源碼,只需保留技術文件並符合合規要求;其餘皆屬要求要點。
640. 「領域知識(Domain Knowledge)」在機器學習專案中多扮演什麼角色?
A. 無關
B. 幫助特徵工程、評估模型成果,確保預測邏輯切合實際需求
C. 只與演算法調參有關
D. 減少數據
Answer: B
Explanation: 領域專家能提供關鍵背景與需求,指導特徵選擇、解讀模型結果,使 ML 更準確、更有用。
641. 在「特徵縮放(Feature Scaling)」中,若大多使用「Z-Score」標準化,下列公式描述何者正確?
A. (x - mean) / std
B. (x - min) / (max - min)
C. One-Hot
D. ReLU
Answer: A
Explanation: Z-Score 標準化是 (x - 均值) / 標準差,得到零均值與單位方差分布。
642. 在高維稀疏數據下,若想做「回歸」或「分類」且追求速度,下列哪一類模型是常見選擇?
A. CNN
B. Lasso 或 Linear SVM
C. K-Means
D. RNN
Answer: B
Explanation: 線性模型(如 L1、Linear SVM)對稀疏數據更佳,且計算相對高效。
643. 「Bag of Words(BOW)」的主要缺點為何?
A. 忽略詞序與語意關係,純計算詞頻
B. 無法用於任何 NLP
C. 最精確方法
D. 訓練時間最短
Answer: A
Explanation: BOW 把文本視為詞袋,忽略上下文和詞序,導致資訊流失。
644. 在監督式學習中,「泛化能力」意指:
A. 模型在測試或未知資料上能維持良好表現,而非只在訓練集高分
B. 過擬合
C. 只適用無標籤
D. 降低學習率
Answer: A
Explanation: 能在未見資料上維持表現,代表模型具有良好的泛化能力。
645. 若在「決策樹」預測過程中,發現輸入資料類型混雜(數值、類別),該如何處理?
A. 決策樹能同時處理數值與類別特徵,不必特別 One-Hot
B. 必須全部轉為數值
C. 只能用 CNN
D. 放棄該特徵
Answer: A
Explanation: 決策樹對數值、類別均可處理,類別特徵可直接做分裂(若類別數很大時需注意),不一定要 One-Hot。
646. 「維護模型的持續合規」在 EU AI Act 中意味著什麼?
A. 只在上線前檢查一次
B. 高風險 AI 上線後需持續監控、更新文件,確保隨功能演變仍符合合規
C. 不需任何測試
D. 僅適用於監督式
Answer: B
Explanation: EU AI Act 強調 AI 系統的全生命周期管理,上線後仍須監測與合規。
647. 當想判斷一個二元分類器的「最佳閾值」時,可透過哪一種圖形視覺化各閾值下 Performance?
A. ROC 或 Precision-Recall 曲線
B. 混淆矩陣
C. 盒鬚圖
D. Bagging
Answer: A
Explanation: ROC 曲線、PR 曲線在各閾值下描述分類器表現,可協助尋找最佳閾值以平衡 TPR、FPR、Precision、Recall。
648. 在監督式學習中,若發現「資料集」與「真實應用場景」分布不符(非獨立同分布),稱為?
A. 欠擬合
B. 分布偏移(Distribution Shift)
C. 干擾項
D. Early Stopping
Answer: B
Explanation: 如果訓練/測試資料與實際應用場景差異大,模型在實務中難以發揮,屬分布偏移問題。
649. 「Min-Max Normalization」把特徵值映射到哪個區間?
A. (-∞, ∞)
B. [0, 1]
C. [1, 2]
D. 不固定
Answer: B
Explanation: Min-Max 正規化將特徵值轉換到 0~1 區間,公式: (x - min)/(max - min)。
650. 當搭建「多輸入、多輸出」的回歸網路(比如同時預測溫度、濕度),要選擇哪類損失?
A. MSE 或 MAE,多輸出可分別計算後加權或平均
B. Cross-Entropy
C. Gini 指數
D. BLEU
Answer: A
Explanation: 回歸多輸出可對每個輸出計算誤差,再加權或平均作為總損失;Cross-Entropy 用於分類。
651. 下列哪一個方法在機器學習中可用來「防止模型記住資料隱私」?
A. 正則化
B. 差分隱私(Differential Privacy)
C. Dropout
D. BFS
Answer: B
Explanation: 差分隱私在訓練與預測中插入噪音,避免模型記住具體個資,保護隱私。
652. 在將數值特徵做「箱型分段(Binning)」時,常用目的為?
A. 增加線性迴歸的深度
B. 減少噪音或處理非線性,將連續值歸納成區間
C. 建立標籤
D. 實現 Dropout
Answer: B
Explanation: Binning(分桶)能減少數值波動對模型的影響,也能捕捉非線性區段。
653. 在「多標籤分類(Multi-Label)」的評估中,若想同時觀察整體精度,可用哪種指標?
A. Hamming Loss
B. MSE
C. ROC AUC
D. BLEU
Answer: A
Explanation: Hamming Loss 可衡量多標籤任務中,每個樣本、每個標籤的錯誤比例,適合多標籤情境。
654. 「正向傳播(Forward Pass)」與「反向傳播(Backward Pass)」在哪種方法尤為核心?
A. 卷積神經網路(CNN)或一般神經網路訓練
B. 決策樹
C. K-Means
D. XGBoost
Answer: A
Explanation: 神經網路透過正向傳遞計算輸出,再以反向傳播更新權重。
655. 若某企業在 EU 地區推出「人臉辨識門禁」,依 EU AI Act 可能被視為何種風險等級?
A. 不可接受
B. 高風險或有限風險,視其應用場合與監管要求而定
C. 一律允許
D. 無需合規
Answer: B
Explanation: 人臉辨識在公共範疇可能列為高風險,需要特別審核;若僅企業內部用途則風險較低,實際分級依法案細則判定。
656. 在「強化學習」的「策略梯度」方法中,若想加快收斂,可使用哪種技術?
A. Baseline(如 Advantage Function),減少方差
B. K-Means
C. LDA
D. Dropout
Answer: A
Explanation: 策略梯度在更新時可使用 Baseline(例 Advantage)減少高方差,讓學習更穩定。
657. "One-Class SVM" 常用於?
A. 二元分類
B. 多標籤學習
C. 單類別資料的異常偵測/分群
D. 回歸
Answer: C
Explanation: One-Class SVM 主要用於學習正常類型的邊界,偵測異常或新類型。
658. 在大規模文本資料中,若想進行特徵表示並保留詞序信息,下列何者可以嘗試?
A. Bag-of-Words(無序)
B. N-gram 表示或 Word Embedding + RNN/CNN
C. One-Hot
D. K-Means
Answer: B
Explanation: BOW 忽視詞序,可藉 N-gram 或深度網路處理序列,保留更豐富語意。
659. 「Active Learning(主動學習)」目的為?
A. 不需要標籤
B. 在監督式情境下,系統自動選出最具資訊量的樣本請人標記,以降低標註成本
C. 全部標註
D. 強化學習
Answer: B
Explanation: 主動學習在大量無標資料中,挑出最有幫助的少量樣本標註,提升學習效率。
660. 當使用 CNN 處理影像,在參數計算上最主要貢獻的結構是?
A. 全連接層(Fully Connected Layer)常佔大量權重
B. Pooling 層
C. BN 層
D. Softmax 層
Answer: A
Explanation: CNN 後端的全連接層往往包含相當多參數,特別在高維度特徵輸出時。
661. 在「資料清洗」階段,發現許多數值欄位有少量極端值,可以?
A. 先檢查是否真實合理,再採用 Winsorizing 或 Clip 等方式限制最大/最小值
B. 全部保留
C. 刪除整個欄位
D. 只有 One-Hot
Answer: A
Explanation: Winsorizing 或剪裁可以削減極端值對模型的不利影響,保留主要範圍資訊。
662. 「領域驅動(Domain-Driven)機器學習」強調什麼?
A. 只用黑盒方法
B. 整合領域專家知識、業務需求與 ML 技術,提供更切合實際的解決方案
C. 模型不可監管
D. 不顧業務場景
Answer: B
Explanation: 領域驅動 ML 強調結合專家 know-how 與技術,讓 AI 解決真實問題。
663. 下列哪一個指標可以作為「多分類問題」整體性能評估?
A. Accuracy
B. Macro-F1 或 Weighted-F1
C. MAE
D. ROC AUC(僅二元)
Answer: B
Explanation: Macro-F1、Weighted-F1 能同時衡量多類別 Precision 與 Recall。ROC AUC 標準是二元時常用。
664. 「歐盟 AI Act」對於那些對人身安全或基本權利影響深遠的 AI 系統,要求特別嚴格的是?
A. 極低風險
B. 高風險應用(如醫療、運輸安全、法律判決等)
C. 不可用
D. 全部開源
Answer: B
Explanation: 法案對高風險應用(如醫療設備、運輸安全、司法決策)訂定更高合規要求。
665. 假設要做一個「監督式多分類」,若樣本特徵出現缺失值可如何處理?
A. 全部樣本丟棄
B. 運用插值/平均填補或根據樹模型特徵處理機制
C. 將缺失值當作另一類別
D. 只用無監督
Answer: B
Explanation: 缺失值處理方式多樣,可用平均/中位數填補,或樹模型自帶機制。一味丟棄整個樣本恐浪費資料。
666. 若要訓練一個「多標籤分類」的神經網路,最後的輸出與激活函數應該是?
A. 單一 sigmoid
B. 多個 sigmoid 輸出,每個標籤獨立預測
C. Softmax
D. ReLU
Answer: B
Explanation: 多標籤常用多輸出單元,各單元 sigmoid + binary cross-entropy;Softmax 只適合互斥分類。
667. 若在模型部署後,隨時間「資料分布」發生改變,即概念漂移,下列做法較合理?
A. 維持原模型不變
B. 停止服務
C. 定期重新蒐集與訓練、或線上學習更新模型
D. 隨機排版
Answer: C
Explanation: 概念漂移發生時需更新或重新訓練模型以適應新分布,否則準確度下滑。
668. 「貝葉斯網路(Bayesian Network)」在機器學習中扮演何種角色?
A. 半監督分群
B. 以有向無環圖表示變數間的依賴關係,能進行概率推理
C. 不適合解釋性
D. 只能做對抗訓練
Answer: B
Explanation: 貝葉斯網路透過有向圖描述隨機變數的因果或條件依賴結構,用於概率推理與決策。
669. 若在「隨機森林」中,每棵樹都發現結果差不多,說明?
A. 模型多樣性不足,可能變異未真正分散
B. 整體精度一定極高
C. 不需要更多資料
D. 代表無過擬合
Answer: A
Explanation: 若每棵樹輸出高度雷同,Ensemble 效益就有限,表示隨機性不夠或資料缺乏多樣性。
670. 「LUIS(Language Understanding Intelligent Service)」「Dialogflow」等服務屬於?
A. 機器學習 IDE
B. 第三方 NLP 平台,可提供意圖辨識、對話管理等 API
C. 離線統計工具
D. 測試集生成
Answer: B
Explanation: 這些是雲端 NLP/對話式 AI 平台服務,幫助開發 Chatbot、意圖辨識等。
671. 在「弱監督(Weak Supervision)」中,標籤品質可能含噪音,下列哪種做法可改善?
A. 完全依賴噪音標籤
B. 使用多種弱標註規則並整合,或透過小量人工審核校正
C. 只用無監督
D. KNN
Answer: B
Explanation: 弱監督可採多規則交叉、少量人工復檢等策略減少錯誤標籤帶來的偏差。
672. 「廣義線性模型(Generalized Linear Model, GLM)」擴展了線性迴歸的概念,可處理?
A. 僅連續變數
B. 二元、計數、比例等多種類型標籤(對應不同連結函數)
C. 無法用於概率分布
D. 僅能做回歸
Answer: B
Explanation: GLM 能通過不同連結函數處理二元(Logistic)、計數(Poisson)等,不只限於連續輸出。
673. 在「EU AI Act」的合規評估中,下列哪一項通常包含?
A. 對模型精度無要求
B. 風險管理、數據治理、監控機制以及可解釋性/透明度文件
C. 課徵超高稅率
D. 無需隱私考量
Answer: B
Explanation: 合規評估含風險管理流程、資料品質要求、透明度與監控,確保 AI 符合法規原則。
674. 若實務上要求模型能「解釋每個特徵對輸出的影響貢獻」,下列哪個模型天生較易達成?
A. CNN
B. 決策樹 / 隨機森林
C. 無監督聚類
D. RNN
Answer: B
Explanation: 樹狀模型可從分裂節點看特徵重要度;CNN、RNN 則需額外解釋方法。
675. 在「K-Means」聚類中,若 k 值選太大會怎樣?
A. 全部樣本在一群
B. 可能使分群過度細化、對噪音敏感
C. 實例越多越好
D. 一定提高準確度
Answer: B
Explanation: k 越大聚類越細,可能過度分割導致意義降低,也易受噪音干擾。
676. 「Batch Normalization」在推論階段需要?
A. 使用訓練時累積的均值和方差
B. 重新計算每次輸入的平均
C. 全部關閉
D. 無法使用
Answer: A
Explanation: 推論階段 BN 會用訓練時累計的移動平均與方差,而非即時批次計算。
677. 在使用「Random Forest」時,如要降低過擬合,可增加或減少哪些超參數?
A. 增加樹深
B. 減少樹深或增大 min_samples_split,並增加樹數量
C. 不考慮超參數
D. 一定要 GPU
Answer: B
Explanation: 減少單棵樹複雜度(限制樹深、增大樣本數)並擴充樹數量,可提升集成穩定性,減過擬合。
678. 「因果推斷(Causal Inference)」與傳統「關聯分析」的差異?
A. 關聯分析僅揭示相關性,因果推斷力求判斷因果關係
B. 兩者完全相同
C. 因果推斷更易實現
D. 與機器學習無關
Answer: A
Explanation: 關聯不代表因果,因果推斷需要特別方法(干預、工具變量等)判斷因果關係。
679. 在「生成式對抗網路(GAN)」中,若辨別器(Discriminator)過強,可能導致?
A. 生成器(Generator)學習過慢甚至無法收斂
B. 生成器隨即超強
C. 兩者互不影響
D. 只能做監督學習
Answer: A
Explanation: 若辨別器過強,生成器難以得到有效梯度訊號,導致訓練不穩;平衡兩者很重要。
680. 「最高階層 AI 原則」在 EU AI Act、OECD 等均倡導哪一項?
A. 任何 AI 都能任意使用
B. 尊重人權、透明、公平並避免高風險濫用
C. 完全不考慮風險
D. 全部開源
Answer: B
Explanation: 國際組織與歐盟立法均強調 AI 要尊重人權、隱私、公平與透明等基本原則。
681. 在機器學習工程中,若需要將模型發布到大量用戶裝置(如手機),常見的優化策略是?
A. 增加隱藏層
B. 模型壓縮或量化(Quantization)、剪枝(Pruning)
C. 提高參數
D. 無需調整
Answer: B
Explanation: 部署到行動端或 IoT 需減小模型體積與計算量,可透過模型壓縮、量化等方法實現。
682. 在多維資料可視化中,若想大致觀察群聚形態,下列哪一種降維方法常用於 2D/3D 展示?
A. t-SNE
B. 箱鬚圖
C. 自動編碼器
D. One-Hot
Answer: A
Explanation: t-SNE 透過保留局部鄰近關係,適合將高維數據投影到 2D/3D 可視化時,觀察群聚結構。
683. 「核函數(Kernel)」在 SVM 中的功能是?
A. 用於回歸指標
B. 在低維空間無法線性可分時,隱式映射到高維空間進行線性可分
C. 僅用於 Dropout
D. 降低正則化
Answer: B
Explanation: Kernel Trick 讓 SVM 在原空間做內積運算等效於高維映射而不需顯式計算。
684. 當二元分類器輸出的概率不準確,但最終正負判斷還不錯,可能原因?
A. 校準問題(Probability Calibration)
B. 過度擬合
C. 欠擬合
D. 資料不平衡
Answer: A
Explanation: 分類器能正確分類,但預測機率不夠準可能需要做「概率校準」(如 Platt Scaling 或 Isotonic Regression)。
685. 在深度學習訓練中,若 batch size 極大(例如數千),下列哪個現象常見?
A. 可能加速計算,但泛化效果有時較差
B. 過擬合完全避免
C. 梯度消失
D. 一定最優
Answer: A
Explanation: 超大 batch 有助 GPU 效率,但泛化常不如中等 batch,且內存需求大。
686. 「監督式特徵選擇」通常依據哪些判斷?
A. 無需標籤
B. 特徵與標籤間相關性(如互資訊、Chi-square、模型重要度等)
C. 只看 PCA
D. 只看 K-Means
Answer: B
Explanation: 監督式特徵選擇通常根據特徵對標籤的影響(互資訊、基尼、信息增益或隨機森林重要度等)。
687. 「強化學習」常在遊戲環境成功的原因為?
A. 不需大量互動
B. 遊戲環境有明確獎勵或分數,且可快速多次模擬
C. 無狀態
D. 隨機森林
Answer: B
Explanation: 遊戲 AI 能透過自動對局大量嘗試,獎勵分明,可迅速優化策略。
688. 「SVD(奇異值分解)」與「PCA」在數學層面上關係如何?
A. 無關
B. PCA 可透過對資料協方差矩陣做 SVD 得出主成分
C. 需要 KNN
D. One-Hot
Answer: B
Explanation: PCA 常用 SVD 分解中心化資料的協方差矩陣以獲得主成分向量。
689. 在歐盟 AI Act 的規範下,若企業提供「高風險」AI 協助公共領域決策,下列哪種做法最符合合規方向?
A. 保密模型細節
B. 建立完整的風險分析與合規文件,提供透明度報告與人類監管介入機制
C. 不需理會使用者意見
D. 無需隱私保護
Answer: B
Explanation: 高風險應用需風險分析、合規檔案與必要的人類監管,確保安全、透明、尊重權益。
690. 「分佈偏移(Distribution Shift)」場景下,如何減少影響?
A. 繼續使用原模型
B. 蒐集新資料或採線上學習更新模型;若可能則做領域自適應(Domain Adaptation)
C. 全部 K-Means
D. 只看 Accuracy
Answer: B
Explanation: 分布改變時應重新蒐集代表性資料、更新或調整模型,或使用領域自適應技巧。
691. 若使用「問答系統(QA)」模型做醫療建議,在 EU 規範下屬何等風險?
A. 不可接受
B. 視實際應用,若影響醫療診斷可屬高風險,須合規確保安全與專業審核
C. 永遠不允許
D. 不需管理
Answer: B
Explanation: 醫療相關 AI 常被列為高風險,需確保醫師審核與合規措施。若僅一般資訊則風險較低。
692. 在「交叉驗證(Cross-Validation)」時,為何常用 K-Fold 而非 LOOCV?
A. LOOCV 更快
B. K-Fold(如 K=5、10)在平衡評估可靠性與計算成本上比較實用
C. K-Fold 無法客觀
D. LOOCV 一定更準確
Answer: B
Explanation: LOOCV 要做 N 次訓練,成本大;K-Fold(5 或 10)能取得平衡,結果穩定且成本可控。
693. 在開發一個「多任務學習(Multi-Task Learning)」模型時,有助於?
A. 分別訓練多個單獨模型
B. 多個相關任務共享表示,可相互增益,減少重複訓練
C. 只支持單任務
D. 時序預測失效
Answer: B
Explanation: 多任務學習讓多個任務共享特徵表示,可能互相提高性能並降低訓練成本。
694. 「自動特徵工程(Feature Engineering)」工具或「AutoML」最主要的優勢為何?
A. 不用人干預
B. 加速試驗各種特徵轉換、模型與調參,降低人工時間
C. 一定取得最高精度
D. 無需評估
Answer: B
Explanation: AutoML 自動化調參與特徵嘗試,可節省人工,但仍需人員監控資料品質與結果解釋。
695. 對於「GAN」中的生成器若出現 Mode Collapse,下列處置方法可嘗試?
A. 提高學習率
B. 引入多重判別器、或使用 WGAN, 逐步改進訓練穩定性
C. 使用 Random Forest
D. 不可解
Answer: B
Explanation: Mode Collapse 可透過 WGAN(用 Wasserstein 距離)或添加多判別器與技巧減少發生。
696. 在歐盟 AI Act 裡,若同一 AI 系統用於「生物識別遠端辨識」且涉及公共場所監控,風險級多半屬?
A. 最低風險
B. 高度敏感或禁止性應用(視情況),需非常嚴苛限制
C. 不受限制
D. 全部可用
Answer: B
Explanation: 公共領域大規模生物識別監控被視為極具風險或近乎禁用領域,需極嚴格管控。
697. 如果監督式學習「資料標註成本極高」,可考慮?
A. 主動學習(Active Learning)或半監督學習
B. 全監督
C. 强化學習
D. 只用測試集
Answer: A
Explanation: 主動/半監督方式可在標註成本極高時減少人工標註量。
698. 「可視化工具」如 Tableau/Power BI 能協助機器學習專案中哪個階段?
A. 資料探索性分析(EDA)、報表展示
B. 調參
C. 訓練集切分
D. 分群
Answer: A
Explanation: BI 工具大多用於探索、檢視資料分布與趨勢,也可做簡報與報表呈現。
699. 「KL Divergence(Kullback-Leibler Divergence)」常被用於?
A. 度量兩個機率分布的差異
B. 監督式分類
C. 影像分割
D. 簡單回歸
Answer: A
Explanation: KL 散度可評估分布相似度,GAN 或自動編碼器等生成模型中也常用作目標函數。
700. 結合「領域驅動機器學習」與「合規」,對企業 AI 導入最重要的是?
A. 確保模型僅依靠黑盒預測
B. 結合領域專業與法規要求,制定負責任的 AI 策略,確保安全、隱私與商業目標兼顧
C. 由技術團隊自行決定
D. 只關注演算法的精度
Answer: B
Explanation: 負責任的 AI 導入需綜合技術、領域知識與法規合規考量,才能創造真正的價值並降低風險。