Le 與其團隊以大學英文學術寫作任務為情境,檢驗學習者在接受不同來源與介面形式的學習回饋後,對「人類導師 vs. 生成式AI」的偏好是否改變。研究招募114名非英語母語的大學生,並隨機分派至四組:不提供回饋(控制組)、人類導師回饋、ChatGPT 4.0 自由對話介面、以及以 ChatGPT 為引擎的「結構化」寫作分析工具。研究在任務前後分別以量表與二選一題測量偏好,並比較四組在後測偏好與偏好改變上的差異。
結果顯示,學習者在任務前即呈現明顯的人類導師偏好(87.2% 選人類),任務後此偏好仍然穩定(86.0% 選人類),呈現教育情境中的「算法厭惡」現象。然而,後測量表分數在四組間達顯著差異,人類導師組顯著高於自由對話AI組與控制組;在人類/AI二選一偏好指標上亦達顯著,其中人類導師組與結構化AI工具組都顯著高於自由對話AI組。就偏好改變而論,整體平均變化趨近於零,但四組差異顯著:自由對話AI組對AI的偏好略有上升,反之,人類導師組與結構化AI工具組相較於自由對話AI組更傾向於人類。亦即,即使三者皆能提供有效回饋,自由對話介面才較能緩解算法厭惡、提升對AI的接受度;而結構化、一次性呈現的工具反而強化了對人類導師的偏好。
作者據此主張,提升AI教學工具的「互動性與對話性」或比純粹的技術優化更能影響學習者偏好,因為可反覆厘清與修正的對話歷程,能降低學習者對「演算法必須完美」的期待落差與不信任。整體而言,研究將「人類偏好」置於可被介面設計調節的脈絡中,為AI於教育的採納、產品設計與課程實作提供了實證基礎與警示。
文獻來源(開放取用):Le, H., Shen, Y., Li, Z., Xia, M., Tang, L., Li, X., … & Fan, Y. (2025). Breaking human dominance: Investigating learners’ preferences for learning feedback from generative AI and human tutors. British Journal of Educational Technology.