以长技铸智慧:借人工智能赋能自我成长
人工智能(AI)技术发展日新月异。学术界已有大量研究报告表明,在不同工作场景中,人机协作能显著提升效率与创造力。社会各界亦已对人工智能技术对不同工作带来的生产力提升有所感知。
然而,AI赋能并非万灵药,在人机协作中过度依赖AI也可能带来“技能衰退”的风险。学术界将此现象部分归因为“自动化偏误”(automation bias):用家会倾向由人工智能“自动”完成工作;在此过程中,对人工智能系统的监察会逐渐减少并开始过度依赖其建议或输出结果。
此外,我们也必须正视一个潜藏的风险:生成式人工智能虽拥有前所未有的创造力与效率,却可能让人类在日常工作中逐渐放弃主动思考与学习,进而陷入无法学习的恶性循环。当AI代劳成常态,个体便少了对底层原理的探索与反思,知识吸收与技能累积停滞不前。一旦AI输出失准或面临全新挑战,人类就可能束手无策,难以做出独立判断与创新对策。长远而言,这种学习断层不仅削弱个人竞争力,也将让组织与社会陷入创新停滞、风险失控与整体生产力下滑的危机。
学术界已有一些初步研究结果表明,随著人工智能输出质素的提升,与该系统协作的用家会投入越来越少的精力来进一步验证其输出。
在教育界,宾夕法尼亚大学研究者在土耳其一间国际学校的高中数学课堂进行的一项实验预备了两种GPT-4作课堂导师,一种是可以直接给出解题步骤和答案的GPT Base,一种是仅在每一步骤关键点给予提示,并不直接提供完整解答的GPT Tutor。
实验结果显示:在开放人工智能使用的环节,GPT Base可将学生正确率提升48%;GPT Tutor则可提升127%。然而,在随后纯人工作答的考试中,GPT Base组反而落后于未用人工智能组17%;GPT Tutor组则抵消了这一负面影响。
根据实验结果进行分析,可见GPT Base组的学生在拥有AI工具时往往直接复制答案而不深究过程,导致解题能力无法在做题过程中习得;而GPT Tutor透过“逐步提示、不提供答案”的设计,成功防止了学生对AI的过度依赖,并帮助学生习得了解题的能力。
另一方面,在职场环境中亦有若干研究(注一)发现,生成式人工智能帮助员工提升生产力的效率并不均衡。在人机协作工作时,往往原先表现最差的员工会从系统协助中受益最多;而原先表现优秀的员工则几乎无法从中得到裨益。笔者所在的港大经管学院数字经济与创新研究所(IDEI)正在进行中的一项研究,亦初步显示当生成式人工智能系统技能尚未达到领域内专家水平时,员工仍然会选择盲从人工智能的指示,进而导致工作质量的下滑。可见,如果无法保持从协作中积极学习与反思的心态,用人工智能“取巧”带来的短期效率提升,极可能换来长期对个人工作能力的蚕食。
在面对生成式人工智能日益强大的能力时,我们首先要认识到:太过信任AI 工具而不进行深度思考与反思,人类学习的动能便可能被消磨殆尽,最终陷入“只会用、不会学”的被动局面。
棋类博弈早已为人类向AI学习写下经典案例。早在1997年,卡斯帕洛夫就败给了 IBM 的 Deep Blue;近年 AlphaGo 更战胜了世界顶尖棋手李世石、柯洁。表面看似是人机对抗的失利,却反而创造了新的学习机会:许多职业棋手并未因人败于机而式微,反而透过与 AI 的对弈,借助它所展现出的全新布局思路和策略,反复检验,自主思考,技艺反而更上一层楼(注二)。
对于那些需承担专业判断与责任的岗位而言,人机紧密协作绝非可有可无的配角,而是未来工作的常态。若能善用 AI 引领自己不断试错、反思和成长,就能在瞬息万变的职场中保持竞争力、引领创新;反之,若只图省事、放弃自我学习,终将被时代淘汰。
尽管现时学术界尚未就这一问题完全形成答案,我们或许能藉学术界一些已完成的探索提供些许建议:
其一,推动用家从人工智能系统的推理过程中学习。一项2023年德国科学家发表的研究(注三)指出,可解释性人工智能技术能够透过解释,在人机协作任务中及任务完成后改变用家对同一类型问题的认知方式。延展到推理链(chain-of-thought)驱动的生成式人工智能的情境中,系统设计者可在互动介面中邀请用家先阐述自己的推断或质疑,再逐步展示AI的思维链,方便用家不仅知其然,更知其所以然。这恰与教育心理学中的“自我解释效应”(self-explanation effect)吻合,让学习者先提出其假设或问题,有助强化长期记忆与理解,并在后续的校正过程中不断巩固新知。
其二,鼓励用家建立与人工智能协作时作批判性反思的习惯。另一项2022年发表的由歌德大学(Goethe University Frankfurt am Main)研究者(注四)进行的研究发现,与独立判读的影像科医生相比,由AI协助的影像科医生会基于其诊断是否与AI一致而进入程度不一的反思。这种自省机制可强化医生的专业判断并进一步累积医疗经验。这提示我们在应用未来的人机协作时也可以设计这样的反思时间,以协助用家充分评估人工智能的表现,鼓励用家反思“我自己的判断与人工智能系统一致吗?不一致的原因何在?”,并透过反思,让用家得以吸收协作中得到的经验。
人工智能工业革命的浪潮不可阻挡,但如何确保能够在与人工智能协作中持续提升个人技能,需要我们有充分的公众共识和技术准备。只有如此,才能在数字化转型与人工智能创新浪潮中真正将人工智能带来的生产力增益进一步转换为长期可持续的技术红利。
备注:
- Brynjolfsson, E., Li, D., & Raymond, L. R. (2025). Generative AI at Work. Quarterly Journal of Economics, 2025, 1–54. https://doi.org/10.1093/qje/qjae044
- Kaufman, L. (2023, August 28). https://www.chess.com/article/view/chess-accuracy-ratings-goat
- Bauer, K., Von Zahn, M., & Hinz, O. (2023). Expl(AI)ned: The Impact of Explainable Artificial Intelligence on Users’ Information Processing. https://doi.org/10.1287/isre.2023.1199
- Abdel-Karim, B., Pfeuffer, N., Carl, K. V., & Hinz, O. (2023). How AI-Based Systems Can Induce Reflections: The Case of AI-Augmented Diagnostic Work. https://doi.org/10.25300/MISQ/2022/16773
方钰麟教授
港大经管学院数字经济与创新研究所所长、创新及资讯管理学教授
钱鑫涛
港大经管学院博士候选人
(本文同时于二零二五年十月八日载于《信报》「龙虎山下」 专栏)
