蚂蚁集团校招要求AI编程#AI时代的问题解决能力新框架

张开发
2026/5/4 1:14:33 15 分钟阅读
蚂蚁集团校招要求AI编程#AI时代的问题解决能力新框架
提问比记忆更重要AI时代的问题解决能力新框架最近蚂蚁集团的校招已经要求AI编程作为笔试环节了重点考察面试者解决问题的能力。Anthropic在Claude的产品页面上写过一句话被很多人截图保存Theres never been a worse time to be a problem, or a better time to be a problem solver.一个问题从来没有这么糟糕过也从来没有哪个时代比现在更适合做一个问题解决者[2]。这句话初读像是营销文案细读却发现它精准地戳中了一个正在发生的结构性变化AI正在将回答问题的能力以前所未有的速度民主化但定义问题的能力:判断什么真正值得解决、什么才是核心在AI时代反而变得更加稀缺。这是人机协作时代的第一道分水岭。问题定义AI时代最稀缺的认识论能力认知科学家Allen Newell和Herbert Simon在1972年提出的问题空间理论至今依然是理解人类问题解决能力的基石。他们的核心发现是一个问题被如何表征决定了它有多难被解决。同一个现实问题当被映射到不同的问题空间时难度可能相差数个数量级。传统的计算机科学教育花了大量时间教如何在给定空间里找解排序算法、搜索树、动态规划。但很少花时间教如何构建正确的问题空间。然而在AI协作场景下最重要的认知动作恰恰发生在将模糊的现实问题映射为AI能够处理的指令这一瞬间。你可能有过类似的体验拿着一个模糊的想法去问AI得到的答案总觉得哪里不对但换一种问法更具体、更边界清晰AI立刻给出了你真正需要的东西。问题往往不在AI而在你给出的指令是否真的描述了你要解决的问题。MIT的Dimitris Bertsimas有过一个判断当AI让获取答案变得极其容易时提出正确问题的能力溢价就开始飙升[1]。Prompt设计被严重低估的工程技能很多人把Prompt当作聊天但真正用好AI的人把Prompt当作指令设计。就像我们AI编程训练营上的学员在训练前认为就是聊天训练后才深刻理解到什么叫设计Prompt。2天0代码做出你的AI应用#MIXLAB第27期AI编程训练营一个高质量的Prompt通常包含以下几个结构要素角色定义告诉AI你是谁。一个数据分析师、一个后端工程师、一个文案编辑角色设定决定了AI输出的语言风格、专业深度和关注重点。目标描述明确要做什么。这里最常见的错误是描述模糊比如帮我优化这个系统优化什么性能成本用户体验帮我把这个查询的响应时间从500ms降低到50ms以内同时保持现有API接口不变才是有效的目标描述。边界约束规定不能做什么。有时候同样重要的是明确边界不涉及数据库Schema变更、不改变现有认证机制、不引入新的第三方依赖。这些约束如果不在Prompt里明确AI可能会默认给出更全面但超出范围的方案。评估标准定义怎么算成功。这是最容易被忽视的要素。一个AI能理解的验收标准往往也是你自己对问题理解最清晰的部分。让AI评估自己的答案让AI在给出最终方案之前先自检一遍是否符合你的评估标准是大幅提升输出质量的有效策略。把Prompt设计当成写验收说明书而不是写情书。这是工程思维对创意浪漫的降维打击但在这个语境下这种打击是受欢迎的。跨学科的评估框架判断比生成更难AI擅长生成人类擅长判断。当你向AI描述一个问题它会快速生成多个可能的解决方案代码实现、方案框架、分析报告。但这些输出的质量参差不齐评估哪个更接近目标、哪个在当前资源约束下最可行依然需要人类的判断力。这里有一个被严重低估的能力元认知能力对自己思维过程的思考。具体来说在AI给出多个方案时你能否快速判断每个方案的核心假设是什么这些假设在你当前的实际场景里是否成立如果某个方案失败了最可能的原因是什么这种能力来自认知科学里对专家 vs. 新手差异的研究。专家之所以成为专家不是因为他们记忆了更多的答案而是因为他们拥有更丰富的问题分类系统面对一个新问题他们能迅速将它归类到某个已知的模式里并调用对应的解决策略。在AI时代这种问题分类系统的价值不降反升。当你能够将一个问题正确归类你就能判断AI的哪类输出最值得参考当你知道自己的分类可能出错你就能更有意识地让AI帮你检验假设。从遇事先问AI到与AI共同思考社区里有一个被反复验证的方法论转变过去遇到技术问题第一步是查文档或问专家现在第一步变成了问AI。这种转变的深层逻辑不是AI比专家更可靠而是AI的反应速度远快于专家——在AI给出初始答案后你再根据答案的质量决定是否继续深挖、是否需要人工审核、是否需要引入外部验证。这本质上是一种认知外包的升级不是把思考外包给AI而是把重复性的信息检索和初步推理外包给AI让人类大脑腾出空间来做真正需要判断力的事情定义问题、评估方案、做出决策。一套实用的人机协作框架大致包含以下几个层次的迭代第一层问题初步定义。向AI描述你的问题获取初步的框架和可能的方向。不要期待第一次就能得到完美的答案这一层的目的是验证你对问题的理解是否到位。第二层假设检验。基于AI的初步反馈识别你自己假设中最不确定的部分然后针对这些部分设计更精确的问题让AI帮你检验或推翻这些假设。第三层方案迭代。当方向明确后让AI生成多个可选方案然后让AI自己评估每个方案从性能、可维护性、开发时间三个维度评估这三个方案并给出推荐及理由。这种让AI评估AI输出的策略往往能大幅提升最终方案的质量。第四层人类终审。AI的输出永远需要人类来承担最终责任特别是涉及商业决策、伦理边界或高风险后果的场景。AI是强大的协作者但最终的判断权依然在人类手中。人机协作能力不是一项静态技能而是一套需要持续迭代的实践框架。工具在变AI的能力边界在变你的使用经验也在积累真正有价值的能力是持续校准人机分工边界的元能力。致最先触达未来的那一小部分人愿你的提问能力早日匹配你面对的问题复杂度。Mixlab 金融投研AgentOS#N2期2天0代码做出你的AI应用#MIXLAB第27期AI编程训练营AgentOS专项训练营Mixlab AI训练营#菜单参考[1] 90% Of College Students Use AI: Higher Ed Needs AI Fluency Support Now. Forbes, September 2025.[2] Anthropic: The AI for Problem Solvers.[3] Anthropic Research.[4] Lovable: AI App Builder.[5] Claude Code.

更多文章