个人碎碎念channel
欢迎加入聊天吹水群组https://t.me/adelesfriends
欢迎加入聊天吹水群组https://t.me/adelesfriends
本项目是一个与 AI 结对编程的终极工作流程,旨在帮助开发者丝滑地将想法变为现实。本指南详细介绍了从项目构思、技术选型、实施规划到具体开发、调试和扩展的全过程,强调以规划驱动和模块化为核心,避免让 AI 失控导致项目混乱。
核心理念: 规划就是一切。 谨慎让 AI 自主规划,否则你的代码库会变成一团无法管理的乱麻。
这个思想的核心是构建一个能够自我完善的 AI 系统。我们可以将其分解为以下步骤,以突出其递归的本质:
1. 定义核心角色:
α-提示词 (生成器): 一个“母体”提示词,其唯一职责是生成其他提示词或技能。
Ω-提示词 (优化器): 另一个“母体”提示词,其唯一职责是优化其他提示词或技能。
2. 描述递归的生命周期:
·创生 (Bootstrap):用 AI 生成 α-提示词 和 Ω-提示词 的初始版本 (v1)。
·自省与进化 (Self-Correction & Evolution):用 Ω-提示词 (v1) 去优化 α-提示词 (v1),得到一个更强大的 α-提示词 (v2)。
·创造 (Generation):用进化后的 α-提示词 (v2) 去生成我们需要的所有目标提示词和技能。
·循环与飞跃 (Recursive Loop):最关键的一步:将新生成的、更强大的产物(甚至包括新版本的 Ω-提示词)反馈给系统,再次用于优化 α-提示词,从而启动下一轮进化。
3. 终极目标:
通过这个永不停止的递归优化循环,系统在每一次迭代中都进行自我超越,无限逼近我们设定的理想状态。
Anthropic公司最近干了一件挺事,他们把研究对象对准了自己,调查了132位公司内部工程师和研究人员,做了53次深度访谈。
目的就是为了想搞清楚一个问题:AI到底是怎么改变他们自己工作的?
这个视角很特别。
因为他们的今天,可能就是很多行业的明天。
这份报告读完,我感受到的不是恐慌,而是一种很复杂的情绪。
从数据上来看,一年前,这些工程师在日常工作中使用Claude的比例是28%,觉得效率提升了20%左右。
现在,使用比例到了59%,效率提升感知涨到了50%。
相当于一年时间,两个指标都翻了一倍多。
但有趣的是效率提升的具体表现。
你以为是同样的活儿干得更快了对吧?不完全是。
调查发现,在各类任务上,时间节省其实没那么夸张,但产出量的增加非常明显。
而且27%的Claude辅助工作,是那些一直想做但优先级不够高的事情。
比如给代码写更完善的文档,比如做一些提升工作体验的小工具,比如重构那些虽然能跑但结构很烂的代码。
但人人都在变成全栈,代价是什么?
一个后端工程师描述了他用Claude做UI的经历。
他说设计师看到成品的时候惊了,问他这是你做的?
他回答说不是,是Claude做的,我只是指挥了一下。
这听起来很美好,每个人都变成了多面手,原来不敢碰的东西现在敢碰了。
但报告里有一个词让我印象很深:skill atrophy,技能萎缩。
一位工程师说,他以前自己去调试一个难题,虽然花时间,但会顺便读很多文档和代码。
这些东西当时看起来跟问题没关系,但其实你一直在构建对整个系统的理解。
现在Claude直接帮你定位问题了,这种附带学习就没了。
有些困难是学习过程中必须经历的,绕过它你虽然省了时间,但也错过了真正的成长。
这里有一个很微妙的矛盾。
现在的AI还不能完全信任,你需要监督它的输出,尤其是在重要的工作上。
但监督AI的能力,恰恰来自于你自己动手干活积累的经验。
一位安全工程师举了个例子,Claude给出的某个方案看起来很聪明,但他一眼就看出这是那种聪明过头的危险方案,是资深人士才能识别的陷阱。
他说这种判断力,只有做过很多年才有。
如果新人从一开始就依赖AI,他们怎么培养这种判断力?
报告里把这叫做paradox of supervision,监督悖论。
你越用AI,你监督AI的能力可能越弱。但你越不用AI,你的效率又跟不上。
这个困境目前没有标准答案,有些工程师的应对策略是刻意练习。
就算知道Claude能搞定,偶尔也强迫自己不用它,保持手感。
报告的结尾,抛出了一个有意思的视角。
软件工程一直在朝更高抽象层次发展。
最早的程序员要手动管理内存,要写汇编语言,甚至要用物理开关输入指令,后来有了高级语言,很多底层操作自动化了。
一位员工建议想当工程师的人:学会让AI写代码,然后把精力放在更高层面的概念和模式上。
这个建议有道理,但也有人指出,每一次抽象层级的提升都有代价。
当大家都用高级语言之后,大多数程序员就不再深入理解内存管理了。这种丢失的知识,有时候在关键时刻会变成问题。
读完这份报告,我总结了几条对普通人有用的insight:
1、效率提升的红利期是真实的,但那些被省下来的时间,要有意识地投入到AI还做不好的事情上。比如建立人际关系,比如发展判断力,比如理解系统的底层逻辑。
2、刻意保持一些不用AI的练习,因为你需要保持监督AI的能力。
3、重新思考工作的意义。如果你的满足感来自于亲手完成某件事,那要想清楚这种满足感以后从哪里来。如果你的满足感来自于结果和影响力,那AI其实是你的加速器。
4、关注人的连接。技术在让协作变得更高效的同时,也在稀释那些低效但有温度的交流。这部分不会自动补回来,需要你主动去维护。
Anthropic这份报告的价值不在于给出答案,而在于它呈现了一种真实的复杂性。
这群站在AI前沿的人,他们既兴奋又焦虑,既享受效率又担心失去什么。他们没有确定的未来图景,只有一种共识:要保持适应能力。
https://web.okjike.com/u/9ca2b1fd-086e-4fbe-a1f8-b641f8f4b9d1/post/6937c2d9b756b2fd2ad2a853
目的就是为了想搞清楚一个问题:AI到底是怎么改变他们自己工作的?
这个视角很特别。
因为他们的今天,可能就是很多行业的明天。
这份报告读完,我感受到的不是恐慌,而是一种很复杂的情绪。
从数据上来看,一年前,这些工程师在日常工作中使用Claude的比例是28%,觉得效率提升了20%左右。
现在,使用比例到了59%,效率提升感知涨到了50%。
相当于一年时间,两个指标都翻了一倍多。
但有趣的是效率提升的具体表现。
你以为是同样的活儿干得更快了对吧?不完全是。
调查发现,在各类任务上,时间节省其实没那么夸张,但产出量的增加非常明显。
而且27%的Claude辅助工作,是那些一直想做但优先级不够高的事情。
比如给代码写更完善的文档,比如做一些提升工作体验的小工具,比如重构那些虽然能跑但结构很烂的代码。
但人人都在变成全栈,代价是什么?
一个后端工程师描述了他用Claude做UI的经历。
他说设计师看到成品的时候惊了,问他这是你做的?
他回答说不是,是Claude做的,我只是指挥了一下。
这听起来很美好,每个人都变成了多面手,原来不敢碰的东西现在敢碰了。
但报告里有一个词让我印象很深:skill atrophy,技能萎缩。
一位工程师说,他以前自己去调试一个难题,虽然花时间,但会顺便读很多文档和代码。
这些东西当时看起来跟问题没关系,但其实你一直在构建对整个系统的理解。
现在Claude直接帮你定位问题了,这种附带学习就没了。
有些困难是学习过程中必须经历的,绕过它你虽然省了时间,但也错过了真正的成长。
这里有一个很微妙的矛盾。
现在的AI还不能完全信任,你需要监督它的输出,尤其是在重要的工作上。
但监督AI的能力,恰恰来自于你自己动手干活积累的经验。
一位安全工程师举了个例子,Claude给出的某个方案看起来很聪明,但他一眼就看出这是那种聪明过头的危险方案,是资深人士才能识别的陷阱。
他说这种判断力,只有做过很多年才有。
如果新人从一开始就依赖AI,他们怎么培养这种判断力?
报告里把这叫做paradox of supervision,监督悖论。
你越用AI,你监督AI的能力可能越弱。但你越不用AI,你的效率又跟不上。
这个困境目前没有标准答案,有些工程师的应对策略是刻意练习。
就算知道Claude能搞定,偶尔也强迫自己不用它,保持手感。
报告的结尾,抛出了一个有意思的视角。
软件工程一直在朝更高抽象层次发展。
最早的程序员要手动管理内存,要写汇编语言,甚至要用物理开关输入指令,后来有了高级语言,很多底层操作自动化了。
一位员工建议想当工程师的人:学会让AI写代码,然后把精力放在更高层面的概念和模式上。
这个建议有道理,但也有人指出,每一次抽象层级的提升都有代价。
当大家都用高级语言之后,大多数程序员就不再深入理解内存管理了。这种丢失的知识,有时候在关键时刻会变成问题。
读完这份报告,我总结了几条对普通人有用的insight:
1、效率提升的红利期是真实的,但那些被省下来的时间,要有意识地投入到AI还做不好的事情上。比如建立人际关系,比如发展判断力,比如理解系统的底层逻辑。
2、刻意保持一些不用AI的练习,因为你需要保持监督AI的能力。
3、重新思考工作的意义。如果你的满足感来自于亲手完成某件事,那要想清楚这种满足感以后从哪里来。如果你的满足感来自于结果和影响力,那AI其实是你的加速器。
4、关注人的连接。技术在让协作变得更高效的同时,也在稀释那些低效但有温度的交流。这部分不会自动补回来,需要你主动去维护。
Anthropic这份报告的价值不在于给出答案,而在于它呈现了一种真实的复杂性。
这群站在AI前沿的人,他们既兴奋又焦虑,既享受效率又担心失去什么。他们没有确定的未来图景,只有一种共识:要保持适应能力。
https://web.okjike.com/u/9ca2b1fd-086e-4fbe-a1f8-b641f8f4b9d1/post/6937c2d9b756b2fd2ad2a853
想要系统性学习Deep Research的可以看看。该论文系统地梳理了Deep Research (DR) 这一新兴领域,旨在赋予大型语言模型(LLMs)类似于人类研究员的能力,使其能够通过自主规划、信息获取、记忆管理和深度推理来解决复杂的开放性问题 。
另外github仓库里还给出了相关论文的链接,方便直接查看。