个人碎碎念channel
欢迎加入聊天吹水群组https://t.me/adelesfriends
欢迎加入聊天吹水群组https://t.me/adelesfriends
本项目是一个与 AI 结对编程的终极工作流程,旨在帮助开发者丝滑地将想法变为现实。本指南详细介绍了从项目构思、技术选型、实施规划到具体开发、调试和扩展的全过程,强调以规划驱动和模块化为核心,避免让 AI 失控导致项目混乱。
核心理念: 规划就是一切。 谨慎让 AI 自主规划,否则你的代码库会变成一团无法管理的乱麻。
这个思想的核心是构建一个能够自我完善的 AI 系统。我们可以将其分解为以下步骤,以突出其递归的本质:
1. 定义核心角色:
α-提示词 (生成器): 一个“母体”提示词,其唯一职责是生成其他提示词或技能。
Ω-提示词 (优化器): 另一个“母体”提示词,其唯一职责是优化其他提示词或技能。
2. 描述递归的生命周期:
·创生 (Bootstrap):用 AI 生成 α-提示词 和 Ω-提示词 的初始版本 (v1)。
·自省与进化 (Self-Correction & Evolution):用 Ω-提示词 (v1) 去优化 α-提示词 (v1),得到一个更强大的 α-提示词 (v2)。
·创造 (Generation):用进化后的 α-提示词 (v2) 去生成我们需要的所有目标提示词和技能。
·循环与飞跃 (Recursive Loop):最关键的一步:将新生成的、更强大的产物(甚至包括新版本的 Ω-提示词)反馈给系统,再次用于优化 α-提示词,从而启动下一轮进化。
3. 终极目标:
通过这个永不停止的递归优化循环,系统在每一次迭代中都进行自我超越,无限逼近我们设定的理想状态。
Anthropic公司最近干了一件挺事,他们把研究对象对准了自己,调查了132位公司内部工程师和研究人员,做了53次深度访谈。
目的就是为了想搞清楚一个问题:AI到底是怎么改变他们自己工作的?
这个视角很特别。
因为他们的今天,可能就是很多行业的明天。
这份报告读完,我感受到的不是恐慌,而是一种很复杂的情绪。
从数据上来看,一年前,这些工程师在日常工作中使用Claude的比例是28%,觉得效率提升了20%左右。
现在,使用比例到了59%,效率提升感知涨到了50%。
相当于一年时间,两个指标都翻了一倍多。
但有趣的是效率提升的具体表现。
你以为是同样的活儿干得更快了对吧?不完全是。
调查发现,在各类任务上,时间节省其实没那么夸张,但产出量的增加非常明显。
而且27%的Claude辅助工作,是那些一直想做但优先级不够高的事情。
比如给代码写更完善的文档,比如做一些提升工作体验的小工具,比如重构那些虽然能跑但结构很烂的代码。
但人人都在变成全栈,代价是什么?
一个后端工程师描述了他用Claude做UI的经历。
他说设计师看到成品的时候惊了,问他这是你做的?
他回答说不是,是Claude做的,我只是指挥了一下。
这听起来很美好,每个人都变成了多面手,原来不敢碰的东西现在敢碰了。
但报告里有一个词让我印象很深:skill atrophy,技能萎缩。
一位工程师说,他以前自己去调试一个难题,虽然花时间,但会顺便读很多文档和代码。
这些东西当时看起来跟问题没关系,但其实你一直在构建对整个系统的理解。
现在Claude直接帮你定位问题了,这种附带学习就没了。
有些困难是学习过程中必须经历的,绕过它你虽然省了时间,但也错过了真正的成长。
这里有一个很微妙的矛盾。
现在的AI还不能完全信任,你需要监督它的输出,尤其是在重要的工作上。
但监督AI的能力,恰恰来自于你自己动手干活积累的经验。
一位安全工程师举了个例子,Claude给出的某个方案看起来很聪明,但他一眼就看出这是那种聪明过头的危险方案,是资深人士才能识别的陷阱。
他说这种判断力,只有做过很多年才有。
如果新人从一开始就依赖AI,他们怎么培养这种判断力?
报告里把这叫做paradox of supervision,监督悖论。
你越用AI,你监督AI的能力可能越弱。但你越不用AI,你的效率又跟不上。
这个困境目前没有标准答案,有些工程师的应对策略是刻意练习。
就算知道Claude能搞定,偶尔也强迫自己不用它,保持手感。
报告的结尾,抛出了一个有意思的视角。
软件工程一直在朝更高抽象层次发展。
最早的程序员要手动管理内存,要写汇编语言,甚至要用物理开关输入指令,后来有了高级语言,很多底层操作自动化了。
一位员工建议想当工程师的人:学会让AI写代码,然后把精力放在更高层面的概念和模式上。
这个建议有道理,但也有人指出,每一次抽象层级的提升都有代价。
当大家都用高级语言之后,大多数程序员就不再深入理解内存管理了。这种丢失的知识,有时候在关键时刻会变成问题。
读完这份报告,我总结了几条对普通人有用的insight:
1、效率提升的红利期是真实的,但那些被省下来的时间,要有意识地投入到AI还做不好的事情上。比如建立人际关系,比如发展判断力,比如理解系统的底层逻辑。
2、刻意保持一些不用AI的练习,因为你需要保持监督AI的能力。
3、重新思考工作的意义。如果你的满足感来自于亲手完成某件事,那要想清楚这种满足感以后从哪里来。如果你的满足感来自于结果和影响力,那AI其实是你的加速器。
4、关注人的连接。技术在让协作变得更高效的同时,也在稀释那些低效但有温度的交流。这部分不会自动补回来,需要你主动去维护。
Anthropic这份报告的价值不在于给出答案,而在于它呈现了一种真实的复杂性。
这群站在AI前沿的人,他们既兴奋又焦虑,既享受效率又担心失去什么。他们没有确定的未来图景,只有一种共识:要保持适应能力。
https://web.okjike.com/u/9ca2b1fd-086e-4fbe-a1f8-b641f8f4b9d1/post/6937c2d9b756b2fd2ad2a853
目的就是为了想搞清楚一个问题:AI到底是怎么改变他们自己工作的?
这个视角很特别。
因为他们的今天,可能就是很多行业的明天。
这份报告读完,我感受到的不是恐慌,而是一种很复杂的情绪。
从数据上来看,一年前,这些工程师在日常工作中使用Claude的比例是28%,觉得效率提升了20%左右。
现在,使用比例到了59%,效率提升感知涨到了50%。
相当于一年时间,两个指标都翻了一倍多。
但有趣的是效率提升的具体表现。
你以为是同样的活儿干得更快了对吧?不完全是。
调查发现,在各类任务上,时间节省其实没那么夸张,但产出量的增加非常明显。
而且27%的Claude辅助工作,是那些一直想做但优先级不够高的事情。
比如给代码写更完善的文档,比如做一些提升工作体验的小工具,比如重构那些虽然能跑但结构很烂的代码。
但人人都在变成全栈,代价是什么?
一个后端工程师描述了他用Claude做UI的经历。
他说设计师看到成品的时候惊了,问他这是你做的?
他回答说不是,是Claude做的,我只是指挥了一下。
这听起来很美好,每个人都变成了多面手,原来不敢碰的东西现在敢碰了。
但报告里有一个词让我印象很深:skill atrophy,技能萎缩。
一位工程师说,他以前自己去调试一个难题,虽然花时间,但会顺便读很多文档和代码。
这些东西当时看起来跟问题没关系,但其实你一直在构建对整个系统的理解。
现在Claude直接帮你定位问题了,这种附带学习就没了。
有些困难是学习过程中必须经历的,绕过它你虽然省了时间,但也错过了真正的成长。
这里有一个很微妙的矛盾。
现在的AI还不能完全信任,你需要监督它的输出,尤其是在重要的工作上。
但监督AI的能力,恰恰来自于你自己动手干活积累的经验。
一位安全工程师举了个例子,Claude给出的某个方案看起来很聪明,但他一眼就看出这是那种聪明过头的危险方案,是资深人士才能识别的陷阱。
他说这种判断力,只有做过很多年才有。
如果新人从一开始就依赖AI,他们怎么培养这种判断力?
报告里把这叫做paradox of supervision,监督悖论。
你越用AI,你监督AI的能力可能越弱。但你越不用AI,你的效率又跟不上。
这个困境目前没有标准答案,有些工程师的应对策略是刻意练习。
就算知道Claude能搞定,偶尔也强迫自己不用它,保持手感。
报告的结尾,抛出了一个有意思的视角。
软件工程一直在朝更高抽象层次发展。
最早的程序员要手动管理内存,要写汇编语言,甚至要用物理开关输入指令,后来有了高级语言,很多底层操作自动化了。
一位员工建议想当工程师的人:学会让AI写代码,然后把精力放在更高层面的概念和模式上。
这个建议有道理,但也有人指出,每一次抽象层级的提升都有代价。
当大家都用高级语言之后,大多数程序员就不再深入理解内存管理了。这种丢失的知识,有时候在关键时刻会变成问题。
读完这份报告,我总结了几条对普通人有用的insight:
1、效率提升的红利期是真实的,但那些被省下来的时间,要有意识地投入到AI还做不好的事情上。比如建立人际关系,比如发展判断力,比如理解系统的底层逻辑。
2、刻意保持一些不用AI的练习,因为你需要保持监督AI的能力。
3、重新思考工作的意义。如果你的满足感来自于亲手完成某件事,那要想清楚这种满足感以后从哪里来。如果你的满足感来自于结果和影响力,那AI其实是你的加速器。
4、关注人的连接。技术在让协作变得更高效的同时,也在稀释那些低效但有温度的交流。这部分不会自动补回来,需要你主动去维护。
Anthropic这份报告的价值不在于给出答案,而在于它呈现了一种真实的复杂性。
这群站在AI前沿的人,他们既兴奋又焦虑,既享受效率又担心失去什么。他们没有确定的未来图景,只有一种共识:要保持适应能力。
https://web.okjike.com/u/9ca2b1fd-086e-4fbe-a1f8-b641f8f4b9d1/post/6937c2d9b756b2fd2ad2a853
想要系统性学习Deep Research的可以看看。该论文系统地梳理了Deep Research (DR) 这一新兴领域,旨在赋予大型语言模型(LLMs)类似于人类研究员的能力,使其能够通过自主规划、信息获取、记忆管理和深度推理来解决复杂的开放性问题 。
另外github仓库里还给出了相关论文的链接,方便直接查看。
1. 专家级结构化总结
“将以下文本总结成高度结构化、易懂的摘要,提取所有重要观点和核心洞见,确保即使12岁孩子也能完全理解。请用要点、实例和现实意义阐述。文本:[粘贴内容]。”
2. 一页精华总结
“把以下长文浓缩成单页摘要,突出最有价值的20%信息,产出80%效果。去除赘述和重复,只保留高影响力见解。文本:[粘贴内容]。”
3. 从入门到专家的分步讲解
“将以下内容压缩成循序渐进的教学,使用简单语言和类比,从初学者到专家全方位理解。文本:[粘贴内容]。”
4. 决策导向总结
“重写以下内容,形成决策型摘要:告诉我关键洞见、问题所在、解决方案和立刻可执行的行动。文本:[粘贴内容]。”
5. 思维导图式总结
“把这份文档转成思维导图格式摘要,列出主要话题、子话题、关联和细节,用缩进展现清晰结构。文本:[粘贴内容]。”
6. 记忆优化总结
“制作优化记忆的摘要,用简短要点、助记法、类比和记忆模型帮助长期记忆。文本:[粘贴内容]。”
7. 学习评估总结
“总结关键学习点,设计10个问题测试理解,回答后给出知识评估、纠正和改进答案。文本:[粘贴内容]。”
查询Google账号具体注册日期教程
1. 打开 Google 数据导出网址 Google 导出
2. 勾选要包含的数据
Google 账号 与注册和账号活动有关的数据。 点击下一步。3. 选择文件类型、频率和目标位置。通过邮件发送下载链接创建导出作业。
4. 在 Gmail 邮箱里找到相关邮件下载压缩包,解压
SubscriberInfo.html 文件查看具体注册日期。Google数据导出:https://takeout.google.com/
频道:@free347
OpenAI的研究人员声称,他们已经攻克了影响大语言模型性能的最大障碍之一:“幻觉”(hallucinations)问题。
当大语言模型生成不准确的信息,并将其作为事实呈现时,就会产生“幻觉”。从OpenAI的GPT-5到Anthropic的Claude,许多热门的的大语言模型都受到这一问题的困扰。
OpenAI在周四发布的一篇文章中公布了其核心发现:大语言模型之所以产生幻觉,是因为它们的训练方法更倾向于奖励“猜测”,而不是“承认不确定性”。
换句话说,大语言模型被告知要“不懂装懂,直到蒙对为止”(fake it till they make it)。研究人员在文章中写道:“幻觉”问题之所以持续存在,与大多数评估的评分方式有关——AI模型被优化成优秀的应试者,在不确定时进行猜测能提高考试成绩。大语言模型基本上一直处于“应试模式”,它们回答问题时,仿佛生活中的一切都是二进制的——非对即错,非黑即白。
在许多方面,它们并未准备好应对现实生活,因为在现实中,不确定性比确定性更常见,而真正的准确性也并非必然。
研究人员表示:人类在学校之外,在艰苦的磨练中学会了表达不确定性的价值。而另一方面,大语言模型主要通过那些惩罚“不确定性”的考试来进行评估。
OpenAI发现,幻觉问题有解决办法,而这与重新设计评估指标有关。
OpenAI表示:根本问题在于大量的评估标准未能与现实目标对齐。必须调整众多主要评估方法,以停止在模型不确定时惩罚其“弃权”行为。
目前广泛使用的、基于准确率的评估方法需要更新,使其评分机制不鼓励猜测。如果主记分牌(main scoreboards)继续奖励侥幸的猜测,模型就会继续学习去猜测。
via 匿名