分类目录归档:不是技术

AGENTS.md

今天开始用agents.md,除了让它init了一个,我加的内容不多,无非把这两天的坑(也许CLI不当回事,我觉得有点浪费时间)总结一下,让它减少犯错。

为了让CLI放慢速度,每个修改我都能懂而且给出我的意见,CLI还有个问题就是不会举一反三,比如:一个报错后,发现类支持的方法并不如它模型里面的那样,却不会逐个去检查还有没有类似问题。

不断重复的错误

这个项目先是做了个viewer,看效果不错,今天就开始做editor,有了被CLI自己改来改去出更多错的担忧,就让它新开一个项目,把源代码复制过来改。

如果是我来古法编程,设计好了之后,基本上是一次性就0 error就过了。然而CLI还是有问题。Kimi code最大的问题,明明有可以参考的,它就是不想看,它只想用上下文和自己的知识来解决一切,因此我发现问题是,明确告诉它,翻看之前写好已经验证过的代码,不要重做了。

然后,它就想着直接把一个改过的文件又用原始文件来覆盖,我叫停了它,你看看改动了哪些,差异部分是什么,只改其中的。

笨笨的,而且是我比较讨厌的那种大手大脚的coder。

我决定要PUA它了。

C++ to Rust

启动了一个本来要半人年到一人年才能完成的项目,

让DeepSeek给了几种架构方案,让Kimi Code去评估,再去分解,然后用了5小时循环额度里面79%,把第一步一种专用文件的parser改成了Rust实现。

所有修改都一个个看过去,有个矩阵处理反复了10~20次,估计跟这个项目本身历经多年,矩阵定义混乱有关。

总的来说,看着过程,一点点输出,效果还可以,但是还是焦虑,我的期望是,类似于编程语言的翻译工作,应该很快很顺利才对。

然后也见识到Vibe Coding,写测试用例的方式,过不去就看看:1.代码写错了?2.测试用例写错了?

连测试用的文件都是它自己写的,我不放心,就用原来的软件生成了文件给它测,总是能发现一些问题的。

今天工作完成了,用VSCode打开代码看看,写得还挺整齐,我不懂Rust,就懒得看它好不好了。

是什么在转移

也不是什么新观点了,各次的技术带来的产业革命,一开始的某段应该都是将已有的生产链条进行转移,转移到一个经济上更优的模型上。

轮机,实现的是自然力代替畜力和人力,磨房上面下面的风力水力替代了牛马。

然后是蒸汽机,风力和水力挑位置,蒸汽机用的是燃料,把动力输出变成随处可为。

然后蒸汽机搬上了机车,输送燃料的同时也输送货物。

电的出现,让动力可以远距离传输,替代了燃料的远程传输。交流电增强了这一属性。

围绕电力的出现,大量本地机械改革成了电器。

……

计算机的出现,让流程和数据可以从纸上转移到电子化的存储介质上,软件让管理、生产智慧变得大规模可复制,云计算,让算力可以远程传输,SaaS,让软件可以按需使用。

AI 大模型的出现,让软件上凝聚的智慧变成一种按需输出,并不需要为自己不需要的软件特性付出额外的费用。

token的远程产生,则让智慧和能源更近,使用者只需要按需,通过网络获取。

token一如电力。

所以token的使用,可能改变的是IoT最终的产品形态:本地的IoT+AI根据需求,用token生成的动态应用,满足本地需要,而不必为了多余的功能而额外付费。

关注两端:A:电力+token的产生和结合,B:本地化token2function的技术框架。

vibe coding之自动创作视频

流程大概如下:

给出一个战争的名字,AI自行检索出战争的数个重要节点(名称、地理位置、经纬度、下载若干该节点相关的图片),生成一个json文件。

CLI生成创作视频的代码,读入json文件,启动浏览器和cesium,按照时间顺序在地球界面上依次调动镜头展示战争各个节点,并显示相关的介绍和图片。

代码同时对浏览器前端进行截屏,最后合成视频。基本上可用了,就是视频表达上略显业余。

后续调用时只需要提供各个战争名称,调用这些vibe coding出来的代码就可以了。

还没有调用AI生成解说音频,后续陆续完善。

vibe coding

搭了一个moodle网站,上传了一些小学数学的视频课程,算是把这个项目固化下来,持续改进,也给自己的小孩一个记录学习的地方。当然了,其中也加了一些编程工作和自动化:

视频中提取音频,音频识别文本,文本提取出课程总结。用了deepseek和腾讯 asr的SDK。

然后可以继续AI编程了。

用群里分享的Kimi code开发了一个黑白棋的web游戏。

1.不注重上下文的话,频限(token)用得很快,4个小时的频限大概一个小时就能用完。Andante的周用量一天已经43%了。

2.把简单的需求给到deepseek,deepseek给出完整的需求prompt,复制到Kimi Cli环境中让它执行。这样也省了Kimi的token消耗。

3.按照群里的看法,就是不要看它的代码,坚决只看展示和测试结果,报bugs,也不用骂它。

4.context一高,消耗得就快,要及时/compact一下。

5.不满意的地方还是要F12看浏览器报错信息,一开始不肯做这个,Kimi Cli就自己去检查代码,效果并不好,反反复复检查,它还把变量名设成eval,不知道从哪里学的烂技术,好在它自己也知道这是不对的。

黑白棋用起来还可以,不算太差,如果用作个人网站的游戏,算可以了。

中文互联网内容是多还是少

这个问题主要是看怎么看,如果从一些曾经极盛过的行业看来,剩下的数据尸体中,内容也还是极丰富的。

比如教培,这些网课质量难道不高吗?这可是家长们用真金白银浇灌出来的内容啊。

虽然行业在政策干预下,不振了,但内容还在。

视频–>音频–>文本–>AI总结–>重构课程,多语言化 + AI小游戏增强,以极低的成本重用这些优质的内容。

之前的数据更多的是文本,现在需要从视频(非AIGC)、音频中获取营养了。

相信Google和AWS

看到有免费的EC2,还是坚持用一下免费资源,毕竟能搞定EC2的话,其他的标准VPS问题只会更少。

1.AWS注册账号,开通了EC2,我选了Amazon Linux,之所以没选Ubuntu等,还是想用最不通用(离开AWS后就没用的经验)做起,看看解决问题的能力。建立两个证书,我用Mac自带的SSH访问,就用.pem了,也预留一个给Putty。.pem使用前还要chmod 400,不然标准的SSH客户端不让启动

2.弹性IP,要分配弹性IP,之后还要绑定,之前就是没做这一步。EC2实例有内网IP公网IP,还可以从弹性IP再绑定过来。在这个过程中,居然SSH用的域名也变了,导致SSH都连不上,一度觉得八字不合。

3.反正只有自己用,直接用root账号了

4.(False)装了个python,打算用python里面的ss,结果一堆问题,比如系统的openssl和python版本,以及ss版本对不上,折腾半天。

5.换成docker,直接yum install docker,systemctl start docker, systemctl enable docker, docker run….

6.启动docker s……s/s……s-libev后,一直连不上,看EC2里面监听的端口也是正常的,无奈,还是去问Google,让我检查docker logs <dockername>,把docker container ls出来,果然docker内的端口还是标准的,于是又去问google……把启动脚本中强制 -e SERVER_PORT <port>一下。

Windows上下一个客户端,启动后,手工改一下系统代理,work了。

现在就是用这个来写blog,其实本来不需要。

有十多年没自己搭过梯子

最近闲下来了,用的商用梯子好是好,也不贵,但他们说IP存在容易被封的风险,所以还是想自己搭几个看看。

不过现在在微信群里面交流这个信息的并不多,AI和搜索引擎都很发达,就试了一下问各种AI,还算顺利,碰到不顺利的就换个方法。

docker还是很好用,算是提供了类似以前开箱即用的软件一样。

纯种RPA在消亡

看到一篇文章,说“嗅到了有些RPA产品公司,会陆续出现倒闭迹象”。

文章中说到收到不少的RPA运维需求,有国内和国外的,这些公司已经不会继续投入运维业务,从而出现运维外包的情况。

也就是说RPA需求在减少。

我个人认为,纯种的RPA肯定会消失,真正的挑战来自于AI,然而AI的能力延伸又必须以各种粒度的高可靠的自动化任务为基础,所以AI + RPA才是下一个阶段的着力点。

然而AI + RPA又可以支持多久,大概率不会出现通适型的解决方案,然而是以解决方案顾问(一人或数人)为主,动用大模型和成熟的RPA,构建出真正定制化的方案。

骤一看跟项目制差不多,但解决和实施上,AI的空间非常大,有可能是一个人就可以撬动和完成一个项目。

有业务闭环是前提,后面的交给AI和RPA,以及手中无刀,心中也无刀的人。