240 发简信
IP属地:上海
  • Resize,w 360,h 240
    理解AGENT,SKILL,MCP之间的关系

    技术术语总是层出不穷,但我觉得每一个技术点,都是为了解决一些通用问题的模式来设计的,一定会有一些层次感。我看了一些资料,加了一些思考,来梳理一下...

  • LangGraph的Human-In-Loop人机交互示例

    找到一个静态的人机断点示例,测试通过,记录一下。 代码 输出:

  • 一个要素比较完全的langchain的agent示例

    看了几天,容易看晕,先记录一个要素完整的,唤醒记忆。 代码

  • LangChain和LangGraph结合,完成工具调用和模型调用的循环

    这里涉及的不是单次工具,而是多次多个工具,我以为比较有借鉴性,作个录入。 比较好的实践,是需要很好的结合这两者的。 代码 输出

  • 通过这段时间的操练,慢慢理解了大模型的AGI自由和IT人员的束缚

    最近系统的在学习Langchain和LangGraph,https://www.learngraph.online/[https://www.l...

  • 康德三大批判 × 脑神经科学 × 大模型 三者核心对应关系对比表

    AI提问的回答,我觉得这个类比维度很有意思,也是我感兴趣的,保留。 康德三大批判 × 脑神经科学 × 大模型 核心对应关系(列表版) 一、认知起...

  • 扣细节,关于LLM的一些数据维度测试的代码

    总觉得对大模型的一些细节把握不准,为了印在心里,这次增加了对数据维度的测试。代码也比之前的要正规。为了能把验证过程的参数深入到第一行的代码,我甚...

  • Resize,w 360,h 240
    纯手工撸LLM:两个小时内的成果

    关于LLM的一些技术点,目前都解开了,再重新手撸,加深印象。用AI学AI,让豆包按我的要求生成了如下的代码,直接手撸一次,运行成果。可以胡言乱语...

  • 再追一篇-随机森林

    都到决策树了,尽管昨天证明这个方案不太适用,但学习了就作一次记录吧。 一,代码 二,输出

个人介绍
还将旧来意,怜取眼前人。