240 发简信
IP属地:浙江
  • PostgreSQL 操作大对象

    前言 通常来说在关系型数据库中保存大对象有如下方式: 使用Blob或者Clob类型的字段,将大对象的内容保存到数据表中。 将大对象保存为文件放置...

    0.3 21 0 1
  • Resize,w 360,h 240
    AI 相关文档目录

    以下是本人AI 系列文档目录,欢迎大家查阅和参与讨论。 Ollama 服务Docker部署简明教程[https://www.jianshu.co...

    0.5 23 0 2
  • vLLM CPU推理优化

    前言 在CPU环境使用vLLM推理框架会明显比GPU缓慢的多。但是CPU也是有很大的优化空间的。 本篇为大家带来vLLM CPU推理的优化配置方...

  • Resize,w 360,h 240
    第三方MCP服务在Cherry Studio的配置和使用

    前言 在MCP 简介和使用[https://www.jianshu.com/p/51947e68a690]一文中我们了解了如何编写自己的MCP服...

  • MCP 简介和使用

    MCP简介 MCP(Model Context Protocol) 是由 Anthropic 公司提出并开源的一个标准协议,旨在解决大型语言模型...

  • Zeppelin HBase2.x兼容问题和解决方案

    问题 HBase Shell使用了Ruby脚本编写。HBase Interpreter使用了HBase的Ruby脚本,自带默认的jruby解析器...

    0.2 27 0 1
  • Flink 双网分离环境使用问题解决记录

    Flink 使用介绍相关文档目录 Flink 使用介绍相关文档目录[https://www.jianshu.com/p/74f1990d047c...

  • vLLM 部署和使用简介

    简介 vLLM是生产级别的大模型推理服务。能够发挥出较高硬件配置的性能。适用于高并发等负载较重的场景。相比之下Ollama是一个本地化的大模型服...

  • Kyuubi Spark Flink Hive 引擎使用

    前言 Kyuubi 1.9.2 on Yarn模式官方支持Spark、Flink和Hive引擎。本片分别介绍它们的部署方式。 环境信息 Kyuu...

个人介绍
Java bug搬运工,小数据攻城狮^O^