程序员茄子
全部
编程
代码
资讯
案例
综合
联系我们
html在线编辑
登录注册
AI,自己全程接管维护
php
mysql
shell
go
vue
css
api接口对接
支付接口对接
最新
最热
分布式 LLM 推理架构深度实战:从 vLLM 单节点到 llm-d 多集群的生产级演进全链路解析
编程
分布式 LLM 推理架构深度实战:从 vLLM 单节点到 llm-d 多集群的生产级演进全链路解析
2026-05-09 03:39:58 +0800 CST
view 10
深度解析分布式 LLM 推理架构,从 vLLM 单节点到 llm-d 多集群的生产级演进。涵盖推理引擎层、编排调度层、Kubernetes 多机多卡部署实战、性能优化技巧及成本优化策略。
LLM
vLLM
分布式推理
Kubernetes
Ray
推理引擎
goctl 技术系列 - Go 模板入门
编程
goctl 技术系列 - Go 模板入门
2024-11-19 04:12:13 +0800 CST
view 1375
本文介绍了如何使用Go语言的`text/template`包创建和渲染动态网页。通过简单的示例,展示了如何定义模板并填充数据生成HTML输出。文章涵盖了模板的基本用法、在Go程序中加载模板的步骤,以及如何动态生成内容丰富的网页,强调了`text/template`的灵活性和可维护性。
编程
Web开发
Go语言
模板引擎
动态内容
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
编程
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
2026-04-09 10:23:56 +0800 CST
view 267
2026年4月8日,DeepSeek悄然上线「专家模式」,无发布会无公告,却被业内视为V4发布前最有分量的产品预告。本文深度拆解双模式技术架构差异,实测数理推理、专业编程、创意写作三大场景,并解读这一低调更新背后的产品哲学与行业信号。
DeepSeek
AI大模型
V4
专家模式
推理模型
产品设计
国产AI
场景分层
从零实现一个简化版JS引擎的基本步骤
编程
从零实现一个简化版JS引擎的基本步骤
2024-11-19 05:49:01 +0800 CST
view 1242
本文介绍了从零实现一个简化版JS引擎的基本步骤,包括词法分析、语法解析和解释器的设计与实现。通过使用Acorn库,文章详细探讨了如何将JavaScript代码分解为标记、生成抽象语法树(AST)以及如何遍历AST并执行相应操作。最后,鼓励读者深入研究ECMAScript规范,扩展引擎以支持更多语言特性。
编程
JavaScript
软件开发
引擎实现
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
编程
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
2026-04-19 22:17:39 +0800 CST
view 273
深入解析Google LiteRT-LM端侧LLM推理引擎的核心架构:分层内存池、KV Cache量化、算子融合、WebGPU运行时。与TensorFlow Lite、llama.cpp、MLX横向对比,提供生产级部署实战指南。
Google
端侧AI
LiteRT-LM
WebGPU
量化
KV Cache
TensorFlow Lite
LLM推理
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
编程
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
2026-04-30 14:21:13 +0800 CST
view 119
深度解析MCP 2026基准测试框架,拆解TensorRT-LLM、vLLM、Triton三大推理引擎的12个隐性耗时陷阱,提供可落地的诊断方法与修复路径。
AI推理
性能优化
TensorRT-LLM
vLLM
Triton
MCP2026
GPU优化
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
编程
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
2026-04-11 10:24:48 +0800 CST
view 361
深度解析 Apple Silicon 上的视觉语言模型推理引擎 MLX-VLM,涵盖架构设计、模型支持、性能优化与实战部署。
Apple Silicon
MLX
视觉语言模型
VLM
Mac本地AI
多模态推理
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
编程
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
2026-04-20 10:46:48 +0800 CST
view 156
深度解析 2026 年 AI 推理效率的双重突破:Google TurboQuant 实现 6 倍内存压缩与 8 倍速度提升,RWKV-6 以线性复杂度架构打破 Transformer 的二次方魔咒。从数学原理到代码实战,详解这场效率革命的本质。
TurboQuant
RWKV
AI推理
内存压缩
大模型
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
编程
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
2026-04-20 13:45:31 +0800 CST
view 213
深度对比vLLM与TensorRT-LLM两大LLM推理框架,从PagedAttention到Kernel Fusion,从量化技术到生产部署,助你做出正确的技术选型决策
LLM
vLLM
TensorRT-LLM
推理优化
大模型部署
量化技术
AI工程
编程
windows安装sphinx3.0.3(中文检索)
2024-11-17 05:23:31 +0800 CST
view 4463
Sphinx是一个高性能的全文检索引擎,支持SQL和XML数据源的集成,提供多种搜索接口。其索引速度可达10~15MB/秒,搜索性能可支持每秒150~250次查询。文中详细介绍了Sphinx的安装、配置文件的创建、索引的生成、服务的启动以及常用命令,适合需要实现高效搜索功能的开发者参考。
搜索引擎
数据库
技术文档
Evolver深度解析:GEP协议如何让AI Agent获得基因进化能力
编程
Evolver深度解析:GEP协议如何让AI Agent获得基因进化能力
2026-04-20 15:47:54 +0800 CST
view 139
深入解析Evolver的GEP协议设计、Gene-Capsule三层记忆架构,以及如何让AI Agent获得真正的进化能力。从技术原理到代码实战,全面解读这一中国团队开源的创新项目。
AI Agent
GEP
Evolver
进化引擎
开源项目
我为什么越来越少打开百度和谷歌?因为发现了这个开源搜索神器:SearXNG
编程
我为什么越来越少打开百度和谷歌?因为发现了这个开源搜索神器:SearXNG
2025-07-17 18:05:30 +0800 CST
view 1248
SearXNG是一个开源的元搜索引擎,旨在保护用户隐私,不记录用户数据。它支持多个搜索源,提供干净的搜索结果,避免广告干扰。用户可以选择使用公共实例或自建实例,享受更自由的搜索体验。SearXNG还提供API接口,方便与AI系统集成,确保数据安全和私密性。
搜索引擎
隐私保护
开源软件
综合
robots.txt 的写法及用法
2024-11-19 01:44:21 +0800 CST
view 1477
本文介绍了robots.txt文件的定义、语法及其在搜索引擎优化中的作用。robots.txt是一个协议,用于指示搜索引擎哪些内容可以被抓取,哪些内容应被禁止。文中提供了多种使用示例和注意事项,强调了合理使用该文件的重要性,以避免误区和提高网站的访问效率。
搜索引擎优化
网站管理
网络协议
robots
MOSS-TTS-Nano:0.1B参数纯CPU实时语音生成与克隆,MacBook Air单核就能跑
编程
MOSS-TTS-Nano:0.1B参数纯CPU实时语音生成与克隆,MacBook Air单核就能跑
2026-04-20 22:53:28 +0800 CST
view 448
复旦大学OpenMOSS团队开源的0.1B参数多语言TTS模型,纯CPU运行、支持零样本语音克隆、48kHz双声道、20种语言、流式推理,MacBook Air单核即可流畅运行
TTS
语音合成
语音克隆
AI
开源
CPU推理
OpenMOSS
DeepGEMM 深度解析:DeepSeek 开源的 FP8 GEMM 内核如何重塑 AI 推理性能边界
编程
DeepGEMM 深度解析:DeepSeek 开源的 FP8 GEMM 内核如何重塑 AI 推理性能边界
2026-04-21 05:16:09 +0800 CST
view 274
深入剖析 DeepSeek 开源的 DeepGEMM 库:从 FP8 精度革命到 1550 TFLOPS 性能突破,揭秘现代 AI 推理基础设施的底层优化技术
DeepGEMM
FP8
DeepSeek
CUDA
AI推理
GPU优化
GEMM
TensorCore
WebAssembly 深度实战:从浏览器端 AI 推理到 Serverless 容器——2026 年 WASM 如何重塑云原生与前端边界
编程
WebAssembly 深度实战:从浏览器端 AI 推理到 Serverless 容器——2026 年 WASM 如何重塑云原生与前端边界
2026-05-02 09:03:59 +0800 CST
view 229
从 Component Model 到 WASI Preview 2,从浏览器端 Qwen3-ASR 部署到 WASM Serverless 微服务,深度拆解 2026 年 WebAssembly 如何重塑云原生与前端边界
WebAssembly
WASM
Serverless
云原生
Rust
AI推理
边缘计算
Component Model
WASI
River-LLM 深度解析:上交大如何让大模型推理速度翻倍,却几乎不损失精度
编程
River-LLM 深度解析:上交大如何让大模型推理速度翻倍,却几乎不损失精度
2026-05-02 19:05:49 +0800 CST
view 81
深入解析上海交通大学 River-LLM 框架:通过退出层与骨干层共享 KV 缓存,解决早期退出的缓存缺失难题,实现 1.71x-2.16x 推理加速,几乎不损失精度。
LLM
推理优化
KV缓存
早期退出
量化
上海交通大学
Archon 深度解析:当 AI 编码进入「工程化 Harness」时代——首个开源工作流引擎如何让 AI 编程从玄学变科学
编程
Archon 深度解析:当 AI 编码进入「工程化 Harness」时代——首个开源工作流引擎如何让 AI 编程从玄学变科学
2026-04-12 18:54:54 +0800 CST
view 180
Archon 是 GitHub 本周 16.7k 星的热门项目,首个开源 AI 编码 Harness 构建器。本文深度解析其设计理念、架构实现、核心特性,以及如何用 YAML 工作流让 AI 编程从玄学变科学。
AI编程
Archon
Claude Code
工作流引擎
编程工具
YAML
LRT 隐式思维链深度解析:当 AI 学会「静默思考」,推理效率提升数十倍的工程革命
编程
LRT 隐式思维链深度解析:当 AI 学会「静默思考」,推理效率提升数十倍的工程革命
2026-04-12 21:54:21 +0800 CST
view 294
深入解读 ICLR 2026 论文 LRT,揭示如何用轻量级推理网络将冗长的思维链压缩为隐式向量,实现推理效率数十倍提升
AI
LLM
推理优化
思维链
ICLR2026
vLLM 2026 深度解析:从 PagedAttention 到多节点分布式推理的全链路技术实战
编程
vLLM 2026 深度解析:从 PagedAttention 到多节点分布式推理的全链路技术实战
2026-05-03 15:13:07 +0800 CST
view 107
2026年深度解析vLLM核心架构,从PagedAttention进化到多节点分布式推理,涵盖SIG社区组织、v1架构重写、生产部署实战与性能优化全链路指南。
vLLM
PagedAttention
LLM
推理优化
分布式
Kubernetes
Python
Helios深度解析:北大袁粒团队如何用14B参数重塑实时视频生成——从架构革命到工程落地的全解
编程
Helios深度解析:北大袁粒团队如何用14B参数重塑实时视频生成——从架构革命到工程落地的全解
2026-04-13 05:23:52 +0800 CST
view 325
深入解析北京大学袁粒团队发布的Helios 14B实时长视频生成模型,涵盖三阶段训练流程、统一历史注入、金字塔预测校正器、对抗层次蒸馏等核心技术创新,以及完整部署实战指南
视频生成
Helios
扩散模型
深度学习
实时推理
PyTorch
HuggingFace
大模型部署太慢?这个超级引擎帮你搞定!SGLang速通指南
编程
大模型部署太慢?这个超级引擎帮你搞定!SGLang速通指南
2026-04-22 09:27:57 +0800 CST
view 189
DeepSeek官方推荐!SGLang高性能大模型推理框架速通指南,RadixAttention前缀缓存、零开销调度、OpenAI API兼容,性能碾压vLLM。
SGLang
大模型推理
DeepSeek
开源
vLLM
英特尔至强6 + SambaNova RDU:异构AI推理架构如何重新定义Agentic计算
编程
英特尔至强6 + SambaNova RDU:异构AI推理架构如何重新定义Agentic计算
2026-04-13 14:53:38 +0800 CST
view 255
深度解析英特尔与SambaNova联合发布的商用异构AI推理架构,涵盖三阶段分工、至强6 AMX加速向量数据库70%性能提升、LLVM编译50%加速等核心技术创新
AI推理
异构计算
至强6
SambaNova
Agentic
向量数据库
LLVM
性能优化
vLLM 2026 Q2 路线图深度解析:从 v1 架构重构到九大 SIG 技术演进——生产级 LLM 推理引擎的下一站
编程
vLLM 2026 Q2 路线图深度解析:从 v1 架构重构到九大 SIG 技术演进——生产级 LLM 推理引擎的下一站
2026-05-05 19:01:32 +0800 CST
view 87
深度解析 vLLM 2026年第二季度技术路线图,涵盖 v1 架构核心设计、九大 SIG 技术演进方向、生产级部署实战经验。
vLLM
LLM推理
架构设计
性能优化
大家都在搜索什么?
devops
易支付
一个官网+多少钱
统一接受回调
统一回调
sub
node
宝塔日志
mysql
shell
ElasticSearch
css
vue
api接口对接
2025
支付接口对接
go
php
php回调
回调
上一页
1
2
3
下一页