<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Eino on Guangming Blog</title><link>https://guangmingluo.github.io/tags/eino/</link><description>Recent content in Eino on Guangming Blog</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Fri, 08 May 2026 17:00:00 +0800</lastBuildDate><atom:link href="https://guangmingluo.github.io/tags/eino/index.xml" rel="self" type="application/rss+xml"/><item><title>当 Go 遇见 AI：Eino 框架深度解析与思考</title><link>https://guangmingluo.github.io/post/eino-ai-framework-deep-dive/</link><pubDate>Fri, 08 May 2026 17:00:00 +0800</pubDate><guid>https://guangmingluo.github.io/post/eino-ai-framework-deep-dive/</guid><description>Go 开发者做 AI 应用，痛在哪？ 过去两年，AI 应用开发几乎成了 Python 的专属领地。LangChain、LlamaIndex、AutoGen……这些耳熟能详的框架，无一不是 Python 原生。作为一个写了多年 Go 的开发者，我经常面对一种尴尬：明明后端服务是 Go 写的，明明线上跑的是微服务架构，一旦要接入 LLM 能力，就不得不引入 Python 中间层，或者手搓一堆 HTTP 调用。
这种&amp;quot;语言割裂&amp;quot;带来的问题远不止于多写几行胶水代码。更深层的是：你失去了 Go 最引以为傲的东西——编译期类型检查帮你挡住的一大类错误，goroutine 带来的优雅并发模型，还有单一二进制部署的简洁运维体验。而在 AI 应用场景下，这些恰恰又是最需要的：LLM 的 I/O 延迟高、流式输出复杂、工具调用的参数校验容易出错、Agent 状态管理需要并发安全……
所以当 CloudWeGo 团队推出 Eino 这个 Go 语言 AI 应用开发框架时，我的第一反应是：终于有人认真对待这件事了。
Eino 是什么：不止是 &amp;ldquo;Go 版 LangChain&amp;rdquo; Eino（发音 [&amp;lsquo;aino]，接近 &amp;ldquo;I know&amp;rdquo;）是 CloudWeGo 开源的 Go 语言 LLM 应用开发框架。很多人第一眼会把它理解为&amp;quot;Go 版 LangChain&amp;quot;，这个类比不算错——Eino 确实从 LangChain、LlamaIndex 等框架汲取了灵感——但它又不只是简单地把 LangChain 的概念用 Go 重写一遍。
Eino 的设计哲学更接近于：用 Go 的方式，解决 AI 应用开发的工程化问题。什么意思呢？LangChain 生于 Python，天然带着 Python 的思维——动态类型、鸭子类型、隐式的链式调用。这些在原型阶段很爽，但在生产环境中，尤其是 Go 开发者习惯的强类型、显式错误处理、编译期保证的语境下，就显得格格不入。</description></item></channel></rss>