Google 翻译模型选择和使用建议

针对批量网页文章翻译,参考说明文档Translation AI Cloud Translation API 使用 Google 的神经机器翻译技术, Google 预训练的自定义模型或翻译专用大型语言模型 (LLM) 通过 API 动态翻译文本。 它有基础版和高级版,两者都提供快速和动态翻译,但高级版提供自定义功能,例如特定领域的翻译、格式化文档翻译和批量翻译。 每月发送到 API,使用NMT模型处理的前 500,000 个字符(基础版和高级版合计)是免费的(不适用于 LLM)。 2种翻译模型 NMT (神经机器翻译) 模型: translate_v2: 早期版本的 NMT v2模型,现已弃用,不建议使用。 translate_v3: 目前推荐使用的 NMT v3模型,提供比v2更高的翻译质量、更多语言支持和更丰富的功能。可以直接通过 Cloud Translation API 调用。 Translation LLM (大型语言模型): 这是 Google 基于大型语言模型技术的翻译模型,能够更好地理解上下文和生成更流畅自然的译文。尤其适合处理博客文章等复杂文本。 更高的翻译质量: Translation LLM 在处理博客文章等复杂文本时表现更出色,因为它在理解上下文和生成流畅译文方面更胜一筹。 更好的格式保留: 结合 mime_type: text/html 设置,Translation LLM 和 translate_v3 都能够更好地保留 Markdown 格式。 更强大的功能: Translation LLM 和 translate_v3 都支持词汇表等功能,可以帮助您更好地控制翻译结果。 可以通过以下两种方式调用: 通过Vertex AI SDK 调用 Translation LLM 安装 Vertex AI SDK: pip install google-cloud-aiplatform ...

2025-3-11 · 1 分钟 · Atom.X

Google AI 翻译模型 - Vertex AI Studio - Translation

博客网站的文章翻译,选择哪个模型比较好? 我们测试一下Google Cloud Vertex AI Studio - Translation,其专业的翻译模型的种类多样,例如: NMT (modal used for translation modality) Translation LLM (modal used for translation modality) gemini-2.0-flash-001 (next generation gemini flash, super speed, multimodal generation, 1M token context window) 当我们写了一个程序调用以上模型,可能看到类似如下的报错。 % python translation-llm.py 2025-03-17 17:48:30,421 - ERROR - Translation API error: 400 Cloud AutoML API has not been used in project 1***0 before or it is disabled. Enable it by visiting https://console.developers.google.com/apis/api/automl.googleapis.com/overview?project=1***0 then retry. If you enabled this API recently, wait a few minutes for the action to propagate to our systems and retry.; The model projects/1***0/locations/us-central1/models/TRL*** is not found or is deleted.; codes = [SERVICE_NOT_ACTIVATED (3), NOT_FOUND (5)]. 2025-03-17 17:48:30,421 - ERROR - Translation failed for ~/sandbox/de/about.md after attempts. 翻译失败,为何它要调用的 Cloud AutoML API ?这才发现 Vertex AI 是一个机器学习 (ML) 平台,用于训练和部署 ML 模型和 AI 应用程序。 ...

2025-3-10 · 1 分钟 · Atom.X

AI代理和工具

项目需求 最近我在整理过去的历史档案,有超过100篇文章需要添加到hugo的文档库中,每篇都要加一个类似如下的头信息front matter: --- title: "AI代理和工具" date: 2025-03-09 description: categories: - IT tags: - 互联网 - 数学&计算机 - AI weight: 1 --- 每个文件都是个性化的“标题、日期”,甚至“分类、标签”和排序“weight:”也不同。 这么多文章一个个手动,我觉着一下子就懒癌发作了,但是我又特别对这些文章感兴趣并想分享出来。我突然灵机一动想到的,或许可以试一下AI代理。 解决方案: 批量处理工具:有一些工具可以帮助你批量处理文件并添加或修改文件中的特定部分。例如,Python 中的 frontmatter 库可以帮助你处理 Markdown 文件的头信息。结合 glob 库,你可以一次性处理多个文件。 定制化脚本:你可以编写一个简单的脚本,读取每篇文章的标题、日期、分类、标签等信息,然后生成符合 Hugo 规范的头信息。使用 Python 和 YAML 库,可以轻松实现这一点。 AutoGPT 或类似工具:你可以探索使用 AutoGPT 或其他 AI 代理工具,它们可以帮助你自动化处理这些任务。你可以提供特定的任务描述和示例,然后 AI 代理会按照你的要求生成代码或执行任务。 AI代理 也就是模拟人的手,去批量操作,告诉它规则就好了,这么简单的任务应该轻松松就干完了。 查看了一下,有以下这些选择: Manus Claud, computer use OpenAI, AutoGPT Lovable, Github - Anton Osika, GPT Engineer 目前国产的Manus很火爆,刚刚在前几天发布了,但是处于测试阶段,需要获得邀请码才能试用; 而Anthropic大厂computer use 似乎也是测试状态,需要开发者的终端工作环境中才能用,所以也不算是成熟的产品。 而GPT Engineer 主要用来写代码的,非用于日常通用的任务。 所以,就只剩下AutoGPT可以试用一下, 体验报告 - AutoGPT 有待补充 。。。 ...

2025-3-9 · 1 分钟 · Atom.X

Google AI 翻译模型 - 配置Gemini参数

我们将使用AI模型做多语种的翻译,以 Google Vertex AI - Translation - Gemini 1.5 pro 为例。 需要配置几个关键参数。 Gemini 翻译参数配置指南 Temperature 参数解析 Temperature 参数控制模型输出的确定性: Temperature 值 效果 适用场景 0.1-0.3 输出最稳定、最可预测 技术文档、专业论文翻译 0.3-0.7 平衡稳定性和创造性 一般文本翻译 0.7-1.0 更具创造性和多样性 文学创作翻译 Top-p (核采样) 参数解析 Top-p 控制词汇选择范围: Top-p 值 效果 适用场景 0.1-0.5 严格限制词汇选择 专业术语翻译 0.5-0.9 平衡准确性和多样性 常规文本翻译 0.9-1.0 最大词汇选择范围 创意写作翻译 参数组合推荐 参数组合最佳实践 技术文档翻译 Temperature: 0.1-0.2 Top-p: 0.1-0.2 原理:两个参数都设置较低值,确保模型始终选择最高概率的词汇,保持术语翻译的一致性和准确性。 一般文本翻译 Temperature: 0.4-0.6 Top-p: 0.4-0.6 原理:中等参数值让模型在保持准确的同时有一定灵活性,使翻译更自然流畅。 文学作品翻译 Temperature: 0.7-0.9 Top-p: 0.7-0.9 原理:较高的参数值让模型可以选择更多样的表达方式,适合文学创作的灵活性需求。 工作原理解释 Temperature和top-p需要配合使用,数值范围应该接近,这样可以让两种采样方法相互补充 较低的参数值会让模型更倾向于选择高概率词汇 较高的参数值会扩大模型的词汇选择范围 参数值的选择直接影响翻译的保守程度和创造性 实验方法 选择代表性文本样本 使用不同参数组合进行测试 评估指标: 翻译准确度 表达自然度 专业术语准确性 文体风格保持 优化建议 根据文本类型选择基础参数组合 进行小规模测试调整 建立参数效果评估标准 记录最佳参数组合供后续使用 注意事项 参数调整要循序渐进 保持测试样本的一致性 建立明确的评估标准 定期检查翻译质量

2025-2-26 · 1 分钟 · Atom.X

AI辅助编程 - Deepseek

截止目前,据网络评论认为 Deepseek-R1、DeepSeek V3 是最好的开源AI辅助编程模型,开源不限于个人和商业使用场景。 DeepSeek各版本说明与优缺点分析_deepseek各版本区别 DeepSeek剖析:与国际知名 AI 模型的全方位对比 AI辅助编程:Cursor与DeepSeek Coder的巅峰对决 但是最近Deepseek放出一条消息:Due to current server resource constraints, we have temporarily suspended API service recharges to prevent any potential impact on your operations. Existing balances can still be used for calls. We appreciate your understanding! 可能它最近太火爆了,结果流量太大,没有接住,服务器资源不够,于是被限制使用,业务多到接不过来。 安装使用方案 在线使用 依赖网络实时连接 VSCode+Cline+DeepSeek-V3 Cursor+DeepSeek DeepSeek Coder 最简单使用方法 IDE trae海外版,其中内置了满血版 DeepSeek R1、V3、claude等目前业内最好的数学和编程模型,关键是免费,财大气粗的字节跳动开发的,截止2025年3月,只有英文和日文版,得到好评。 中文版发布迟于海外版,面向中国大陆用户,奇怪的是被网友吐槽很多。 IDE Vscode+ Cody + Claude 截止2025年3月,个人用户月费9欧元,大多数时候都蛮好用,偶尔抽筋宕机,通常也是资源不够用的缘故,可能是小团队小成本制作。 离线使用 本地部署,搭建本地私有知识库 llama+Deepseek 满血版的硬件配置要求太高,选择蒸馏版虽然能在个人电脑上跑,但是性能弱鸡,参考: 盘点本地部署满血deepseek-r1的各种硬件配置方案 所以,最好的方案还是付费寻找就近的云计算资源,例如通过Megaease部署满血版deepseek到最近的裸机上,关键问题是,我一个人用不完,如何将一台机器的资源分享给其他人,也就是多余的计算资源卖掉。

2025-2-18 · 1 分钟 · Atom.X