Cloud Translation API 配置和调试
我们想调用 Cloud Translation API ,使用预训练的Translation LLM 模型,可以直接用于翻译,如何配置参数 MODEL_NAME 和 LOCATION等? 模型名称和地点? from google.cloud import translate_v3 as translate from google.oauth2 import service_account # --- Configuration --- PROJECT_ID = os.environ.get("GOOGLE_CLOUD_PROJECT") LOCATION = "global" CREDENTIALS_PATH = os.environ.get("GOOGLE_APPLICATION_CREDENTIALS") MODEL_NAME = " ?? " 找遍了Cloud Translation API 的相关说明文档,其中确实有LLM模型,但没有看到LLM模型在程序中的名称定义,也不清楚其服务地点,这有些诡异; 在 Generative AI - 翻译文字中,确实能找到一个定义是general/translation-llm,使用 Vertex AI Endpoint调用,这就复杂了,而且endpoint 价格挺贵的。 然后进入 Vertex ai studio - translation - translation LLM,找到模型的Get code,发现adaptive_mt_translate(),它是关于自适应机器翻译,如何使用 Google Cloud Translation API 的 Adaptive Machine Translation (Adaptive MT) 功能,这确实涉及到使用自定义数据集训练模型,这又变复杂了,所以这条路径也是错的。 ListModels 然后我们写了一个小程序output-api-model.py,用来检测一下到底可以用什么,实现以下功能: 尝试在多个区域(global, us-central1, europe-west4, asia-northeast1)检查 Translation API 的可用性 列出每个区域支持的语言数量 列出每个区域可用的自定义翻译模型 测试默认翻译模型的可用性 特别测试 LLM 翻译模型 (general/translation-llm) 的可用性 测试基础翻译模型 (general/base) 的可用性 如果 Translation API 不可用,尝试检查 Vertex AI 的翻译能力 提供一个汇总,列出所有可用的翻译模型和 API 使用Translation API的ListModels方法,根据当前的google cloud 环境变量中,列出我们实际可用的模型和 API,程序会尝试实际调用这些 API 和模型,以确认它们是否真正可用。 ...