如何让别人更好地认识你?

最短时间内、高质量、高效率地介绍自己。 以文会友,通过文字来识别和筛选朋友,我一直都这么认为的,大多短视频较肤浅,我很少看,偶尔在YT上刷一下。 反对滥用社交媒体 中国这些社交媒体都挺厉害的,已经可以称霸全球了,字节跳动从0变成今天的中国或世界第一,我们看着它短期内急速膨胀,我有不少BAT系的前同事和圈内朋友加入字节,早早实现财富自由,同时忍受福报带来的种种后遗症,而我早早选择了避开这条赛道,人生最终都会归零,赚再多的钱也带不走。 我从未安装过抖音,仅仅有1次,某老板一定要让我看他们的抖音,因为我们给他开发一个项目,付了钱,作为工作职责,我就看一眼,提出一些意见。 微信生态圈的内容质量大部分都很糟糕,我也很少在微信看文章,挺厌恶那些滥发自媒体内容的作者。我的沟通方式和做项目的效率要求高,微信这类工具很不适合我的工作方式,基本上除了和少数几个老年人用微信偶尔联系,过去5年,我都没怎么用过微信。 我极其厌恶社交媒体平台,每一个通过微信联系的朋友,我都会问:“除了聊天工具,你会不会用其他的正经工具?”,加上别的工具后,社交媒体联系人就删掉了,通常也不在手机上和人群聊。但是1000个人里,可能仅仅1个人会用别的工具平台,没办法,我无能为力把周围的人都拉出网络陷阱,只能选择让自己从中消失。 大多数人不理解,我为什么这样极端?之前写的文字解释得很清楚,参考我的另一篇网文:如何应对流氓的网络世界? 反对滥用社交媒体的声音的绝对数量是很多的,但相对总人口的比例是很少的,能站出来说话的是极少数,声音非常微弱。很多人根本不知道真实情况和发生了什么。 大家很少在公开的报道中看到,因为媒体平台是他们造的,泡沫也是他们吹起来的,反对的声音早被屏蔽了,在现实中,这些人都是要被精神消灭和社会性死亡,所以,你几乎听不到反对滥用媒体的声音。 文字vs短视频,哪个更高级? 最近有陌生人找我,想了解去欧洲的机会,我让他们发送个人简介的网页链接,例如领英、个人博客、公司网站等。 有一个伙计笑了笑,说00后不咋用博客,意思是这种落后过时的东西居然还能用? 还有一个海龟也是这么认为的,她只有微信朋友圈的摆拍照,分享她参加各种高大上活动的美食和美景,虚荣心太彰显了。 他们是小红书上的典型上海名媛,例如炫耀“联合国实习”,微商与奥巴马合影、登陆纳斯达克和时代广场大屏幕,这些都是一样的套路。 如果是贩夫走卒这样,我是可以理解的,但他们都是受过高等教育的,尤其是喝过洋墨水的海龟,居然也有认知障碍。 我告诉他们,准备好了个人文字版介绍再聊,少浪费无效的社交时间。很多人分不清低级和高级,以为几张旅游照片和小视频比文字更高级,事实颠倒了。 无法理解90后的新生代,他们到底受的是什么教育,连介绍自己的短文都不会写了。 这时我意识到,选择用什么平台和方式介绍自己,其实与学历和财富没关系,而是与认知障碍和社会阶层相关。 很多人受过高等教育,那都是学的某一门技术,但思维意识停留在原始社会阶段,只有动物本能的吃和交配;假名媛们的审美也与文明社会有偏差,把低级当作高级炫耀,甘愿自己的身体受男性支配的社会地位,属于底层价值观的问题,这是我最近通过自媒体观察到现象。 刷手机的时长与学历和职业水平呈反比关系 为什么我不刷短视频、不聊微信?因为没时间!我是有正经事做的人。 我观察周围的人,欧洲本地人不喜欢刷短视频tiktok、instagram等各种社交软件,很少有人埋头玩手机。尽管这里互联网开放,人们可以使用任何一种社交软件。 在公众场合,如公园、咖啡馆、车站或公交车上,很多人看报纸和图书,特别笨重的那种纸质书,尤其在一辆复古的公交车上,人们看纸质书的感觉特别好,尽管这反应欧洲IT业相对落后了。 甚至公交上有不少女生随身带着针织包,等车时编织毛线几分钟,以此打发时间。2025年了,居然还有人织毛线,你能想象吗?可能很多人觉得那是上个世纪40年前,奶奶和姑姑辈才会做的事,我觉得这是现代非常高明的生活方式,比刷手机更好。 部分东亚留学生刚到欧洲的时候也喜欢刷手机,因为东亚的互联网行业发达,随着学历升高到硕士以上,以及在本地工作,并融入社区生活圈,他们就慢慢变得和本地人一样,也不再频繁刷手机了。 普遍规律就是,刷手机的时长与学历和职业水平呈反比关系,受过高等教育和有高级职业的人很珍惜时间,因此精英阶层很少刷手机。 在欧洲喜欢刷手机的都是外来人,尤其是中东难民,阿拉伯语系为主。他们无事可干,要么拖家带口整日逛街,要么就各种体式刷手机,躺床上刷、躺地上刷、躺椅子上刷,无论大人或小孩,整天刷tiktok短视频。 尤其在公交车等狭小空间里,他们还特别喜欢开手机的外放音箱,大多数情况下是伊斯兰教特有的鬼哭狼嚎配乐,伊斯兰教里也有让人精神愉悦的优美的祈祷词和赞美诗,但难民偏爱快节奏的短视频,全部都是非常干扰人的狂躁和欲望,每次只要遇到这些人上车,我都自动避开。 最糟糕的情况是在中国,在工作之外的碎片时间,尤其是公共场合和家里,大多数人都在埋头刷手机,从中老人、青年人、小孩,所有人都在玩游戏和看抖音短视频,这是一种有毒的精神鸦片,让人很容易上瘾。 全世界的情况一样,没事干的人才会经常刷手机,社会底层需要某种精神麻醉剂,活在虚幻世界中,这算是精神难民。 写字与职业发展 我的重要学习和工作方法,就是写文字做总结,我能保持长期关系的好朋友和重要的合作伙伴,都是通过大量文档交流的,我发现这些人的共同特点都是理性、独立思考、较好的工作技能、经济能力。 建议每个人都能写文章发布到网页上,这样更容易介绍自己的经历背景,方便互相了解,就像是企业网站和媒体一样重要,个人也需要,这是最好地提高沟通的效率和质量的方式。 我曾经多次在社交群里提这个建议,如果他们不会技术方面,我可以免费提供支持,可是很少有人采纳这个建议,群里只有我一个人这样做,好像是自言自语,那么就应该退群,因为这群人的能力与我不匹配,此后我也很少加社交群了。 若没有习惯用文字表达,写不出简历和自我介绍,就不太可能找到陌生人在一起的工作机会,这意味着必需重度依赖原来的熟人社会关系,走不出家门,去不了太远的地方,个性必然会走向封闭和保守,个人发展将受到很大限制,难以拓宽眼界和人生经验阅历,也必然无法实现良好的经济独立。 这样的状态,基本上都会欠缺独立的思维和行动能力,如果加入一个正统派系,很幸运,组织将保护他们健康成长;往往是不会用文字总结的人,思维逻辑能力也较差,由于缺乏分辨能力,更容易加入邪门派系,这人就被毁掉了。

2025-5-1 · 1 分钟 · Atom.X

Cloud Translation API 配置和调试

我们想调用 Cloud Translation API ,使用预训练的Translation LLM 模型,可以直接用于翻译,如何配置参数 MODEL_NAME 和 LOCATION等? 模型名称和地点? from google.cloud import translate_v3 as translate from google.oauth2 import service_account # --- Configuration --- PROJECT_ID = os.environ.get("GOOGLE_CLOUD_PROJECT") LOCATION = "global" CREDENTIALS_PATH = os.environ.get("GOOGLE_APPLICATION_CREDENTIALS") MODEL_NAME = " ?? " 找遍了Cloud Translation API 的相关说明文档,其中确实有LLM模型,但没有看到LLM模型在程序中的名称定义,也不清楚其服务地点,这有些诡异; 在 Generative AI - 翻译文字中,确实能找到一个定义是general/translation-llm,使用 Vertex AI Endpoint调用,这就复杂了,而且endpoint 价格挺贵的。 然后进入 Vertex ai studio - translation - translation LLM,找到模型的Get code,发现adaptive_mt_translate(),它是关于自适应机器翻译,如何使用 Google Cloud Translation API 的 Adaptive Machine Translation (Adaptive MT) 功能,这确实涉及到使用自定义数据集训练模型,这又变复杂了,所以这条路径也是错的。 ListModels 然后我们写了一个小程序output-api-model.py,用来检测一下到底可以用什么,实现以下功能: 尝试在多个区域(global, us-central1, europe-west4, asia-northeast1)检查 Translation API 的可用性 列出每个区域支持的语言数量 列出每个区域可用的自定义翻译模型 测试默认翻译模型的可用性 特别测试 LLM 翻译模型 (general/translation-llm) 的可用性 测试基础翻译模型 (general/base) 的可用性 如果 Translation API 不可用,尝试检查 Vertex AI 的翻译能力 提供一个汇总,列出所有可用的翻译模型和 API 使用Translation API的ListModels方法,根据当前的google cloud 环境变量中,列出我们实际可用的模型和 API,程序会尝试实际调用这些 API 和模型,以确认它们是否真正可用。 ...

2025-3-19 · 2 分钟 · Atom.X

Google Cloud Translation API 翻译工具解析

这是一个基于Google Cloud Translation API的翻译工具,专为批量处理文档而设计。该工具能够智能识别文件语言,仅翻译需要翻译的内容,并且保留原始文档的格式和结构。它特别适合需要维护多语言文档库的团队和个人。 搜索本人的Github库 - Gcloud-translation-api.py 核心功能 智能语言检测:使用langdetect库自动识别文档实际语言 选择性翻译:仅翻译非目标语言的文档,避免重复处理 格式保留:在翻译过程中保持原始文档的所有格式元素 多种文件支持:支持Markdown、YAML、纯文本等多种文件格式 自动重试机制:处理API限制和临时错误,确保翻译任务完成 高效处理:通过预处理和智能跳过,优化翻译流程 技术架构 配置模块 工具通过环境变量和预设常量进行配置,包括: Google Cloud项目信息 翻译语言设置(源语言和目标语言) API访问凭证 翻译模型选择 目标目录设置 语言处理模块 detect_language(): 检测文本语言 preprocess_file_type(): 预处理文件内容,移除格式符号以便准确检测语言 翻译核心模块 translate_text_with_llm(): 使用Google Cloud Translation API进行实际翻译 实现了API调用频率限制和自动重试机制 处理翻译请求的构建和发送 文件处理模块 get_file_type(): 识别文件类型 is_already_translated(): 判断文件是否需要翻译 process_files(): 处理目录中的所有文件 工作流程 初始化:验证环境变量,初始化Google Cloud客户端 文件遍历:递归遍历目标目录中的所有文件 语言检测: 读取文件内容 预处理内容以移除格式元素 使用langdetect检测实际语言 翻译决策: 如果文件已经是目标语言,则跳过 否则,将文件内容发送给翻译API 保存结果:将翻译后的内容写回原文件,保留原始格式 优势特点 精确的语言检测:通过预处理移除格式元素,确保语言检测的准确性 高效的资源利用:只翻译必要的文件,避免重复处理 格式完整保留:翻译过程不会破坏文档的原始格式和结构 可靠的错误处理:完善的日志记录和错误重试机制 易于扩展:模块化设计使其易于添加新功能或支持新文件类型 设置与使用 环境设置 确保已安装必要的Python库: pip install google-cloud-translate langdetect pyyaml ratelimit 设置Google Cloud环境变量: ...

2025-3-18 · 1 分钟 · Atom.X

AI相关概念定义、区别和关系

这些与AI相关的术语在,各自有着不同的涵义和应用领域。以下是它们的关系与区别: 1. 人工智能 (AI) 概念:人工智能是一个广义的术语,指的是任何能够模拟人类智能的技术或系统。 应用:包括图像识别、语音识别、自动驾驶、推荐系统等。 AI 是其他三个概念(LLM, AGI, GAI)的母体或大框架。 2. 大模型语言 (Large Language Models, LLMs) 概念:大模型语言是人工智能的一个子领域,专注于处理人类语言。它通常通过海量数据训练,拥有数以亿计或甚至千亿计的参数,用以理解、生成和翻译自然语言。 例子:像 OpenAI 的 GPT 和 Google 的 Gemini 系列模型就是典型的LLM。 应用:可用于对话生成、内容撰写、代码生成等。 LLMs 是生成式人工智能的技术基础之一。 3. 生成式人工智能 (Generative AI) 概念:生成式 AI 是一种专注于“创造”的人工智能,能够生成文本、图像、音频、代码等内容。 应用:文本生成(如文章、对话)、图像生成(如插画、设计)、音乐创作、甚至影视特效。 例子:GPT 系列、DALL·E、Stable Diffusion。 生成式 AI 常常依赖于大语言模型或类似的生成模型。 4. 通用人工智能 (Artificial General Intelligence, AGI) 概念:AGI 是人工智能的终极目标,指能够像人类一样在任意任务上表现出智能的系统。它不受特定领域限制,具备学习、推理和理解的能力。 状态:目前 AGI 尚未实现,但许多研究者和公司(如 OpenAI 和 DeepMind)都致力于这一方向。 通用人工智能是人工智能的未来愿景,与当前的 AI 技术还有一定距离。 总结 人工智能 是总括性概念,涵盖了 LLMs、生成式 AI 和 AGI 等分支。 大模型语言 是一种特化工具,主要聚焦于语言处理。 生成式人工智能 是一种应用技术,强调创造性输出。 通用人工智能 是更高层次的目标,旨在实现跨领域的全面智能。 人工智能领域还有许多相关的重要概念,它们丰富了这个生态系统。以下是几个常见的相关概念及其含义: ...

2025-3-17 · 1 分钟 · Atom.X

Google AI模型的使用方式和适用场景

当我们使用模型, 例如Google Gemini 1.5 Pro,它有多种使用方式,适用场景有所不同: 1. Vertex AI Studio: 适用场景: 主要面向开发者和企业用户,用于构建和部署生成式 AI 应用。 提供丰富的工具和 API,支持模型微调、部署和管理。 适合需要高度定制化和集成到现有工作流程的用户。 使用方式: 通过 Vertex AI Studio 的控制台界面进行交互。 通过 Vertex AI 的 API 进行编程调用。 优点: 强大的定制化能力。 与 Google Cloud 生态系统的深度集成。 适合商业应用和大规模部署。 缺点: 需要一定的技术基础。 是付费服务。 2. Gemini官网: 适用场景: 面向普通用户,提供简单易用的交互界面。 适合日常使用,如信息查询、内容生成、创意启发等。 使用方式: 访问 Gemini官网,直接在对话框中进行交互。 优点: 简单易用,无需编程基础。 适合快速体验和日常使用。 目前一部分功能免费使用。 缺点: 定制化能力有限。 不适合大规模部署和商业应用。 3. 通过程序调用 API: 适用场景: 面向开发者,需要将 Gemini 1.5 Pro 集成到自己的应用程序或系统中。 适合需要高度灵活性和定制化的用户。 使用方式: 通过 Google Cloud 的 Gemini API,使用编程语言(如 Python、Java 等)进行调用。 优点: 高度灵活性和定制化。 可以集成到任何应用程序或系统中。 缺点: 需要一定的编程基础。 需要处理 API 调用和数据处理等技术细节。 总结: ...

2025-3-12 · 2 分钟 · Atom.X