我们的市场生死攸关于它的智能程度:闪电般快速的语义搜索,多语言聊天能够真正理解上下文,以及基于数据的推荐帮助买家和日本制造商达成交易。您将成为将这些想法转化为生产现实的工程师——负责从快速原型到经过实战考验的可扩展推理服务的所有工作。
技术栈
LLM / 代理:OpenAI,Ollama(本地 LLM),LangChain
检索:Firestore + 向量数据库,Cloud Storage
服务:Python FastAPI,Cloud Run,Docker/Podman
CI/CD:GitHub Actions,Terraform(即将推出)
监控:Cloud Logging,Prometheus,OpenTelemetry
职责
• LLM 驱动的代理 – 设计和部署多模态、使用工具的代理,能够分类查询,提出澄清问题,并起草估算(RAG 管道、函数调用等)。
• 向量搜索与知识图谱 – 在 Firestore + Weaviate 上构建和调整语义搜索,探索有用的图形表示。
• 模型评估 – 建立可重复的基准、离线/在线指标和自动回归,以便我们知道何时新的提示或微调确实更好。
• 原型制作 → 生产 – 在笔记本中制作概念验证,然后将成功的项目转换为在 Cloud Run 上运行的干净、经过测试的服务(Python FastAPI,偶尔使用 Go/Rust 辅助工具)。
• 协作 – 与产品和设计紧密配合,端到端交付功能。
要求
• 具有 2-3 年构建机器学习或数据密集型系统的经验(行业或高级研究工作)。
• 能够编写干净的 Python,并且精通至少一个深度学习框架(优先选择 PyTorch;JAX/TensorFlow 也欢迎)。
• 理解数学,以便在模型或检索步骤出现问题时进行调试。
• 曾经使用现代 LLM 工具发布过产品——OpenAI,Ollama,vLLM,Hugging Face,LangChain,LiteLLM 等——或能够展示一个深入的个人项目。
• 喜欢向非机器学习团队成员解释权衡。
• 喜欢成为首位专职机器学习员工,并从零开始建立最佳实践。
附加加分项
虽然不是特别要求,但如果您具备以下任何条件,请告诉我们。
• 日语能力
• 具备 Google Cloud AI 技术栈的实践经验(Vertex AI,TPUs,Cloud Functions,BigQuery)。
• 在微调或提炼语言模型方面的经验,尤其是在多语言任务(JA-EN)方面。
• 向量数据库操作(Weaviate)和评估工具。
• 我们可以阅读的博客文章或开源贡献。
• 熟悉 Go 或 Rust 用于高性能数据处理。