AI提示工程师 — 技术精湛且具系统思维
您将设计和优化提示,构建LLM驱动的系统,并部署可扩展的生成式AI工作流,以全新且高影响力的方式连接人和智能系统。
您的工作内容
提示与推理系统
- 为前沿模型(GPT-4/5、Claude 3.x、Gemini 2.x、Mistral Large、LLaMA 3、Cohere Command R+、DeepSeek)设计、测试和优化提示。
- 应用高级提示策略:思维链、ReAct、思维树、思维图、思维程序、自我反思循环、辩论提示和多代理协调(AutoGen / CrewAI)。
- 构建具有工具调用、记忆系统、检索管道和结构化推理的代理工作流。
生成式AI应用工程
- 使用LangChain、LlamaIndex、Haystack、AutoGen和OpenAI的Assistant API模式将LLM集成到应用程序中。
- 使用混合搜索、重排序、嵌入优化、分块策略和评估工具构建高性能RAG管道。
- 为可扩展部署开发API、微服务和无服务器工作流。
ML/LLM工程
- 通过Azure ML、AWS SageMaker、Vertex AI、Databricks或Modal / Fly.io处理AI+ML管道以进行轻量级LLM部署。
- 利用向量数据库(Pinecone、Weaviate、Milvus、ChromaDB、pgVector)和嵌入存储。
- 使用AI驱动的开发工具(GitHub Copilot、Cursor、Codeium、Aider、Windsurf)加速迭代。
- 实施LLMOps / PromptOps,使用:
- Weights & Biases、MLflow、LangSmith、LangFuse、PromptLayer、Humanloop、Helicone、Arize Phoenix
- 使用Ragas、DeepEval和结构化评估套件对LLM系统进行基准测试和评估。
部署与基础设施
- 使用Docker、Kubernetes、KNative和托管推理端点对工作负载进行容器化和部署。
- 通过量化、蒸馏、缓存、批处理和路由策略优化模型性能。
您将带来
- 强大的Python技能,具有使用Transformers、LangChain、LlamaIndex和更广泛的生成式AI生态系统的经验。
- 深刻理解LLM行为、提示优化、嵌入、检索和数据准备工作流。
- 具有向量数据库(FAISS、Pinecone、Milvus、Weaviate、ChromaDB)的经验。
- 拥有Linux、Bash/Powershell、容器和云环境的实践知识。
- 强大的沟通能力、创造力和系统思维的思维方式。
- 好奇心、适应性和在生成式AI快速进步中保持领先的动力。
加分项
- 具有PromptOps和LLM可观测性工具(PromptLayer、LangFuse、Humanloop、Helicone、LangSmith)的经验。
- 理解负责任的AI、模型安全性、偏见缓解、评估框架和治理。
- 计算机科学、AI/ML、工程或相关领域的背景。
- 部署或微调开源LLM的经验。
技术栈
LLMs: GPT-4/5、Claude 3.x、Gemini 2.x、Mistral Large、LLaMA 3、Cohere Command R+、DeepSeek
框架: LangChain、LlamaIndex、Haystack、AutoGen、CrewAI
工具: GitHub Copilot、Cursor、LangSmith、LangFuse、Weights & Biases、MLflow、Humanloop
云: Azure ML、AWS SageMaker、Google Vertex AI、Databricks、Modal
基础设施: Python、Docker、Kubernetes、SQL/NoSQL、PyTorch、FastAPI、Redis