概述
我们正在寻找一位技术专注的AI安全工程师,以设计、实施和管理AI和ML系统在数据、模型和部署层面的安全性。该角色结合了网络安全、DevSecOps和应用机器学习的深厚专业知识,并具备构建具有弹性、隐私保护和生产安全的AI解决方案的实践经验。
主要职责
模型安全与加固:实施对抗性训练、梯度掩蔽、水印和完整性验证以保护ML模型。
隐私与数据保护:应用差分隐私、安全聚合和联邦学习技术以保护敏感数据。
MLOps与基础设施:保护容器化和云原生的ML环境(Kubernetes、Docker、Terraform、MLflow、Vault、CI/CD)。
安全部署:通过加密、速率限制、身份验证和运行时监控来加固推理API。
威胁建模与对抗性测试:进行与ATT&CK-for-ML对齐的威胁建模和红队风格的测试,以应对对抗性、投毒和提示注入攻击。
监控与可观察性:使用Prometheus、Grafana或ELK实现漂移检测、性能遥测和异常检测。
跨职能协作:与数据科学家、ML工程师和安全团队密切合作,在AI生命周期中嵌入安全设计原则。
技术栈与工具
语言与框架:Python、Bash、Go、PyTorch、TensorFlow、Hugging Face Transformers、ONNX
云与DevSecOps:AWS(SageMaker、ECR、IAM)、Azure ML、GCP Vertex AI、GitHub Actions、Terraform、Vault
自动化与集成:Zapier、n8n、Power Automate、LangChain、Dialogflow、Rasa
监控与安全操作:Prometheus、Grafana、ELK Stack、Vault、Kubernetes安全控制
优先经验
4-7年安全工程、DevSecOps或数据安全经验
2-4年在生产环境中保护ML或LLM工作负载的实践经验
接触过对抗性ML、LLM安全(提示注入、数据泄露测试)和隐私保护技术
熟悉云原生ML工具(MLflow、Kubeflow、Vertex AI、SageMaker)
对AI治理、合规性和安全模型部署框架有深刻理解
软技能
分析和结构化问题解决能力
在安全和数据团队中具备出色的利益相关者沟通能力
能够将复杂的技术风险转化为业务影响
在快速发展的AI安全领域中具有好奇心和持续学习的心态
经验期望说明
自2018年以来,AI安全作为一个学科迅速发展。具备网络安全和云工程的坚实基础,并有2-5年AI/ML安全工作实践经验的候选人将非常适合这一角色——即使他们在字面上不符合较长的“AI经验”要求。