关于Anthropic
Anthropic的使命是创建可靠、可解释和可操控的AI系统。我们希望AI对用户和整个社会都是安全和有益的。我们的团队是一个快速增长的团体,由致力于构建有益AI系统的研究人员、工程师、政策专家和商业领袖组成。
关于团队
安全工程团队保护Anthropic的AI系统,并维护用户和社会的信任。我们为训练基础设施定义认证架构,设计保护模型权重和训练数据的加密基础,并推动开发者安全计划,塑造工程师构建和发布软件的方式。
团队在多个紧密合作的领域工作:身份和秘密管理、开发者安全和供应链、基础设施安全和安全框架。您将负责其中一个或两个领域,并为其他领域做出贡献,您的重点将根据您的优势和团队的优先事项来确定。这主要是开创性的工作,您将帮助定义架构。
关于职位
- 全面设计和构建复杂的安全系统,从生产到维护,并在最少监督下解决模糊的技术挑战
- 通过威胁建模和风险评估识别系统性风险,然后构建控制和基础设施来解决这些问题
- 指导安全团队和更广泛的工程组织中的工程师,参与招聘,并在Anthropic发展安全工程文化
- 通过提供设计模式指导和扩展安全责任超越安全团队,帮助其他团队构建自己的安全解决方案
开发者安全和供应链
- 通过将安全实践嵌入软件开发生命周期和开发者工作流程,构建和推进我们的开发者安全计划
- 通过隔离的构建环境、签名声明、依赖性验证和自动化政策执行,加强CI/CD管道以抵御供应链攻击
身份和秘密管理
- 架构保护敏感资产(包括模型权重、客户数据和训练数据集)的系统
- 在我们的多云环境中构建和操作凭证发行、轮换和工作负载认证
基础设施安全
- 实施和维护云安全控制,包括IAM、网络分段、VPC架构和加密,覆盖我们的多云和本地环境
- 贡献于集群安全控制,包括RBAC策略、命名空间隔离、工作负载身份和Pod安全
- 使用基础设施即代码扫描、错误配置检测和自动化修复,贡献于持续的云安全态势管理
安全框架
- 构建关键的安全基础,包括加密框架、mTLS基础设施、安全序列化和授权系统,旨在防止整个类别的漏洞,并使工程团队能够在不成为安全专家的情况下安全工作
- 与产品、研究、基础设施和其他安全团队合作,确保框架与底层安全控制平滑集成
如果您具备以下条件,您可能是合适的人选
- 至少8年软件工程经验,具备深厚的安全专业知识,包括独立领导复杂的安全项目
- 计算机科学学士学位或同等行业经验
- 精通Python或至少一种系统语言,如Go、Rust或C/C++
- 深刻理解身份系统、加密原语和秘密管理
- 熟悉Kubernetes安全原语,包括RBAC、命名空间、网络策略和服务账户
- 具备领导跨职能安全项目和驾驭复杂组织动态的经验
- 出色的沟通能力,能够在组织各层级之间有效传达技术概念
- 在模糊的技术问题上带来清晰和责任感并推动解决的记录
- 低自我和高同理心,有培养周围工程师和支持多元化、包容性团队的历史
- 对AI安全充满热情,并了解安全工程在构建可信AI系统中的作用
强有力的候选人可能还具备
- 为大规模AI或云基础设施设计或操作身份和秘密管理系统
- 构建被整个工程组织采用的安全框架或库
- 领导开发者安全计划,包括供应链安全、安全构建基础设施和SDLC集成
- 使用Nix、Bazel或基于Kubernetes的部署系统构建或保护CI基础设施,深入了解工具链问题、CI/CD管道和开发者工作流程优化
- 使用SPIFFE/SPIRE、mTLS或等效系统实施机器身份或工作负载认证系统
- 理解Linux系统内部,包括命名空间、cgroups和seccomp,以及这些如何支持容器和工作负载隔离
- 参与多云环境的安全架构,包括网络分段、数据保护和访问治理
- 具备网络安全控制经验,包括准入控制器、CNI级策略、服务网格安全和东西向流量控制
- 使用eBPF或内核安全策略构建运行时安全监控的经验
申请截止日期:无,申请将按滚动方式接收。
该职位的年薪范围如下所示。
对于销售职位,所提供的范围是该职位的目标收入(“OTE”)范围,这意味着该范围包括销售佣金/销售奖金目标和职位的年度基本工资。
年薪
$405,000—$485,000美元
物流
教育要求:我们至少需要相关领域的学士学位或同等经验。
基于地点的混合政策:目前,我们希望所有员工至少25%的时间在我们的办公室工作。然而,一些职位可能需要在办公室工作更多时间。
签证赞助:我们确实提供签证赞助!然而,我们无法为每个职位和每位候选人成功赞助签证。但如果我们向您提供录用,我们将尽一切合理努力为您获得签证,并聘请移民律师协助。
即使您认为自己不符合每一项资格,我们仍鼓励您申请。并非所有强有力的候选人都会符合列出的每一项资格。研究表明,来自代表性不足群体的人更容易经历冒名顶替综合症,并怀疑自己候选资格的强度,因此我们敦促您不要过早排除自己,如果您对这项工作感兴趣,请提交申请。我们认为我们正在构建的AI系统具有巨大的社会和伦理影响。我们认为这使得代表性更加重要,并努力在我们的团队中包括多样化的观点。
您的安全对我们很重要。为了保护自己免受潜在的诈骗,请记住,Anthropic的招聘人员只会通过@anthropic.com电子邮件地址与您联系。在某些情况下,我们可能会与经过审查的招聘机构合作,他们将以代表Anthropic的身份自我介绍。对来自其他域的电子邮件保持警惕。合法的Anthropic招聘人员永远不会在您第一天之前要求金钱、费用或银行信息。如果您对某个通信有疑问,请不要点击任何链接——直接访问anthropic.com/careers以确认职位空缺。
我们的不同之处
我们相信,影响最大的AI研究将是大科学。在Anthropic,我们作为一个单一的团队在少数几个大规模研究项目上工作。我们重视影响力——推进我们可操控、可信AI的长期目标——而不是在较小和更具体的难题上工作。我们将AI研究视为一门经验科学,与物理学和生物学一样,与传统的计算机科学努力有很多共同之处。我们是一个极具协作性的团队,经常举办研究讨论,以确保我们在任何给定时间追求影响最大的工作。因此,我们非常重视沟通能力。
了解我们研究方向的最简单方法是阅读我们最近的研究。这些研究延续了我们团队在Anthropic之前的许多方向,包括:GPT-3、基于电路的可解释性、多模态神经元、缩放定律、AI与计算、AI安全中的具体问题,以及从人类偏好中学习。
加入我们吧!
Anthropic是一家总部位于旧金山的公益公司。我们提供有竞争力的薪酬和福利、可选的股权捐赠匹配、慷慨的假期和育儿假、灵活的工作时间,以及一个可与同事合作的美丽办公空间。候选人AI使用指南:了解我们在申请过程中使用AI的政策。