关于Anthropic
Anthropic的使命是创建可靠、可解释和可引导的AI系统。我们希望AI对用户和整个社会都是安全和有益的。我们的团队是一个快速成长的研究人员、工程师、政策专家和商业领袖的团体,致力于共同构建有益的AI系统。
关于这个职位
我们正在寻找一名系统完整性安全工程师,负责设计和实施裸机基础设施的安全架构。您将与Anthropic的各个团队合作,构建固件、引导加载程序、操作系统和认证系统,以确保我们基础设施的完整性。
这个职位需要低级系统安全的专业知识,以及在满足AI模型训练性能需求的同时设计安全解决方案的能力。
您的工作内容
- 设计和实施从固件到操作系统初始化的安全引导链,适用于多种硬件平台(CPU、BMC、外设、嵌入式微控制器)
- 构建认证系统,从硬件信任根到应用层提供系统状态的加密证明
- 为多方授权系统定义信任边界和安全策略
- 开发测量引导实现和运行时完整性监控
- 为裸机部署创建参考架构和安全要求
- 在不影响训练性能的情况下与基础设施团队集成安全控制
- 在生产部署前原型化和验证安全机制
- 进行固件漏洞评估和渗透测试
- 构建固件分析管道以进行持续的安全监控
- 记录安全架构并维护威胁模型
- 与硬件供应商合作,确保安全功能满足我们的要求
您的背景
- 8年以上系统安全经验,其中至少5年专注于固件和硬件安全(固件、引导加载程序和操作系统级安全)
- 拥有安全引导、测量引导和认证技术的实际经验(TPM、Intel TXT、AMD SEV、ARM TrustZone)
- 对加密协议和硬件安全模块有深入理解
- 具备UEFI/BIOS安全、引导加载程序加固和信任链实现的经验
- 熟练掌握低级编程(C、Rust、汇编)和系统编程
- 具备固件漏洞评估和威胁建模的知识
- 设计复杂分布式系统安全架构的成功经验
- 具备供应链安全和固件漏洞分析的经验
- 能够跨硬件和软件边界有效工作
- 了解NIST固件安全指南和硬件安全框架
优秀候选人可能还具备
- 机密计算技术和基于硬件的TEE的经验
- 了解SLSA框架和软件供应链安全标准
- 保护大规模HPC或云基础设施的经验
- 对开源安全项目的贡献(coreboot、CHIPSEC等)
- 具备形式验证或安全证明技术的背景
- 具备硅信任根实现的经验
- 具备基础技术设计、运营领导和供应商合作的经验
- 之前在AI/ML基础设施安全方面的工作经验
申请截止日期:无。申请将按滚动方式审核。
该职位的预期基本薪酬如下。我们为全职员工提供的总薪酬套餐包括股票、福利,并可能包括激励性薪酬。
年薪
$300,000—$405,000 USD
物流
教育要求:我们要求至少拥有相关领域的学士学位或同等经验。
基于地点的混合政策:目前,我们期望所有员工至少有25%的时间在我们的办公室工作。然而,某些职位可能需要更多的办公室时间。
签证赞助:我们确实提供签证赞助!然而,我们无法为每个职位和每位候选人成功提供签证赞助。但如果我们向您提供录用,我们将尽一切合理努力为您获取签证,并聘请移民律师协助。
即使您认为自己不符合每一项资格要求,我们也鼓励您申请。并非所有优秀的候选人都能满足列出的每一项资格要求。研究表明,来自代表性不足群体的人更容易经历冒名顶替综合症并质疑自己的候选资格,因此我们敦促您不要过早排除自己,并在您对这项工作感兴趣时提交申请。我们认为,我们正在构建的AI系统具有巨大的社会和伦理影响。这使得代表性更加重要,我们努力在团队中包括多样化的观点。
我们的不同之处
我们相信,影响最大的AI研究将是大科学。在Anthropic,我们作为一个单一的团队合作,专注于少数几个大规模的研究项目。我们重视影响力——推进我们可引导、可信赖的AI的长期目标——而不是专注于较小和更具体的难题。我们将AI研究视为一门实证科学,与物理学和生物学一样,与传统的计算机科学研究有很多共同之处。我们是一个极具合作精神的团队,经常举办研究讨论,以确保我们在任何时候都在追求最有影响力的工作。因此,我们非常重视沟通能力。
理解我们研究方向的最简单方法是阅读我们最近的研究。这些研究延续了我们团队在加入Anthropic之前的许多方向,包括:GPT-3、基于电路的可解释性、多模态神经元、扩展定律、AI与计算、AI安全中的具体问题以及从人类偏好中学习。
加入我们吧!
Anthropic是一家总部位于旧金山的公益公司。我们提供具有竞争力的薪酬和福利、可选的股票捐赠匹配、慷慨的假期和育儿假、灵活的工作时间,以及一个优美的办公空间供您与同事合作。候选人AI使用指南:了解我们在申请过程中使用AI的政策。