高级/资深AI工程师/生成式AI安全

圣弗朗西斯科 29天前全职 网络
133.9万 - 220.8万 / 年
公司简介 LinkedIn是全球最大的职业社交网络,旨在为全球劳动力的每一位成员创造经济机会。我们的产品帮助人们建立强大的联系,发现令人兴奋的机会,培养必要的技能,并每天获得有价值的见解。我们还致力于通过投资员工的成长,为他们提供变革性的机会。我们希望创造一种建立在信任、关怀、包容和乐趣之上的文化,让每个人都能成功。 加入我们,改变世界的工作方式。 职位描述 在LinkedIn,我们对灵活工作的方式以信任为中心,并优化文化、连接、清晰度以及我们业务不断变化的需求。此职位的工作地点为混合模式,意味着将在家中和LinkedIn办公室进行工作,具体天数由团队的业务需求决定。此职位将设在加州Sunnyvale。 生成式AI(GenAI)安全团队位于LinkedIn负责任AI与治理(RAI-G)组织的核心,其使命是在公司范围内为AI安全设定黄金标准。我们确保每个生成式AI产品都能以负责任、道德和安全的方式开发和部署。通过结合严格的治理和尖端的机器学习研究,我们识别并减轻偏见、幻觉、滥用和隐私泄露等风险。 作为AI安全研究团队和中央AI安全工程职能,我们构建安全护栏、评估管道和对齐技术,以实现大规模的安全创新。我们的工作是公司AI战略的基础,并影响整个行业的标准。我们与法律、合规、AI基础设施和产品团队密切合作,将安全嵌入AI生命周期的每个阶段。 职责 • 推动GenAI安全战略:作为高级技术领导者,塑造公司的生成式AI安全方向。定义安全对齐研究、模型评估和系统级保护的路线图。 • 领导AI安全研究与创新:指导LinkedIn在对齐、鲁棒性和负责任模型行为方面的研究议程。走在学术和行业进步的前沿,迅速将见解转化为实用的、可生产的解决方案。 • 设计安全优先的基础:为可扩展的安全系统提供架构领导——基准测试、红队、内容安全、隐私保护训练和实时护栏——确保它们可靠、高效,并深度集成到AI基础设施中。 • 在模糊空间中提供高影响力的解决方案:解决LinkedIn最棘手的道德、法规和风险驱动的问题。在标准不断变化的领域带来清晰和方向,确保公司快速推出安全的GenAI体验。 • 与产品工程对接:与产品工程团队紧密合作,跟踪新兴实验、风险投资和产品创新,确保安全研究和工具预见并支持下一波产品开发。 • 跨职能领导:与法律、合规、隐私、基础设施和政策团队合作,将安全要求操作化,将法规指导转化为技术规范,并确保跨学科的端到端对齐。 • 技术指导:指导和培养约15名工程师的团队,涵盖研究、机器学习和系统。提升工程严谨性,推动高标准执行,并培养AI安全领域的未来技术领导者。 • 公司范围的影响:确保安全技术、工具和评估在所有GenAI产品中部署,保护会员信任,同时实现安全、可扩展的创新。 资格 基本资格: • 担任技术负责人、资深工程师、首席工程师或同等职位2年以上。 • 在AI或机器学习工程领域有5年以上的行业经验。 • 计算机科学或相关技术学科的学士学位或同等实践经验。 优先资格: • 在AI/ML领域有10年以上的行业和/或研究经验,能够大规模产生影响。 • 计算机科学/AI/ML或相关领域的博士学位(或同等研究/行业成就)。 • 对Transformers有深入理解;有训练、微调、蒸馏/压缩和在生产中部署LLM的实践经验。 • 在推荐系统和语言代理中应用LLM的成功记录。 • 在红队(手动+自动化)、安全基准测试/评估、内容安全/护栏、提示注入/越狱检测和滥用/误用预防方面表现出领导能力。 • 有将法律/合规要求(例如,欧盟AI法案)转化为技术控制的经验,包括危害分类、模型卡和风险评估。 • 设计安全优先架构(评估管道、审核服务、政策引擎、事件响应和遥测)用于分布式、实时ML系统的能力。 • 对语言代理的强化学习(例如,RLHF/RLAIF,离线/在线RL)有深入理解,包括安全意识的奖励设计和反馈循环。 • 高级Python和PyTorch;熟悉TensorFlow。 • 有安全评估工具(例如,类似于LLUME的平台)和安全数据集/基准的经验。 • 通过顶级出版物(NeurIPS, ICLR, ICML, ACL)和/或有影响力的开源或广泛使用的安全工具做出重大贡献。 • 证明的技术领导力,指导约15名工程师,设定方向并提升执行质量。 • 有效与产品工程对接(跟踪实验和风险投资;将安全研究与即将到来的投资对齐)并与法律、合规、AI基础设施和政策紧密合作。 • 最好具备:高级推理/规划经验(例如,CoT/ToT,自我反思,程序合成,符号/神经符号方法,搜索增强推理,验证感知解码)。 建议技能: • GenAI安全与风险:红队、安全基准测试/评估、内容安全与护栏、越狱/提示注入检测、模型卡与风险分类、事件响应与监控 • AI建模:LLM,对齐,推理与规划 • 强化学习(RL):RLHF/RLAIF,奖励设计,反馈循环,自适应系统 • 架构与平台:实时ML服务,安全政策引擎,评估管道 • 技术领导力:指导,跨职能合作,路线规划,研究方向 • 核心工具:Python,PyTorch,安全评估工具 您将从我们的文化中受益: 我们坚信员工及其家庭的福祉。这就是为什么我们为各级员工提供慷慨的健康和保健计划以及休假时间。 LinkedIn致力于公平和公正的薪酬实践。此职位的薪酬范围为191,000美元至315,000美元。实际薪酬包基于每位候选人的独特因素,包括但不限于技能组合、经验年限和深度、认证以及具体办公室位置。由于劳动力成本的考虑,其他地点的薪酬可能有所不同。此职位的总薪酬包还可能包括年度绩效奖金、股票、福利和/或其他适用的激励薪酬计划。有关更多信息,请访问:https://careers.linkedin.com/benefits。 附加信息 平等机会声明 我们寻求具有广泛视角和背景的候选人,并自豪地成为一个平等机会雇主。LinkedIn在考虑合格申请人时,不考虑种族、肤色、宗教、信仰、性别、国籍、年龄、残疾、退伍军人身份、婚姻状况、怀孕、性别、性别表达或身份、性取向、公民身份或任何其他法律保护的类别。 LinkedIn致力于为所有求职者提供包容和可及的体验,包括残疾人士。我们的目标是培养一个包容和可及的工作场所,让每个人都有成功的机会。 如果您需要合理的便利以搜索职位空缺、申请职位或参与面试过程,请通过[email protected]与我们联系,并描述因残疾相关限制而请求的具体便利。 合理的便利是对申请或招聘过程的修改或调整,使您能够充分参与该过程。合理便利的例子包括但不限于: • 以替代格式提供文件或为您朗读 • 在可及的地点进行面试 • 由服务犬陪同 • 在面试中提供手语翻译 对便利请求将在三个工作日内得到回应。然而,非残疾相关请求,如跟进申请,将不予回复。 LinkedIn不会因为员工或申请人询问、讨论或披露自己的薪酬或其他员工或申请人的薪酬而解雇或以其他方式歧视他们。然而,作为其基本工作职能的一部分而接触到其他员工或申请人薪酬信息的员工,不能向没有接触薪酬信息权限的个人披露其他员工或申请人的薪酬,除非披露是(a)响应正式投诉或指控,(b)为调查、诉讼、听证或行动(包括LinkedIn进行的调查)提供支持,或(c)符合LinkedIn提供信息的法律义务。 旧金山公平机会条例 根据旧金山公平机会条例,LinkedIn将考虑有逮捕和定罪记录的合格申请人。 薪酬透明度政策声明 作为联邦承包商,LinkedIn遵循此链接中描述的薪酬透明度和非歧视条款:https://lnkd.in/paytransparency。 全球数据隐私通知 请通过此链接访问提供关于LinkedIn如何处理员工和求职者个人数据透明度的文件:https://legal.linkedin.com/candidate-portal。 高级/资深AI工程师/GenAI安全职位最初在GrabJobs上发布。要报告此职位的任何问题,请使用GrabJobs上的“报告职位”按钮。