高级深度学习软件工程师,PyTorch - TensorRT 性能

圣弗朗西斯科 12天前全职 网络
2K - 4K / 年
我们正在寻找一位高级深度学习软件工程师,专注于PyTorch-TensorRT性能!NVIDIA正在寻找一位经验丰富的深度学习工程师,热衷于分析和提高Torch推理与TensorRT的性能!NVIDIA正在快速发展我们的深度学习推理研究和开发,并正在寻找各个级别的优秀软件工程师加入我们的团队。世界各地的公司正在使用NVIDIA GPU推动深度学习的革命,在生成式AI、推荐系统和视觉等领域取得突破,将深度学习应用于每一个软件解决方案。加入我们团队,构建软件以实现这些深度学习解决方案的性能优化、部署和服务。我们专注于开发GPU加速的深度学习软件,如TensorRT、深度学习基准测试软件以及用于部署和服务这些模型的高性能解决方案。 与深度学习社区合作,将TensorRT集成到PyTorch中。识别性能机会并优化从数据中心GPU到边缘SoC的NVIDIA加速器的最先进模型。实现图编译器算法、前端操作符和跨PyTorch、Torch-TensorRT、TensorRT软件堆栈的代码生成器。与涉及工作流程改进、性能建模、性能分析、内核开发和推理软件开发的多元化团队合作。 你的工作内容: - 分析性能问题并识别Torch-TensorRT/TensorRT内部的性能优化机会。 - 为NVIDIA/OSS推理框架贡献功能和代码,包括但不限于Torch-TensorRT/TensorRT/PyTorch。 - 与NVIDIA内部和外部的跨协作团队合作,涉及生成式AI、汽车、机器人、图像理解和语音理解,以开发创新的推理解决方案。 - 在不同架构和类型的NVIDIA加速器上扩展深度学习模型的性能。 我们需要你具备: - 相关领域(计算机科学、计算机工程、EECS、AI)的学士、硕士、博士学位或同等经验。 - 至少4年的相关软件开发经验。 - 优秀的Python/C++编程、软件设计和软件工程技能。 - 具有使用深度学习框架(如PyTorch、JAX、TensorFlow)的经验。 - 具有性能分析和性能优化的经验。 让你脱颖而出的方法: - 具备GPU的架构知识。 - 具有深度学习推理中的AoT或JiT编译器经验,例如TorchDynamo/TorchInductor。 - 具有深度学习/高性能计算/高性能应用的性能建模、分析、调试和代码优化的经验。 - 具有GPU编程经验,并精通一种GPU编程领域专用语言,例如CUDA/TileIR/CuTeDSL/cutlass/Triton。 GPU深度学习为机器学习、感知、推理和解决使用人类语言提出的问题提供了基础。GPU最初是用于模拟人类想象力的引擎,创造出令人惊叹的视频游戏和好莱坞电影的虚拟世界。现在,NVIDIA的GPU运行深度学习算法,模拟人类智能,并作为计算机、机器人和自动驾驶汽车的大脑,能够感知和理解世界。正如人类的想象力和智能是相互关联的,计算机图形和人工智能在我们的架构中结合在一起。人类大脑的两种模式,GPU的两种模式。这可能解释了为什么NVIDIA的GPU被广泛用于深度学习,并且NVIDIA越来越被称为“AI计算公司”。来吧,加入我们的深度学习架构团队,在这个令人兴奋且快速发展的领域中帮助构建推动我们成功的实时、经济高效的计算平台。 #LI-Hybrid 你的基本工资将根据你的地点、经验以及类似职位员工的薪酬来确定。基本工资范围为Level 3的152,000美元至218,500美元,Level 4的184,000美元至287,500美元。 你还将有资格获得股权和福利。 该职位的申请将至少接受到2026年1月13日。 此职位发布是为了填补现有空缺。 NVIDIA在招聘过程中使用AI工具。 NVIDIA致力于营造多元化的工作环境,并自豪地成为一个平等机会的雇主。由于我们高度重视当前和未来员工的多样性,我们在招聘和晋升实践中不因种族、宗教、肤色、国籍、性别、性别表达、性取向、年龄、婚姻状况、退伍军人身份、残疾状况或法律保护的任何其他特征而歧视。