工作模式:远程
聘用类型:独立承包商
时间安排:全职或兼职合同
语言要求:流利的英语
角色概述
我们与领先的AI团队合作,以提高通用对话AI系统的质量、实用性和可靠性。
该项目专注于评估和改进AI系统对代码的推理、生成编程解决方案以及解释各种复杂程度的技术概念的能力。
该角色涉及对AI生成的编码和软件工程背景下的响应进行严格的技术评估。
您的工作内容
评估LLM生成的对编码和软件工程问题的响应的准确性、推理、清晰度和完整性
使用可信的公共来源和权威参考进行事实核查
通过执行代码并使用适当工具验证输出进行准确性测试
通过识别优点、改进领域以及事实或概念上的不准确性来注释模型响应
评估代码质量、可读性、算法健全性和解释质量
确保模型响应符合预期的对话行为和系统指南
通过遵循明确的分类法、基准和详细的评估指南应用一致的评估标准
您的背景
您拥有计算机科学或相关领域的学士、硕士或博士学位
您在软件工程或相关技术岗位上有丰富的实际经验
您至少精通一种相关编程语言(例如,Python、Java、C++、JavaScript、Go、Rust)
您能够独立解决HackerRank或LeetCode中等和困难级别的问题
您有参与知名开源项目的经验,包括合并的拉取请求
您在编码时有丰富的使用LLM的经验,并了解其优势和失败模式
您注重细节,能够评估复杂的技术推理,识别细微的错误或逻辑缺陷
加分项
有RLHF、模型评估或数据标注工作的经验
在竞技编程方面有良好记录
有在生产环境中审查代码的经验
熟悉多种编程范式或生态系统
有向非专业观众解释复杂技术概念的经验
成功的表现
您能够识别模型生成代码、技术概念和系统设计讨论中的不正确逻辑、低效、边缘情况或误导性解释
您的反馈提高了AI编码输出的正确性、稳健性和清晰度
您提供的可重复评估成果增强了模型性能