DesCartes 项目(工作包 1)正在寻找一位机器学习与形式方法的研究员,负责为 AI 系统开发可解释性引擎,例如,通过生成可以根据最终用户需求进行调整的有意义的解释。
目标是理解 AI 系统在某些超属性(安全性、公平性、隐私等)方面的行为,重点是利用物理知识来改善解释。
DESCARTES 项目
DesCartes 项目正在开发一种混合 AI,结合学习、知识和推理,具备良好的特性(对资源和数据需求较少、安全性、稳健性、公平性、尊重隐私、伦理),并在智能城市的工业应用(数字能源、结构监测、空中交通控制)中得到了证明。
该项目汇聚了 80 名常驻研究人员(法国与新加坡各占一半),并得到了大型工业集团(Thales SG、EDF SG、ESI 集团、CETIM Matcor、ARIA 等)的支持。
研究主要在新加坡的 CNRS@CREATE 进行,提供有竞争力的薪资和慷慨的任务资金。
在此了解更多关于 DesCartes 项目的信息。
描述
为了为下一代城市系统提供决策能力,我们需要对 AI 系统所做的决策充满信心。
DesCartes 的目标之一是建立和增强对 AI 系统的信心的核心能力。
对 AI 技术的更高保证或信心将来自可解释性,以及对 AI 系统进行形式验证和自动修复,以满足稳健性或公平性等关键超属性。将开发更广泛的混合 AI 系统概念,其中机器学习模型与软件系统和/或物理模型合作,为验证和修复架构技术解决方案提供更大的灵活性,这将在具体的网络物理系统上进行演示。
经验与资格
最低要求:
– 计算机科学博士学位。
– 具有形式方法的背景和研究经验。
– 编程环境的经验。
关键词:
• 研究,
• 可解释性,
• XAI,
• 理论计算机科学,
• 计算机科学中的逻辑,
• 算法,
• 人机交互,
• 计算机科学,
• 人工智能,
• 机器学习,
• CPS
更多信息与联系方式
薪资范围:6900-9000(根据适合性和经验而定)
工作地点:CREATE Tower(新加坡国立大学校园),1 Create Way #08-01 Singapore 138602
请发送简短的求职信,描述您适合该职位的理由,详细的简历(如有)和出版物列表,简明的研究兴趣和未来计划描述,以及学术成绩单至:
Abhik Roychoudhury(教授)
abhik@comp.nus.edu.sg
Blaise Genest(教授)
blaise.genest@cnrsatcreate.sg
我们将立即开始审核申请。