可信任机器学习在恶意软件检测中的研究助理

14个月前全职
43.2K - 48.0K GBP / 年 King's College London

King's College London

location 伦敦
unsaved
伦敦国王学院信息学系正在寻找一名可信任的机器学习恶意软件检测研究助理,参与由Fabio Pierazzi博士(PI)领导的AI和系统安全交叉领域的EPSRC项目“XAdv:恶意软件检测的稳健解释”。 项目目标 EPSRC项目XAdv(“X”表示解释,“Adv”表示对抗鲁棒性)旨在设计恶意软件检测的“稳健解释”,即易于理解和可视化的模型决策解释,以支持安全分析师快速验证恶意性和开发补丁,并且即使在恶意软件随时间演化和恶意软件作者躲避情况下,这些解释也是可信赖和可靠的。 解释的鲁棒性将从两个主要角度进行评估:概念漂移(即随时间演化的恶意软件)和对抗机器学习(即机器学习感知的攻击者,他们精心制作恶意样本以逃避检测系统)。 此外,该项目将探索如何使用稳健解释来自动调整基于机器学习的恶意软件检测模型以适应新的威胁(例如,采用新颖的主动学习策略),并将领域知识从安全分析师的反馈中整合到稳健解释中以提高检测准确性。 申请细节 申请人应在求职信中阐明他们计划如何应对XAdv EPSRC项目中提出的研究挑战,以及他们的个人资料和专业知识如何与项目的范围和基本/期望标准相匹配。 入围候选人将被邀请进行在线面试,其中他们将准备一个简短的研究演示,并与评委进行问答环节。详细的指导将在4月19日(暂定)与入围候选人共享。面试将在5月1日至5月3日期间进行(暂定)。 角色 候选人将负责领导针对概念漂移和对抗攻击的恶意软件检测的稳健解释的创新解决方案的共同设计和开发。 他们还将被要求在Fabio Pierazzi博士和咨询团队的指导下领导顶级安全/机器学习出版物(例如USENIX Security,S&P,TOPS,ICML,ICLR,AISec,DLSP)。他们将开发原型和代码框架(例如Python)以进行大规模实验评估其研究思路,并共同领导用户研究和验证解释方法准确性的方法。 候选人将成为国王学院信息学系(https://www.kcl.ac.uk/research/cys)网络安全组(CYS)的一部分,并与Fabio Pierazzi博士领导的团队更密切合作(https://fabio.pierazzi.com/team/),该团队目前由6名博士生组成。该项目的更广泛的合作伙伴团队,包括NCC Group和Avast(现为Gen Digital)等工业合作伙伴以及UIUC,TU Berlin和Cagliari大学等大学,将确保在整个项目中提供优秀的发展机会。研究人员将被允许支持与该项目相关的博士,硕士和学士学位的学生的监督,以增加他们未来学术和工业角色的竞争力。 有关国王学院信息学系的更多信息,请参见https://nms.kcl.ac.uk/luc.moreau/informatics/overview.pdf。 合同类型 此职位将以固定期限合同提供,为期18个月*,不超过2026年9月30日,即资助结束日期。 预计2024年6月/7月开始 这是一个全职职位-100%全职等效 •根据资金可用性和资助结束日期(2026年9月30日),有可能延长。 年薪43,205至47,978英镑,包括伦敦津贴津贴。