常见的AI安全风险(数据投毒、后门攻击、对抗样本攻击、模型窃取攻击等)

本文概述了数据投毒、后门攻击、对抗样本和模型窃取这四种针对机器学习模型的攻击手段。数据投毒通过篡改训练数据影响模型性能;后门攻击在模型中植入隐藏功能,对特定输入产生异常反应;对抗样本通过微小修改误导模型决策;模型...