百度AI安全研究
百度安全关注人工智能系统和应用在现实中面临的挑战,披露安全风险,抵御多维度攻击,防止AI 滥用。百度安全在AI安全方面的研究领先,研究成果覆盖国际学术会议,发布AI 对抗方面最具影响力的的开源工具,并提供AI核心资产的保护方案
研究范围
AI 模型安全
AI 数据安全
AI 能力滥用
AI 硬件系统安全
AI 软件实现安全
AI 模型安全
模型鲁棒性
Model Robustness
每个 AI 模型都有实际应用场景的范围。超出范围,
模型无法确保安全性。 百度安全发布AI模型
鲁棒性平台。
查看详情
AI模型安全
真实世界对抗攻击
Physical World
Adversarial Attack
查看详情
AI模型安全
对抗攻击开源工具箱
Github上对抗工具排名Top3 支持图像,语音,文字
等多种对抗攻击生成与测试
查看详情
AI 模型安全
AI 硬件安全
模型防窃取
Model Anti-Theft
AI模型是人工智能服务的关键知识产权,百度安全提
供基于硬件的模型防窃取方案。
查看详情
AI 软件实现安全
自动漏洞挖掘工具
Baidu DeepExplorer
百度安全在自动程序分析,Fuzzing,形式化验证方
面都有研究成果发表。
查看详情
AI 数据安全
隐私保护的安全计算平台
Privacy-protected ML
打破数据孤岛,让数据在保护隐私的前提下进行机器学习运算,
发挥最大价值。
查看详情
AI 能力滥用
深度伪造检测
深度伪造使得换脸,更换语音和口型等变得容易而且
肉眼难以辨别。
百度DeepFake检测提供对深度伪造的智能识别
查看详情
0
现金券
0
兑换券
立即领取
领取成功