V
主页
清华大学学术报告 针对机器学习模型的攻击
发布人
Attacking Machine Learning Models Yang Zhang, CISPA 在过去的十年里,机器学习取得了巨大的进步。在改善我们日常生活的同时,最近的研究表明,机器学习模型容易受到各种安全和隐私攻击。在这次演讲中,我将介绍我们在这一领域最近的三个工作。首先,我将谈谈成员关系推理的一些最新发展。其次,我将介绍针对图神经网络的链接窃取攻击。最后,我将介绍模型劫持攻击。 Yang Zhang 是德国CISPA亥姆霍兹信息安全中心的一名教员。他的研究集中在值得信赖的机器学习上。此外,他致力于衡量和理解互联网上的错误信息和不安全内容。多年来,他在计算机科学的顶级领域发表了多篇论文,包括CCS、NDSS、Oakland和USENIX Security。他的作品获得了NDSS 2019杰出论文奖和CCS 2022最佳论文奖亚军。
打开封面
下载高清视频
观看高清视频
视频下载器
机器学习模型的对抗性攻击介绍
斯坦福课程2022 机器学习可解释性
大语言模型和知识图谱:融合和结构
生成式人工智能:金融经济与隐私
CMU研讨会 生成式人工智能的未来与思考
SANS 将ChatGPT应用于网络攻击
如何掌控AI:构建可控智能体
IJCAI 2022 深度学习:能量模型 Energy-based Learning
AI的网络安全应用:GPT-4现状
ICLR 2023 机器学习新趋势:已公开论文
反事实属性的AI公平性与群体公平
IEEE EuroS&P 医疗数据安全共享
怎样撰写高质量学术论文 Rongxing Lu
2024吹爆【斯坦福出版】人工智能导论 我在B站上大学!
自动驾驶中的深度学习模型现状与安全挑战
人工智能系统安全研究与实践
面向机器学习的有意义随机防御
B站讲的最好的AI大模型天花板教程(2025最新版)3天学完LLM+RAG系统+OpenAI+GPT-4o,ai大模型让你少走99%的弯路!
2024年吃透AI大模型(LLM+RAG系统+GPT-4o+OpenAI) 全程通俗易懂,别再走弯路了,逼自己一周学完,少走99%弯路,学不会我退出IT界!
促进大模型智能体系统实现统一对齐
网安顶会介绍与数据分析
2025吃透AI大模型实战进阶教程,一周学完帮你少走99%弯路!【LLM/RAG系统/GPT-4o/OpenAI】
DeFi攻击与实时防范
大模型时代下的端到端自动驾驶(上篇)
BGV自举算法选讲
斯坦福研讨会2023 近期NLP的发展:GPT-3 及未来模型
网络安全领域的科学研究和论文发表 美国西北大学 Xinyu Xing
SANS 对抗性机器学习与AI安全
斯坦福大学课程:机器学习模型的安全和隐私
斯坦福研讨会 零知识和下一次数字革命
网安基地国际学术论坛 IEEE TrustCom/BigDataSE/CSE/EUC/iSCI 2022
设计和检测网络钓鱼:大型语言模型与人工创建规则
重新思考人工智能时代的在线信任
大语言模型的对齐理解和评估
BlackHat'22 安卓蓝牙漏洞:新的攻击面和弱代码模式
格问题及其分析方法
B站讲的最好的AI大模型实战(2024最新版)LLM+RAG系统+GPT-4o+OpenAI,全部都讲明白了!!
健身追踪社交网络中的推理攻击
构建可信任AI:深度神经网络的形式化验证方法
清华大学 状态敏感的模糊测试方法