我还有组里的同学做的LLM4Sec的工作,投稿了安全会和软工会,感觉主要是安全圈的审稿人对LLM有一层偏见。他们会比较看重technical contribution这一点,如果论文的主要challenge是LLM解决的,技术上就太straightforward了。导致每一篇LLM4Sec的文章都会受到novelty的质疑。其中最严重的审稿人甚至会认为使用LLM本身就是论文的缺陷,我看见过weakness写“dependency on LLMs”的审稿人。而软工圈这边相对来说就没有这么严重的偏见,只要很好地解决了问题,都是鼓励使用LLM的。所以不是LLM4Sec主要发软工,而是安全根本发不出去
我认为这就是新方向发展所必经历的,既不同于传统安全也不同于传统ai,全靠大家摸索,还在起步阶段。但是我认为目前许多传统安全搞这个的只是为了蹭到“大模型”这个热点,不思考实际落地
网安就是计算机里面的文科,目前四大许多都是拿别人 ai 玩烂了的来水
做预训练模型的安全可以吗
我们组不做 但是这个方向做得好肯定有人有实际的需求
可能一个insight是,不要做会被模型能力提升而覆盖的课题,不然模型一迭代研究就没用了
[g=fendou][g=fendou] 有幸去年在所内上了陈恺老师的课。听下来个人的感悟是,ai security相比于ai for security,前者还是更多的尝试去解决实际问题(也许解决的效果暂时不够好),也和未来的ai产业快速发展的趋势更契合
内核漏洞挖掘方向,最近也有看一点大模型对于漏洞挖掘的benchmark文章。个人感觉目前来说传统(相对于llm来说)的漏洞挖掘方式效率还是远高于llm的,由于丰富程序状态和海量代码还是不容易搞定的。目前知道的我觉得在安全方面使用llm成功落地的应用,主要还是在渗透信息搜集过程中对于大量文件进行敏感数据内容识别
正在用小模型对大模型做内容安全防护和测评
有道理 这种课题不好找
这个路子真的能行吗?像小学生监督大学生
蹭热点这个事情也没办法 毕竟都得生存呀
赞同 4,security 任务理解不深,就想不出来有啥有意思的方法把 AI 融合进去。另一方面,AI 发展太快,算法和理论也层出不穷,学不会就不会应用。目前感觉 AI for Security 任务,软工会议收的相对多一些
我还有组里的同学做的LLM4Sec的工作,投稿了安全会和软工会,感觉主要是安全圈的审稿人对LLM有一层偏见。他们会比较看重technical contribution这一点,如果论文的主要challenge是LLM解决的,技术上就太straightforward了。导致每一篇LLM4Sec的文章都会受到novelty的质疑。其中最严重的审稿人甚至会认为使用LLM本身就是论文的缺陷,我看见过weakness写“dependency on LLMs”的审稿人。而软工圈这边相对来说就没有这么严重的偏见,只要很好地解决了问题,都是鼓励使用LLM的。所以不是LLM4Sec主要发软工,而是安全根本发不出去
网安不是计算机里面的文科好吧…
[g=xu][g=xu] 问个问题,aigc detection 这个方向怎么样,判断一个图像视频是否是 ai 生成的
安全跟不上是不是对从业者来说也是好事,一直有事可以做许多新问题可能也是老问题的另一种表现形式,可能可以直接迁移过来不过这么做虽然能解决问题但是可能很难发论文像聊天模型攻击很流行的对抗性扰动,我估计在思考模型应该也能用,但是就没啥文章做这个,可能是觉得没啥创新点 [g=OK][g=OK]
有卡吗… 几百张起步那种
可以参见上一期 你说的这种套路就是A攻击+B场景 目前大家都审美疲劳了