一边思考一边写(第2/N期)

12小时前发布
0 18 0

一边思考一边写(第2/N期)个人见解,抛砖引玉,欢迎讨论,狗头保命,脆弱求不喷

4. AI security v.s. AI for security
结论:这两个东西本质上风马牛不相及,后者需要既很懂AI又很懂这个security任务的人(凤毛麟角,甚至不存在),而paper就算做出来也是在AI和security两边会议不讨好
举例:比如A

理想讨论,拒绝言语攻击,欢迎建设性意见!

© 版权声明

相关文章

没有相关内容!

18 条评论

  • 头像
    混世大魔王 读者

    我认为这就是新方向发展所必经历的,既不同于传统安全也不同于传统ai,全靠大家摸索,还在起步阶段。但是我认为目前许多传统安全搞这个的只是为了蹭到“大模型”这个热点,不思考实际落地

    无记录
    回复
  • 头像
    弹性大白兔 投稿者

    网安就是计算机里面的文科,目前四大许多都是拿别人 ai 玩烂了的来水

    无记录
    回复
  • 头像
    铃儿响叮铛_好好学习 投稿者

    做预训练模型的安全可以吗

    无记录
    回复
  • 头像
    佩琪 读者

    我们组不做 但是这个方向做得好肯定有人有实际的需求

    无记录
    回复
  • 头像
    XIAOXIAO丨丨丨 投稿者

    可能一个insight是,不要做会被模型能力提升而覆盖的课题,不然模型一迭代研究就没用了

    无记录
    回复
  • 头像
    周周 读者

    [g=fendou][g=fendou] 有幸去年在所内上了陈恺老师的课。听下来个人的感悟是,ai security相比于ai for security,前者还是更多的尝试去解决实际问题(也许解决的效果暂时不够好),也和未来的ai产业快速发展的趋势更契合

    无记录
    回复
  • 头像
    自我生长 读者

    内核漏洞挖掘方向,最近也有看一点大模型对于漏洞挖掘的benchmark文章。个人感觉目前来说传统(相对于llm来说)的漏洞挖掘方式效率还是远高于llm的,由于丰富程序状态和海量代码还是不容易搞定的。目前知道的我觉得在安全方面使用llm成功落地的应用,主要还是在渗透信息搜集过程中对于大量文件进行敏感数据内容识别

    无记录
    回复
  • 头像
    张福林老师 读者

    正在用小模型对大模型做内容安全防护和测评

    无记录
    回复
  • 头像
    月桂酰 读者

    有道理 这种课题不好找

    无记录
    回复
  • 头像
    百度旭日升体检 读者

    这个路子真的能行吗?像小学生监督大学生

    无记录
    回复
  • 头像
    陈静 读者

    蹭热点这个事情也没办法 毕竟都得生存呀

    无记录
    回复
  • 头像
    眼睛有星星0909 投稿者

    赞同 4,security 任务理解不深,就想不出来有啥有意思的方法把 AI 融合进去。另一方面,AI 发展太快,算法和理论也层出不穷,学不会就不会应用。目前感觉 AI for Security 任务,软工会议收的相对多一些

    无记录
    回复
  • 头像
    某宝资源对接中心 读者

    我还有组里的同学做的LLM4Sec的工作,投稿了安全会和软工会,感觉主要是安全圈的审稿人对LLM有一层偏见。他们会比较看重technical contribution这一点,如果论文的主要challenge是LLM解决的,技术上就太straightforward了。导致每一篇LLM4Sec的文章都会受到novelty的质疑。其中最严重的审稿人甚至会认为使用LLM本身就是论文的缺陷,我看见过weakness写“dependency on LLMs”的审稿人。而软工圈这边相对来说就没有这么严重的偏见,只要很好地解决了问题,都是鼓励使用LLM的。所以不是LLM4Sec主要发软工,而是安全根本发不出去

    无记录
    回复
  • 头像
    心如止水 读者

    网安不是计算机里面的文科好吧…

    无记录
    回复
  • 头像
    慕辰_幸福请降临在林致手心 投稿者

    [g=xu][g=xu] 问个问题,aigc detection 这个方向怎么样,判断一个图像视频是否是 ai 生成的

    无记录
    回复
  • 头像
    離澜 读者

    安全跟不上是不是对从业者来说也是好事,一直有事可以做许多新问题可能也是老问题的另一种表现形式,可能可以直接迁移过来不过这么做虽然能解决问题但是可能很难发论文像聊天模型攻击很流行的对抗性扰动,我估计在思考模型应该也能用,但是就没啥文章做这个,可能是觉得没啥创新点 [g=OK][g=OK]

    无记录
    回复
  • 头像
    卡猫 读者

    有卡吗… 几百张起步那种

    无记录
    回复
  • 头像
    芜胡 读者

    可以参见上一期 你说的这种套路就是A攻击+B场景 目前大家都审美疲劳了

    无记录
    回复