目前在实习,做大模型安全,感觉这个方向工业界需求不大,如果phd做这个等毕业找工作是不是就寄了,比较迷茫,欢迎大佬给出意见
需求实则是有的,但一般只有大厂才养得起这样的组,并且永远绕不开的困境就是,“我们在AI上花了这么多钱,要跟别人抢客户,你们不要去block他” 这样的后果就是很容易沦为红队扭螺丝钉,每次要发新版本了给你几天来测试一下,然后不管有没有fix都还是发出去(参考openai)。剩下就是一些做这个方向的startup也可以思考。比较有希望的落地是做一些自动化的AI安全测试工具,这也是目前大厂和startup主要做的东西。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
没有相关内容!
想知道哪些厂有大模型安全的需求
听说openai给alignment团队给裁了
没听过
蛙趣,那硕士出来不是更完蛋
安全工业界比较match的方向是啥,alignment吗
阿里安全需要你
我这边是做AI内容安全的初创企业,目前已经拿到首轮融资,有兴趣可以找我聊
2021年开始搞大模型坚持到目前那paper引用数不起飞了
绷不住啦 怎么在这里看到你了 [g=nanguo][g=nanguo]
这个方向工业界的确 很不好找工作,作为今年毕业的phd,基本上都面了一遍,感觉不同大厂部门leader自己都在找团队价值
同方向
[g=tu][g=tu] ilya都觉得安全有前途那肯定有前途不过有可能成为先烈就好像2021年搞llm估计也不太好找工作
工业届需要的大模型方向就对齐,RAG和agent。你看这三个方向还好做吗 [g=bizui]
自己画饼
蹲
感觉卷爆了
我们就有需求,但是一直没找到对应的同学太希望有大模型安全的同学加入了