AI企业增设高危安全岗位应对潜在滥用
Anthropic近日在LinkedIn平台发布职位「化学武器与高当量爆炸物政策经理」,要求候选人具备至少五年相关防御领域从业经验,并熟悉放射性散布装置(脏弹)的运作机制。该岗位旨在评估其AI系统Claude在面对敏感内容请求时的安全防护能力,防止其被用于获取灾难性武器相关信息。
行业趋势:多公司布局高风险防护体系
除Anthropic外,另一家人工智能企业亦在其招聘页面上线类似职位,方向为生物与化学风险研究员,年薪最高达45.5万美元。此举反映出业界对生成式AI可能被用于非法目的的日益关注,尤其在缺乏外部监管框架的情况下,企业正主动加强内部安全审查机制。
专家质疑:技术边界与监管真空并存
BBC节目《AI Decoded》联合主持人、科技研究员Stephanie Hare博士提出核心疑问:即便已设定指令禁止AI输出敏感信息,是否仍存在被绕过或诱导泄露的风险?她指出,目前全球范围内尚无针对人工智能与化学、放射性武器结合使用的国际条约或法规,相关防护措施完全依赖企业自律,且决策过程不透明,公众难以监督。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!