Anthropic的员工群体被其他人形容像「邪教」和业众。
在所有AI模型开发商中,Anthropic可能是员工意识形态最狂热的公司,一些研究人员甚至用「邪教」来形容它。
这背后的原因很多。
据The Information报道,CEO Dario Amodei每月都会举办「Dario愿景探索」活动,跟员工畅谈AI的未来(带着明显的宗教色彩);高管们经常公开谈论超级智能AI的危险。
但还有一个很少被讨论的因素:Anthropic独特的招聘流程。
道德拷问
和其他AI实验室一样,Anthropic会通过一系列测试来检验候选人的技术能力。
展开剩余79%但不同的是,他们的「行为面试」权重特别大,而且明显偏向道德伦理。
一位在Anthropic面试过的工程师透露,招聘人员告诉他,只有很小一部分申请者能通过行为面试。
对许多候选人,Anthropic的招聘人员会联系他们的前同事和朋友,然后询问他们的人品如何。
Anthropic行为面试的问题也很不寻常和业众。
不是那种典型的「讲讲你如何克服挑战」或「讲讲你如何领导团队」,候选人经常被问到如何处理棘手的道德困境。
比如,有候选人被问到:说出一个你尊重或钦佩但在价值观上有分歧的人。
另一个候选人被问到:讲讲你做过什么违背公司盈利目标但符合你道德观的事。
怎么讲,快接近「你妈和你媳妇同时掉进河里先救谁」的难度了。
这些问题反映了Anthropic长期以来一直将公共安全置于利润之上的理念。
2022年,从OpenAI出走的Anthropic创始人因为安全顾虑推迟发布AI聊天机器人。
结果,只能眼睁睁看着OpenAI在几周后发布了ChatGPT。
理想与现实的挣扎
虽然Anthropic现在已经是营收巨头,但它仍在这个问题上纠结。
今年早些时候,Amodei在给员工的备忘录中写道,公司将接受来自阿联酋和卡塔尔的资金,而此前他们拒绝了沙特阿拉伯的钱。
Amodei在备忘录中承认,接受中东领导人的资金可能会让「独裁者」受益,但他说「永远不让坏人从我们的成功中获益,这个原则很难用来经营企业」。
Anthropic还是面临着和OpenAI一样的版权侵权指控和业众。见前文:
本周二,Anthropic宣布与一群知名作家达成和解,这些作家声称Anthropic未经许可就用他们的数据训练模型。见前文:
留人秘诀
这种注重招聘价值观相似员工的做法,或许能解释为什么Anthropic能够留住工程师和研究人员,即使Meta等公司开出了丰厚的薪酬待遇。
根据VC公司SignalFire今年5月发布的报告,Anthropic过去两年招聘的员工留存率达到80%.
相比之下,Google DeepMind是78%,OpenAI只有67%。
当然,Anthropic估值虽然飙升,但员工出售股份的机会不如OpenAI多,这也可能解释了更高的留存率。
在快速扩张的创业公司中保持这种文化很困难,OpenAI近年来经历的成长阵痛就是明证。
但对于那些想复制Anthropic留存成功的公司来说,行为面试或许是个好的起点。
Claude被用来干坏事
这周三上午,Anthropic发布了威胁情报报告,其中包含了Claude模型被滥用的几个例子。
报告显示:
黑客使用Claude Code窃取个人数据;
朝鲜人使用Claude冒充IT工作者,在美国财富500强公司找到工作;
黑客使用Claude开发、营销和分发勒索软件。
黑客使用Claude Code窃取个人数据;
朝鲜人使用Claude冒充IT工作者,在美国财富500强公司找到工作;
黑客使用Claude开发、营销和分发勒索软件。
这份报告提供了罪犯如何利用对话式AI模型提高效率的首批具体案例。
Anthropic威胁情报主管Jacob Klein表示:
我们真的第一次看到,AI让老练的攻击者能够扩大自己的规模。以前可能需要五个人做的事,现在一个人就能完成。
我们真的第一次看到,AI让老练的攻击者能够扩大自己的规模。以前可能需要五个人做的事,现在一个人就能完成。
这些案例或也解释了Anthropic为什么如此重视价值观和道德:
当技术可以被用来做坏事时,其开发者更需要确保开发它的人有正确的价值观。
虽然Anthropic身上拧巴得有些像个「邪教」,但相较其他AI公司而言,其确实似乎一直在坚守着AI安全底线的道德信仰。
[1]和业众
发布于:北京市恒汇证券官网提示:文章来自网络,不代表本站观点。