#人工智能 谷歌正在使用 Claude 的输出改进 Gemini 模型,但不清楚是否已经获得 Claude 许可。泄露的谷歌外包团队通讯记录显示谷歌将 Gemini 和 Claude 输出的回答放在一起由外包团队评估哪个更好,以此改进 Gemini,但 Claude 明确禁止将其用于构建竞争产品和模型训练。查看全文:https://ourl.co/107255
目前诸如 Gemini、ChatGPT、Claude 都是竞争对手,但竞争的同时谷歌也在使用 Claude 改进 Gemini 的输出,但不清楚谷歌是否已经获得许可。
TechCrunch 看到的内部通讯显示,致力于改进 Gemini AI 的谷歌外包团队正在将 Gemini 输出的答案与 Claude 输出的答案进行比较。
随着科技公司竞相构建更好的人工智能模型时,这些模型的性能通常会与竞争对手进行比较,但正常情况下会使用行业通用的基准测试进行评分,而不是让外包团队煞费苦心地评估竞争对手的响应。
最初外包团队并不清楚数据来源,因为谷歌只是将 Gemini 与未知的模型输出进行对比,外包团队需要根据多个标准例如真实性和冗长性对每个答案进行评分,每个问题最多有 30 分钟评判哪个答案更好。
不过外包团队最近发现用于比较答案的谷歌内部平台出现了对 Claude 的引用,TechCrunch 看到 Gemini 外包团队收到的至少一条明确的输出:我是 Claude,由 Anthropic 创建。
而内部聊天则显示外包团队也发现 Claude 的回答似乎比 Gemini 更强调安全性,有成员表示:Claude 的安全设置是所有 AI 模型中最严格的,某些情况下 Claude 不会响应它认为不安全的提示词。还有一次对于某个特定问题 Claude 回避提示词,而 Gemini 的回答因包含裸体和束缚而被标记为严重违反安全规定。
Anthropic 的商业服务条款明确规定,禁止客户在未经允许的情况下访问 Claude 构建竞争产品或服务以及训练竞争 AI 模型,但谷歌还是 Anthropic 的投资者之一。
谷歌 DeepMind 发言人则拒绝透露是否已经获得 Anthropic 的授权,该发言人称按照行业标准做法在某些情况下确实会将比较模型输出作为评估过程的一部分,但任何声称我们使用 Anthropic 模型来训练 Gemini 的说法都是不准确的。