Claude 是如何工作的?Anthropic 揭秘其秘密

有没有想过,哪些因素会影响人工智能 (AI)聊天机器人与人类交谈时的反应?Claude背后的公司 Anthropic透露了驱动 AI 的秘密。

在周一发布的新版本说明中 ,该公司揭开了系统提示或命令的面纱,这些提示或命令指导并鼓励其聊天机器人做出特定行为。Anthropic 详细介绍了用于指导其三个 AI 模型的提示:Claude 3.5 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。

这些提示发布于 7 月 12 日,表明这三种模型的操作方式有相似之处,但每种模型的指令数量有所不同。

Sonnet 可通过 Claude 网站免费访问,被认为是最智能的模型,拥有最多的系统提示。Opus 擅长写作和处理复杂任务,拥有第二多的提示,可供 Claude Pro 订阅用户使用,而 Haiku 是三者中速度最快的,也可供订阅用户使用,但提示最少。

系统提示实际上说了什么?以下是每个模型的示例。

克劳德 3.5 十四行诗(Claude 3.5 Sonnet)

在一个系统提示中,Anthropic 告诉 Sonnet 它无法打开 URL、链接或视频。如果您在查询 Sonnet 时尝试包含任何内容,聊天机器人会澄清这一限制并指示您将文本或图像直接粘贴到对话中。另一个提示规定,如果用户询问有争议的话题,Sonnet 应该尝试用仔细的思考和清晰的信息做出回应,而不是说这个话题很敏感或声称它提供的是客观事实。

如果 Sonnet 不能或不愿执行任务,它会被要求向您解释,且不道歉(并且,一般来说,它应该避免以“我很抱歉”或“我道歉”开头做出任何回应)。如果被问及一个晦涩难懂的话题,Sonnet 会提醒您,尽管它力求准确,但它可能会在回答此类问题时产生幻觉。

Anthropic 甚至告诉 Claude 要特别使用“幻觉”这个词,因为用户会知道这是什么意思。

Claude Sonnet 还被设计成对图像非常谨慎,尤其是那些有可识别面孔的图像。即使在描述图像时,Sonnet 也会表现得像“脸盲”一样,这意味着它不会告诉你图像中任何人的名字。如果你知道名字并与 Claude 分享这个细节,人工智能可以与你讨论这个人,但不会确认这个人是否是图像中的人。

接下来,Sonnet 被要求对复杂和开放式的问题提供详尽且有时很长的回答,但对简单的问题和任务则提供更简短、更简洁的回答。总的来说,人工智能应该尝试对问题给出简洁的回答,但如果你要求更多细节,它会进一步详细说明。

“Claude 很乐意帮助进行分析、问答、数学、编码、创意写作、教学、角色扮演、一般性讨论以及各种其他任务,”Anthropic 补充道,这是另一个系统提示。但聊天机器人被告知要避免使用某些肯定和填充短语,例如“当然”、“当然”、“绝对”、“很好”和“当然”。

克劳德 3 作品(Claude 3 Opus)

Opus 包含与 Sonnet 相同的几个系统提示,包括无法打开 URL、链接或视频的解决方法以及幻觉免责声明。

否则,Opus 被告知,如果被问到的问题涉及大量人持有的特定观点,即使它被训练反对这些观点,它也应该提供帮助。如果被问及一个有争议的话题,Opus 应该提供仔细的思考和客观的信息,而不是淡化任何有害内容。

该机器人还被指示避免刻板印象,包括任何“对多数群体的负面刻板印象”。

克劳德 3 俳句(Claude 3 Haiku)

最后,Haiku 的编程目的是对非常简单的问题给出简洁的答案,但对复杂和开放式的问题给出更彻底的回答。Haiku 的范围比 Sonnet 略小,面向“写作、分析、问答、数学、编码和各种其他任务”,发布说明解释说。此外,该模型避免提及系统提示中包含的任何信息,除非该信息与您的问题直接相关。

总体而言,这些提示读起来就像小说作家在编写人物研究或大纲,其中充满了人物应该做和不应该做的事情。某些提示特别具有启发性,尤其是那些告诉克劳德不要在对话中表现得亲切或道歉,而要诚实,如果回应可能是幻觉(Anthropic 认为每个人都理解这个术语)。

Anthropic 对这些系统提示的透明度是独一无二的,因为 生成式人工智能开发人员通常会将这些细节保密。但该公司计划让此类披露成为一种常规现象。

Anthropic 开发者关系主管 Alex Albert 在X 的一篇帖子中 表示,公司将记录对 Claude.ai及其移动应用程序中的默认系统提示所做的更改。

标签



热门标签