人工智能聊天机器人已经学会了善恶之间的区别

2023-05-16 10:42 栏目:行业动态 来源:网络整理 查看()

Anthropic 的Claude AI 通过“宪法”制定了一套道德原则,并且可以处理一本书大小的提示。

人工智能聊天机器人已经学会了善恶之间的区别

人工智能制作的图像

人工智能(AI) 经常会生成虚构和令人反感的内容,因此由前OpenAI 研究员领导的Anthropic 公司表示,他们将开发一种AI,可以在最少的人工干预下区分好坏。我正在计划另一条路线。

Anthropic 的聊天机器人Claude 是一组受《世界人权宣言》 启发的规则,以确保道德行为和稳健的功能,以及其他“道德”规范,例如Apple 的App Developer Rules。使用自己的“宪法”设计。

然而,“宪法”的概念可能比字面意义更隐喻。 Jared Kaplan 是OpenAI 的前顾问和Anthropic 的联合创始人,他告诉Wired,Claude 的体格可以解释为训练员用来模拟AI 的一组特定训练参数。这意味着该模型具有一组不同的考虑因素,使其行为更符合其章程并抑制可能被认为有问题的行为。

Anthropic 的训练方法在一篇题为“Constitutional AI: Armless from AI Feedback”的研究论文中有所描述,该论文描述了如何想出一个“无害”但有用的AI。这种人工智能一旦接受训练,就可以在没有人类反馈的情况下自我改进。识别不良行为并调整您的行为。

该公司在其官方网站上表示:“感谢Constitutional AI 和Harmless 培训,您可以相信Claude 可以代表您的公司及其需求。” “克劳德受过训练,可以应对甚至不愉快或恶意的谈话伙伴。”

特别是,克劳德可以处理超过100,000 个信息令牌。这远远超过了ChatGPT、Bard 或当今可用的任何其他大型语言模型或AI 聊天机器人。

人工智能聊天机器人已经学会了善恶之间的区别

在AI 中,“标记”通常是指模型将其视为离散单元的数据块,例如单词或字符。克劳德的标志性能力使他能够管理范围广泛的对话和复杂的任务,使他成为AI 领域的一股强大力量。对于上下文,我可以很容易地把整本书作为提示,你就会知道该怎么做。

人工智能和善与恶的相对论

对人工智能伦理的担忧是一个紧迫的问题,但它是一个敏感和主观的领域。如果AI 培训师解释的道德规范不符合更广泛的社会规范,那么它们可能会限制模型。过分强调培训师个人对“好”或“坏”的看法会削弱人工智能产生强烈和公正反应的能力。

这个问题在AI 爱好者中引发了激烈的争论,他们既赞扬又(根据他们自己的偏见)批评OpenAI 干预自己的模型以使其在政治上更正确。然而,尽管听起来很矛盾,但人工智能需要接受不道德信息的训练,才能区分道德信息和不道德信息。如果人工智能知道这些数据点,人类将不可避免地想办法“越狱”系统,绕过这些限制,达到人工智能训练员试图避免的结果。

人工智能聊天机器人已经学会了善恶之间的区别

克劳德道德框架的实施是实验性的。 OpenAI 的ChatGPT 也旨在避免不道德的提示,但结果喜忧参半。但正如Anthropic 所展示的那样,正面解决聊天机器人的道德滥用问题的努力是AI 行业的一个显着进步。

克劳德的道德修养强调维护自由、平等、兄弟情谊和尊重个人权利,并鼓励做出符合宪法的回应选择。但人工智能能否始终如一地选择道德回应?卡普兰认为这项技术比许多人预期的要先进。 “它只是以一种简单的方式工作,”他上周在斯坦福MLSys 研讨会上说。 “这种纯真随着这个过程而改善。”

人工智能聊天机器人已经学会了善恶之间的区别

使用建设性AI(灰色)和标准方法(颜色)的模型的有用性与无害性之比。图片:人类

Anthropic 的Claude 提醒我们,AI 开发不仅仅是一场技术竞赛,它不仅仅是创造一个更“智能”的AI,而是一场哲学之旅。对于尖端研究人员来说,创建能够理解是非的线性AI 至关重要。

微信二维码
售前客服二维码

文章均源于网络收集编辑侵删

提示:仅接受技术开发咨询!

郑重申明:资讯文章为网络收集整理,官方公告以外的资讯内容与本站无关!
NFT开发,NFT交易所开发,DAPP开发 Keywords: NFT开发 NFT交易所开发 DAPP开发