售前客服二维码
文章均源于网络收集编辑侵删
提示:仅接受技术开发咨询!
如果您认为ChatGPT 是智能的,请等到您听到OpenAI 对“超智能”AI 的愿景。
图片:Shutterstock
请做好准备。超级智能AI来了。
OpenAI 首席执行官Sam Altman,OpenAI 总裁Greg
Brockman 和OpenAI 首席科学家Ilya Sutskever 共同撰写的一篇博文警告说,人工智能的发展必须受到严格监管,以防止出现潜在的灾难性情况。
“现在是开始考虑超智能治理的好时机,”Altman 说,并承认未来人工智能系统的能力可能会大大超过通用人工智能。 “鉴于我们目前所看到的情况,在未来十年内,人工智能系统将超越大多数领域专家的技能水平,并将拥有与当今最大的公司之一一样多的生产性工作岗位。可以想象,我们将能够开展活动。”
为了回应奥特曼在最近的国会证词中提出的担忧,三人概述了他们认为对未来战略规划很重要的三大支柱。
“起点”
首先,OpenAI 认为必须在控制和创新之间取得平衡,推动形成“让这些系统在保持安全的同时顺利融入社会”的社会共识。
其次,它支持负责检查系统、进行审计、测试是否符合安全标准以及执行部署和安全约束的“国际机构”的想法。将其与国际原子能机构进行比较,国际原子能机构提出了全球人工智能监管机构的样子。
最后,他们强调需要“技术能力”来遏制超级智能并保持其“安全”。这意味着什么仍然不清楚,即使对于OpenAI 也是如此,但该帖子警告不要采取繁重的监管行动,例如不符合超级智能标准的许可和审计技术。
从本质上讲,这个想法是根据其训练者的意图调整超级智能,并防止出现超出人类控制范围的AI 能力快速且不受控制地爆炸的“愚蠢情景”。
OpenAI 还警告说,不受监管的AI 模型开发可能会对未来社会产生毁灭性影响。该领域的其他专家,从AI 教父到Stability AI 等AI 公司的创始人,甚至过去参加过GPT LLM 培训的OpenAI 员工,都表达了类似的担忧。这种对AI 治理和监管采取积极主动方法的紧急呼吁引起了世界各地监管机构的关注。
“安全”超级智能的挑战
OpenAI 相信,一旦这些问题得到解决,AI 的潜力将得到更自由的发挥。他们说,“这项技术可以改善我们的社会,我们肯定会对使用这些新工具的每个人的创造力感到惊讶。”
作者还解释说,该领域目前正在加速增长,并将继续如此。 “需要像全球监视这样的东西来阻止它,但即使那样也不能保证有效,”博客中写道。
尽管面临这些挑战,OpenAI 的领导层仍在继续探索这个问题:“我们如何确保技术能力来保证超级智能的安全?”世界现在没有答案,但他们肯定需要ChatGPT 无法提供的答案。
文章均源于网络收集编辑侵删
提示:仅接受技术开发咨询!