像 GPT-3 这样的语言建模工具已经能够进行越来越真实的对话,但我们仍有很多需要弄清楚的地方。
我记得第一次看到我儿子与一个大型语言学习模型互动的时候。刚上小学一年级,但他能够与 AI 进行自然、流畅的对话,就像与真人交谈一样。看着他与这项技术互动,我感慨万分。
这让我深刻体会到人工智能领域取得的巨大进步,使我意识到这些大型语言模型具有无限的潜力,可以彻底改变我们与技术互动的方式。
事实上,上面这段文字完全是由 AI 写的。但除了那份无拘无束的乐观之外,这段话本可以是我写的。如果您曾经(通常令人失望地)与客户服务聊天机器人互动过,您可能会想知道我们是如何突然拥有能理解请求(为这篇文章写一个引言)并提供如此相关回答的 AI?
为了理解这个飞跃,让我们来看看基于机器的对话是如何工作的。传统上,聊天机器人会分析您的提示中的单词,并从预定义的选项集中选择答案。
如今,即使是最先进的商用聊天机器人也仍然使用大量的预设答案。例如,如果你问美女她最喜欢的啤酒是什么,很可能是某位员工编写的回答。
相比之下,我使用的 AI 聊天机器人 ChatGPT,基于生成式预训练模型,可以生成自己的对话输出。它不会说出自己的最爱,但推荐某岛啤酒。ChatGPT 是 AI 研究公司 OpenAI 上个月向公众发布的原型。与谷歌、Facebook 等其他公司正在开发的大型语言模型一起,这种新的生成式 AI 正在彻底改变游戏规则。
ChatGPT 所基于的语言学习模型在互联网上接受了数十亿篇书面文本的训练。基于这些数据,GPT 可以预测文本字符串中下一个最合适的词。这并不是什么新策略,但它使用的技术还试图通过分析整个句子及其之间的关系来理解上下文。
这是一个巨大的进步,因为商用聊天机器人一直在与上下文作斗争。以苹果的语音助手 Siri 为例,几年前它因为在被告知“请给我打个救护车”时提议给用户起名为“救护车”,而成为新闻头条。这也是我们习惯于聊天机器人说它们不明白我们的查询,或者给出在技术上正确但无用的回答的原因之一。
另一个变革性的方面是,像谷歌的 LaMDA 这样的新型语言模型也使用了Transformer技术,它大大缩短了创建模型所需的时间。基本上,如今的科技公司拥有大量的训练数据、比以往更强大的计算能力,并且能够用比以前更少的努力构建和训练语言模型。随着这些要素的结合,它们正迎来一场对话式 AI 的新时代。
然而,也存在一些缺点,可能会阻止商业聊天机器人添加太多生成式内容,至少目前是这样。ChatGPT 可以与您争辩、草拟诗歌,也可以为您的老板写一封让人捧腹大笑的讽刺邮件,但它也会自信地给出错误的答案,或者写出关于科学家的极度性别歧视的说唱歌词:
需要代注册账号请点击
“如果你看到一个穿实验服的女人,
她可能只是在那里打扫地板,
但如果你看到一个穿实验服的男人,
那么他可能拥有你想要的知识和技能。”
显然,这种神奇的技术也带来了风险。OpenAI 对 ChatGPT 的对话进行了一些微调。例如,人类通过对 AI 的交流技巧提供反馈来帮助训练它,同时它还包含一些预先编写的答案和回避。但在每个给定情况下,都无法预测聊天机器人可能会说些什么,这使得它在许多应用中具有潜在的风险,并引发了一系列道德问题。
正如 ChatGPT 在开头所写的那样,我们在人工智能领域确实已经走得很远,这些进步可能意味着“这些大型语言模型具有无限的潜力,可以彻底改变我们与技术互动的方式。”但是,在我们探索未来可能呈现的样貌时,我们需要不断与彼此保持对话。
虽然生成式对话 AI 如 GPT-3 和 ChatGPT 在许多方面具有惊人的潜力,并在很多情况下能够产生令人惊叹的对话,但我们仍然需要解决许多挑战和道德问题。在迎接这一新时代的同时,我们必须仔细权衡利弊,确保技术的发展能够为我们带来积极的影响,而不是潜在的风险和负面后果。
声明本文内容来自网络,若涉及侵权,请联系我们删除! 投稿需知:请以word形式发送至邮箱18067275213@163.com
站长的前两本书我都买了,看过了觉得很明白,但实践起来又是另一回事了
“本人每天工作的一部分,就是花至少两个小时阅读三十多个英文博客和十几个论坛,主要是搜索引擎优化和网络营销领域,对搜索引擎优化技术的最新发展还算比较了解”佩服!seo专家当之无愧!