源码资源库(挑战 Google 搜索?OpenAI 发布最强 AI 对话系统 ChatGPT英国男子脸部畸形,靠才华迎娶美女大学生,孩子出生后笑不出来了)

wufei123 发布于 2023-12-16 阅读(474)

整理 | 苏宓出品 | CSDN(ID:CSDNnews)GPT-3 发布的两年后,我们没等来它的亲弟弟 GPT-4,而是在今天亲眼见证了 OpenAI 带来了一种全新的 AI 聊天机器人——ChatGPT,也可以称之为是 GPT-3 家族里面的亲戚,它不仅可以解释代码、编写情景喜剧脚本,也可以为用户的查询提供对话式回答,而且回答几乎能够满足网友的”小心思“。

目前,ChatGPT 处于测试阶段(chat.openai.com),只要有 OpenAI 账户就可以免费使用万万没想到,此超级对话模型一经开放,很多人便深陷其中,无法自拔就连 OpenAI 背后的投资者马斯克不忘调侃一句,”很多人疯狂地陷入了 ChatGPT 循环中。

广告胆小者勿入!五四三二一...恐怖的躲猫猫游戏现在开始!×ChatGPT 的背后对此,我们不禁好奇,ChatGPT 到底有什么样的魔力,吸引这么多人去尝试?它与 GPT-3 又有什么不同之处?根据 OpenAI 官方介绍,与 GPT-3 最大的不同应该就是 ChatGPT 提供了一个用户友好的对话界面,并且非常有道德,即可以强烈限制一些有害的输出,如暴力、脏话等不当的请求。

ChatGPT 是 InstructGPT 的兄弟模型,它被训练为在提示中遵循指令并提供详细的响应之前了解过 OpenAI 的工程师们,想必对 InstructGPT 还有印象今年年初,OpenAI 为了好好调教 GPT-3,便给它带来了”调教师“—— InstructGPT,它采用了”从人类反馈中强化学习“(RLHF)来训练这个模型,可以让彼时的 GPT-3 输出的更为准确。

最新的 ChatGPT 使用的方法与 InstructGPT 相同,也是使用了 RLHF,有些不同的地方主要体现在数据收集设置上对此,OpenAI解释道,”ChatGPT 使用监督微调训练了一个初始模型:人类 AI 培训师提供对话,他们在对话中扮演双方--用户和 AI 助手。

AI培训师通过由模型生成的建议,以帮助 AI 不断调整回复的内容“当然,为了创建一个用于强化学习的奖励模型,OpenAI 也需要收集比较数据,其中包括两个或更多按质量排名的模型回复为了收集这些数据,OpenAI 收集了 AI 培训师与聊天机器人的对话,并随机选择了一个模型编写的消息,抽查了几个备选的回复,再让 AI 培训师对这些回复进行排名。

此外,利用这些奖励模型,这项研究使用近似策略优化算法对模型进行微调,并对这个过程进行了多次迭代

根据官方介绍,ChatGPT 是对 GPT-3.5 系列中的一个模型微调而成,该模型在 2022 年初完成了训练值得注意的是,ChatGPT 和 GPT-3.5 是在 Azure AI 超级计算基础设施上训练的。

百态横生的 ChatGPT,玩出新花样到目前为止,很多人对 ChatGPT 进行了各种测试,发现了各种潜在的用途。比如说:它可以是程序员得力小助手,帮助开发者解决编码问题:

广告从秘书起步,十年内无人超越,以一己之力力挽狂澜成就一段传奇×就像这样:

甚至还能解释冒泡排序算法:

它也是很好的调试小伙伴,程序员再也不用害怕 Debug 了?

它也能充当诗人当问及”能否写一首关于埃隆-马斯克接管 Twitter 的押韵诗?“时,它能流畅自然地分享道(不知大家能打几分):埃隆·马斯克现在至高无上在 Twitter,他是终极国王他拇指一弹就发推文。

他的追随者想要屈服充满想法和计划的头脑他总是大步前进......

对艺术家也有一定的启发:

还能进入影视圈,写写剧情脚本:

另外,它也能”一本正经“地解释各种科学概念,比如说”热力学“:

甚至它还能写一篇学术论文。当然在学术圈的论文上面,还是不建议大家使用的,或许接下来 ChatGPT 也会成为高校老师们颇为头疼的产品工具。

除此之外,根据 OpenAI 分享的官方示例中,其表示还能为日常提供一些实质性的建议用户:帮我写一封简短的说明,向我的邻居介绍自己ChatGPT:你好呀,我的名字是 [你的名字],我刚搬到隔壁我想伸出手来介绍自己。

我期待着认识你和附近的人如果您有任何需要或只是想聊天,请随时过来或给我打电话最好的,[你的名字]用户:你能让它更正式吗?ChatGPT:亲爱的邻居,我写信是为了自我介绍我的名字是 [你的名字],我最近搬到了隔壁。

我想花点时间伸出手打个招呼我期待着结识您和附近地区如果有什么我可以做的好邻居,或者如果您有任何需要,请随时告诉我我很乐意尽我所能提供帮助此致,[你的名字]用户:你能帮我寄吗?ChatGPT:很抱歉,我是一个基于文本的 AI 助手,没有能力为您发送一封实体信件。

我只能提供关于写什么的建议和建议您可以接受该建议并自己发送这封信可以说上知天文下知地理,前能写代码,后能编剧本,ChatGPT 比 GPT-3 强得不止这些局限性与挑战当然,现实来看,ChatGPT 毕竟依然是由人训练出来的,其虽然智能,但也依然避不开一些无厘头以及错误。

在 Twitter 上,当计算生物学教授CarlBergstrom要求 ChatGPT 写一篇关于他生活的维基百科条目时,ChatGPT沉着冷静地做到了这一点,但不妨碍它写的内容里面包含了几个完全虚假的传记细节。

针对这种错误,OpenAI 也在官方公告中强调,当前的 ChatGPT 存在一定的局限性,其直言「想要完全解决这个问题是非常有挑战性的」,因为: (1) 在 RL 训练期间,目前没有真实世界的数据来源;

(2) 模型被训练得更加谨慎,导致它拒绝回答它可以正确回答的问题;(3) 监督训练误导了模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么ChatGPT 对输入措辞的调整或多次尝试同一”提示“很敏感。

例如,给定一个问题的措辞,模型可以声称不知道答案,但只要对问题的措辞稍加修改,它就可以给出正确回答该模型的回答内容往往过分啰嗦,并过度使用某些短语例如重申它是由 OpenAI 训练的语言模型这些问题来自于训练数据的偏差(训练者更喜欢看起来更全面的长篇答案)和众所周知的过度优化问题。

理想情况下,当用户提供了一个模棱两可的问题时,模型会提出质疑然而与之相反的现实是,如今的模型往往会猜测用户的意图对此,OpenAi 解释称,「虽然我们已经努力使模型拒绝不适当的请求,但它有时会对有害的指令作出回应或给出有偏见的回答。

我们正在使用 Moderation API 来警告或阻止某些类型的不安全内容,但我们预计它目前不一定会立即见效因此,我们渴望收集用户的反馈,以帮助我们正在进行的工作,改善这个系统」将向 Google 搜索发起挑战?

尽管如此,不可否认的是,ChatGPT 的输出质量似乎比之前 GPT-3 模型有了显著的改进,而且回答的内容覆盖多维度,甚至在一定程度上,可以直面”搜索引擎“与”问答社区“为此,也有网友将 Google 和 ChatGPT 进行了对比:。

其分别在 Google 搜索和 ChatGPT 中提出了同一个问题:

几番比对下来,这位网友表示,Google 的搜索结果都可以不用贴上来了,因为这些问题在它的平台上没有什么好的结果。与此同时,其附上了来自 ChatGPT 详细的结果。

虽然对于这样的结果,来自 Google 母公司 Alphabet 的一位工程师 @hncel 解释道:我在 Alphabet 工作,最近我去参加了一个内部技术讲座,是关于在谷歌部署这样的大型语言模型作为。

亲爱的读者们,感谢您花时间阅读本文。如果您对本文有任何疑问或建议,请随时联系我。我非常乐意与您交流。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。