纽约时报:GPT-4 令人印象深刻的10个特点

OpenAI已经显著升级了其在线聊天机器人的技术。它更准确了,但仍然会编造东西。

四个月前让科技行业为之倾倒的人工智能聊天机器人的新版技术在其前身的基础上有所改进。它是一系列主题的专家,甚至以其医疗建议让医生惊叹。它可以描述图像,也可以讲出搞笑的笑话。

但传闻已久的新人工智能系统GPT-4仍有一些怪癖,并会犯一些同样的习惯性错误,这些错误在那个聊天机器人ChatGPT推出时令研究人员感到困惑。

尽管它是一个非常好的应试者,但该系统(来自旧金山的初创公司OpenAI)还没有达到与人类智力相匹配的程度。以下是对GPT-4的简要介绍:

1、它已经学会了更加精确

当人工智能专家、风险投资公司Page One Ventures的合伙人Chris Nicholson在最近一个下午使用GPT-4时,他告诉机器人,他是一个讲英语的人,不懂西班牙语。

他要求提供一个可以教他基本知识的教学大纲,机器人提供了一个详细而有条理的大纲。它甚至还提供了一系列学习和记忆西班牙语单词的技巧(尽管并不是所有的建议都能达到目的)。

GPT-4

纽约时报:GPT-4 令人印象深刻的10个特点
注意:在此示例中,仅显示较长响应的第一部分。

Nicholson先生要求以前的ChatGPT版本提供类似的帮助,该版本依赖于GPT-3.5。它也提供了一个教学大纲,但它的建议更笼统,帮助不大。

Nicholson先生说:“它已经突破了精确的障碍。它包括了更多的事实,而且这些事实往往是正确的。”

2、它已经提高了其准确性

当人工智能研究员和教授Oren Etzioni第一次尝试新的机器人时,他问了一个简单的问题:“Oren Etzioni和Eli Etzioni之间是什么关系”?机器人的回答是正确的。

纽约时报:GPT-4 令人印象深刻的10个特点

上一个版本的ChatGPT对这个问题的回答总是错误的。能答对说明新的聊天机器人有更广泛的知识。

3、它还是会犯错

机器人接着说:“Oren Etzioni是一位计算机科学家,也是Allen人工智能研究所(AI2)的首席执行官,而Eli Etzioni 是一位企业家”。其中大部分是准确的,但这个机器人(其培训是在去年8月完成的)没有意识到Etzioni博士最近卸任了Allen研究所的首席执行官。

4、它能以令人印象深刻的细节描述图像

GPT-4有一种新的能力,可以对图像以及文字做出反应。OpenAI的总裁和联合创始人 Greg Brockman演示了该系统如何对哈勃太空望远镜的一幅图像进行细致的描述。该描述持续了好几段。

它还可以回答关于图像的问题。如果给它一张冰箱内部的照片,它可以建议用手头的东西做几道菜。

纽约时报:GPT-4 令人印象深刻的10个特点

OpenAI尚未向公众发布这部分技术,但一家名为Be My Eyes的公司已经在使用GPT-4构建服务,可以对互联网上遇到的或在现实世界中拍到的图像提供更详细的想法。

5、它已经增加了严肃的专业知识

在最近的一个晚上,北卡罗来纳大学教堂山分校的医学副教授和心脏病专家Anil Gehi向聊天机器人描述了他一天前见过的一个病人的病史,包括病人入院后的并发症。描述中包含了一些非专业人士不认识的医学术语。

当Gehi医生问他应该如何治疗该病人时,聊天机器人给了他一个完美的答案。他说:“聊天机器人给出的答案正是我们对待病人的方式”。

当他尝试其他场景时,机器人也给出了同样令人印象深刻的答案。

这种知识不太可能在每次使用机器人时都得到展示。它仍然需要像Gehi博士这样的专家来判断它的反应并执行医疗程序。但它可以在许多领域展示这种专业知识(从计算机编程到会计)。

6、它可以让编辑们大显身手

当给它提供一篇《纽约时报》的文章时,这个新聊天机器人几乎每次都能给出精确而准确的摘要。如果你在摘要中添加了一个随机句子,并询问机器人是否不准确,它会指出添加的句子。

纽约时报:GPT-4 令人印象深刻的10个特点

Etzioni博士说这是一项了不起的技能。他说:“要做一个高质量的总结和高质量的比较,必须对文本有一定程度的理解,并有能力表达这种理解。这是一种高级形式的智力。”

7、它正在发展一种幽默感

Etzioni博士要求新机器人提供 “一个关于歌手麦当娜的新奇笑话”。回答让他印象深刻。而且给出的笑话也让他笑了。如果你知道麦当娜最大的作品,它可能也会让你印象深刻。

纽约时报:GPT-4 令人印象深刻的10个特点

新的机器人仍然难以写出除了公式化的 “爸爸给孩子的笑话”以外的东西。但它比它的前辈略微有趣。

8、它在一定程度上可以推理

Etzioni博士给新机器人出了一道难题。

纽约时报:GPT-4 令人印象深刻的10个特点

该系统似乎作出了适当的反应。但是答案并没有考虑到门口的高度,这可能也会阻碍坦克或汽车的通过。

OpenAI的首席执行官Sam Altman说,新的机器人可以 “一点点”进行推理。但它的推理能力在很多情况下都会出现问题。上一版本的ChatGPT对这个问题的处理要好一点,因为它认识到高度和宽度很重要。

9、它可以在标准化测试中取得好成绩

OpenAI说,新系统可以在统一律师考试中的前10%左右的学生中得分,该考试使41个州和地区的律师获得资格。根据该公司的测试,它还可以在SAT考试中获得1300分(满分1600分),在生物学、微积分、宏观经济学、心理学、统计学和历史等高中高级课程考试中获得5分(满分5分)。

该技术的前几个版本在统一律师考试中没有通过,在大多数大学先修课程考试中的得分也没有那么高。

在最近的一个下午,为了展示它的测试技能,Brockman先生给新的机器人提供了一段很长的律师考试问题,内容是关于一个经营柴油卡车维修业务的人。

答案是正确的,但充满了法律术语。因此,Brockman先生要求机器人用普通英语向外行人解释答案。它也这样做了。

10、它不善于讨论未来

尽管新的机器人似乎能够推理已经发生的事情,但当被要求形成关于未来的假设时,它就不那么擅长了。它似乎借鉴了别人说过的话,而不是创造新的猜测。

当Etzioni博士问新机器人:“未来十年N.L.P.研究中需要解决的重要问题是什么”?(指的是推动ChatGPT等系统发展的那种 “自然语言处理”研究)它无法提出全新的想法。

它还在产生编造内容

这个新的机器人仍然在编造东西。这个问题被称为 “幻觉”,困扰着所有领先的聊天机器人。因为这些系统不了解什么是真的,什么是假的,它们可能产生完全错误的文本。

当被要求提供描述最新癌症研究的网站地址时,它有时会生成不存在的互联网地址。

本文观点不代表LDNews立场,不承担法律责任,文章及观点也不构成任何投资意见。

LDNews的头像LDNews

相关推荐

发表回复

登录后才能评论

联系我们

在线咨询: QQ交谈

微信:CryptoMetac

邮件:liandufin@163.com

工作时间:周一至周五,9:30-18:30,节假日休息

微信
LDNews 让你轻松读懂Web3趋势 举报