面向程序员和程序员的问答网站Stack Overflow已经暂时禁止用户分享人工智能聊天机器人ChatGPT生成的回复。该网站的mods说禁令是暂时的,最终裁决将在未来一段时间后,与社区协商。但是,正如mods解释的那样,ChatGPT只是让用户太容易生成响应,并在网站上充斥着乍一看似乎正确但仔细检查往往是错误的答案。
“主要问题是,虽然ChatGPT生成的答案错误率很高,但它们这些措施可能非常易于生产”mods写道。“目前,使用ChatGPT在Stack Overflow上创建帖子是不允许的。
ChatGPT是一个由OpenAI创建的实验性聊天机器人,基于其自动完成文本生成器GPT-3.5。这个机器人的网络演示上周发布后就受到了用户的热烈讨论。机器人的界面鼓励人们提出问题,并在一系列查询中提供令人印象深刻和流畅的结果;从创作诗歌、歌曲和电视剧本,到回答琐碎的问题,以及编写和调试代码行。
但是,尽管许多用户对ChatGPT的功能印象深刻,但其他人注意到它一直倾向于生成看似合理但错误的响应。例如,让机器人写一个公众人物的传记,它很可能会完全自信地插入错误的传记数据。让它解释如何为一个特定的功能编写软件,它同样可以产生可信的,但最终不正确的代码。
这是几个众所周知的缺点人工智能文本生成模型,也称为大型语言模型或LLM。这些系统是通过分析从网络上抓取的大量文本中的模式来训练的。他们在这些数据中寻找统计规律,并利用这些规律来预测在任何给定的句子中接下来应该出现什么词。然而,这意味着,他们缺乏世界上某些系统如何运作的硬编码规则,导致他们倾向于产生“流利的废话”。
考虑到这些系统的巨大规模,我们不可能确切地说它们的输出中有多大比例是错误的。但在Stack Overflow的案例中,该公司目前判断,误导用户的风险太高。
与此同时,在Stack Overflow网站的讨论区和相关论坛(如Hacker News)上,对Stack Overflow政策声明的回应得到了广泛的支持,用户还补充说,Stack Overflow的mods可能很难从一开始就识别出人工智能生成的答案。
许多用户都讲述了他们自己使用该机器人的经历,黑客新闻上的一位用户说,他们发现它对有关编码问题的查询的回答往往是错误的而不是正确的。“可怕的部分只是它是多么自信地不正确,”用户说。“这篇文章看起来很好,但有很大的错误。”
其他人则把人工智能审核的问题交给ChatGPT本身,要求机器人提出支持和反对其禁令的理由。在一个回应中,机器人得出了与Stack Overflow自己的mods完全相同的结论:“总的来说,是否允许人工智能在Stack Overflow上生成答案是一个复杂的决定,需要社区仔细考虑。”