复制成功

分享至

主页 > 数字货币 >

ChatGPT变笨新解释:世界被AI改变,与训练时不同了

2024.01.01

文章来源:量子位

ChatGPT变笨新解释:世界被AI改变,与训练时不同了

图片来源:由无界 AI生成

对于ChatGPT变笨原因,学术界又有了一种新解释。

加州大学圣克鲁兹分校一项研究指出:

在训练数据截止之前的任务上,大模型表现明显更好。
ChatGPT变笨新解释:世界被AI改变,与训练时不同了

论文重点研究了“任务污染”问题,也就是大模型在训练时期就见识过很多任务示例,给人一种AI拥有零样本或少样本能力的错误印象。

ChatGPT变笨新解释:世界被AI改变,与训练时不同了

也有学者从另一个角度指出,大模型训练后参数冻结,人们不断提出新的任务也就是输入分布不断变化。如果模型不能不断适应这种变化,就表现成能力慢慢退化。

人们以为只提了个问题AI就能回答,其实是在训练时见过大多数常见任务。

随时间推移,人们开始提出更多新问题,AI表现就不行了。

比如对于代码问题,编程语言还在持续发展变化,迟早有一天效率会低到不可接受。

ChatGPT变笨新解释:世界被AI改变,与训练时不同了
这是所有不具备持续学习能力模型的命运。
ChatGPT变笨新解释:世界被AI改变,与训练时不同了


任务污染有多严重?


研究团队一共评估了12种模型,从ChatGPT之前的GPT-3系列、OPT、Bloom,到最新的GPT-3.5-turbo、羊驼家族Llama、Alpaca和Vicuna等。

ChatGPT变笨新解释:世界被AI改变,与训练时不同了

它们都存在类似问题,也就是在训练截止之前的任务上表现明显更好。

评估任务污染非常困难,闭源模型根本不会公布训练数据,大多数开源模型也只是生命了来源,而不发布数据本身。

如果研究者重新爬取互联网数据,也有可能与模型训练时相比发生了变化。

对此,团队采用4种方法来测量任务污染程度:

  • 检查训练数据:直接搜索有没有相应的任务示例
  • 在开源模型Alpaca和Vicuna上,存在训练数据污染的任务表现就比原版Llama更好的趋势明显。

    ChatGPT变笨新解释:世界被AI改变,与训练时不同了
  • 提取任务示例:通过调整提示词,让模型自己把训练数据中的任务示例背出来
  • 从GPT-3 davinci-001版本到GPT-3.5-Turbo,这个问题越来越严重了。

    图中X代表模型复述出了训练数据数据中的原始任务示例,绿色代表经过指令微调的模型没有复述训练数据。

    灰色代表未经过指令微调的模型无法根据提示词指示复述训练数据,但不代表问题不存在。

    ChatGPT变笨新解释:世界被AI改变,与训练时不同了
  • 成员推断(只适用于生成任务):检查模型生成的答案是否与原始数据完全相同
  • ChatGPT变笨新解释:世界被AI改变,与训练时不同了
  • 按时间顺序分析:对于已知训练数据收集时间的模型,测量已知发布时间数据集上的表现并使用按时间顺序的证据检查数据污染证据
  • 前三种方法精度较高,但召回率较低。如果在任务的训练数据中找到数据,则可以肯定它已经看到了示例。

    但由于数据格式的变化、关键字的变化以及数据集的大小,使用前三种方法没有找到证据并不意味着数据污染不存在。

    第四种方法召回率高但精度低,容易受干扰因素影响。

    特别是对于GPT-3系列,目前人们假设其能力提高来自于指令微调,但研究团队认为事实并非如此。

    虽然在2021年之前的数据集上,davinci-002比davinci-001的性能有所提高,但在2021年之后的数据集上性能却相应下降,

    免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

    加⼊OKEx全球社群

    和全球数字资产投资者交流讨论

    扫码加入OKEx社群

    相关推荐

    industry-frontier