今日要闻!斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果
别太迷信大模型的涌现,世界上哪儿有那么多奇迹?
事实上,复杂系统的新兴特性一直以来都是物理学、生物学、数学等学科在研究的重点。
值得注意的一个观点是,诺贝尔物理学奖获得者 P.W.Anderson 提出了「More Is Different」。这一观点认为,随着系统复杂性的增加,新的属性可能会具象化,即使从对系统微观细节的精确定量理解中并不能(容易或根本无法)预测到。
(资料图片仅供参考)
大模型领域的「涌现」如何定义?一种通俗的说法是「在小规模模型中不存在,但在大规模模型中存在的能力」,因此,它们不能通过简单地推断小规模模型的性能改进来预测。
这种涌现的能力可能首先在 GPT-3 家族中被发现。后续的一些工作强调了这一发现:「虽然模型性能在一般水平上是可以预测的,但在特定任务上,其性能有时会在规模上出现相当难以预测的涌现」。事实上,这些涌现能力非常令人惊讶,以至于「突然的、特定的能力扩展」已经被认为是 LLM 的两个最高定义特征之一。此外,「breakthrough capabilities」和「sharp left turns」等术语也被使用。
综上所述,我们可以确定 LLM 涌现能力的两个决定性属性:
1. 敏锐性,从「不存在」到「存在」似乎只是瞬间的过渡;
2. 不可预测性,在看似不可预见的模型规模内过渡。
与此同时,还有一些问题悬而未决:是什么控制了哪些能力会涌现?什么控制着能力的涌现?我们怎样才能使理想的能力更快地涌现,并确保不理想的能力永不涌现?
这些问题与人工智能的安全和对齐息息相关,因为涌现的能力预示着更大的模型可能有一天会在没有警告的情况下获得对危险能力的掌握,这是人类不希望发生的。
在最新的一篇论文中,斯坦福大学的研究者对 LLM 拥有涌现能力的说法提出了质疑。
具体而言,此处的质疑针对的是在特定任务中模型输出作为模型规模的函数而发生的涌现和不可预测的变化。
他们的怀疑基于以下观察:似乎只有在非线性或不连续地扩展任何模型的 per-token 错误率的度量下,模型才会出现涌现能力。例如,在 BIG-Bench 任务中,>92% 的涌现能力是这两个度量下出现的:
这就为 LLMs 的涌现能力的起源提出了另一种解释的可能性:尽管模型族的 per-token 错误率会随着模型规模的增加进行平滑、持续且可预测地变化,但看似尖锐和不可预测的变化可能是由研究者选择的测量方法引起的。
也就是说,涌现能力可能是一种海市蜃楼,主要是由于研究者选择了一种非线性或不连续地改变 per-token 错误率的度量,部分原因是由于拥有太少的测试数据,不足以准确估计较小模型的性能(从而导致较小的模型看起来完全不能执行任务),另一部分原因是由于评估了太少的大规模模型。
为了阐述这种解释方式,研究者将其作为一个简单的数学模型,并证明它是如何从数量上再现为支持 LLM 的涌现能力而提供的证据。然后,研究者以三种互补的方式检验了这种解释:
1. 使用 InstructGPT [24]/GPT-3 [3] 模型系列,根据替代假说做出、测试并确认三个预测。2. 对先前的一些结果进行了元分析,并表明在任务指标 - 模型家族三联体的空间中,出现的能力只出现在某些指标上,而不是任务上的模型家族(列)。该研究进一步表明,在固定的模型输出上,改变度量会导致涌现现象的消失。3. 故意在不同架构的深度神经网络中诱导出多个视觉任务的涌现能力(这在以前从未被证明过),以显示类似的度量选择如何诱导出看似涌现的能力。
检验一:InstructGPT/GPT-3 模型系列分析
研究者选择了 GPT 系列模型进行进一步分析,原因在于它是可公开查询的,这一点和其他模型系列不同(例如 PaLM、LaMDA、Gopher、Chinchilla)。在此前的研究中,GPT 系列模型被认为在整数算术任务中展示出涌现能力。此处,研究者也选择了整数算术这一任务。
图 2: 大型语言模型的涌现能力是研究者分析的创造物,而不是模型输出随规模变化的根本性变化。
正如第 2 节中用数学和图表解释的那样,研究者提出的替代解释可以预测出三个结果:
1. 随着模型规模提升,如果将度量从非线性 / 不连续的度量(图 2CD)换成线性 / 连续的度量(图 2EF),那么应该会有平滑的、连续的、可预测的性能提升。
2. 对于非线性的度量,如果通过增大测试数据集的大小而提升所测模型性能的分辨率,那么应该能让模型得到平滑的、连续的、可预测的提升,并且该提升的比例与所选度量的可预测的非线性效应是相对应的。
3. 无论使用什么度量指标,提升目标字符串长度都应该会对模型性能产生影响,该影响是长度为 1 的目标性能的一个函数:对于准确度是近乎几何的函数,对于 token 编辑距离是近乎准线性的函数。
为了测试这三个预测结论,研究者收集了 InstructGPT/GPT-3 系列模型在两个算术任务上的字符串输出结果:使用 OpenAI API 执行 2 个两位数整数之间的两样本乘法以及 2 个四位数整数之间的两样本加法。
图 3:随着模型规模提升,改变度量可以为性能带来平滑、连续、可预测的改变。
从左至右:数学模型,2 个两位数整数乘法任务, 2 个四位数整数加法任务。上方的图是使用一个非线性度量(如准确度)而测得的模型性能,可看到 InstructGPT/GPT-3 系列模型的性能在目标长度更长时显得锐利和不可预测。而下方的图是使用一个线性度量(如 token 编辑距离)而测得的模型性能,此系列模型表现出了平滑的、可预测的性能提升,这是研究者宣称的涌现产生的能力。
预测:涌现能力在线性度量下会消失
在这两个整数乘法和加法任务上,如果目标字符串的长度是 4 或 5 位数字并且性能的度量方式是准确度(图 3 上一行图),那么 GPT 系列模型会展现出涌现的算术能力。但是,如果将一个度量从非线性换成线性,同时保持模型的输出固定,那么该系列模型的性能会得到平滑、连续和可预测的提升。这就确认了研究者的预测,由此表明锐利和不确定性的来源是研究者所选择的度量,而非模型的输出的变化。还可以看到,在使用 token 编辑距离时,如果将目标字符串的长度从 1 增大至 5,那么可预见该系列模型的性能会下降,并且下降趋势是近乎准线性的,这符合第三个预测的前半部分。
预测:涌现能力随着更高的分辨率评估的出现而消失
接下来是第二个预测:即使是用准确度等非线性度量,更小模型的准确度也不会为零,而是高于偶然性的非零值,其比例是与选择使用准确度为度量相对应的。为了提升分辨率,以进一步能准确估计模型准确度,研究者还生成了其它一些测试数据,然后他们发现:不管是在整数乘法任务上还是在整数加法任务上,InstructGPT/GPT-3 系列的所有模型都得到了超过偶然性的正值准确度(图 4)。这验证了第二个预测。可以看到,随着目标字符串长度增大,准确度会随目标字符串的长度而呈现近乎几何式的下降,这符合第三个预测的后半部分。这些结果还表明研究者选择的准确度会产生一些我们应该能预料到的(近似)效果,即随目标长度而近乎几何式地衰减。
图 4:使用更多测试数据集得到了更好的准确度估计,这揭示出性能的变化是平滑的、连续的和可预测的。
从左至右:数学模型,2 个两位数整数乘法任务, 2 个四位数整数加法任务。通过生成更多测试数据来提升分辨率,揭示出即使是在准确度度量上,InstructGPT/GPT-3 系列模型的性能也是超出偶然结果的,并且其在两种涌现能力上的提升是平滑的、连续的和可预测的,这两种涌现能力的结果在定性上是与数学模型相符的。
检验二:模型涌现的元分析
由于 GPT 系列模型是可以公开查询使用的,因此可以对它们进行分析。但是,其它一些也有人声称具备涌现能力的模型(比如 PaLM、Chinchilla、Gopher)却并不是公开可用的,它们生成的输出也没有公开,这意味着研究者在分析已发表结果时是受限的。研究者基于自己提出的替代假设给出了两个预测:
第一,在「任务 - 度量 - 模型系列」三元组的「群体层面(population level)」上,当选择使用非线性和 / 或非连续度量来评估模型性能时,模型应当会在任务上表现出涌现能力。第二,对于展现出了涌现能力的特定「任务 - 度量 - 模型系列」三元组,如果将度量改变成线性和 / 或连续度量,那么涌现能力应该会被消除。为了测试这两个假设,研究者调查了声称在 BIG-Bench 评估套件上涌现出的能力,因为在该套件上的基准是公开可用的,并且也有很好的文档。
预测:涌现能力应该主要出现在非线性 / 非连续度量上
为了测试第一个预测,研究者分析了在哪些指标上,不同的「任务 - 模型系列」配对是否会出现涌现能力。为了确定一个「任务 - 度量 - 模型系列」三元组是否可能展现出涌现能力,他们借用了论文《Beyond the imitation game: Quantifying and extrapolating the capabilities of language models》中引入的定义。令 y_i ∈ R 表示模型大小为 x_i ∈ R 时的模型性能,并使得 x_i < x_i+1,则涌现分数为:
结果研究者发现,BIG-Bench 使用的大多数度量中没有表现出涌现能力的「任务 - 模型系列」配对:在人们偏好的 39 个 BIG-Bench 度量中,至多 5 个展现出了涌现能力(图 5A)。这 5 个大都是非线性的 / 非连续的,如精确字符串匹配、多选择分级、ROUGE-L-Sum。值得注意的是,由于 BIG-Bench 通常使用多项度量来评估模型的任务表现,因此在其它度量下缺乏涌现能力这一现象说明:当使用其它度量来评价模型输出时,涌现能力并不会出现。
由于涌现分数仅表明有涌现能力,因此研究者还进一步分析了论文《137 emergent abilities of large language models》中人工标注的「任务 - 度量 - 模型系列」三元组。人工标注的数据表明 39 个度量中仅有 4 个表现出了涌现能力(图 5B),并且它们中的 2 个就占到了所宣称的涌现能力的 92% 以上(图 5C)。多选择分级和精确字符串匹配。多选择分级是非连续的,精确字符串匹配是非线性的(在目标长度度量上的变化是近乎几何式的)。总体而言,这些结果说明涌现能力仅出现在非常少量的非线性和 / 或非连续度量上。
图 5:仅有少数度量会出现涌现能力。(A) 在人们偏好的 39 个 BIG-Bench 度量中,至多只有 5 个度量上可能出现了涌现能力。(B) 所引论文中人工标注的数据表明仅有 4 个人们偏好的度量表现出了涌现能力。(C) 涌现能力中 > 92% 都出现在以下两个度量之一上:多选择分级和精确字符串匹配。
预测:如果替代非线性 / 非连续度量,涌现能力应该会被消除
对于第二个预测,研究者分析了前文所引论文中人工标注的涌现能力。他们关注的是 LaMDA 系列,因为其输出可通过 BIG-Bench 获取,而其它模型系列的输出无法这样获取。在已经发表的 LaMDA 模型中,最小的有 20 亿个参数,但 BIG-Bench 中的许多 LaMDA 模型都小很多,而且研究者表示由于无法确定这些更小模型的来源,因此没有在分析中考虑它们。在分析中,研究者认定了在多选择分级度量上 LaMDA 在哪些任务上展现出了涌现能力,然后他们提出了问题:当使用另一个 BIG-Bench 度量 Brier 分数时,LaMDA 能否在同样的任务上展现出涌现能力。Brier 分数是一套严格适当(strictly proper)的评分规则,其度量的是互斥结果的预测;对于一个二元结果的预测,Brier 分数简化成了结果及其预测概率质量之间的均方误差。
研究者发现,当非连续度量多选择分级变成连续度量 Brier 分数时(图 6),LaMDA 的涌现能力消失了。这进一步说明涌现能力的成因并非是随规模增长而导致的模型行为的本质变化,而是对非连续度量的使用。
图 6:在任务和模型系列保持不变的前提下改变 BIG-Bench 度量会导致涌现能力消失。上一行:当使用的是一个非连续度量(多选择分级)时,LaMDA 模型系列展现出了涌现能力。下一行:当使用的是一个连续的 BIG-Bench 度量(Brier 分数)时,LaMDA 模型系列在同样任务上不再有涌现能力。
检验三:诱导 DNN 出现涌现能力
研究者的观点是可以通过度量的选择来诱导模型产生涌现能力;为了证明这一点,他们展示了如何让不同架构(全连接、卷积、自注意力)的深度神经网络产生涌现能力。这里研究者重点关注的是视觉任务,原因有二。第一,人们现在主要关注大型语言模型的涌现能力,因为对于视觉模型而言,目前还没有观察到模型能力从无突然转变到有的现象。第二,某些视觉任务用大小适中的网络就足以解决,因此研究者可以完整构建出跨多个数量级规模的模型系列。
卷积网络涌现出对 MNIST 手写数字的分类能力
研究者首先诱导实现 LeNet 卷积神经网络系列涌现出分类能力,训练数据集是 MNIST 手写数字数据集。这个系列展现出了随参数数量增长,测试准确度平滑提升的现象(图 7B)。为了模拟有关涌现的论文中使用的准确度度量,这里使用的是子集准确度(subset accuracy):如果该网络从 K 个(独立的)测试数据中正确分类出了 K 个数据,那么该网络的子集准确度为 1,否则为 0。基于这一准确度定义,在 K 从 1 增长到 5 的设定中,该模型系列展现出了「涌现」能力,从而能够正确分类 MNIST 数字集,尤其是结合了模型大小的稀疏采样时(图 7C)。这个卷积系列的涌现分类能力在定性分析上符合已发表论文中的涌现能力,比如在 BIG-Bench 的地形测绘任务上的结果(图 7A)。
图 7:在卷积网络中诱导出涌现的 MNIST 分类能力。(A) 一篇已发表论文中的基于 BIG-Bench 地形测绘任务的涌现能力。(B) 在 MNIST 上训练的 LeNet 表现出:随模型参数数量增长,测试准确度展现出预测的、普遍的、S 形的增长。(C) 当把准确度重新定义成从 K 个独立测试数据中正确分类出 K 个时,这个新定义的度量会诱导出一种似乎在预料之外的变化。
非线性自动编码器在 CIFAR100 自然图像集上涌现出重建能力
为了凸显出研究者所选度量的锐利度是涌现能力的原因,并且为了表明这种锐利度不仅限于准确度等度量,研究者又诱导在 CIFAR100 自然图像集上训练的浅度(即单隐藏层)非线性自动编码器涌现出重建图像输入的能力。为此,他们刻意定义了一个新的用于衡量模型能力的不连续度量,该度量为平方重建误差低于固定阈值 c 的测试数据的平均数量:
其中 I (・) 是一个随机指示变量,x^n 是自动编码器对 x_n 的重建。研究者检视了自动编码器瓶颈单元的数量,然后发现随模型规模增长,网络的均方重建误差会表现出平滑的下降趋势(图 8B),但如果使用新定义的重建度量,对于选定的 c,这个自动编码器系列在重建该数据集上展现出的能力是锐利的和几乎不可预测的(图 8C),这个结果在定性分析上符合已发表论文中的涌现能力,比如 BIG-Bench 中的 Periodic Elements(周期性元素)任务(图 8A)。
图 8:在浅度非线性自动编码器中诱导出涌现的重建能力。(A) 一篇已发表论文中的基于 BIG-Bench 周期性元素任务的涌现能力。(B) 在 CIFAR100 上训练的浅度非线性自动编码器展现出了平滑下降的均方重建误差。(C) 使用新定义的重建度量(公式 2)诱导出了不可预测的变化。
自回归 Transformer 在 Omniglot 字符集上涌现出了分类能力
接下来是 Transformer 的涌现能力,其使用的是自回归方法来分类 Omniglot 手写字符。研究者使用的实验设置是类似的:Omniglot 图像先由卷积层嵌入,然后以 [嵌入图像,图像类别标签] 配对组成序列的方式输入仅解码器的 Transformer,而该 Transformer 的训练目标是预测 Omniglot 类别标签。研究者是在长度为 L ∈ [1, 5] 的序列上测量图像分类性能,同样是通过子集准确度来度量:如果所有 L 图像都分类正确(图 9B)则子集准确度为 1,否则为 0。Causal Transformer 在正确分类 Omniglot 手写字符任务上似乎展现出了涌现能力(图 9C),该结果在定性分析上符合已发表论文中的涌现能力,比如大规模多任务语言理解(图 9A)。
图 9:在自回归 Transformer 中诱导出涌现的分类能力。(A) 一篇已发表论文中基于 MMLU 基准的涌现能力。(B) 随模型参数增多,使用自回归方法来分类 Omniglot 手写数字的 Transformer 的测试准确度也表现为增长。(C) 当将准确度重新定义为正确分类序列中的所有图像时,该指标更难被预测,这似乎说明诱导出了涌现能力。
标签:
推荐
- 今日要闻!斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果
- 延安一家人 当前快看
- 2:1!亚冠爆出大冷门,澳超球队绝地反击,韩国五冠王惨遭淘汰
- 全国公路网仍处于高位运行态势,这些路段车流量大
- 世界即时看!夯实生态产品价值实现的“数字底座”
- 华泰证券:若没有出现经济明显衰退或者金融稳定风险 美联储或难以降息
- 每日观察!好吃+好逛吸引力十足,这些“绝绝子”让游客爱上武汉之夜
- 5月3日,巴西商贸部工业品出口数据汇总
- 当前热门:《紫罗兰永恒花园》被京阿尼大力宣传捧上天,原因可能有这么几个
- 为什么总出现未批先建的情况?_环球热资讯
- 赌王千霸之逢赌必赢粤语版_赌王千霸之逢赌必赢
- 2023年5月2日LME铅库存分布情况 今日热门
- 石文软件品牌介绍_石文工具软件 世界观焦点
- 羊绒针织衫怎么洗(羊绒针织衫怎么洗会缩水)
- Stephens & Co.:重申Global Payments(GPN.US)增持评级-环球消息
- 怎么查我属于哪个居委会呢 怎么查我属于哪个居委会|报道
- 如何找到自己真正热爱和擅长的事,并以此规划自己的人生? 天天快播
- 鼎丰集团汽车(06878.HK)委任梁凤仪为公司秘书
- 天天新动态:“五一”假期第四天 全国铁路依旧保持高位运行
- 【全球速看料】购买新能源汽车怎么省钱?
- 全球新资讯:大利好!汇丰一季度业绩超预期,大方宣布恢复季度分红!股价大涨超4%
- 辽宁省鞍山市2023-05-02 13:44发布大风黄色预警-环球微动态
- 实时焦点:军人看病,不再需要划价、计价、开转诊单了!
- 2022车机导航十大品牌排行榜_车机导航哪个牌子好 微头条
- 环球今日讯!双子杀手评价_这部剧特别的好看
- 灵秀形容什么_灵秀的意思-今日热讯
- 快看:凯特贝金赛尔巅峰颜值什么水平_大尺度电影剧照有哪些
- AI又来砸饭碗!科技巨头5.1官宣:要“优化”7800个岗位,暂停招聘“AI可胜任的职位”
- 乌度卡:我不想找重返季后赛&首轮就出局的球队 我想重返总决赛 世界热消息
- “五一”假期旅游景点持续升温 物业公司时隔3年再迎“大考”
- 当前快看:无缝绿色(08150)延迟刊发2022年度业绩 继续停牌
- 凌晨官宣:离婚
- 【播资讯】计算机类专业哪个好视频_计算机类专业哪个好
- 钟鸣鼎食的意思是啥_钟鸣鼎食的意思-最新快讯
- 亚洲最深油气井在新疆塔里木盆地开钻|焦点简讯
- “12+256GB”内存足够了:2000元左右手机,可流畅三年不换 世界讯息
- 市场监管总局通报19种网售产品质量国家监督抽查情况-每日播报
- 家政公司起什么名字好 家政公司名字大全最新
- 凋零之秋|全球快播报
- 最高法发布人民法院涉农民工工资案件执行典型案例_全球新要闻
- 焦点短讯!美国密西西比州聚会枪案致6人死伤
- 哪里的葡萄酒,大学生“特种兵”式打卡也要500天? 全球最资讯
- 五一坚守|重庆6条在建高铁施工忙 3万人“五一”坚守岗位 每日时讯
- 【LLAS简评】复活节篇+Party凛 世界热闻
- 长安区开通9条定制公交线路
- 二律背反露中全文文本 二律背反
- 天龙八部2飞龙战天礼包兑换码大全2023详情
- 美国又一银行遭遇危机,“爆雷”会否造成连锁反应
- 快看:2023年伏季休渔今天正式开始
- 假期前两天 近8万人次涌进广图-环球热闻
- 房企转型试水经营服务业务
- 三分7中0!布伦森23投11中得到25分5篮板7助攻5失误
- 环球资讯:淄博被通报违规涨价酒店回应:此前价格定高可以退差价
- 环球快播:舒可爱特母婴是哪个国家的品牌_什么档次怎么样
- 热推荐:高速有人撒钉多车受损_官方通报 未发现有人为抛撒铁钉或金属异物
- 班级简介初中简短_班级简介初中
- “长城保护员2.0版”,申请出战!
- 长春市着力提升旅游服务质量 确保旅游市场安全有序|天天信息
- 环球新资讯:18岁可以贷款买房吗?
- 当前要闻:爽肤水推荐:这些化妆水有效细腻肌肤收缩毛孔、密集补水效果好!
- (经济)4月份中国制造业PMI为49.2%
- 当前速读:沥青
- 每日关注!三只松鼠“二次创业”进行时,“品销合一”电商新战略发布
- 【世界新要闻】聚力打造河南工程学院时尚品牌 153名毕业生精彩演绎T台上的“论文答辩”
- 当前焦点!中国能看到的流星雨时间表2021_2021中国流星雨时间表
- 中天精装劳务采购数据疑“注水” 供应商与客户或系“自家人”_当前简讯
- 出行提醒!上火车啥不能带?-世界观速讯
- 刻晴:今晚来陪我加班吧,有奖励的哦~ (空x刻晴 短篇糖文)|环球精选
- 环球即时看!烟火气四溢、人情味更浓,五五购物节来上海夜市“轧闹猛”!
- 热点在线丨近百件作品!“镇馆之宝”和“文物瑰宝”融合,重量级大展亮相西岸!
- 环球关注:丝绸之路股票4月28日成交额10大排行榜(附名单)
- 咖喱土豆鸡肉怎么做(咖喱土豆鸡肉怎么做才好吃)
- 学校门口做什么生意比较好_学校门口适合做什么生意|全球观天下
- 全球新资讯:二级巡视员是什么级别_副巡视员是什么级别
- 次北固山下教案优秀教学设计_次北固山下的教案-看点
- 张玉宁:面对这么多球迷肯定会有紧张 我们这场比赛前三场踢得好-焦点日报
- @长沙中考生,这份指标生计划表赶紧看过来!别错过这个上优质高中的机会
- 世界消息!【节日警相随】严执法 保障假日安全
- 辽宁女排亚俱杯首败!先赢后输被泰国逆转,两队携手晋级四强
- 【见·闻】中国糖果企业重返国际顶级展会渴望提升自主品牌-今日热文
- 汽车信息:S8比奥迪说的要快得多_世界球精选
- 世界今日讯!旅游市场渐入常态化发展新轨道 网红景点将流量转化为“游量”
- 天天热头条丨大语言模型中的涌现现象是不是伪科学?
- 观点:鎷冲ご鏂癕OBA_英雄联盟 2009年美国拳头游戏开发的MOBA竞技网游
- 世界通讯!宁夏平罗县:职工书屋听书馆让职工畅阅“万卷书”
- 征鼓一声千军动_千军问道
- 专车是什么意思_专车软件_世界微速讯
- 省检察院机关“庆五一、迎五四”户外徒步摄影活动优秀作品展播(一)-世界短讯
- 今日快看!“保险+期货+银行+订单”,金融新模式助新疆棉农锁定售后涨价收益
- 天天简讯:金陵十二钗判词原文配图_金陵十二钗演员表
- 旭辉2022年营收474.4亿元 管理层称将尽快推动股票复牌 快看点
- 纪录片在哪个软件看_看纪录片的app
- 北仑一区块规划调整 辟出4宗新宅地|当前速递
- 共同打造“放心消费在山西”金字招牌 快播
- 第十三届中国舞蹈“荷花奖”古典舞评奖在沈阳圆满落幕
- debating_abruptly
- 世界快报:4月28日基金净值:易方达瑞康混合A最新净值1.0879,涨0.12%
- 佳缘科技(301117)周评:本周跌0.31%,主力资金合计净流出1616.86万元_即时焦点
- “五一”假期航空出行热 上海机场迎来出行高峰|全球时快讯
- 天天快报!凯美特气:今年一季度稀有气体价格从前期高点逐步回归,因为受价格波动的影响以及一季度终端逐步去库存等市场因素,公司一季度稀有气体销售有所影响
X 关闭
行业规章
X 关闭