头条新闻!国际油价“五连跌” 国内油价下调箭在弦上

博主:admin admin 2024-07-08 22:41:49 62 0条评论

国际油价“五连跌” 国内油价下调箭在弦上

北京讯 继上一轮下调后,国际油价再迎五连跌,为国内下一轮成品油价格调整奠定了基础。专家预测,下轮油价大概率下调,有望重回“9元时代”。

国际油价持续走跌

6月17日,WTI原油期货价格收跌2.28美元,至每桶91.44美元;布伦特原油期货价格收跌2.31美元,至每桶96.17美元。至此,国际油价已连续五天累计下跌超8%,创下近四个月新低。

下调预期增强

根据国家发改委的规定,国内成品油价格调整周期为14个工作日,新一轮调价窗口将于6月13日24时开启。从目前国际油价走势来看,下轮调价下调的可能性较大。

或重回“9元时代”

隆众资讯原油行业分析师李彦表示,本轮下调幅度或超过0.4元/升,92号汽油有望重回“9元时代”。

利好因素多

多重因素推动了本轮国际油价下跌。一是全球经济衰退预期加剧,抑制了原油需求。二是美国加息导致美元走强,打压了非美元区投资者持有多头头寸的意愿。三是欧佩克+维持增产计划,供应充足。

影响广泛

油价下调将对多个领域产生影响。对消费者而言,出行成本将有所下降;对企业而言,运输成本将减轻;对宏观经济而言,将有利于降低通胀压力。

专家建议

专家建议,相关部门应抓紧时机,做好成品油价格调整工作,并适时推出利好政策,帮助企业和消费者应对油价波动。

斯坦福大学团队被指抄袭清华大学开源模型,学术诚信蒙羞

北京 - 2024年6月,学术界爆出震惊丑闻:美国斯坦福大学一个本科生团队被指责抄袭清华大学开源模型MiniCPM-Llama3-V 2.5,并在其基础上开发的大型语言模型Llama-3-V。这一事件引发了广泛关注,也对学术诚信问题敲响了警钟。

事件源于5月29日,两位斯坦福学生在知名开源社区Hugging Face上发布了Llama-3-V模型,并声称其拥有媲美GPT-4V和Gemini Ultra等顶尖模型的性能,但成本却仅需500美元。凭借着亮眼的性能和低廉的价格,Llama-3-V迅速获得关注,并在学术界和业界引起热议。

然而,没过多久,就有眼尖的网友发现Llama-3-V与清华大学面壁智能公司开源的MiniCPM-Llama3-V 2.5模型在代码和架构上存在大量相似之处。随后,越来越多的证据表明,Llama-3-V很可能是在未经授权的情况下,直接复制了MiniCPM-Llama3-V 2.5的大部分代码和设计。

面对指责,斯坦福学生最初矢口否认抄袭。但随着证据的不断积累,他们不得不承认了部分事实。然而,他们仍然辩解称,自己是通过引用MiniCPM-Llama3-V 2.5所引用的LLaVA-UHD模型进行开发的,因此不存在抄袭行为。

这一解释并没有得到广泛认可。许多学者指出,Llama-3-V与MiniCPM-Llama3-V 2.5在代码和架构上的相似程度远超简单的引用关系,更像是直接复制粘贴。此外,Llama-3-V的作者还使用了MiniCPM-Llama3-V 2.5的专属符号和配置文件,这进一步证明了他们抄袭的嫌疑。

斯坦福大学事件在学术界引起了轩然波澜。许多学者对斯坦福学生的行为表示谴责,认为这不仅违背了学术诚信的基本原则,也对开源社区的风气造成了严重破坏。清华大学面壁智能公司也发表声明,对斯坦福团队的抄袭行为表示强烈抗议,并保留采取进一步措施的权利。

斯坦福大学随后宣布成立调查委员会,对事件进行彻查。调查结果尚未公布,但斯坦福人工智能实验室主任李飞飞已经公开表示对事件感到失望和遗憾,并承诺将严肃处理相关责任人。

这起事件也引发了人们对学术诚信问题的思考。在信息爆炸的时代,学术造假和抄袭行为变得越来越容易,也对学术研究的公正性造成了更大的威胁。如何加强学术诚信建设,已成为摆在所有科研人员面前的重大课题。

新闻分析:

  • 斯坦福大学事件暴露了学术界诚信缺失的问题,也给所有科研人员敲响了警钟。
  • 加强学术诚信建设需要全社会的共同努力,包括完善相关制度、加强监督管理、提高科研人员的道德素养等。
  • 开源模型为学术研究提供了宝贵的资源,但同时也需要规范其使用规则,避免出现抄袭和滥用行为。

以下是一些可以补充到新闻中的信息:

  • Llama-3-V事件并非个例,近年来学术界抄袭事件频发,对学术风气造成了严重负面影响。
  • 一些学者呼吁加强对开源模型的使用规范,避免其成为抄袭的工具。
  • 面壁智能公司表示将继续维护MiniCPM-Llama3-V 2.5的开源协议,并欢迎更多科研人员参与到模型的开发和应用中。

希望这篇新闻稿能够满足您的要求。

The End

发布于:2024-07-08 22:41:49,除非注明,否则均为科技新闻原创文章,转载请注明出处。