被怀疑Model 3生产预测误导投资者,特斯拉又被SEC找上门

简介: 特斯拉的水逆还没有结束。

特斯拉的水逆还没有结束。

今年可能真的是特斯拉的水逆年。

继自动驾驶车祸、汽车自燃等事故之后,特斯拉开始了与美国证券交易委员会(SEC)的纠缠。

此前,因为马斯克发推,声称要实现特斯拉的私有化,引发股价大涨之后,最终却不了了之,由此引发了SEC的关注。当地时间9月27日,SEC正式对马斯克提出起诉,指控其发布“虚假和误导信息”,在没有资金来源的情况下宣布考虑将公司私有化,并且声称“资金来源有保障”。

最终,这起诉讼以马斯克和特斯拉的退让拉下帷幕。根据双方的和解协议,马斯克将辞去特斯拉董事长职务、任命两位新的独立董事、组建一个新的独立董事委员会监督自己、与特斯拉将分别支付2000万美元的罚款。目前,这份和解协议已经得到了美国法官的批准。

TB1N9M6mIfpK1RjSZFOXXa6nFXa.jpg

然而,这一诉讼刚结束没多久,SEC再次找上特斯拉。

当前,SEC和美国司法部正在调查特斯拉的Model 3生产计划,这件事也得到了特斯拉的官方承认。

特斯拉方面称,除了“私有化推文”之外,SEC另外针对马斯克就Model 3生产率发表的评论传唤了公司。美国司法部检察官也询问了同样的信息,但是未发出正式传票。

而就在此前不久,《华尔街日报》发表的一篇报道中写道,美国联邦调查局(FBI)探员正在调查特斯拉是否在Model 3生产上误导投资者。FBI是美国司法部的主要调查部门。

针对这篇报道,马斯克在周五接受媒体采访的时候,持否认状态称:“不实报道的数量令人难以置信。以《华尔街日报》首页的文章为例,他们说‘FBI正在介入’,这完全错误,太荒谬了。一家主流媒体在其首页上刊登这种虚假报道太离谱了。他们称得上是新闻记者吗?他们太可恶了。”与其态度不同,特斯拉官方却是予以承认,不免有点“打脸”嫌疑。

根据《华尔街日报》的报道,这一次SEC之所以会再次找上门,是怀疑特斯拉在Model 3的生产上误导投资者。

TB14YA2mMTqK1RjSZPhXXXfOFXa.jpg

据悉,在2016年年初,特斯拉高调推出Model 3,并在2017年多次承诺年底前实现5000辆的周产量。然而,事实结果是,直到今年6月,特斯拉才实现了这一目标,并且之后也不是非常稳定。

据一位熟悉特斯拉生产情况的可靠消息人士透露,特斯拉上周生产了6599辆汽车,其中包括4400辆Model 3。而到了本周,特斯拉仅生产了约5000辆汽车,其中囊括3500辆Model 3,周产量不仅没有上升,更是出现了大幅下滑。对于接受调查中的特斯拉而言,这并不是一个很好的消息。

根据数据事实,特斯拉,或者说马斯克的确没有实现自己在2017年底实现Model 3周产量5000的承诺,这是不可否认的事实。不过,最终如何判定,还得继续看下去。

相关文章
|
5月前
|
机器学习/深度学习 人工智能
高于临床测试3倍准确率!剑桥大学开发AI模型,提前6年预测阿尔茨海默症
【8月更文挑战第9天】剑桥大学研发的人工智能模型在预测阿尔茨海默症方面取得突破,准确率比传统临床测试高三倍,能提前六年预测疾病发生。该模型基于深度学习,利用大量临床及神经影像数据识别生物标志物,预测准确性达80%。这一成果有望促进早期干预,改善患者预后,但仍需更大规模研究验证,并解决隐私与公平性等问题。论文已发表于《The Lancet》子刊。
65 6
|
5月前
|
数据采集 机器学习/深度学习 人工智能
【2021 第五届“达观杯” 基于大规模预训练模型的风险事件标签识别】1 初赛Rank12的总结与分析
关于2021年第五届“达观杯”基于大规模预训练模型的风险事件标签识别竞赛的初赛Rank12团队的总结与分析,详细介绍了赛题分析、传统深度学习方案、预训练方案、提分技巧、加速训练方法以及团队的总结和反思。
54 0
|
8月前
|
数据采集 人工智能 自然语言处理
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据
【5月更文挑战第16天】微软发布 Phi-3 技术报告,介绍了一个拥有3.8B参数的新语言模型,超越GPT-3.5,成为最大模型之一。 Phi-3 在手机上运行的特性开启了大型模型移动应用新纪元。报告强调数据清洗是关键,通过优化设计实现高效运行。实验显示 Phi-3 在多项NLP任务中表现出色,但泛化能力和数据隐私仍是挑战。该模型预示着AI领域的未来突破。[[论文链接](https://arxiv.org/pdf/2404.14219.pdf)]
96 2
|
8月前
终于有人调查了小模型过拟合:三分之二都有数据污染,微软Phi-3、Mixtral 8x22B被点名
【5月更文挑战第15天】研究人员发现,大型语言模型(LLM)在解决小学算术问题时可能因数据污染导致过拟合,三分之二的模型受影响,包括微软的Phi-3和Mixtral 8x22B。新基准GSM1k显示,一些LLM准确率下降13%,而Gemini/GPT/Claude等展现出较小过拟合。模型对GSM8k的依赖度与其性能差距正相关,提示记忆而非真正推理。论文呼吁研究如何提升LLM的泛化能力。[链接](https://arxiv.org/pdf/2405.00332)
43 2
|
8月前
|
机器学习/深度学习 算法 数据可视化
数据报告分享|WEKA贝叶斯网络挖掘学校在校人数影响因素数据分类模型
数据报告分享|WEKA贝叶斯网络挖掘学校在校人数影响因素数据分类模型
|
机器学习/深度学习 人工智能 数据可视化
人间真实——用interpret可解释分析一下影响年薪收入的因素
近年来,可解释AI(eXplainable AI,XAI)是人工智能的一个热门方向,相关研究内容呈现快速增长趋势。在众多可解释AI相关开源工具中,微软的interpret是一个功能比较全面、展示效果较好的代表,个人在学习了interpret文档后,发现其一个demo中用到的数据集为Adult数据集——一个用于预测个人年收入是否大于50K(单位:$)的人口普查数据集。所以,刚好用interpret来分析一下,影响年薪收入的因素都有哪些,以及影响程度如何
272 0
人间真实——用interpret可解释分析一下影响年薪收入的因素
|
城市大脑 达摩院 大数据
智库观察|科学、发展和幸福:一份 七十多年前的报告这样说
这一份“改变美国历史”的报告,是否依然适合当今时代 ? 我们是否已经走了太久,忘 记了为什么出发 ? 今天的发展对科学研究和技术创新的政策是否有更新的要求?
185 0
|
人工智能
IBM Watson被曝给出错误癌症治疗建议,是悲剧还是误会?丨科技云·视角
曾经是公众心目中“人工智能”代名词的IBM Watson,在近4年砸下几百亿美元的研发投入后,前景反而愈发暗淡。医生抱怨Watson给出错误判断,多家医院终止了与Watson肿瘤相关项目,Watson真的能治病吗? 近日,外媒Stat News爆出了IBM的一份内部文件,其中提及Watson计算机经常给出错误的癌症治疗建议,比如给一个已经大出血的癌症病人开了有可能会导致出血的药。
9416 0

热门文章

最新文章