谷歌CFO为公司架构改革辩护:道路曲折 挫折不可避免

简介:

从谷歌完成架构改革到现在已有一年的时间,但谷歌在这一年来走得并不顺畅。

因此谷歌母公司Alphabet首席财务官鲁斯·波拉特(Ruth Porat)本周四亲自上阵,在公司发布最新财报后召开的电话会议上为其架构改革辩护,她坚称公司架构改革是正确的,然而改革的道路是曲折的,改革过程中不可避免地会遇到各种挫折。

谷歌CFO为公司架构改革辩护:道路曲折 挫折不可避免

  Alphabet首席财务官鲁斯·波拉特

第三季度财报电话会议一开始,波拉特就用了不少的时间来谈公司的架构改革。因为这项改革,谷歌的企业架构从一家公司转变成母公司Alphabet统领众多相互独立的、各具创新力的子公司的形式。

波拉特说:“我们相信这样的架构更有透明度,更容易监管,决策更灵活。”

她没有直接提到母公司旗下的众多子公司近期发生的大批高管离职、裁员和亏损等情况。这些子公司分别专注于某一个项目,比如自动驾驶汽车、高速互联网接入服务等等。本周二,这些子公司当中最花钱的GoogleFiber宣布它将暂停推广计划并将员工裁掉9%。

波拉特想让分析师和投资者相信,这些挫折都是公司更高一级规划的部分内容。

她说:“这些登月计划从长远来说将对人类社会产生巨大的影响,当我们决定参与其中的时候,就注定了我们会在前进的过程中遭遇到各种挫折,我们努力推进的某些项目会比另一些项目更加成功,有些项目会暂时遇阻,我们需要不断地进行调整。”

她继续说:“比如在过去的一年里,你们已经看到我们在某些领域取得了进展并且我们加快了前进的步伐,而在另一些领域我们重新进行了调整或者暂时搁置起来。”

被称作“登月计划”的这些子公司第三季度的营业亏损总和达到了8.65亿美元,虽然它们的营收总和同比增长了40%,但总数仍然只有1.97亿美元。因此,有些投资者提出了质疑:这些项目的投资回报率这么差,是否还值得坚持下去?

一场艰苦的论证

波拉特在华尔街眼中是一个有着严格财务纪律的人,她必须保证Alphabet旗下的众多子公司在开支上面不会失控。

这也正是华尔街认为波拉特周四为登月计划子公司的辩护显得太不和谐的原因。

她与Alphabet的首席执行官拉里·佩奇(Larry Page)不同,佩奇是公认的技术梦想家,他的职责或者说他所擅长的事情就是提出创意并努力去实现它,波拉特必须着眼于现实,必须关注经济效益和投资回报,她的论证必须得到牢固的经济基础支撑才能站得住脚。

但是谷歌是一家网络广告公司,同时又在研发太阳能热气球、自动驾驶汽车和机器人这样的产品,因此这对于波拉特而言是很难的。

波拉特说:“因为我们大部分的登月计划子公司都是尚未取得收入的公司,这些子公司的营收数据只能部分反映出我们的进度。”因此,她建议投资者从产品进度的角度来综合考量这些登月计划的价值。

但是她所说的产品进度并不能让投资者产生足够的信心。比如智能家居子公司Nest推出的最新产品看起来毫无创新力。

虽然波拉特自豪地宣称谷歌的无人驾驶汽车项目已经完成了200万英里的行驶里程,但它至今都还没能将其无人驾驶汽车推出市场。别忘了,谷歌早在7年前就启动了这个项目,它是最早投身无人驾驶汽车领域的公司之一。相比之下,Uber和特斯拉近两年都在自动驾驶汽车领域取得了显著的进展。

如果Alphabet想让投资者继续支持它推进这些登月计划项目,或许应该让佩奇回到电话会议中来。

本文转自d1net(转载)

目录
相关文章
|
机器学习/深度学习 供应链 安全
TSMixer:谷歌发布的用于时间序列预测的全新全mlp架构
这是谷歌在9月最近发布的一种新的架构 TSMixer: An all-MLP architecture for time series forecasting ,TSMixer是一种先进的多元模型,利用线性模型特征,在长期预测基准上表现良好。据我们所知,TSMixer是第一个在长期预测基准上表现与最先进的单变量模型一样好的多变量模型,在长期预测基准上,表明交叉变量信息不太有益。”
378 1
|
7月前
|
机器学习/深度学习 语音技术
多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再压缩
【6月更文挑战第12天】谷歌DeepMind的Zipper架构解决了多模态大模型灵活性问题,通过分解为单模态模型并用“压缩”过程组合,实现多模态生成。该方法允许独立训练每个模态,提升灵活性和可扩展性,适用于数据有限或领域特定的模态。Zipper利用交叉注意力机制融合模态输出,适用于图像描述、语音识别等任务。尽管需要更多计算资源且性能受限于单模态模型质量,但已在ASR和TTS领域展现潜力。论文链接:https://arxiv.org/pdf/2405.18669
74 3
|
8月前
|
机器学习/深度学习 存储 人工智能
谷歌推出TransformerFAM架构,以更低的消耗处理长序列文本
【5月更文挑战第30天】谷歌推出TransformerFAM架构,模仿人脑工作记忆,通过反馈循环处理无限长序列文本,提高长上下文任务性能,尤其在大规模模型中展现优势。尽管训练资源需求大且短序列处理提升有限,实验显示其在叙事问答、长文本摘要等任务上超越传统Transformer。论文链接:https://arxiv.org/abs/2404.09173
241 1
|
机器学习/深度学习 人工智能 并行计算
谷歌下一代AI架构、Jeff Dean宣传大半年的Pathways终于有论文了
谷歌下一代AI架构、Jeff Dean宣传大半年的Pathways终于有论文了
461 0
|
机器学习/深度学习 人工智能 编解码
谷歌开始卷自己,AI架构Pathways加持,推出200亿生成模型(2)
谷歌开始卷自己,AI架构Pathways加持,推出200亿生成模型
415 0
|
机器学习/深度学习 人工智能
谷歌开始卷自己,AI架构Pathways加持,推出200亿生成模型(1)
谷歌开始卷自己,AI架构Pathways加持,推出200亿生成模型
|
人工智能 编解码 自然语言处理
7 Papers & Radios | 谷歌下一代AI架构Pathways论文放出;何恺明组只用ViT做主干进行目标检测(2)
7 Papers & Radios | 谷歌下一代AI架构Pathways论文放出;何恺明组只用ViT做主干进行目标检测
185 0
|
机器学习/深度学习 人工智能 编解码
7 Papers & Radios | 谷歌下一代AI架构Pathways论文放出;何恺明组只用ViT做主干进行目标检测(1)
7 Papers & Radios | 谷歌下一代AI架构Pathways论文放出;何恺明组只用ViT做主干进行目标检测
287 0
|
Web App开发 缓存 前端开发
谷歌谈SPA架构是如何影响网站核心指标的?
谷歌谈SPA架构是如何影响网站核心指标的?
259 0
谷歌谈SPA架构是如何影响网站核心指标的?
|
机器学习/深度学习 人工智能 自动驾驶
单芯片每秒1000万亿次运算:谷歌TPU原班团队全新AI架构,晶体管性能提升6倍
2016 年底,谷歌 TPU 团队的十位核心开发者中的八位悄悄离职,创办了一家名为 Groq 的机器学习系统公司。在此后的三年里,这家公司一直很低调。但最近,他们带着一款名为 TSP 的芯片架构出现在公众视野里。
280 0
单芯片每秒1000万亿次运算:谷歌TPU原班团队全新AI架构,晶体管性能提升6倍